... антивируснике… По крайней мере, речь идет о конкретном антивируснике… Обращение сеошника в X (Twitter): "Я провел тщательное сканирование своего сайта с помощью Sistrix и обнаружил, что все URL-адреса в Карте сайта выдают ошибку 408. Эта проблема связана с вирусным сканером сервера. Не могли бы вы пролить свет на то, как Google решает эту проблему и взаимодействует с антивирусным ПО?" Комментарий Гуглмена: "Google не использует данный...
Путь: Главная / Новости интернет
... октября. Что стало причиной такого демарша со стороны Илона Маска по отношению к поисковой системе? Пока неясно, но результаты не заставили себя долго ждать. С помощью команды site: Bing находит всего-навсего 180 тыс. урлов бывшего Твиттера. При этом в Google, боты которого все еще могут наведываться в гости к X, таких страниц 422 миллиона. К слову, летом этого года похожая ситуация наблюдалась и с индексом Google. Тогда поисковик №1 практически перестал сканировать и индексировать Твиттер . Впрочем...
Путь: Главная / Новости интернет
Даже если речь идет о совершенно новом сайте… Даже если речь идет о совершенно новом сайте… Об этом рассказал Гари Иллиес (Gary Illyes) из Google: "Что касается новых сайтов, в особенности их главных страниц, то они должны индексироваться совершенно без проблем. Если же главные страницы упорно не попадают в индекс Google, то это указывает на серьезные проблемы в работе ресурса. Так...
Путь: Главная / Новости интернет
Если есть такая возможность, тогда помогайте Google! Если есть такая возможность, тогда помогайте Google! Сеошник задался вопросом: "Нужно ли сайтам беспокоиться о пагинации (разбивке на страницы) и том, какое влияние она оказывает на бюджет сканирования? Может есть какие-то особые рекомендации...
Путь: Главная / Новости интернет
... как правильно снижать частоту сканирования Гуглботом. И, увы, ошибок 403 и 404 в них нет". А вам приходилось ограничивать сканирование со стороны Google? Как вы этого добивались?
Путь: Главная / Новости интернет
... "Допустим, происходит масштабная генерация несуществующих урлов на сайте конкурента. Ожидаемо, что открытие таких страниц приводит к ошибке ответа сервера 5XX . Затем злоумышленник помогает Гуглботу обнаружить такие фиктивные страницы. Очевидно, что Google после сканирования приходит к выводу – на сайте слишком много урлов, которые приводят к ошибке 5XX. Как итог, поисковая система снижает частоту сканирования страниц такого ресурса. Я прав, когда предполагаю такую цепочку последовательных событий?...
Путь: Главная / Новости интернет
... регулярно пересматривает собственный подход к сканированию и индексированию конкретных сайтов. Всему виной систематические апдейты Google, направленные на улучшение общего качества поиска. Об этом заявил Джон Мюллер (John Mueller) в одной из бесед на страницах... ... нецелесообразно показывать в выдаче все страницы сайта. Следовательно, нет необходимости тратить прежнее количество времени на его сканирование и индексирование. Причем это может касаться действительно хороших веб-проектов. Мы не ставим себе целью сканировать...
Путь: Главная / Новости интернет
... возникнет, способ есть, но… Если такая необходимость возникнет, способ есть, но… Тему затронул Джон Мюллер (John Mueller) из Google, который в разговоре с сеошником отметил следующее: "Если вы запретите ботам сканирование ваших страниц (всего сайта), то пройдет достаточно времени прежде, чем весь ресурс выпадет из индекса Google. Но...
Путь: Главная / Новости интернет
... Каждый урл этого ресурса соответствует интересам пользователей. Более того, никаких технических или каких-либо других проблем у сайта тоже не наблюдается. Тем не менее, с января и вплоть до сегодняшнего дня около 50% страниц просканированы, но в индекс Google так и не попали. Быть может, Google банально разленился?!" Комментарий Джона Мюллера (John Mueller) по этому поводу: "Алгоритмы, которые мы используем для сканирования и индексирования контента, не умеют отдыхать. Они не берут отгул...
Путь: Главная / Новости интернет
... уменьшить негативное влияние собственных вычислительных мощностей на окружающую среду. Работа вычислительной техники, к примеру, во время сканирования контента оказывает пусть и не сокрушительное, но все же пагубное влияние на экологию. Именно поэтому в Google начали раздумывать над сокращением частоты сканирования контента в Сети. Логика гуглменов такова: чем реже будет сканироваться контент, тем меньше будет негативного воздействия на окружающую среду в результате потребления меньшего количества...
Путь: Главная / Новости интернет
... сайты очень и очень давно. Поисковик №1 не страдает провалами в памяти, что касается его способности сканировать редиректы, установленные на сайты очень и очень давно. Вопрос в Твиттере от частного сеошника звучал так: "Как долго по времени у Google уходит на то, чтобы полностью распознать редиректы 301? Например, есть сайты, у которых десятки тысяч таких перенаправлений". Ответ Джона Мюллера (John Mueller): "У нас очень долгая память. Я подозреваю, что мы переходим по таким редиректам...
Путь: Главная / Новости интернет
... Mueller): "Если посетители продолжают заходить на старою версию, то да, безусловно. Но сугубо для лучшего сканирования заменять HTTP-протокол надобности нет". К разговору спустя время присоединился другой сеошник: "Значит ли это, что Google до сих пор сканирует HTTP-домены?" Ответ представителя поиска: "Конечно, а почему, собственно, нет?" Напомним, в прошлом поисковик не раз заявлял, что и без HTTPS-протокола сайт сможет нормально существовать.
Путь: Главная / Новости интернет
... так: "Мне всегда казалось, что более старые сайты с историей должны гораздо быстрее попадать в ваш индекс в сравнении с абсолютно новыми ресурсами. Но есть пример, когда сайт-однодневка, созданный на Wix, был практически мгновенно проиндексирован Google. В связи с этим хотелось бы узнать, отдает ли ваш поисковик предпочтение сайтам на хостинг-платформе Wix, если сравнивать с ресурсами на WordPress?" Джон Мюллер (John Mueller) прокомментировал: "Мы не устанавливаем приоритет сканирования...
Путь: Главная / Новости интернет
... количестве новых страниц, то вы ошиблись. В Твитере один из представителей сео-цеха поинтересовался у Гуглмена, как новый и регулярно добавляемый (через примерно одинаковые промежутки времени) контент влияет на приоритетность сканирования сайта ботом Google? Ответ дал вездесущий Джон Мюллер (John Mueller): "Если вы хотите получить общий ответ по поводу приоритетности сканирования, то я должен признать, что размер сайта здесь совершенно не важен для нас. Куда важнее для Google уникальные страницы...
Путь: Главная / Новости интернет
... затевал веб-мастер?! Следовательно, это сказывается на скорости и периодичности работы с таким ресурсом Гуглбота". К сожалению, сотрудник поисковика №1 не объяснил, как именно указанные технические изменения могут сказаться на позициях сайта в Google SERP. А ведь, по всей видимости, такая взаимосвязь тоже возможна. Что думаете?
Путь: Главная / Новости интернет
... прописную истину SEO, о которой иногда забывают даже умудренные опытом оптимизаторы. В частности, Мартин Сплитт (Martin Splitt) из Google разграничил понятия "сканирование" и "индексирование". Согласно специалисту: "Сканирование вовсе не подразумевает индексирование...
Путь: Главная / Новости интернет
.... Подсказки ему не нужны… Это следует из очередного диалога в Твиттере с представителем поисковика №1. Сеошник задал следующий вопрос: "Хотелось бы понять, что происходит, когда я вручную добавляю в ваш индекс URL-адрес через Панель веб-мастера Google? Правда ли, что после этого Гуглбот начинает заново сканировать всю Карту сайта?" Реакция от Джона Мюллера (John Mueller): "Добавление URL в Google Search Console не приводит к автоматическому переобходу Sitemap XML. В этом нет ничего...
Путь: Главная / Новости интернет
... вероятность того, что в условиях эпидемии коронавируса поисковик №1 может работать медленнее . Правда, почему они так считают, сказано не было. Та "теория заговора" на днях получила свое продолжение: "Пожалуйста, подтвердите, правда ли что Google снизил интенсивность сканирования сайтов Сети, поскольку в последнее время люди стали меньше интересоваться о том или ином бизнесе? Или же на процессе сканирования Гуглботом этот факт никак не сказался?" Ответ сотрудника поисковика был кратким...
Путь: Главная / Новости интернет
... несколько медленнее. Иначе как объяснить такого рода вопросы в Твиттере: "Правда ли, что с момента начала пандемии коронавируса Google начал тормозить сканирование веб-сайтов?" Вопрос адресовался Джону Мюллеру (John Mueller), который с усмешкой ответил: "Нет, кажется...
Путь: Главная / Новости интернет
... элементов сайта, как JavaScript . И вот оказывается, что никаких двух волн не существует. В этом убеждает сотрудник поисковика Мартин Сплиттт (Martin Splitt): "Хочу сделать ударение на том, что никакой второй волны сканирования/индексирования в Google не существует. Да, однажды мы так выражались для удобства и это привело к определенному недопониманию со стороны сео-сообщества". На самом деле, подчеркнул эксперт, процесс индексирования контента на сайте довольно сложный. Его не нужно банализировать...
Путь: Главная / Новости интернет