Какой размер большинства файлов robots.txt?
Google поделился любопытной статистикой.
В частности, Гари Иллиес (Gary Illyes) оставил следующее сообщение в LinkedIn:
"Нашей поисковой системе известно о миллиардах файлов robots.txt. При этом лишь 7188 из них имеют размер в байтах, превышающий лимит обработки в 500 килобайт".
Как известно, Google может обработать не более 500 КБ файла robots.txt. И теперь становится очевидным, что 99,99% всех сайтов в Сети даже близко не используют такой объем. Иначе и быть не может, так как в большинстве случаев содержимое таких файлов ограничивается несколькими строчками текста.
А какой ваш идеальный robots.txt? По размеру и содержанию? Делитесь в комментариях.
13 Сентября 2023
Возврат к списку