Составление robots.txt
Страницы: 1
Составление robots.txt, При составлении robots.txt возникли ньюансы
Наткнулся на статью Димы "КтонаНовенького", и он описывает там то, что необходимо  закрывать служебные каталоги сайта (движка). У него самого закрыты все служебные каталоги Вордпреса.  Мое мнение тут противоречиво, ибо робот "парсит" ссылки, а не физическое содержимое данных.

Кто как думает, ребята?
Цитата
Владимир Павлович пишет:
необходимо закрывать служебные каталоги
Не думаю - при полном закрытии в роботсе будет видна вся структура служебной части. Что плохо. Впрочем, это имеет смысл только при использовании самописов и ручной заточки, для безопасности, популярных движков.

Имхо.
Цитата
Владимир Павлович пишет:
ибо робот "парсит" ссылки, а не физическое содержимое данных
По вашему если на страничку нет ни одной ссылки, робот её никогда не увидит?

Цитата
Coder пишет:
при полном закрытии в роботсе будет видна вся структура служебной части. Что плохо.
Для wordpress можно положить весь движок не в корень, а в отдельную папку например wordpress и закрыть ее в robots.txt (или, быть может, открыть доступ к папке uploads, хотя я и её закрываю обычно) - и движок скрыт, и структура не открыта.
Цитата
pelikesha пишет:
положить весь движок не в корень, а в отдельную папку
Согласен. Только будет смутное предположение, что вся структура популярного движка лежит в какой-то из этих папок. Поэтому все равно структура будет понятна. Впрочем, только мое мнение - популярные движки вообще сложно маскировать, имхо.
Цитата
pelikesha пишет:
По вашему если на страничку нет ни одной ссылки, робот её никогда не увидит?
эм...объясните мне, пжста, как он ее увидит, если нет ни одной ссылки на эту страницу? с самого сайта допустим тоже нет ссылок на эту статью, можно сказать она изолирована.

Мне для развития и понимания, а то я так понял, я чего то в этой жизни не понимаю)
Цитата
bliking пишет:
Цитата
pelikesha пишет:
По вашему если на страничку нет ни одной ссылки, робот её никогда не увидит?
эм...объясните мне, пжста, как он ее увидит, если нет ни одной ссылки на эту страницу? с самого сайта допустим тоже нет ссылок на эту статью, можно сказать она изолирована.

Мне для развития и понимания, а то я так понял, я чего то в этой жизни не понимаю)

Аха, точно.. я тоже теперь чего-то не понимаю. Если на страницы нет ссылки, например, на вход в админ панель, нет её в карте сайта, а она не закрыта роботсом, то её робот по моему ни как не найдет. Робот это скрипт кода, который парсит содержимое страницы. 
Цитата
bliking пишет:
эм...объясните мне, пжста, как он ее увидит, если нет ни одной ссылки на эту страницу? с самого сайта допустим тоже нет ссылок на эту статью, можно сказать она изолирована.
Ок, проведу эксперимент.
В общем пообщавшись с коллегами, выяснилась следующая информация:

Поисковики могут проиндексировать страничку, даже если на неё не ведет ни одна ссылка, но при условии, что эта страничка открывалась когда-либо и кем-либо. Различные браузеры и тулбары порой сообщают поисковикам сведения о просмотренных пользователями страницах, а те, в свою очередь, затем принимают решение об индексации оных.

Для чистоты эксперимента необходимо:

1. Залить html страничку с уникальным контентом через ftp в корень сайта
2. Не заходить на неё ни разу
3. После пары-тройки апдейтов поисковых систем проверить наличие в индексе
Цитата
pelikesha пишет:

Поисковики могут проиндексировать страничку, даже если на неё не ведет ни одна ссылка, но при условии, что эта страничка открывалась когда-либо и кем-либо. Различные браузеры и тулбары порой сообщают поисковикам сведения о просмотренных пользователями страницах, а те, в свою очередь, затем принимают решение об индексации оных.

Да, тут согласен. В наше время сложно что утаить от поисковых систем. Но при этом в роботсе закрывать служебные папки (к которым кстати права ограничены) я не вижу смысла. Поэтому, делаю вывод, что все таки мнение Дмитрия на этот счет ошибочное. 
Я не очень понимаю чем вызвано такое нежелание закрыть их в роботсе? Объяснив роботу что "это не надо индексировать и смотреть" вы сэкономите ему время, которое пойдет на индексирование основного содержимого вашего сайта.
Цитата
pelikesha пишет:
Я не очень понимаю чем вызвано такое нежелание закрыть их в роботсе?
не знаю,  не знаю. По моему служебные каталоги и так вне видимости поисковиков, так как ядро CMF/CMS закрыто для чтения с браузера. Да и фронт-контроллер использует свой собственный роутинг. Мне то не жалко этих строчек в роботсе smile:), но все же в статье идет акцент на НЕОБХОДИМОСТЬ закрытия таких директорий. Я вот и спросил. И пока не нашел аргумента "ЗА".

Цитата
pelikesha пишет:
Объяснив роботу что "это не надо индексировать и смотреть"
Робот и так до туда не дойдет ввиду описанных двух причин выше. Если только подстраховаться. Но это не аргумент обязательного закрытия директорий и "расшаривание" их на общую аудиторию.
Цитата
Владимир Павлович пишет:
Робот и так до туда не дойдет ввиду описанных двух причин выше.
Дойдет запросто. Просто в коде вашего сайта обнаружит подключенные таблицы стилей, js-файлы и пойдет гулять по всем системным папкам.
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
16:04 LGaming - экосистема и партнерская программа в gambling и betting вертикалях 
15:36 check over here russian-traditional-clothes 
11:48 Google - шантажист, а Cloudflare - не спаситель. Как не отлететь в бан 
11:47 Старые кости или свежее мясо? Как нагнуть старичка в серпе за один год 
11:45 10.02 Яндекс штормит, а Google лезет в долги: 15 миллиардов на железки для ИИ 
20:18 ЕС душит ТикТок: прощай бесконечная лента и RPM? Что с монетизацией? 
20:14 Гугл пухнет от кеша, а нам - крошки. Разбор $114 млрд: Адсенс в минусе, Ютуб на подписках 
16:53 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
15:13 PaymentBoss: Надёжный P2P-эквайринг для бизнеса — UAH, RUB, KZT + 20+ валют | Apple Pay, Google Pay, Quasi-acquiring | Низкие комиссии и высокие лимиты 
12:59 Mixmasters - Exchange without AML and KYC 
09:05 Swapwatch.org — Мониторинг криптовалютных обменников 
08:45 GhostRocket.pro — Взлетаем в новую эру криптообмена! 
04:13 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
00:01 E-currency.exchange — ваш помощник в мире обменов 
15:24 Сайты Рунета 
15:22 блокировка youtube 2026: ркн начинает «выдавливание». кто уже пробовал вк видео? 
15:22 Moltbook: Соцсеть для ботов, где людям закрыли рот. Началось? 
12:41 Туалетные секреты: Замурчательная тема 
11:53 Кулеры и БП станут золотыми? Медь по 13 штук, олово в космосе 
11:50 [AI] Бот за $600к советовал есть сыр с крысами. Нью-Йорк его (наконец-то) снес 
03:45 Гильотина для классиков: Клод доедает физические книги