Здравствуйте, Две недели назад поставил null движок Dle 9.7 (да, знаю, опасно, но я думаю 70$ лучше на рекламу потратить, я глазком глянул, вроде шеллов нет, + права на .htaccess поставил нормальные, и прописал защитные коды, это не важно)..
Меня интересует совсем другое! Я как движок поставил, так и не могу нормальный robots.txt составить..У меня уже гугл пустил лишние страницы под фильтры.. Самое обидное, что прицепилась зараза типа: mododrom.ru/tags/траляля
Кто может посоветовать, или дать нормальный robots.txt
Вот сам robots:
http://mododrom.ru/robots.txt Что в нем не так??
JOK3R, я видел вашу тему на форуме насчет фильтров, Спасибо!!
Как я понял Вы писали чтобы проверить какие страницы под фильтром, достаточно написать site:сайт.ру и те ссылки которые будут в самом конце, те и под фильтром (это те которые ПС считаю бесполезными), а те что сверху в ТОПЕ, от тех есть толк, и ПС считает их достойными! Так у меня в ТОПЕ: mododrom.ru/tags/реалистичность/ а эта ссылка бесполезна
)) Может я что-то не понимаю?)
Да, описания к файлам пишу уникальные, хоть маленькие, но не копипаст!
Ах да, robots надо чтобы индексировало контент, а не мусор, теги и одно и тоже, как то так..Вот и прошу, чтобы написали или проредактировали роботс)) Спасибо за внимание, жду помощи
Меня интересует совсем другое! Я как движок поставил, так и не могу нормальный robots.txt составить..У меня уже гугл пустил лишние страницы под фильтры.. Самое обидное, что прицепилась зараза типа: mododrom.ru/tags/траляля
Кто может посоветовать, или дать нормальный robots.txt
Вот сам robots:
http://mododrom.ru/robots.txt Что в нем не так??
JOK3R, я видел вашу тему на форуме насчет фильтров, Спасибо!!
Как я понял Вы писали чтобы проверить какие страницы под фильтром, достаточно написать site:сайт.ру и те ссылки которые будут в самом конце, те и под фильтром (это те которые ПС считаю бесполезными), а те что сверху в ТОПЕ, от тех есть толк, и ПС считает их достойными! Так у меня в ТОПЕ: mododrom.ru/tags/реалистичность/ а эта ссылка бесполезна
)) Может я что-то не понимаю?)
Да, описания к файлам пишу уникальные, хоть маленькие, но не копипаст!
Ах да, robots надо чтобы индексировало контент, а не мусор, теги и одно и тоже, как то так..Вот и прошу, чтобы написали или проредактировали роботс)) Спасибо за внимание, жду помощи

Изменено:
Руслан Solomon - 3 Февраля 2013 22:44

