Здравствуйте, подскажите пожалуйста как закрыть в роботс.txt дубли страниц
сайт/news?page=1
сайт/news?page=2
сайт/news?page=3
тоесть мне нужно закрыть ?page=1 ?page=2 ?page=3
Ну и так далее
Примерно, Я думаю это сделать так:
User-agent: Yandex
Disallow: /news?page
Главное чтобы не закрыть сами новости сайт/news/03-08-11/narusheniya-pozharnoi-bezopasnosti
сайт/news?page=1
сайт/news?page=2
сайт/news?page=3
тоесть мне нужно закрыть ?page=1 ?page=2 ?page=3
Ну и так далее
Примерно, Я думаю это сделать так:
User-agent: Yandex
Disallow: /news?page
Главное чтобы не закрыть сами новости сайт/news/03-08-11/narusheniya-pozharnoi-bezopasnosti
Изменено:
Сергей Цветков - 23 Февраля 2012 23:18
