Здравствуйте. Хочю создать роботс для поисковиков, чтобы сайт был не доступен для индексации Яндексу, а только Гуглу (это на некоторое время). Нормально ли будет такое решение:
User-agent: Yandex
Disallow: /
User-agent: Googlebot
Disallow:
Sitemap: http://siteru/sitemap.xml
Host: siteru
И нормально ли отреагируют поисковики, если примерно через месяц я его открою для всех роботов:
User-agent: *
Disallow:
P.S. Дело просто в том, что я купил домен под баном в Гугле, а Яндексом он уже начал индексироваться. Пару дней назад я удалил сайт и вручную удалил страницы, которые попали в индекс Яндекса. И теперь до следующих 2-3 АПдейтов хочу закрыть сайт от Яндекса, чтобы он случайно не принял новый домен за клон предыдущего.
User-agent: Yandex
Disallow: /
User-agent: Googlebot
Disallow:
Sitemap: http://siteru/sitemap.xml
Host: siteru
И нормально ли отреагируют поисковики, если примерно через месяц я его открою для всех роботов:
User-agent: *
Disallow:
P.S. Дело просто в том, что я купил домен под баном в Гугле, а Яндексом он уже начал индексироваться. Пару дней назад я удалил сайт и вручную удалил страницы, которые попали в индекс Яндекса. И теперь до следующих 2-3 АПдейтов хочу закрыть сайт от Яндекса, чтобы он случайно не принял новый домен за клон предыдущего.
Изменено:
Droid - 13 Марта 2014 15:06
