Проблема с индексацией
Страницы: 1
Проблема с индексацией, проблемка
Здравствуйте форумчане! У меня назрел такой вопрос, держу 4 блога на wordpress,настроил файл robots.txt,но почему-то Яндекс индексирует правильно,но вот Google, находит в 3 раза больше страниц,подскажите в чем может быть дело,вот мой роботс

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /*trackback
Disallow: /feed
Disallow: /*feed
Disallow: /comments
Disallow: /*comments
Disallow: /attachment
Disallow: /*attachment
Disallow: /xmlrpc.php
Disallow: /tag
Disallow: /*?*
Disallow: /*?
Disallow: /?*
Sitemap: http://=====.ru/sitemap.xml

User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /*trackback
Disallow: /feed
Disallow: /*feed
Disallow: /comments
Disallow: /*comments
Disallow: /attachment
Disallow: /*attachment
Disallow: /xmlrpc.php
Disallow: /tag
Disallow: /*?*
Disallow: /*?
Disallow: /?*
Sitemap: http://=====.ru/sitemap.xml
Host: =====.ru



Всем откликнувшимся большое спасибо!
Может создать еще столбик и назвать его Google?
Зачем вообще столбик с указание агента, если уже есть столбец с * то есть для всех роботов.
Gogetlinks - самый белый способ продвижения статьями. Etxt - контент для сайта.
Похоже да. У меня User-agent: *, но боты упорно не хотят игнорировать страницы.

Попробовал User-agent: Yandex и User-agent: Googlebot

О реакции ботов отпишусь.
Ок,почему назвал Yandex,так как сам Платон посоветовал так сделать после обращения в поддержку,да и в Яндекс вебмастере так говорится.
Цитата
dumanow1 пишет:
Ок,почему назвал Yandex,так как сам Платон посоветовал так сделать после обращения в поддержку,да и в Яндекс вебмастере так говорится.


Тогда я считаю целесообразным удалить ветвь с *
А вот с гуглом не знаю,что делать,наверно тожетак назову поглядим что будет,только не Googlebot ,а наверно просто Google,так как Yandex - это тоже бот,ну вы посмотрите каков результат будет и я отпишу также, что получится.
Цитата
dumanow1 пишет:
Googlebot


вроде это официальное имя робота гугла.
Цитата
dumanow1 пишет:
А вот с гуглом не знаю,что делать,наверно тожетак назову поглядим что будет,только не Googlebot ,а наверно просто Google,так как Yandex - это тоже бот,ну вы посмотрите каков результат будет и я отпишу также, что получится.



У Яндека как минимум 17 ботов, разрешите доступ каждому smile;)


PS так же рекомендуется закрыть свой сайт от индексации следующим ботам, прошу обратить внимание что это не панацея (с любителями поспорить обсуждать данное примечание не буду)

User-agent: asterias
Disallow: /
User-agent: BackDoorBot/1.0
Disallow: /
User-agent: Black Hole
Disallow: /
User-agent: BlowFish/1.0
Disallow: /
User-agent: BotALot
Disallow: /
User-agent: BuiltBotTough
Disallow: /
User-agent: Bullseye/1.0
Disallow: /
User-agent: BunnySlippers
Disallow: /
User-agent: Cegbfeieh
Disallow: /
User-agent: CheeseBot
Disallow: /
User-agent: CherryPicker
Disallow: /
User-agent: CherryPickerElite/1.0
Disallow: /
User-agent: CherryPickerSE/1.0
Disallow: /
User-agent: CopyRightCheck
Disallow: /
User-agent: cosmos
Disallow: /
User-agent: Crescent
Disallow: /
User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /
User-agent: DittoSpyder
Disallow: /
User-agent: EmailCollector
Disallow: /
User-agent: EmailSiphon
Disallow: /
User-agent: EmailWolf
Disallow: /
User-agent: EroCrawler
Disallow: /
User-agent: ExtractorPro
Disallow: /
User-agent: Foobot
Disallow: /
User-agent: Harvest/1.5
Disallow: /
User-agent: hloader
Disallow: /
User-agent: httplib
Disallow: /
User-agent: humanlinks
Disallow: /
User-agent: InfoNaviRobot
Disallow: /
User-agent: JennyBot
Disallow: /
User-agent: Kenjin Spider
Disallow: /
User-agent: Keyword Density/0.9
Disallow: /
User-agent: LexiBot
Disallow: /
User-agent: libWeb/clsHTTP
Disallow: /
User-agent: LinkextractorPro
Disallow: /
User-agent: LinkScan/8.1a Unix
Disallow: /
User-agent: LinkWalker
Disallow: /
User-agent: LNSpiderguy
Disallow: /
User-agent: lwp-trivial
Disallow: /
User-agent: lwp-trivial/1.34
Disallow: /
User-agent: Mata Hari
Disallow: /
User-agent: Microsoft URL Control - 5.01.4511
Disallow: /
User-agent: Microsoft URL Control - 6.00.8169
Disallow: /
User-agent: MIIxpc
Disallow: /
User-agent: MIIxpc/4.2
Disallow: /
User-agent: Mister PiX
Disallow: /
User-agent: moget
Disallow: /
User-agent: moget/2.1
Disallow: /
User-agent: NetAnts
Disallow: /
User-agent: NICErsPRO
Disallow: /
User-agent: Offline Explorer
Disallow: /
User-agent: Openfind
Disallow: /
User-agent: Openfind data gathere
Disallow: /
User-agent: ProPowerBot/2.14
Disallow: /
User-agent: ProWebWalker
Disallow: /
User-agent: QueryN Metasearch
Disallow: /
User-agent: RepoMonkey
Disallow: /
User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /
User-agent: RMA
Disallow: /
User-agent: SiteSnagger
Disallow: /
User-agent: SpankBot
Disallow: /
User-agent: spanner
Disallow: /
User-agent: suzuran
Disallow: /
User-agent: Szukacz/1.4
Disallow: /
User-agent: Teleport
Disallow: /
User-agent: TeleportPro
Disallow: /
User-agent: Telesoft
Disallow: /
User-agent: The Intraformant
Disallow: /
User-agent: TheNomad
Disallow: /
User-agent: TightTwatBot
Disallow: /
User-agent: Titan
Disallow: /
User-agent: toCrawl/UrlDispatcher
Disallow: /
User-agent: True_Robot
Disallow: /
User-agent: True_Robot/1.0
Disallow: /
User-agent: turingos
Disallow: /
User-agent: URLy Warning
Disallow: /
User-agent: VCI
Disallow: /
User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /
User-agent: Web Image Collector
Disallow: /
User-agent: WebAuto
Disallow: /
User-agent: WebBandit
Disallow: /
User-agent: WebBandit/3.50
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: WebEnhancer
Disallow: /
User-agent: WebmasterWorldForumBot
Disallow: /
User-agent: WebSauger
Disallow: /
User-agent: Website Quester
Disallow: /
User-agent: Webster Pro
Disallow: /
User-agent: WebStripper
Disallow: /
User-agent: WebZip
Disallow: /
User-agent: WebZip/4.0
Disallow: /
User-agent: Wget
Disallow: /
User-agent: Wget/1.5.3
Disallow: /
User-agent: Wget/1.6
Disallow: /
User-agent: WWW-Collector-E
Disallow: /
User-agent: Xenu's
Disallow: /
User-agent: Xenu's Link Sleuth 1.1c
Disallow: /
User-agent: Zeus
Disallow: /
User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /
Изменено: Сергей Хомутов - 17 Января 2011 17:45
Сергей Хомутов, спасибо! А чем занимаются эти боты?
описывать каждого вредоносного бота нет смысла, можно погуглить по каждому и посмотреть, но все которые перечислены создают определенные проблемы и неприятности начиная от перегрузок сервера и заканчивая сливом вашей информации
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
19:33 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
09:02 Как продвигать сайт с неуникальным контентом 
08:58 Стоит ли добавлять сайт в Rambler топ 100? 
08:57 Absence в Армении 
14:50 Индексация страниц 
12:36 У кого новостник, дайте пару советов плиз 
13:53 AviTool - мощный инструмент для автоматизации работы с Avito 
15:52 AllCharge.online. Современный, быстрый и надёжный обменник 
15:32 CactusPay.PRO | Умная платёжная система с выводом в USDT TRC-20 
12:01 PonyBit.ru - обменный пункт PonyBit.ru (Понибит.ру) 
05:17 Продам копию сайта. 
04:11 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
01:31 Скрипт обменника валют 
21:44 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
21:05 Точные прогнозы на футбол 
11:07 Ну что, кто куда деваете свои сайты? 
22:09 Добро пожаловать в цифровой мир... 
19:42 Топ-5 способов использовать мобильные прокси для бизнеса: подробный обзор 
22:08 Накрутка поисковых подсказок 
14:01 Union Pharm - топовая фарма-партнерка для профессионалов! 
10:59 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди