Очередные проблемы с Гуглом
Страницы: Пред. 1 2 3 4 След.
Очередные проблемы с Гуглом
Цитата
Евгений пишет:
А как по мне, так немного пошел траф лучше сегодня, особенно на счет русского сегмента
Не знаю у меня тока от  Яндекса прёт и всё smile:mad:
Любые советы взвешенные советы, кто нить...
У меня траф преобладает с Яндекса, но в последнее время  Гугл подхватывает  новые страницы и кидает их в топ1, топ3, топ5, топ10, при этом старые игнорирует. Надо наверное старые статьи реррайтить....
Моя проблема решается!smile:mad:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей


ICQ: 647366012 Skype: ftpzerocool</b>
Цитата
ZerocooL пишет:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей
Давайте не будем другие сайты рассматривать, а для начала разберём мою проблему. smile:)
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Есть подобные сайты, где с этим всё нормально. В яндексе с этим проблем нету, именно с гуглом. Отредактировать роботс тогда как под гугл?
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
mmohelper.ru/robots.txt вот так же карта сайта у продивнутого сайта
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
То есть получается так что из-за тегов у меня страницы не залитают в выдачу?
dmitrii,

Вам нравиться читать каждую страницу журнала 3-5 раз ?, а почему гуглу должно это нравиться  ? smile:)
ведь если сделать журнал из 10 статей, где все страницы будут состоять из перемешанных 10 статей вы после прочтения этих 10 статей уже незахотите читать повторно снова и снова тоже что чиатали 5 минут назад
Цитата
ZerocooL пишет:
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Вот именно что просмотрел, они практически идентичные.
Цитата
dmitrii пишет:
практически
можно убрать или добавить 1 точку в роботс и сайт вообще перестанет индексироваться smile:)
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
17:03 Устали от Пустых Обещаний? Market-Place.su даёт реальные деньги! 
15:08 Стоит ли добавлять сайт в Rambler топ 100? 
14:14 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
19:33 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
09:02 Как продвигать сайт с неуникальным контентом 
08:57 Absence в Армении 
14:50 Индексация страниц 
16:58 PonyBit.ru - обменный пункт PonyBit.ru (Понибит.ру) 
14:35 Cryptonet.pro - быстрый и надежный обмен электронных валют! 
14:30 SwapPix.io - быстрый и безопасный обменник криптовалют. 
13:55 Обменник криптовалюты OnlyCrypto 
13:36 Affiliate Top - партнерская программа нового уровня 
10:29 local-pay.com - быстрый и надежный обменник криптовалюты Local-Pay 
04:11 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
20:48 Точные прогнозы на футбол 
19:04 Ну что, кто куда деваете свои сайты? 
22:09 Добро пожаловать в цифровой мир... 
19:42 Топ-5 способов использовать мобильные прокси для бизнеса: подробный обзор 
22:08 Накрутка поисковых подсказок 
14:01 Union Pharm - топовая фарма-партнерка для профессионалов! 
10:59 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди