Очередные проблемы с Гуглом
Страницы: Пред. 1 2 3 4 След.
Очередные проблемы с Гуглом
Цитата
Евгений пишет:
А как по мне, так немного пошел траф лучше сегодня, особенно на счет русского сегмента
Не знаю у меня тока от  Яндекса прёт и всё smile:mad:
Любые советы взвешенные советы, кто нить...
У меня траф преобладает с Яндекса, но в последнее время  Гугл подхватывает  новые страницы и кидает их в топ1, топ3, топ5, топ10, при этом старые игнорирует. Надо наверное старые статьи реррайтить....
Моя проблема решается!smile:mad:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей


ICQ: 647366012 Skype: ftpzerocool</b>
Цитата
ZerocooL пишет:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей
Давайте не будем другие сайты рассматривать, а для начала разберём мою проблему. smile:)
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Есть подобные сайты, где с этим всё нормально. В яндексе с этим проблем нету, именно с гуглом. Отредактировать роботс тогда как под гугл?
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
mmohelper.ru/robots.txt вот так же карта сайта у продивнутого сайта
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
То есть получается так что из-за тегов у меня страницы не залитают в выдачу?
dmitrii,

Вам нравиться читать каждую страницу журнала 3-5 раз ?, а почему гуглу должно это нравиться  ? smile:)
ведь если сделать журнал из 10 статей, где все страницы будут состоять из перемешанных 10 статей вы после прочтения этих 10 статей уже незахотите читать повторно снова и снова тоже что чиатали 5 минут назад
Цитата
ZerocooL пишет:
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Вот именно что просмотрел, они практически идентичные.
Цитата
dmitrii пишет:
практически
можно убрать или добавить 1 точку в роботс и сайт вообще перестанет индексироваться smile:)
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
16:33 Работаем в P2P платежах BYBIT | USDT - RUB , RUB - USDT | Ищем постоянных клиентов , выгодные условия. 
20:13 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
19:41 25$ (ежемесячно) AdSense 
21:39 Подскажите где продвигать сайт. 
10:57 3snet - гемблинг, беттинг, форекс, бинарные опционы, майнинг 
19:12 Мошенники-копирайтеры 
08:57 Индексация страниц 
17:15 Услуги рассылки Viber|Whatsapp|IMO. 
16:45 Cryptonet.pro - быстрый и надежный обмен электронных валют! 
15:57 Volna.money 
15:40 CoinCapital  
14:54 Swapper.ws - Обмен криптовалют. Быстро, выгодно, круглосуточно. 
14:25 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
12:51 JustProxy.Biz - Резидентные прокси без ограничения по трафику 
15:05 Топ-5 способов использовать мобильные прокси для бизнеса: подробный обзор 
11:58 Куплю проигрышные букмекерские аккаунты 
06:37 Точные прогнозы на футбол 
11:58 Добро пожаловать в цифровой мир... 
00:12 Огородники 
10:59 Новости искусственного интеллекта 
04:26 Хром ругается на форум