Очередные проблемы с Гуглом
Страницы: Пред. 1 2 3 4 След.
Очередные проблемы с Гуглом
Цитата
Евгений пишет:
А как по мне, так немного пошел траф лучше сегодня, особенно на счет русского сегмента
Не знаю у меня тока от  Яндекса прёт и всё smile:mad:
Любые советы взвешенные советы, кто нить...
У меня траф преобладает с Яндекса, но в последнее время  Гугл подхватывает  новые страницы и кидает их в топ1, топ3, топ5, топ10, при этом старые игнорирует. Надо наверное старые статьи реррайтить....
Моя проблема решается!smile:mad:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей


ICQ: 647366012 Skype: ftpzerocool</b>
Цитата
ZerocooL пишет:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей
Давайте не будем другие сайты рассматривать, а для начала разберём мою проблему. smile:)
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Есть подобные сайты, где с этим всё нормально. В яндексе с этим проблем нету, именно с гуглом. Отредактировать роботс тогда как под гугл?
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
mmohelper.ru/robots.txt вот так же карта сайта у продивнутого сайта
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
То есть получается так что из-за тегов у меня страницы не залитают в выдачу?
dmitrii,

Вам нравиться читать каждую страницу журнала 3-5 раз ?, а почему гуглу должно это нравиться  ? smile:)
ведь если сделать журнал из 10 статей, где все страницы будут состоять из перемешанных 10 статей вы после прочтения этих 10 статей уже незахотите читать повторно снова и снова тоже что чиатали 5 минут назад
Цитата
ZerocooL пишет:
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Вот именно что просмотрел, они практически идентичные.
Цитата
dmitrii пишет:
практически
можно убрать или добавить 1 точку в роботс и сайт вообще перестанет индексироваться smile:)
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
02:52 РСЯ и тормоза сайта: Яндекс начал штрафовать за плохой PageSpeed? 
23:09 Как безопасно купить Гугл почту? 
22:34 01.02. Апдейт 31.01 // Chrome готовит "чёрную метку" для ИИ? 
13:45 Какой движок выбрать для форума? 
13:43 Нашел скрины выплат с Сапы за 2010 год. Пошел плакать 
09:26 Трафик пробил дно? Худший январь за 10 лет и внезапный рост продаж с Bing 
19:27 Плагин ответа 
23:25 SOCKS5 приватные прокси на 30 дней для PayPal 
23:24 Google Voice аккаунты для бесплатных SMS и звонков 
23:23 PayPal аккаунты для любых целей 
23:02 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
20:21 CryptoGraph — Анонимный обмен криптовалют без KYC и AML 
12:09 Trustpilot Reviews | Подниму рейтинг вашей компании 
12:07 Купить отзывы на Яндекс и Гугл картах, на Авито, на Отзовике и IRecommend 
23:51 Ставки на супер тренды в спорте 
22:31 [AI] Бот за $600к советовал есть сыр с крысами. Нью-Йорк его (наконец-то) снес 
22:30 Точные прогнозы на футбол 
13:38 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко 
07:11 Список обновленных тем пуст... 
17:02 Gartner обещал смерть SEO к 2026 году. Открываем метрику и проверяем 
08:25 Отвратительное поведение