Очередные проблемы с Гуглом
Страницы: Пред. 1 2 3 4 След.
Очередные проблемы с Гуглом
Цитата
Евгений пишет:
А как по мне, так немного пошел траф лучше сегодня, особенно на счет русского сегмента
Не знаю у меня тока от  Яндекса прёт и всё smile:mad:
Любые советы взвешенные советы, кто нить...
У меня траф преобладает с Яндекса, но в последнее время  Гугл подхватывает  новые страницы и кидает их в топ1, топ3, топ5, топ10, при этом старые игнорирует. Надо наверное старые статьи реррайтить....
Моя проблема решается!smile:mad:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей


ICQ: 647366012 Skype: ftpzerocool</b>
Цитата
ZerocooL пишет:
Цитата
Олег пишет:
сейчас у многих проблемы с гуглом
хз, вот так на многих сайтах, быть может у ТС очень многое не закрыто в роботс ? и от этого куча дублей
Давайте не будем другие сайты рассматривать, а для начала разберём мою проблему. smile:)
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
Есть подобные сайты, где с этим всё нормально. В яндексе с этим проблем нету, именно с гуглом. Отредактировать роботс тогда как под гугл?
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
разберём мою проблему.
ваша проблема просто в дублях, которые индексирует гугл, страницы с тегами, страницы навигации то есть аля 1 стр главная главная 2 стр

я про такого рода страницы
http://mmorpg-game.ru/page/2/
http://mmorpg-game.ru/category/обзоры/page/2/
и тд
mmohelper.ru/robots.txt вот так же карта сайта у продивнутого сайта
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Цитата
ZerocooL пишет:
Цитата
dmitrii пишет:
Есть подобные сайты, где с этим всё нормально.
есть и люди свиду такие же как вы, только имеют виллы и счета в швейцарских банках smile:)
каждый сайт индивидуален, и к нему у ПС свои подходы, ну а то что 1 текст в краткой новости может встретиться чуть ли не 5 раз, ПС само собой не нравиться, ибо он понимает что это 5 ОДИНАКОЫХ текстов, а не семантическое звено определенного запроса (продолжение статьи или что то из ей схожего)
решаеться удалением дублей, курите свой роботс, так тчобы вся та лабуда не попадала в поиск + вообще не делайте таких страниц как теги, имхо это самый дикий бред что я встречаю делать из 1 униклаьного текста на своем сайте 10-20 копий , убивая тем самым всю его уникальность
То есть получается так что из-за тегов у меня страницы не залитают в выдачу?
dmitrii,

Вам нравиться читать каждую страницу журнала 3-5 раз ?, а почему гуглу должно это нравиться  ? smile:)
ведь если сделать журнал из 10 статей, где все страницы будут состоять из перемешанных 10 статей вы после прочтения этих 10 статей уже незахотите читать повторно снова и снова тоже что чиатали 5 минут назад
Цитата
ZerocooL пишет:
dmitrii,

сравните роботсы хотябы + почитайте как их правильно составлять как минимум как сдлеать правильный robots.txt для worpres
Вот именно что просмотрел, они практически идентичные.
Цитата
dmitrii пишет:
практически
можно убрать или добавить 1 точку в роботс и сайт вообще перестанет индексироваться smile:)
Страницы: Пред. 1 2 3 4 След.
Похожие темы:
Читают тему (гостей: 2, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
14:06 Слипание слов в блоке 
14:04 Яндекс-ап 20 марта и похороны ChatGPT, Claude и Gemini. Считаем убытки 
14:02 APK на паузе. Google убивает быстрый конверт 
11:34 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
22:45 Всем привет! 
19:37 Xrumer-полезный софт или нет? 
17:26 AI под надзором. Минцифры готовят клеймо для контента 
17:33 Продам жирный аккаунт fl.ru 
17:25 Подключение к API слотов! Connecting to the slots API! 
16:49  
14:10 Авито аккаунты ИП и физик 
13:34 AllCharge.online. Современный, быстрый и надёжный обменник 
13:14 TETChange-Обменник криптовалют 
10:36 Majento SiteAnalyzer - бесплатная программа для аудита и анализа сайта 
17:45 молодильные яблоки и живая вода 
15:04 Сайты Рунета 
13:59 8 марта: желаю аптайма 99.9% и e-e-a-t без локов 
01:42 Точные прогнозы на футбол 
08:52 Чак Норрис ушел - 19 марта 2026, 86 лет, семья подтвердила 
20:23 Панель Кнопки соцсетей 
14:03 Огородники