Дубли страниц!
Страницы: Пред. 1 2
[ Закрыто ] Дубли страниц!
Katrin
Да я согласен что Гошке все по барабану но что поделаеш если его алгоритмы так решили smile:D
Просьба спамом не кумарить
Цитата
killer1313 пишет:
920 / 8 % у меня вот так. Новостей в индексе из 250 около 30 остальное все мусор. То есть 200 новостей уникального текста я просто так писал ? )))

Уникальность - коперайт, рерайт? А может у вас воруют?
Можно найти еще причины, ну даже не знаю smile:rolleyes: Попробуйте оптимизацию заказать!
У меня например 732 / 23% 58 новостей и все категории - все на месте( и даже некоторые страницы на которых 1 не уникальная картинка с описанием в пару английских слов)!
Katrin,
Ограничьте количество выводимых тегов до разумного количества.
Конечно, я не знаю какие у Вас теги и сколько их. Но подозреваю, что имеются абсолютно невостребованные.
Подкорректируйте вывод тегов, ну скажем до 800. Будут выводиться самые актуальные. И от дублей хоть немного избавитесь и нагрузку уменьшите.
mozambik,
Я показала пример скрином, где просто попались страницы с тегами, а так он все хапает, что попадает под руку, запрещено это или нет, жадный сильно.

Еще пример (все это закрыто в роботсе, а блоки дополнительно и тегами)
Рисунок
Чтоб этот жадина не переел, замените в тагсклоуд 114-ую строчку на
$db->query("SELECT SQL_CALC_FOUND_ROWS tag, COUNT(*) AS count FROM " . PREFIX . "_tags GROUP BY tag ORDER BY count DESC LIMIT 0,800");
Вместо 800 - подставьте желаемое количество выводимых тегов
И да. Главное. Если у Вас среди метатегов имеется "Контент олл", уберите такую строчку.
Удачи!
Не знаю. До сегодняшнего дня у меня проблемы "Гугл и дубли" не существовало. CMS плодила дубли страниц, но Гугл их просто не замечал. А вот Яндекс меня с этими дублями достал. Но я установил специальный плагин для своей CMS. Он делает перенаправление 301 с дубля на основную страницу с нормальным URL. И Яша успокоился. Уже почти все дубли удалил из индекса.
Создать свой сайт самому
Greenlight5.com создан на CMS MODx
Цитата
Константин пишет:
В чем смысл иметь "дублирующие" страницы на сайте? ИМХО Каждая страница должна быть уникальна и заточена под конкретный запрос. А на роботс гугл обязан реагировать

100% в точку
Смысл в том, что дублирующие страницы, независимо от желания автора сайта, часто плодят движки CMS, на которых построен сайт. А на роботс гугель обязан реагировать, но не реагирует.
Так как тема давно закрыта -> перенёс в раздел "Х".
Страницы: Пред. 1 2
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
23:27 Биржи ссылок в 2026 - реально ли новичку с одним сайтом поднять копейку? 
23:24 Яндекс Нейро и выдача в 2026 - остались ли лазейки для маленьких сайтов? 
23:05 Раскрутка форума 
23:01 Очередной взлом через плагин. Хакеры получают админку без пароля 
20:41 adsense в 2026: кто реально выводит копейку через киргизию? 
10:50 Альтернативы Адсенсу в 2026 - есть живые? 
10:04 Как поймать партнера на «сливе» бренда? 
22:47 1obmen.net - обмен криптовалют: выплаты в USD, EUR, GBP, CAD, CNY 
15:33 GhostRocket.pro — Взлетаем в новую эру криптообмена! 
14:36 Продам жирный аккаунт fl.ru 
14:07 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
12:54 Mixmasters - Exchange without AML and KYC 
12:31 Сервис ReCaptcha 2, 30р за 1000 решений. 
12:08 Продвижение YouTube видео в топ поиска | Любой тип контента | Гарантия результата 
19:01 8 марта: желаю аптайма 99.9% и e-e-a-t без локов 
18:51 Огородники 
16:47 Какой фильм вы любите посмотреть перед сном? 
15:46 молодильные яблоки и живая вода 
10:11 О природе путешествий. 
01:47 Точные прогнозы на футбол 
15:04 Сайты Рунета