Дубли страниц!
Страницы: Пред. 1 2
[ Закрыто ] Дубли страниц!
Katrin
Да я согласен что Гошке все по барабану но что поделаеш если его алгоритмы так решили smile:D
Просьба спамом не кумарить
Цитата
killer1313 пишет:
920 / 8 % у меня вот так. Новостей в индексе из 250 около 30 остальное все мусор. То есть 200 новостей уникального текста я просто так писал ? )))

Уникальность - коперайт, рерайт? А может у вас воруют?
Можно найти еще причины, ну даже не знаю smile:rolleyes: Попробуйте оптимизацию заказать!
У меня например 732 / 23% 58 новостей и все категории - все на месте( и даже некоторые страницы на которых 1 не уникальная картинка с описанием в пару английских слов)!
Katrin,
Ограничьте количество выводимых тегов до разумного количества.
Конечно, я не знаю какие у Вас теги и сколько их. Но подозреваю, что имеются абсолютно невостребованные.
Подкорректируйте вывод тегов, ну скажем до 800. Будут выводиться самые актуальные. И от дублей хоть немного избавитесь и нагрузку уменьшите.
mozambik,
Я показала пример скрином, где просто попались страницы с тегами, а так он все хапает, что попадает под руку, запрещено это или нет, жадный сильно.

Еще пример (все это закрыто в роботсе, а блоки дополнительно и тегами)
Рисунок
Чтоб этот жадина не переел, замените в тагсклоуд 114-ую строчку на
$db->query("SELECT SQL_CALC_FOUND_ROWS tag, COUNT(*) AS count FROM " . PREFIX . "_tags GROUP BY tag ORDER BY count DESC LIMIT 0,800");
Вместо 800 - подставьте желаемое количество выводимых тегов
И да. Главное. Если у Вас среди метатегов имеется "Контент олл", уберите такую строчку.
Удачи!
Не знаю. До сегодняшнего дня у меня проблемы "Гугл и дубли" не существовало. CMS плодила дубли страниц, но Гугл их просто не замечал. А вот Яндекс меня с этими дублями достал. Но я установил специальный плагин для своей CMS. Он делает перенаправление 301 с дубля на основную страницу с нормальным URL. И Яша успокоился. Уже почти все дубли удалил из индекса.
Создать свой сайт самому
Greenlight5.com создан на CMS MODx
Цитата
Константин пишет:
В чем смысл иметь "дублирующие" страницы на сайте? ИМХО Каждая страница должна быть уникальна и заточена под конкретный запрос. А на роботс гугл обязан реагировать

100% в точку
Смысл в том, что дублирующие страницы, независимо от желания автора сайта, часто плодят движки CMS, на которых построен сайт. А на роботс гугель обязан реагировать, но не реагирует.
Так как тема давно закрыта -> перенёс в раздел "Х".
Страницы: Пред. 1 2
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:27 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
12:39 2Index - быстрая индексация страниц сайта и обратных ссылок 
06:17 3snet - гемблинг, беттинг, форекс, бинарные опционы, майнинг 
11:46 SharkBoss - партнёрская программа для монетизации ЛЮБЫХ видов трафика (включая спам). 
23:10 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
21:20 Rotapost прикрыли! Чем пользоваться? 
00:23 Раскрутка форума 
01:11 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
23:28 Помогите с оценкой стоимости сайта 
18:38 Продажа аккаунтов HH.RU 
13:38 BIGPROXY.SHOP - Резидентные Ротационные Backconnect Proxy USA EUROPA MIX [Безлимитный трафик] 
13:16 PonyBit.ru - обменный пункт PonyBit.ru (Понибит.ру) 
12:46 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
12:12 CryptoGraph — Анонимный обмен криптовалют без KYC и AML 
13:08 Бесплатный майнинг Tether (USDT) 
10:29 С юмором по жизни! 
16:49 monetizer.agency – рекламная сеть для взрослого и развлекательного трафика. 100$ новому вебмастеру 
20:43 Добро пожаловать в цифровой мир... 
15:59 Про мясо 
23:09 ПП от PMS remote.team - 200$ за команду 
13:28 Компьютерная мышь