phpbb + дубли страниц = фильтр! - думаю не первый кто с этим мучается - огромное количество не нужных страниц - что с ними делать?
Страницы: 1
phpbb + дубли страниц = фильтр! - думаю не первый кто с этим мучается - огромное количество не нужных страниц - что с ними делать?
поставил phpbb3, прописал в роботсе все системные папки чтобы поисковики их не читали и тут при анализе сайта огромное количество топиков которые и не нужны в выдаче + их дубли тоже не нужные. при автоматическом составлении сайтмап он находит аж 49 999 страниц:eek: вот что с ним делать? так и фильтр от ПС поймать можно на раз два, даже до три не дойдет а ты уже под фильтром! не знаю уже что с ним делать! куча страниц viewforum.php?..... и всяких левых! очень, очень прошу помощи!
за 5 у.е. скину роботс.тхс, который у вас должен быть, где прописаны все адреса, которые надо запретить для гугла и яндекса
Изменено: limion - 1 Октября 2013 21:52
сильно отличается от этого? 
User-agent: *Disallow: /faq.php
Disallow: /mcp.php
Disallow: /memberlist.php*
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /viewtopic.php?p=*
Disallow: /viewtopic.php?f=*&t=*&start=0$
Disallow: /viewtopic.php?f=*&t=*&view=next
Disallow: /viewtopic.php?f=*&t=*&view=previous
Disallow: /memberlist.php*
Disallow: /ucp.php*
Disallow: /viewonline.php
Disallow: /adm/index.php
Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php

User-agent: Yandex
Disallow: /faq.php
Disallow: /mcp.php
Disallow: /memberlist.php*
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /memberlist.php*
Disallow: /ucp.php*
Disallow: /viewtopic.php?p=*
Disallow: /viewtopic.php?f=*&t=*&start=0$
Disallow: /viewtopic.php?f=*&t=*&view=next
Disallow: /viewtopic.php?f=*&t=*&view=previous
Disallow: /viewonline.php
Disallow: /adm/index.php
Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php
ок в роботе будут прописаны все страницы которые им не стоит читать, учитывая то, что поисковики все равно только со стороны смотрят на роботс ткст какой толк? был бы у Вас скрипт или мод который сам склеивает дубли и при этом не нагружает поисковики для просмотра одних и тех же страниц я бы подумал. знаю то, что гугл очень не любит дубли и роботс не гарантирует то, что поисковик не будет читать эти дубли - именно этого мне и надо, чтобы поисковик вообще не читал дубли и сам их не клеил. было бы здорово если бы у Вас был мод который сам определяет оригинал страницы и занимается этим: <link rel="canonical" ..............
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
20:05 С чего сейчас проще начать? 
18:58 Яндекс Нейро и выдача в 2026 - остались ли лазейки для маленьких сайтов? 
18:49 Биржи ссылок в 2026 - реально ли новичку с одним сайтом поднять копейку? 
18:46 Гугл запустил Первый АПдейт года и серп уже трясёт - Google March 2026 Core Update 
13:09 Выбор CMS для первого блога в 2026 - реально ли новичку войти без кода? 
12:47 MAX попер в бурж: 40 стран, ведение каналов и горы дешевого трафика 
12:33 APK на паузе. Google убивает быстрый конверт 
20:37 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
19:58 SpeedyIndex - ускорение индексирования ссылок в Google. 100 ссылок в подарок. 
14:11 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
09:40 Вериф аккаунты АВИТО + платежи 
09:22 Софт для рассылки в телеграм 
09:16 Telegram-бот конструктор: автоответы, воронки, поддержка и т.д 
00:05 TETChange-Обменник криптовалют 
06:50 Ставки на супер тренды в спорте 
18:19 8 марта: желаю аптайма 99.9% и e-e-a-t без локов 
18:11 Голландцы влепили Grok по яйцам - теперь нельзя раздевать реальных людей, штраф 100к евро в день 
13:04 Gartner обещал смерть SEO к 2026 году. Открываем метрику и проверяем 
18:49 Чак Норрис ушел - 19 марта 2026, 86 лет, семья подтвердила 
17:05 Огородники 
13:02 С юмором по жизни!