phpbb + дубли страниц = фильтр! - думаю не первый кто с этим мучается - огромное количество не нужных страниц - что с ними делать?
Страницы: 1
phpbb + дубли страниц = фильтр! - думаю не первый кто с этим мучается - огромное количество не нужных страниц - что с ними делать?
поставил phpbb3, прописал в роботсе все системные папки чтобы поисковики их не читали и тут при анализе сайта огромное количество топиков которые и не нужны в выдаче + их дубли тоже не нужные. при автоматическом составлении сайтмап он находит аж 49 999 страниц:eek: вот что с ним делать? так и фильтр от ПС поймать можно на раз два, даже до три не дойдет а ты уже под фильтром! не знаю уже что с ним делать! куча страниц viewforum.php?..... и всяких левых! очень, очень прошу помощи!
за 5 у.е. скину роботс.тхс, который у вас должен быть, где прописаны все адреса, которые надо запретить для гугла и яндекса
Изменено: limion - 1 Октября 2013 21:52
сильно отличается от этого? 
User-agent: *Disallow: /faq.php
Disallow: /mcp.php
Disallow: /memberlist.php*
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /viewtopic.php?p=*
Disallow: /viewtopic.php?f=*&t=*&start=0$
Disallow: /viewtopic.php?f=*&t=*&view=next
Disallow: /viewtopic.php?f=*&t=*&view=previous
Disallow: /memberlist.php*
Disallow: /ucp.php*
Disallow: /viewonline.php
Disallow: /adm/index.php
Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php

User-agent: Yandex
Disallow: /faq.php
Disallow: /mcp.php
Disallow: /memberlist.php*
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /memberlist.php*
Disallow: /ucp.php*
Disallow: /viewtopic.php?p=*
Disallow: /viewtopic.php?f=*&t=*&start=0$
Disallow: /viewtopic.php?f=*&t=*&view=next
Disallow: /viewtopic.php?f=*&t=*&view=previous
Disallow: /viewonline.php
Disallow: /adm/index.php
Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php
ок в роботе будут прописаны все страницы которые им не стоит читать, учитывая то, что поисковики все равно только со стороны смотрят на роботс ткст какой толк? был бы у Вас скрипт или мод который сам склеивает дубли и при этом не нагружает поисковики для просмотра одних и тех же страниц я бы подумал. знаю то, что гугл очень не любит дубли и роботс не гарантирует то, что поисковик не будет читать эти дубли - именно этого мне и надо, чтобы поисковик вообще не читал дубли и сам их не клеил. было бы здорово если бы у Вас был мод который сам определяет оригинал страницы и занимается этим: <link rel="canonical" ..............
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:11 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
21:45 Как сократить ссылку и зачем это делать. 
16:49 Perfect.Studio: InstAccountsManager — лучший инструмент для автоматизации заработка в Instagram 
19:14 Magic click - гемблинг пп, ставки выше конкурентов 
15:37 Adtrafico - Правильная партнёрская сеть под бурж трафик 
13:38 Вопрос по Cloudflare 
16:33 DreamCash.tl - заработок на онлайн-видео. До 95% отчислений, отличный конверт! 
21:12 Ural-obmen.ru — выгодный сервис обмена 
12:35 Современный скрипт обменника электронных валют 
11:00 Obama.ru - безопасный обмен криптовалют и электронных денежных средств 
14:16 Продам порно сайт на KVS 
12:58 Профильный прогон 200 рублей, Тиц (Икс) от 10, проверен Checktrust 
12:02 TETChange-Обменник криптовалют 
11:02 DualCoin - быстрый криптовалютный обменник 
20:22 Как получить рефералов и посетителей на сайт бесплатно. 
18:31 Видимо, похороны СУПРа уже прошли как-то по-тихому 
22:54 Точные прогнозы на футбол 
12:48 Каспкрски ОС 
11:21 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди 
14:41 Бесплатный мини-аудит юзабилити и конверсии + технический SEO-аудит в подарок 
15:24 Добро пожаловать в цифровой мир...