phpbb + дубли страниц = фильтр! - думаю не первый кто с этим мучается - огромное количество не нужных страниц - что с ними делать?
Страницы: 1
phpbb + дубли страниц = фильтр! - думаю не первый кто с этим мучается - огромное количество не нужных страниц - что с ними делать?
поставил phpbb3, прописал в роботсе все системные папки чтобы поисковики их не читали и тут при анализе сайта огромное количество топиков которые и не нужны в выдаче + их дубли тоже не нужные. при автоматическом составлении сайтмап он находит аж 49 999 страниц:eek: вот что с ним делать? так и фильтр от ПС поймать можно на раз два, даже до три не дойдет а ты уже под фильтром! не знаю уже что с ним делать! куча страниц viewforum.php?..... и всяких левых! очень, очень прошу помощи!
за 5 у.е. скину роботс.тхс, который у вас должен быть, где прописаны все адреса, которые надо запретить для гугла и яндекса
Изменено: limion - 1 Октября 2013 21:52
сильно отличается от этого? 
User-agent: *Disallow: /faq.php
Disallow: /mcp.php
Disallow: /memberlist.php*
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /viewtopic.php?p=*
Disallow: /viewtopic.php?f=*&t=*&start=0$
Disallow: /viewtopic.php?f=*&t=*&view=next
Disallow: /viewtopic.php?f=*&t=*&view=previous
Disallow: /memberlist.php*
Disallow: /ucp.php*
Disallow: /viewonline.php
Disallow: /adm/index.php
Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php

User-agent: Yandex
Disallow: /faq.php
Disallow: /mcp.php
Disallow: /memberlist.php*
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /memberlist.php*
Disallow: /ucp.php*
Disallow: /viewtopic.php?p=*
Disallow: /viewtopic.php?f=*&t=*&start=0$
Disallow: /viewtopic.php?f=*&t=*&view=next
Disallow: /viewtopic.php?f=*&t=*&view=previous
Disallow: /viewonline.php
Disallow: /adm/index.php
Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php
ок в роботе будут прописаны все страницы которые им не стоит читать, учитывая то, что поисковики все равно только со стороны смотрят на роботс ткст какой толк? был бы у Вас скрипт или мод который сам склеивает дубли и при этом не нагружает поисковики для просмотра одних и тех же страниц я бы подумал. знаю то, что гугл очень не любит дубли и роботс не гарантирует то, что поисковик не будет читать эти дубли - именно этого мне и надо, чтобы поисковик вообще не читал дубли и сам их не клеил. было бы здорово если бы у Вас был мод который сам определяет оригинал страницы и занимается этим: <link rel="canonical" ..............
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:27 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
12:39 2Index - быстрая индексация страниц сайта и обратных ссылок 
06:17 3snet - гемблинг, беттинг, форекс, бинарные опционы, майнинг 
11:46 SharkBoss - партнёрская программа для монетизации ЛЮБЫХ видов трафика (включая спам). 
23:10 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
21:20 Rotapost прикрыли! Чем пользоваться? 
00:23 Раскрутка форума 
20:33 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
16:17 CryptoGraph — Анонимный обмен криптовалют без KYC и AML 
13:51 Скрипт обменника валют 
07:11 Купить отзывы на Яндекс и Гугл картах, на Авито, на Отзовике и IRecommend 
04:10 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
13:51 CryptoMonitor.info - ваш надеждный обменник BTC USDT XMR (без KYC) 
13:16 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
10:29 С юмором по жизни! 
16:49 monetizer.agency – рекламная сеть для взрослого и развлекательного трафика. 100$ новому вебмастеру 
20:43 Добро пожаловать в цифровой мир... 
15:59 Про мясо 
23:09 ПП от PMS remote.team - 200$ за команду 
13:28 Компьютерная мышь 
22:55 Ну что, кто куда деваете свои сайты?