Robots txt
Страницы: 1
Robots txt
Уважаемые форумчане! Прошу совета. На сайте https://partnertorg.com/ установлена CMS, которая формирует параметры фильтрации в формате массива с динамическими ID. Примеры URL:
?s[vid_267]=123
?s[cvet_956]=456
?s[poverhnost_742]=789 и т.д.
Например: https://partnertorg.com/mebel-dlya-vannoy-komnaty?s[cvet_956][0]=191355509, https://partnertorg.com/dveri-mezhkomnatnye?s[razmer_304][0]=12841603 и т.д.

Поскольку таких ID (vid_..., cvet_...) сотни, и они постоянно добавляются, перечислять их все вручную в robots.txt невозможно.

На сколько мне известно, ставить директиву Disallow: *?s для интернет магазина, не есть хорошо. Что делать в данной ситуации?
Изменено: Prapovednik - 16 Марта 2026 12:06 (убрал хоть часть мусора из сообщения)
Андрей, пара моментов.
1. Чтобы не было лишнего мусора в ваших сообщениях на этом форуме, если вы не сразу набираете текст здесь, а копируете откуда-то, то перед вставкой нажмите на панели "bb code". Удалил лишние ссылки на конкурирующий ресурс, откуда вы копировали.
2. Возникают подозрения, что ваши сообщения только ради ссылок. Так как создаёте темы, разместив в ней ссылки, и нет никакой обратной связи от вас. Ранее созданная тема, в которой вам писали, но вы никак не комментировали - https://www.cy-pr.com/forum/f21/t119809/
у меня точно такая же хрень была на прошлой неделе с новым дохлым сайтом под траф
открыла просто твойсайт.ру/robots.txt а там disallow / или какая то фигня от старого шаблона осталась
я тупо перезаписала файл в корень вот так
User-agent: *
Allow: /
Sitemap: https://твойсайт.ру/sitemap.xml
и всё без всяких серверов
потом в яндекс вебмастер и гоша консоль зашла добавила сайт и нажала запросить индексацию на главной
через пару дней яша полез качать и индекс появился
если у тебя disallow стоит это вообще убийца сейчас в 2026 яша и гоша с таким даже не парятся
попробуй срочно поменяй и напиши че вышло)) если не поможет кидай скрин своего robots.txt гляну быстро
зачем ты собрался руками сотни айдишников вписывать. это путь в никуда. для таких вещей в роботсе давно придумали вайлдкарды. для яши используй clean-param: s /. он схлопнет все твои фильтры в один урл и не будет дубли плодить в индексе. гоше скорми disallow: /?s[. если впс ложится от ботов - закрывай через nginx по маске в $args или через map, иначе никакой роботс не спасет от нагрузки. маны кури по регуляркам.
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
20:30 Заказал "положить сайт" а положили тебя? Полиция добралась до клиентов DDoS-сервисов 
20:15 Штрафы за крипту до 2 млн + ап Яндекса 19 апреля - что опять поменяли и куда всё катится? 
20:10 В Яндексе позиции держатся, а трафик проседает - стало заметно сильнее 
17:05 ИКС Яндекс АПдейт 1 апреля 2026. Обновлён алгоритм расчёта 
17:04 Claude по паспорту + апдейт Яндекса 17 апреля - у кого что по выдаче 
16:58 Ап выдачи Яндекса 8 апреля - есть движение, но интереснее что творится с AI-ответами Google 
16:49 Заголовки H1 и ошибки - реально ли новичку самому во всём разобраться? 
22:34 [UPDATE] CryptoMonitor — обмен BTC, USDT, XMR | актуальная тема сервиса 
21:31 Прошу оценить сайт 
20:42 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
20:06 MIG-OBMEN.net — Быстрый и надежный обмен цифровых активов 
18:11 buyingproxy.com | $0.95/GB Residential Proxies - 80M+ IPs | No Bandwidth Expiry 
18:10 Mixmasters - Exchange without AML and KYC 
14:55 Создам под вашу нишу сетку сайтов-сателлитов для привлечения целевого трафика 
19:58 ЕС сделал проверку возраста, а её уже ломают за минуты. Серьёзно? 
19:57 Во Франции начали штрафовать за IPTV - до 300-400 евро уже прилетает обычным пользователям 
19:36 Список обновленных тем пуст... 
17:02 арбитражники 
12:26 Заработок на загрузочном сайте в 2026? 
09:49 Точные прогнозы на футбол 
02:22 Ставки на супер тренды в спорте