Robots txt
Страницы: 1
Robots txt
Уважаемые форумчане! Прошу совета. На сайте https://partnertorg.com/ установлена CMS, которая формирует параметры фильтрации в формате массива с динамическими ID. Примеры URL:
?s[vid_267]=123
?s[cvet_956]=456
?s[poverhnost_742]=789 и т.д.
Например: https://partnertorg.com/mebel-dlya-vannoy-komnaty?s[cvet_956][0]=191355509, https://partnertorg.com/dveri-mezhkomnatnye?s[razmer_304][0]=12841603 и т.д.

Поскольку таких ID (vid_..., cvet_...) сотни, и они постоянно добавляются, перечислять их все вручную в robots.txt невозможно.

На сколько мне известно, ставить директиву Disallow: *?s для интернет магазина, не есть хорошо. Что делать в данной ситуации?
Изменено: Prapovednik - 16 Марта 2026 12:06 (убрал хоть часть мусора из сообщения)
Андрей, пара моментов.
1. Чтобы не было лишнего мусора в ваших сообщениях на этом форуме, если вы не сразу набираете текст здесь, а копируете откуда-то, то перед вставкой нажмите на панели "bb code". Удалил лишние ссылки на конкурирующий ресурс, откуда вы копировали.
2. Возникают подозрения, что ваши сообщения только ради ссылок. Так как создаёте темы, разместив в ней ссылки, и нет никакой обратной связи от вас. Ранее созданная тема, в которой вам писали, но вы никак не комментировали - https://www.cy-pr.com/forum/f21/t119809/
у меня точно такая же хрень была на прошлой неделе с новым дохлым сайтом под траф
открыла просто твойсайт.ру/robots.txt а там disallow / или какая то фигня от старого шаблона осталась
я тупо перезаписала файл в корень вот так
User-agent: *
Allow: /
Sitemap: https://твойсайт.ру/sitemap.xml
и всё без всяких серверов
потом в яндекс вебмастер и гоша консоль зашла добавила сайт и нажала запросить индексацию на главной
через пару дней яша полез качать и индекс появился
если у тебя disallow стоит это вообще убийца сейчас в 2026 яша и гоша с таким даже не парятся
попробуй срочно поменяй и напиши че вышло)) если не поможет кидай скрин своего robots.txt гляну быстро
зачем ты собрался руками сотни айдишников вписывать. это путь в никуда. для таких вещей в роботсе давно придумали вайлдкарды. для яши используй clean-param: s /. он схлопнет все твои фильтры в один урл и не будет дубли плодить в индексе. гоше скорми disallow: /?s[. если впс ложится от ботов - закрывай через nginx по маске в $args или через map, иначе никакой роботс не спасет от нагрузки. маны кури по регуляркам.
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
21:25 Telegram работает, но уже пошли реальные кейсы. История с Лоскутовой это подтверждает 
20:47 Есть ли альтернатива Адсенсу и РСЯ? 
20:39 TikTok "увеличил длину видео"… но это произошло давно. Что тогда реально поменялось 
20:36 YouTube ничего не менял… но почему тогда старые каналы перестали заходить 
20:23 Что такое Яндекс Икс / Как накрутить Яндекс ИКС 
19:37 Instagram* ничего не убирал, но лайки перестали что-то решать 
19:28 стратегии свежести контента в 2026 что реально работает?? 
00:32 Анонимный обмен без KYC и AML - KYCNOT 
21:53 Myxa.cc - Обмен электронных валют 
20:53 Mixmasters - Exchange without AML and KYC 
18:25 buyingproxy.com | $0.95/GB Residential Proxies - 80M+ IPs | No Bandwidth Expiry 
17:37 Мониторинг обменников Сrypto-scout.io 
17:36 Куплю отзывы на kwork 
14:14 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
07:13 Точные прогнозы на футбол 
00:54 Ставки на супер тренды в спорте 
21:25 Клещи 
17:35 «Жилетка для подчиненных» — прямая дорога в выгорание. Что говорит об этом Нейроменеджмент? 
12:44 С юмором по жизни! 
09:22 Осторожно! Криптовалюта 
14:00 Заработок на загрузочном сайте в 2026?