Robots txt
Страницы: 1
Robots txt
Уважаемые форумчане! Прошу совета. На сайте https://partnertorg.com/ установлена CMS, которая формирует параметры фильтрации в формате массива с динамическими ID. Примеры URL:
?s[vid_267]=123
?s[cvet_956]=456
?s[poverhnost_742]=789 и т.д.
Например: https://partnertorg.com/mebel-dlya-vannoy-komnaty?s[cvet_956][0]=191355509, https://partnertorg.com/dveri-mezhkomnatnye?s[razmer_304][0]=12841603 и т.д.

Поскольку таких ID (vid_..., cvet_...) сотни, и они постоянно добавляются, перечислять их все вручную в robots.txt невозможно.

На сколько мне известно, ставить директиву Disallow: *?s для интернет магазина, не есть хорошо. Что делать в данной ситуации?
Изменено: Prapovednik - 16 Марта 2026 12:06 (убрал хоть часть мусора из сообщения)
Андрей, пара моментов.
1. Чтобы не было лишнего мусора в ваших сообщениях на этом форуме, если вы не сразу набираете текст здесь, а копируете откуда-то, то перед вставкой нажмите на панели "bb code". Удалил лишние ссылки на конкурирующий ресурс, откуда вы копировали.
2. Возникают подозрения, что ваши сообщения только ради ссылок. Так как создаёте темы, разместив в ней ссылки, и нет никакой обратной связи от вас. Ранее созданная тема, в которой вам писали, но вы никак не комментировали - https://www.cy-pr.com/forum/f21/t119809/
у меня точно такая же хрень была на прошлой неделе с новым дохлым сайтом под траф
открыла просто твойсайт.ру/robots.txt а там disallow / или какая то фигня от старого шаблона осталась
я тупо перезаписала файл в корень вот так
User-agent: *
Allow: /
Sitemap: https://твойсайт.ру/sitemap.xml
и всё без всяких серверов
потом в яндекс вебмастер и гоша консоль зашла добавила сайт и нажала запросить индексацию на главной
через пару дней яша полез качать и индекс появился
если у тебя disallow стоит это вообще убийца сейчас в 2026 яша и гоша с таким даже не парятся
попробуй срочно поменяй и напиши че вышло)) если не поможет кидай скрин своего robots.txt гляну быстро
зачем ты собрался руками сотни айдишников вписывать. это путь в никуда. для таких вещей в роботсе давно придумали вайлдкарды. для яши используй clean-param: s /. он схлопнет все твои фильтры в один урл и не будет дубли плодить в индексе. гоше скорми disallow: /?s[. если впс ложится от ботов - закрывай через nginx по маске в $args или через map, иначе никакой роботс не спасет от нагрузки. маны кури по регуляркам.
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
14:36 Ворд Пресс (или его шаблон) перестал отображать <b> болд жирный 
14:31 Robots txt 
12:18 С чего сейчас проще начать? 
02:14 MAX попер в бурж: 40 стран, ведение каналов и горы дешевого трафика 
22:19 Телега на ручнике: РКН включил замедление и логи админок покраснели 
22:16 Продажа и покупка Дзен-каналов 
17:17 как оплатить claude и gpt-5 из рф в 2026 чтобы не забанили через три дня 
14:45 Belurk — высокоскоростные анонимные прокси от 0,24 рублей 
14:22 Продажа аккаунтов HH.RU 
12:29 От $0.015 за IP | $0.68 за ГБ | 9PROXY.COM | 20+ млн резидентных прокси | 99,95% аптайм | Без чёрных списков 
11:22 BestChange – обменивать электронную валюту можно быстро и выгодно 
11:00 WordChecker Extension - браузерное расширение для проверки позиций в Яндексе 
10:19 MIG-OBMEN.net — Быстрый и надежный обмен цифровых активов 
08:45 Swapwatch.org — Мониторинг криптовалютных обменников 
13:54 Актуально для тех кто хочет заработать в интернете 
13:53 Панель Кнопки соцсетей 
13:31 Ставки на супер тренды в спорте 
08:57 молодильные яблоки и живая вода 
02:27 Точные прогнозы на футбол 
02:23 8 марта: желаю аптайма 99.9% и e-e-a-t без локов 
21:46 блокировка youtube 2026: ркн начинает «выдавливание». кто уже пробовал вк видео?