Найдены страницы-дубли с GET-параметрами
Страницы: 1
Найдены страницы-дубли с GET-параметрами
Добрый день. Что Яндекс от меня хочет?

Выдаёт ошибку :

Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.

Посмотрите примеры. Если в поиске есть дубли из-за GET-параметров, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице. Когда робот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.

GET-параметр

etext



Примеры страниц

https://pogzashita.ru/product/pirilaks/?etext=2202.6VCnyjyeqBFsmenPwYpu9INQtgqqTXTKUwKUsYj7A1BWk02vp9QoexwRWEb543v9J6OZ1qOZWuBVUB3wH53MoGtwbXNvemRpbWdkem5yb2w.0e4216135a76151d8413c37c6f3926c228e23679
https://pogzashita.ru/product/mig-09/?etext=2202.h4O6TFGhdYYjDFc1XJciS0ZLEAGsHIbKhE4noFRWGQwj_RIgCpYE8eDbb67UwNQuA-jeo3RBpC1WuqjXeAT7G4xQblx_gXNsibF3_Pqv4esVMU8nedXv9qIyUFDRiSZObmJ5c3llY2dveGNwcG1xaw.010b26eaeaab24b8252f66653b37b905b59595b6
https://pogzashita.ru/product/pirilaks/?etext=2202.EbeA9qc8xsCHEG2mIzFbdAwM3tVX-o_0BcXjmgiuFpGYzNeInf1UAfdEOexfiwK1YkIjpQ7ga8jhtAEMvJM5vsHDYvwMrAOnRbzlz9mtqeNrZ3VlZHJidmtqbXFha25s.1a9393bea133a902203d53941d7953b8499428b1
https://pogzashita.ru/product/teksoterm-for-air-organic-based/?etext=2202.jvudZmZBJXDSbm5Wmod5mApum4pl8nqe59er8hwh1OW-lioLuWPnZE8NLru5iiRqdG1yd2Ridnhrb21nc254Zw.89a77472bca7b571fe1e40f75ae79123242a3129
https://pogzashita.ru/product/pirilaks/?etext=2202.X65gDtNthGJbOwyJMStf0N_oM9Y1PRw-1kgogk0jBQszI98FUsASyAuVCVBIJyO7HxClAoCKnsfrRPDJBYURdIfXPqJdeOAzAHP97O-YbEtnbGh0d3p3YmdyYmFsd3Nm.71b6269b4ff50daa4d52a73f301a576b476b9cb4



Страницы без get-параметров

https://pogzashita.ru/product/pirilaks/
https://pogzashita.ru/product/mig-09/
https://pogzashita.ru/product/pirilaks/
https://pogzashita.ru/product/teksoterm-for-air-organic-based/
https://pogzashita.ru/product/pirilaks/



Подскажите пожалуйста как это исправить?
в робот.тхт добавь запись для etext
Цитата
Clean-param: etext
для GET-параметрами

Цитата
Disallow: /*?*
И так как у Вас на сайте есть фильтр товаров но при фильтрации не меняется seo-теги то это тоже может вызвать дублирование страниц
Цитата
Disallow: /?*
Страницы без get-параметров
Цитата
установить canonical

и яндекс не будет больше беспокоить.
Спасибо огромное smile:)
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
09:47 Adsense личный опыт 
13:13 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
13:47 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
08:27 Ищу специалистов 
08:18 Прибыль 200$ - 400$, за каждую 1000 уников! Google, FB и тд 
08:12 ру гембла 
09:18 Влияние использования ИИ для написания текстов на позицию в поисковой выдаче 
23:00 №1 Рассылка / Инвайтинг [TELEGRAM] | Приватный метод 
23:00 Trustpilot Reviews | Подниму рейтинг вашей компании 
22:59 Продвижение YouTube видео в топ поиска | Любой тип контента | Гарантия результата 
22:59 Установка|Настройка|Доработка|Наполнение сайтов|Дизайн|3D|Видеомонтаж 
22:04 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
19:58 Создам под вашу нишу сетку сайтов-сателлитов для привлечения целевого трафика 
19:30 - Вечные ссылки с трастовых сайтов 2024 проверен FastTrust 
03:07 Всего п онемногу 
12:45 Куплю проигрышные букмекерские аккаунты 
11:55 Union Pharm - топовая фарма-партнерка для профессионалов! 
17:09 Точные прогнозы на футбол 
10:00 Ну что, кто куда деваете свои сайты? 
16:22 Компьютерная мышь 
23:55 Добро пожаловать в цифровой мир...