Дубли страниц
Страницы: 1
Дубли страниц
Здравствуйте!Подскажите пожалуйста как можно закрыть дубли страниц вот такого вида:Карта сайта /karta-sajta?pg=4 и Pat 11 /page/11.
Вот мой

Disallow: /cgi-bin/
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /page/
Disallow: /search/
Disallow: /trackback/
Disallow: /feed/
Disallow: */trackback/
Disallow: */feed/
Disallow: /?feed=
Host:

Sitemap:
Disallow: /karta-sajta
/page/11 - уже закрыта в Disallow: /page/
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*

сам долго с такими страничками воевал и вот вчера сделал! Сегодня некоторые странички гугл уже скрыл в дополнительный поиск)
http://posutochno.donetsk.ua - мой первыый и лучший сайт!
Макс $$$, с */page/* согласен, но чем "/page/*" отличается от "/page/"? Имхо это одно и то же.
Ничем особо не отличается поэтому у меня только две строчки, которые я написал! со звёздочками и всё... В прошлом сообщении написал "дописать" - имея в виду "сделать в robots.txt" - не совсем ясно выразился но даже если бы 3 раза page автор темы закрыл - ничего страшного бы не произошло)
Спасибо большое сейчас пропишу.Еще хотел узнать нужно ли добавить User-agent?
Цитата
Макс $$$ пишет:
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*
А лучше вот так:

Disallow: /page/
Disallow: */page/*
Disallow: /page/*/
Disallow: /*/page/*
Disallow: /*/*/page/*
Цитата
Юрий пишет:
Цитата
Макс $$$ пишет:
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*
А лучше вот так:

Disallow: /page/
Disallow: */page/*
Disallow: /page/*/
Disallow: /*/page/*
Disallow: /*/*/page/*
Не знаю на сколько я сейчас буду прав... но тоже склонялся к /*/page/* - но до мрям двух звёздочек я не додумывался) Так же сейчас проверил эффект от проделанной работы и к примеру по 2-м вариантам закрытия страниц у меня в гугле закрылась такая ссылка: домен/категория/подкатегория/page/3 и это результат закрытия именно 2-мя вариантами с звёздочкой в конце и начале.
Я прописал в robots.txt вот так:
Disallow: /page/
Disallow: */page/*
Disallow: /page/*/

Решил удалить дубли ЯВ через форму удаление url, а а написанно что: Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex.
Как так я ведь запредил в robots.
Еще хотел узнать через какое время дубли будут удалены с ПС?
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
12:44 РСЯ и тормоза сайта: Яндекс начал штрафовать за плохой PageSpeed? 
12:42 01.02. Апдейт 31.01 // Chrome готовит "чёрную метку" для ИИ? 
23:09 Как безопасно купить Гугл почту? 
13:45 Какой движок выбрать для форума? 
13:43 Нашел скрины выплат с Сапы за 2010 год. Пошел плакать 
09:26 Трафик пробил дно? Худший январь за 10 лет и внезапный рост продаж с Bing 
19:27 Плагин ответа 
12:36 Nexulume.com Обменник без AML и KYC 
09:12 Swapwatch.org — Мониторинг криптовалютных обменников 
09:07 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
23:25 SOCKS5 приватные прокси на 30 дней для PayPal 
23:24 Google Voice аккаунты для бесплатных SMS и звонков 
23:23 PayPal аккаунты для любых целей 
23:02 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
12:41 Moltbook: Соцсеть для ботов, где людям закрыли рот. Началось? 
06:26 Ставки на супер тренды в спорте 
22:31 [AI] Бот за $600к советовал есть сыр с крысами. Нью-Йорк его (наконец-то) снес 
22:30 Точные прогнозы на футбол 
13:38 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко 
07:11 Список обновленных тем пуст... 
17:02 Gartner обещал смерть SEO к 2026 году. Открываем метрику и проверяем