Дубли страниц
Страницы: 1
Дубли страниц
Здравствуйте!Подскажите пожалуйста как можно закрыть дубли страниц вот такого вида:Карта сайта /karta-sajta?pg=4 и Pat 11 /page/11.
Вот мой

Disallow: /cgi-bin/
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /page/
Disallow: /search/
Disallow: /trackback/
Disallow: /feed/
Disallow: */trackback/
Disallow: */feed/
Disallow: /?feed=
Host:

Sitemap:
Disallow: /karta-sajta
/page/11 - уже закрыта в Disallow: /page/
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*

сам долго с такими страничками воевал и вот вчера сделал! Сегодня некоторые странички гугл уже скрыл в дополнительный поиск)
http://posutochno.donetsk.ua - мой первыый и лучший сайт!
Макс $$$, с */page/* согласен, но чем "/page/*" отличается от "/page/"? Имхо это одно и то же.
Ничем особо не отличается поэтому у меня только две строчки, которые я написал! со звёздочками и всё... В прошлом сообщении написал "дописать" - имея в виду "сделать в robots.txt" - не совсем ясно выразился но даже если бы 3 раза page автор темы закрыл - ничего страшного бы не произошло)
Спасибо большое сейчас пропишу.Еще хотел узнать нужно ли добавить User-agent?
Цитата
Макс $$$ пишет:
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*
А лучше вот так:

Disallow: /page/
Disallow: */page/*
Disallow: /page/*/
Disallow: /*/page/*
Disallow: /*/*/page/*
Цитата
Юрий пишет:
Цитата
Макс $$$ пишет:
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*
А лучше вот так:

Disallow: /page/
Disallow: */page/*
Disallow: /page/*/
Disallow: /*/page/*
Disallow: /*/*/page/*
Не знаю на сколько я сейчас буду прав... но тоже склонялся к /*/page/* - но до мрям двух звёздочек я не додумывался) Так же сейчас проверил эффект от проделанной работы и к примеру по 2-м вариантам закрытия страниц у меня в гугле закрылась такая ссылка: домен/категория/подкатегория/page/3 и это результат закрытия именно 2-мя вариантами с звёздочкой в конце и начале.
Я прописал в robots.txt вот так:
Disallow: /page/
Disallow: */page/*
Disallow: /page/*/

Решил удалить дубли ЯВ через форму удаление url, а а написанно что: Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex.
Как так я ведь запредил в robots.
Еще хотел узнать через какое время дубли будут удалены с ПС?
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
08:26 Помогите! ОТКРЫЛАСЬ монетизация на ЮТЮБ! Но Как быть в 2024 с Adsense? 
08:23 Rotapost прикрыли! Чем пользоваться? 
17:53 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
22:27 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
12:39 2Index - быстрая индексация страниц сайта и обратных ссылок 
06:17 3snet - гемблинг, беттинг, форекс, бинарные опционы, майнинг 
11:46 SharkBoss - партнёрская программа для монетизации ЛЮБЫХ видов трафика (включая спам). 
04:12 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
22:41 SOCKS5 приватные прокси на 30 дней для PayPal 
22:41 Google Voice аккаунты для бесплатных SMS и звонков 
22:40 PayPal аккаунты для любых целей 
18:24 garantcoin.io - быстрый и надёжный сервис обмена криптовалюты GarantCoin 
16:59 Сайты с зарубежным трафиком КУПЛЮ 
16:50 №1 Рассылка / Инвайтинг [TELEGRAM] | Приватный метод 
13:08 Бесплатный майнинг Tether (USDT) 
10:29 С юмором по жизни! 
16:49 monetizer.agency – рекламная сеть для взрослого и развлекательного трафика. 100$ новому вебмастеру 
20:43 Добро пожаловать в цифровой мир... 
15:59 Про мясо 
23:09 ПП от PMS remote.team - 200$ за команду 
13:28 Компьютерная мышь