Дубли страниц
Страницы: 1
Дубли страниц
Здравствуйте!Подскажите пожалуйста как можно закрыть дубли страниц вот такого вида:Карта сайта /karta-sajta?pg=4 и Pat 11 /page/11.
Вот мой

Disallow: /cgi-bin/
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /page/
Disallow: /search/
Disallow: /trackback/
Disallow: /feed/
Disallow: */trackback/
Disallow: */feed/
Disallow: /?feed=
Host:

Sitemap:
Disallow: /karta-sajta
/page/11 - уже закрыта в Disallow: /page/
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*

сам долго с такими страничками воевал и вот вчера сделал! Сегодня некоторые странички гугл уже скрыл в дополнительный поиск)
http://posutochno.donetsk.ua - мой первыый и лучший сайт!
Макс $$$, с */page/* согласен, но чем "/page/*" отличается от "/page/"? Имхо это одно и то же.
Ничем особо не отличается поэтому у меня только две строчки, которые я написал! со звёздочками и всё... В прошлом сообщении написал "дописать" - имея в виду "сделать в robots.txt" - не совсем ясно выразился но даже если бы 3 раза page автор темы закрыл - ничего страшного бы не произошло)
Спасибо большое сейчас пропишу.Еще хотел узнать нужно ли добавить User-agent?
Цитата
Макс $$$ пишет:
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*
А лучше вот так:

Disallow: /page/
Disallow: */page/*
Disallow: /page/*/
Disallow: /*/page/*
Disallow: /*/*/page/*
Цитата
Юрий пишет:
Цитата
Макс $$$ пишет:
нет не закрыто! вот так ещё надо добавить:
Disallow: /page/*
Disallow: */page/*
А лучше вот так:

Disallow: /page/
Disallow: */page/*
Disallow: /page/*/
Disallow: /*/page/*
Disallow: /*/*/page/*
Не знаю на сколько я сейчас буду прав... но тоже склонялся к /*/page/* - но до мрям двух звёздочек я не додумывался) Так же сейчас проверил эффект от проделанной работы и к примеру по 2-м вариантам закрытия страниц у меня в гугле закрылась такая ссылка: домен/категория/подкатегория/page/3 и это результат закрытия именно 2-мя вариантами с звёздочкой в конце и начале.
Я прописал в robots.txt вот так:
Disallow: /page/
Disallow: */page/*
Disallow: /page/*/

Решил удалить дубли ЯВ через форму удаление url, а а написанно что: Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex.
Как так я ведь запредил в robots.
Еще хотел узнать через какое время дубли будут удалены с ПС?
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
15:08 Стоит ли добавлять сайт в Rambler топ 100? 
14:14 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
19:33 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
09:02 Как продвигать сайт с неуникальным контентом 
08:57 Absence в Армении 
14:50 Индексация страниц 
12:36 У кого новостник, дайте пару советов плиз 
10:29 local-pay.com - быстрый и надежный обменник криптовалюты Local-Pay 
04:11 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
17:33 Скрипт обменника валют 
17:11 Продам аккаунты Gmail USA IP | Gmail MIX IP | Outlook Old 
16:38 Продам копию сайта. 
12:52 swapsfera.com 
12:38 Volna.money 
20:48 Точные прогнозы на футбол 
19:04 Ну что, кто куда деваете свои сайты? 
22:09 Добро пожаловать в цифровой мир... 
19:42 Топ-5 способов использовать мобильные прокси для бизнеса: подробный обзор 
22:08 Накрутка поисковых подсказок 
14:01 Union Pharm - топовая фарма-партнерка для профессионалов! 
10:59 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди