тиц 10 Клей с [ www.мой сайт точка ру ]
Страницы: 1 2 След.
тиц 10 Клей с [ www.мой сайт точка ру ], Что делать в этом случае
Что только и не делал с htaccess но супра мне по прежнему пишет что у меня тИЦ 10 Клей с [ www.мой сайт ру ] страниц в индексе у меня больше в 5 раз но без www а сайт главным считается с www smile:wall: smile:wall: smile:wall: smile:wall:
_http://help.yandex.ru/webmaster/?id=996567#996574

Цитата
Директива Host.

Если у вашего сайта есть зеркала, специальный робот зеркальщик определит их и сформирует группу зеркал вашего сайта. В поиске будет участвовать только главное зеркало. Вы можете указать его у всех зеркал при помощи robots.txt, используя директиву 'Host' и определив в качестве ее параметра имя главного зеркала. Директива 'Host' не гарантирует выбор указанного главного зеркала, тем не менее, алгоритм при принятии решения учитывает ее с высоким приоритетом. Пример:

Цитата
#Если www.glavnoye-zerkalo.ru главное зеркало сайта, то
#robots.txt для всех сайтов из группы зеркал выглядит так
User-Agent: *
Disallow: /forum
Disallow: /cgi-bin
Host: www.glavnoye-zerkalo.ru


Важно: в целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву 'Host' необходимо добавлять в группе, начинающейся с записи 'User-Agent', непосредственно после директив 'Disallow'('Allow'). Аргументом директивы 'Host' является доменное имя с номером порта (80 по умолчанию), отделенным двоеточием.

Цитата
#Пример корректно составленного robots.txt, при обработке
#которого директива Host учитывается
User-Agent: *
Disallow:
Host: www.myhost.ru


Тем не менее директива Host является межсекционной, поэтому будет использоваться роботом вне зависимости от места в файле robots.txt, где она указана.

Важно: Директива Host в файле robots.txt может быть только одна. В случае указания нескольких директив, использоваться будет первая.

Пример:

Цитата
Host: myhost.ru # используется

User-agent: *
Disallow: /cgi-bin

User-agent: Yandex
Disallow: /cgi-bin
Host: www.myhost.ru # не используется


Важно: параметр директивы Host обязан состоять из одного корректного имени хоста (то есть соответствующего RFC 952 и не являющегося IP-адресом) и допустимого номера порта. Некорректно составленные строчки 'Host:' игнорируются.
Цитата

# Примеры игнорируемых директив Host
Host: www.myhost-.ru
Host: www.-myhost.ru
Host: www.myhost.ru:100000
Host: www.my_host.ru
Host: .my-host.ru:8000
Host: my-host.ru.
Host: my..host.ru
Host: www.myhost.ru/
Host: www.myhost.ru:8080/
Host: _http://www.myhost.ru
Host: 213.180.194.129
Host: www.firsthost.ru,www.secondhost.ru
Host: www.firsthost.ru www.secondhost.ru

Примеры использования директивы Host:

Цитата
# domen.myhost.ru является главным зеркалом
# www.domen.myhost.ru, тогда корректное использование
# директивы Host такое:
User-Agent: *
Disallow:
Host: domen.myhost.ru


Цитата
# domen.myhost.ru является главным зеркалом
# www.domen.myhost.ru, тогда некорректное использование
# директивы Host такое:
User-Agent: *
Disallow:
Host: myhost.ru
Изменено: mochalkin - 2 Августа 2011 13:26
Важно не то, что сделали из меня, а то, что я сам сделал из того, что сделали из меня.
Жан-Поль Сартр (Jean-Paul Sartre 21.6.1905 - 15.4.1980). Французский философ
об этом я читал и в robots.txt все ровно у меня и как положено. Меня интересует как серверным путем правильно сделать все это
Вот, к примеру, я загоняю в супру любой сайт с www и в результате ссылки в индексе далее загоняю сайт в супру без www и все равно все ссылки в индексе. А у меня сайт только без www супра показывает все страницы в индексе, а вот без www 0 страниц. Как объединить все проиндексированные страницы и www и без www
Изменено: Сергей Коноводов - 2 Августа 2011 13:34
301 редирект сделайте с домена с www, на домен без www, через несколько апов зеркало переклеится.
Изменено: Lazun429 - 2 Августа 2011 13:36
Цитата
Lazun429 пишет:
301 редирект сделайте с домена с www на домен без www, через несколько апов зеркало переклеится.

И когда я буду делать запрос в супру с www и без www то все страницы будут показываться в индексе?
Хорошо, тогда получается мне нужно сделать вот так?

Options +FollowSymLinks
RewriteEngine on
RewriteCond %{HTTP_HOST} ^site\.ru$ [NC]
RewriteRule ^(.*)$ http://www.site.ru/$1 [R=301,L]
Цитата
Сергей Коноводов пишет:
Вот, к примеру, я загоняю в супру любой сайт с www и в результате ссылки в индексе далее загоняю сайт в супру без www и все равно все ссылки в индексе. А у меня сайт только с www супра показывает все страницы в индексе, а вот без www 0 страниц. Как объединить все проиндексированные страницы и www и без www
У вас скорей всего домены еще даже и не склеены (окно без www считается копией сайта, поэтому и не в индексе), нужно или ждать склейки или пробовать ставить редирект, после того как поставите редирект, страницы с WWW постепенно начнут выпадать из индекса а сраницы без WWW появляться, будет момент когда сайт упадет в полуную яму, но потом все должно успокоится. А лучше всетаки прописать в robots основное окно и ждать склейки, роботы склейщики редко на волю выпускаются, иногда только раз в год.
Цитата
Lazun429 пишет:
У вас скорей всего домены еще даже и не склеены (окно без www считается копией сайта, поэтому и не в индексе), нужно или ждать склейки или пробовать ставить редирект, после того как поставите редирект, страницы с WWW постепенно начнут выпадать из индекса а сраницы без WWW появляться, будет момент когда сайт упадет в полуную яму, но потом все должно успокоится. А лучше всетаки прописать в robots основное окно и ждать склейки, роботы склейщики редко на волю выпускаются, иногда только раз в год.

Спасибо! Значит мне сейчас нужно
User-Agent: *
Disallow:
Host: myhost.ru


вместо того что имеется сейчас

User-Agent: *
Disallow:
Host: www.myhost.ru
Вот так делай:
User-Agent: *
Disallow: /
Host: myhost.ru
Цитата
Сергей Коноводов пишет:
вместо того что имеется сейчас

User-Agent: *
Disallow:
Host: www.myhost.ru


Ааа ну конечно тогда у вас сайт с WWW сейчас индексируется, все правильно ставьте основное окно без WWW, и жди
Цитата
Сергей Коноводов пишет:
Спасибо! Значит мне сейчас нужно
User-Agent: *
Disallow:
Host: myhost.ru

Все правильно
Цитата
Lazun429 пишет:
Ааа ну конечно тогда у вас сайт с WWW сейчас индексируется, все правильно ставьте основное окно без WWW, и жди

Большое спасибо за поможение. smile:) Сейчас все сделаю как надо.
Цитата
ryudzaki пишет:
Вот так делай:
User-Agent: *
Disallow: /
Host: myhost.ru

Не надо так шутить, ведь человек и правда может так сделать.
Изменено: Lazun429 - 2 Августа 2011 16:20
Цитата
Lazun429 пишет:
Цитата
ryudzaki пишет:
Вот так делай:
User-Agent: *
Disallow: /
Host: myhost.ru

Не надо так шутить, ведь человек и правда может так сделать.

Я нее за Disallow: / поблагодарил
У меня переклеилось через два месяца, а на супре поменялось только через пол года
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
16:04 LGaming - экосистема и партнерская программа в gambling и betting вертикалях 
11:48 Google - шантажист, а Cloudflare - не спаситель. Как не отлететь в бан 
11:47 Старые кости или свежее мясо? Как нагнуть старичка в серпе за один год 
11:45 10.02 Яндекс штормит, а Google лезет в долги: 15 миллиардов на железки для ИИ 
20:18 ЕС душит ТикТок: прощай бесконечная лента и RPM? Что с монетизацией? 
20:14 Гугл пухнет от кеша, а нам - крошки. Разбор $114 млрд: Адсенс в минусе, Ютуб на подписках 
20:11 01.02. Апдейт 31.01 // Chrome готовит "чёрную метку" для ИИ? 
20:15 Nexulume.com Обменник без AML и KYC 
17:47 Продажа аккаунтов HH.RU 
17:06 - Вечные ссылки с трастовых сайтов 2024 проверен FastTrust 
16:53 Мобильные и Резидентные Прокси Для Соц Сетей | 3 Гб Бесплатно 
12:59 Mixmasters - Exchange without AML and KYC 
09:05 Swapwatch.org — Мониторинг криптовалютных обменников 
08:45 GhostRocket.pro — Взлетаем в новую эру криптообмена! 
20:56 блокировка youtube 2026: ркн начинает «выдавливание». кто уже пробовал вк видео? 
20:54 Туалетные секреты: Замурчательная тема 
17:44 [AI] Бот за $600к советовал есть сыр с крысами. Нью-Йорк его (наконец-то) снес 
17:39 Кулеры и БП станут золотыми? Медь по 13 штук, олово в космосе 
15:24 Сайты Рунета 
15:22 Moltbook: Соцсеть для ботов, где людям закрыли рот. Началось? 
03:45 Гильотина для классиков: Клод доедает физические книги