Индексирует только категории
Страницы: 1 2 3 След.
Индексирует только категории, Яша индексирует только категории, а сами новости никак
Вот возникла проблема с индексацией сайта . Дело в том что Яша индексирует только категории причем бывает что на одни и те же стоит несколько ссылок в поисковике, а вот сами новости ну никак не хочет. Писались письма Платону на что получал стандартный ответ мол "Ждите и Ваш сайт обязательно проиндексируется"
Правда был грешок по неопытности торговал ссылками на Сапе причем активно, но уже 3 месяца как полностью все убрал из-за этого наверняка мой сайт попал под фильтр.
Посоветуйте какие действия нужно предпринять, что сделать, что убрать, нужны конкретные предложения.
Изменено: dewara - 30 Июня 2010 13:43
Домен случайно не в бане?

Яндекс 19
Google 355 / 9 %
Рамблер 14,000
Изменено: Dizzy - 30 Июня 2010 15:08
Нет не в бане. Я пробовал удалять из я.вебмастер и добавлять на другую учетную запись все нормально. Если бы был в бане то добавить его не удалось бы. Или я неправ????
Цитата
User-agent: Yandex
Disallow: /user
Disallow: /2010
Disallow: /page
Crawl-delay: 2
Host: dewara.ru

User-agent: *
Disallow: /user
Disallow: /page
Disallow: /2010
Host: dewara.ru
Sitemap: http://dewara.ru/sitemap.xml




Заменить на

Цитата

User-agent: *
Disallow: /user
Disallow: /page
Disallow: /2010
Host: dewara.ru
Sitemap: http://dewara.ru/sitemap.xml
Цитата
Dizzy пишет:

User-agent: *
Disallow: /user
Disallow: /page
Disallow: /2010
Host: dewara.ru
Sitemap: http://dewara.ru/sitemap.xml


Вопрос. А разве тег Host понимают другие поисковики, кроме Яндекса?
Мне казалось, что он нужен только для него... сам недавно на грабли наступил.

Добавил тег Host в хвост и...
User-Agent: *
Disallow: /cart.php
Disallow: /sort.php
Disallow: /search.php
Disallow: /pages.php
Host: www.адрес_сайта

Через некоторое время заметил, что Гугл начал "доставать" из фильтра страницы такого вида и добавлять их в свою выдачу
www.мой_сайт/cart.php?act=add&product=

Обсуждалось здесь на форуме - ветка "с www или без".

Мне даже сказали, что "Это по всем правилам конгломерат и так делать по идее нельзя."
Или я ошибаюсь?
Выпиливаю лобзиком один сайт. Смотреть можно, руками трогать нельзя - он еще хрупкий и ранимый... :)
И ещё вопрос (хочется разобрать этот случай для себя).

А что пишет Яндекс Вебмастер
Страниц в поиске сколько?
Загружено роботом сколько?
Исключено роботом сколько?
Цитата
Вопрос. А разве тег Host понимают другие поисковики, кроме Яндекса?

Кто принимает - тот скушает. Кто не принимает - проигнорирует.
Цитата
Добавил тег Host в хвост и...
User-Agent: *
Disallow: /cart.php
Disallow: /sort.php
Disallow: /search.php
Disallow: /pages.php
Host: www.адрес_сайта

Через некоторое время заметил, что Гугл начал "доставать" из фильтра страницы такого вида и добавлять их в свою выдачу
www.мой_сайт/cart.php?act=add&product=

Переформулируй вопрос.
Цитата
Мне даже сказали, что "Это по всем правилам конгломерат и так делать по идее нельзя."

Я даже знаю кто. smile:)
Цитата
А что пишет Яндекс Вебмастер
Страниц в поиске сколько?
Загружено роботом сколько?
Исключено роботом сколько?

Я откуда знаю что он там тебе пишет?
Что касается вопроса vagant-ua
страниц в поиске 19 - (кстати перед этим два месяца было всего лишь 10 и никакого сдвига, а сейчас просто одни и те же категории несколько раз в выдаче если наберете в яше site:dewara.ru то сами уведите )
Загружено роботом 172
Исключено роботом 133
Яндекс у меня совсем редкий гость на сайте, хотя я ежедневно в ручном режиме добавляю свой сайт в каталоги, доски объявлений и тому подобные.
С robots.txt я тоже игрался по разному попробую еще и такой вариант как предложен выше, но не уверен что проблема в этом
Цитата
dewara пишет:

Загружено роботом 172
Исключено роботом 133


Вот интересно, смотрел Ваш sitemap - там дофуя страниц и все вроде вменяемые, а вот Яндекс большую часть исключает, оставляет всего 39 (172 - 133).

У меня например вот так
Загружено роботом - 160
Исключено роботом - 55
Смотрю исключенные роботом и вижу - Документ запрещен в файле robots.txt
Все страницы запрещены правильно - имеют вид
/cart.php?act=add&product и т.д. и т.п.

В Вашем же случае исключено 133 страницы. Какие, почему?
Посмотрите в Яндекс Вебмастере.
Цитата
Dizzy пишет:
Цитата
Добавил тег Host в хвост и...

User-Agent: *
Disallow: /cart.php
Disallow: /sort.php
Disallow: /search.php
Disallow: /pages.php
Host: www.адрес_сайта

Через некоторое время заметил, что Гугл начал "доставать" из фильтра страницы такого вида и добавлять их в свою выдачу

www.мой_сайт/cart.php?act=add&product=


Переформулируй вопрос.


Это был не вопрос. Просто указал, что такого вида запись в файле robots.txt привел к таким результатам, а именно, Гугл начал игнорировать исключения (Disallow). Только мой личный пример, и не более...
vagant-ua, сори не заметил твой ник думал пишет автор
Вдогонку.

В Яндекс Вебмастере есть раздел "Анализ robots.txt".

Он там явно пишет, что относится к нему. Приведу мой пример
Из всего списка, а именно
Цитата
User-Agent: *
Disallow: /cart.php
Disallow: /sort.php
Disallow: /search.php
Disallow: /pages.php

User-Agent: Yandex
Disallow: /cart.php
Disallow: /sort.php
Disallow: /search.php
Disallow: /pages.php
Host: www.сайт


Яндекс отнес к себе только строки 7-12
User-Agent: Yandex
Disallow: /cart.php
...
Host: www.сайт

Предполагаю, что в Вашем случае он просто не видит секцию

Цитата
User-agent: *
Disallow: /user
Disallow: /page
Disallow: /2010
Host: dewara.ru
Sitemap: http://dewara.ru/sitemap.xml

И не может зачитать sitemap.xml

Ведь его секция выглядит так
Цитата
User-agent: Yandex
Disallow: /user
Disallow: /2010
Disallow: /page
Crawl-delay: 2
Host: dewara.ru


Хотя причина может быть и не в этом...
Уважаемый vagant-ua в я.вебмастер исключены страницы только те что прописаны в робот.тхт.
Только что поменял робот.тхт на тот что советовал Dizzy посмотрим что получится
Цитата
dewara пишет:
Уважаемый vagant-ua в я.вебмастер исключены страницы только те что прописаны в робот.тхт.


Понял, "умываю руки". Напомню только еще раз про функцию "Анализ robots.txt". После того как Яндекс зачитает новый вариант файла robots - гляньте плз. Ради спортивного интереса, как он поймет такого вида запись.

Далее остается уповать на "помощь зала"...
Продолжая анализировать Я.Вебмастер.
Также там есть раздел "Файлы Sitemap"
Я лично свой "руками" прикрутил именно там (а не в файле robots).

Тоже информативная штука. Там есть раздел "Ошибки и замечания".
У меня лично баги вида "Некорректный URL (не соответствует местоположению файла Sitemap)". Почти весь Sitemap (100 позиций).

Гляньте там.
Страницы: 1 2 3 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:56 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
17:58 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
16:58 Profit Pixels - In-House Форекс, Крипто, Трейдинг CPA Офферы | Еженедельные Выплаты | CPA до $950 
16:11 Яндекс.Фильтры 
15:21 Adtrafico - Правильная партнёрская сеть под бурж трафик 
11:44 2Index - быстрая индексация страниц сайта и обратных ссылок 
15:17 Жирная ссылка бесплатно. АПдейт Яндекс выдача 30 мая 2024 
01:00 Рассылка в TELEGRAM |Большой опыт работы | Любые тематики | Лучшая конверсия 
01:00 Рассылка сообщений в ЛС DISCORD 
00:59 Прием платежей для HIGH RISK | Прием платежей без сайта 
23:21 SiteAnalyzer SEO Tools - бесплатное браузерное расширение для Chrome & Firefox 
20:35 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
19:25 Услуга чертежника и 3D моделирования 
11:35 Google Voice - OLD аккаунты "SMS и звонки" 
02:54 Точные прогнозы на футбол 
01:23 В России летом могут представить возможный аналог YouTube 
01:05 Касперский ОС 
01:05 Жизнь за границей, куда переехать. 
00:55 Популярный сократитель заблокирован? 
00:50 Калифорния легализует компостирование людей к 2027 году 
20:54 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди