Как заставить гугл выплюнуть из индекса страницы
Страницы: 1 2 След.
Как заставить гугл выплюнуть из индекса страницы
Добрый день, уважаемые гуру!
Уже до отчаяния дело доходит, хочется взять кувалду и пойти искать гугловы сервера. Нужна ваша помощь.

Есть сайт, интернет-магазин, 9 месяцев назад была разработана более крутая версия, более функциональная и наполненная 100% уникальным контентом.
Как умный Саша я решил не рубить старую версию на корню, и выдрал со старого движка все страницы, сохранил каждую страничку в виде HTML+картинки и залил на новый движок под теми же URL-ами. В верхней части каждой старой странички заботливо добавил тулбар "Наш сайт обновился - милости просим на новый сайт, ну и ссылку на новый раздел нового сайта".
И все было прекрасно, падали желтые листья, солнышко грело, трафик после перехода на новый движок благодаря сохранению старых страниц не просел.
Как и полагается я подкинул в sitemap.xml новые урлы, старые удалять не стал.
Через некоторое время стал ставить по немногу 301 редиректы со старых страниц на новые.
Еще через 3 месяца, когда трафик на старые страницы практически сошел на нет - просто запретил к индексированию все старые страницы.
Шло время, я оптимизировал движок, выпилил образовавшиеся дубли записями в robots.txt
Потом я сделал мобильную версию, подогнал мета-теги под семантическое ядро, загнал на страницы микроразметку...

Стоит отметить, что Яшка на все реагировал адекватно, я добавляю запрет на индексацию в robots.txt - через неделю этих страниц в поиске уже нет. Я добавляю rel="canonical" - вауля, Яшка через неделю обновляет выдачу.

Гугл же муд..к! Он:
- Держит в индексе старые страницы сайта, которые запрещены в robots.txt уже 6 месяцев
- Держит в индексе все дубли, которые уже месяцев 5 как содержат в коде rel="canonical"
- До сих пор считает 80% страниц сайта не оптимизированными для мобильного, гордо сообщая об этом в поисковой выдаче, хотя в google page speed выдает ~100%

Подскажите, как пнуть эту скотину и заставить нормально проиндексировать сайт и самое главное, как заставить его выплюнуть старье, уже пол-года как запрещенное к индексации?
Изменено: Smyke - 15 Марта 2017 11:18
aka Фантом_Страйкеруса

Бесплатная контекстная реклама

нужно знать специальную команду - "фу"
Ссылка на сайте всего 10 рублей https://www.cy-pr.com/forum/f79/t100010/
тиц 10, страниц в поиске 9200, 9840, 10046

Для гОВНА специальная цена – 100$ ссылка
Цитата
WhitePussy пишет:
нужно знать специальную команду - "фу"

Смешно. Угу.
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.

Кстати у меня практически такая же ситуация выкинуть нужно около 4 т стр а может есть плагин какой?
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
Цитата
WhitePussy пишет:
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!

Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
Цитата
WhitePussy пишет:
Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохотаsmile:)
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!
Изменено: WhitePussy - 15 Марта 2017 22:42
Нужно было ждать пока страницы склеются и тогда только удалять со старого сайта. После удаления страниц создать новую карту сайта и добавить ее в ВМ яндекса и гугла,  после чего делать 301 с главной старого на новый. После склейки удалять весь сайт. А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить. Ему нужно больше времени от 6 мес и дольше.
Изменено: video-freelancer - 15 Марта 2017 22:51
Цитата
WhitePussy пишет:
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!

Эмм, не увидел в ваших сообщениях ничего вразумительного или по делу. Вопрос звучал так: "Как принудительно удалить страницы из индекса Гугла". Ваши ответы: "Сказать команду Фу", "Проблема не в страницах", "Нужно подождать". Вы и вправду считаете свои ответы в этой теме полезными в решении моей проблемы?
Цитата
video-freelancer пишет:
А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить
Не сразу, а спустя 3 месяца после переноса, когда трафик по старым URLам сошел на нет (видимо переклеились все-таки к тому моменту раз трафика больше не было)
Изменено: Smyke - 16 Марта 2017 09:37
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.
multimix.net.ua
Цитата
igor0230 пишет:
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.

Да вроде нет, бэклинки уже просмотрел, отдельно линки на злополучные страницы искал в поиске - ничего.
Кажется моя ошибка была в следующем:
я тупо закрыл от индекса ненужные страницы (через robots.txt) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
Цитата
Smyke пишет:
я тупо закрыл от индекса ненужные страницы (через robots.txt ) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
в вашем случае хоть роботсом можно закрыть, а у меня их не закроешь, слишком много и все идут от главной страницы. НО -закрытие в роботсе не поможет, на других сайтах проверял это, если страницы вылезли то вылезли... наверно придется ждать=) но ошибки в ВМ гугла висят.
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
23:21 Хочу добавить на сайт материалы запрещенные Adsens 
23:18 31.08.2018 Апдейт Яндекс ИКС 
21:21 Это нормальна выдача?? 
21:09 Что такое Яндекс Икс / Как накрутить Яндекс ИКС 
20:24 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
19:37 Яндекс выдача. Тема для АПдейтов, которые будут с 16.09 по 23.09.2018 включительно 
17:29 Биржи ссылок - отмена тИЦ - появление Яндекс ИКС 
22:51 (От 1000 руб) - Парсеры, Регеры, Постеры, Автоматизация 
21:37 INSTAGRAM-CRACKED.RU-Программы для INSTAGRAM 
21:06 Куплю аккаунт Adsense 
20:01 SocTool CRACKED 2.0.4.4 -НОВАЯ версия единоразово 
17:11 Продам канал Яндекс Дзен 
15:32 Продам аккаунты 1 ТБ Облако@Mail.ru 
15:20 Продам аккаунты Google Adwords 
00:01 Ссылка с морды 
00:00 Таблицы в описании категорий интернет магазина 
23:56 Индексация ссылок в профилях форумов 
19:31 Провожу бесплатные аудиты сайтов, консультации, сбор семантических ядер 
15:11 Предложение "выходного дня" от Coder'a) 
13:25 PushAds.Guru - продаём и покупаем PUSH формат 
11:56 А были ли раньше леса? Где леса?