Как заставить гугл выплюнуть из индекса страницы
Страницы: 1 2 След.
Как заставить гугл выплюнуть из индекса страницы
Добрый день, уважаемые гуру!
Уже до отчаяния дело доходит, хочется взять кувалду и пойти искать гугловы сервера. Нужна ваша помощь.

Есть сайт, интернет-магазин, 9 месяцев назад была разработана более крутая версия, более функциональная и наполненная 100% уникальным контентом.
Как умный Саша я решил не рубить старую версию на корню, и выдрал со старого движка все страницы, сохранил каждую страничку в виде HTML+картинки и залил на новый движок под теми же URL-ами. В верхней части каждой старой странички заботливо добавил тулбар "Наш сайт обновился - милости просим на новый сайт, ну и ссылку на новый раздел нового сайта".
И все было прекрасно, падали желтые листья, солнышко грело, трафик после перехода на новый движок благодаря сохранению старых страниц не просел.
Как и полагается я подкинул в sitemap.xml новые урлы, старые удалять не стал.
Через некоторое время стал ставить по немногу 301 редиректы со старых страниц на новые.
Еще через 3 месяца, когда трафик на старые страницы практически сошел на нет - просто запретил к индексированию все старые страницы.
Шло время, я оптимизировал движок, выпилил образовавшиеся дубли записями в robots.txt
Потом я сделал мобильную версию, подогнал мета-теги под семантическое ядро, загнал на страницы микроразметку...

Стоит отметить, что Яшка на все реагировал адекватно, я добавляю запрет на индексацию в robots.txt - через неделю этих страниц в поиске уже нет. Я добавляю rel="canonical" - вауля, Яшка через неделю обновляет выдачу.

Гугл же муд..к! Он:
- Держит в индексе старые страницы сайта, которые запрещены в robots.txt уже 6 месяцев
- Держит в индексе все дубли, которые уже месяцев 5 как содержат в коде rel="canonical"
- До сих пор считает 80% страниц сайта не оптимизированными для мобильного, гордо сообщая об этом в поисковой выдаче, хотя в google page speed выдает ~100%

Подскажите, как пнуть эту скотину и заставить нормально проиндексировать сайт и самое главное, как заставить его выплюнуть старье, уже пол-года как запрещенное к индексации?
Изменено: Smyke - 15 Марта 2017 11:18
aka Фантом_Страйкеруса

Прогон по твиттеру, постинг в 1500 аккунтов
Постинг в твиттер аккаунты, для ускорения индексации ваших сайтов, сателлитов, дорвеев.

нужно знать специальную команду - "фу"
Ссылка на сайте всего 10 рублей https://www.cy-pr.com/forum/f79/t100010/
тиц 10, страниц в поиске 9200, 9840, 10046

Для гОВНА специальная цена – 100$ ссылка
Цитата
WhitePussy пишет:
нужно знать специальную команду - "фу"

Смешно. Угу.
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.

Кстати у меня практически такая же ситуация выкинуть нужно около 4 т стр а может есть плагин какой?
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
Цитата
WhitePussy пишет:
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!

Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
Цитата
WhitePussy пишет:
Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохотаsmile:)
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!
Изменено: WhitePussy - 15 Марта 2017 22:42
Нужно было ждать пока страницы склеются и тогда только удалять со старого сайта. После удаления страниц создать новую карту сайта и добавить ее в ВМ яндекса и гугла,  после чего делать 301 с главной старого на новый. После склейки удалять весь сайт. А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить. Ему нужно больше времени от 6 мес и дольше.
Изменено: video-freelancer - 15 Марта 2017 22:51
Цитата
WhitePussy пишет:
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!

Эмм, не увидел в ваших сообщениях ничего вразумительного или по делу. Вопрос звучал так: "Как принудительно удалить страницы из индекса Гугла". Ваши ответы: "Сказать команду Фу", "Проблема не в страницах", "Нужно подождать". Вы и вправду считаете свои ответы в этой теме полезными в решении моей проблемы?
Цитата
video-freelancer пишет:
А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить
Не сразу, а спустя 3 месяца после переноса, когда трафик по старым URLам сошел на нет (видимо переклеились все-таки к тому моменту раз трафика больше не было)
Изменено: Smyke - 16 Марта 2017 09:37
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.
multimix.net.ua
Цитата
igor0230 пишет:
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.

Да вроде нет, бэклинки уже просмотрел, отдельно линки на злополучные страницы искал в поиске - ничего.
Кажется моя ошибка была в следующем:
я тупо закрыл от индекса ненужные страницы (через robots.txt) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
Цитата
Smyke пишет:
я тупо закрыл от индекса ненужные страницы (через robots.txt ) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
в вашем случае хоть роботсом можно закрыть, а у меня их не закроешь, слишком много и все идут от главной страницы. НО -закрытие в роботсе не поможет, на других сайтах проверял это, если страницы вылезли то вылезли... наверно придется ждать=) но ошибки в ВМ гугла висят.
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
17:54 Закрытие регионов в Google 
17:26 RiveSolutions SEO Spider - программа для проведения технического аудита сайта. Бета-тест. 
16:54 Размытие изображений 
16:49 Popunder.ru - крупнейшая биржа трафика, стабильные выплаты с 2007 года! 
16:37 WelcomePartners – ведущая гемблинг партнерка рунета! 
16:26 Lottery Partner в поиске партнеров! Самые высокие ставки! 
16:24 Лучшая рекламная сеть Traffic.ru! 
17:43 Сдам в аренду сайт 
17:17 Продвижение сайта, интернет-магазина, компании, бренда, сферы услуг с помощью крауд-маркетинга! 
16:10 Семантическое ядро по новой технологии + LSI с ручной группировкой 
16:00 Куплю сайт с доходом! Бюджет большой! 
15:09 Помогите оценить сайт 
14:17 Прогоны/регистрация по профилям, вечные приватные ссылки, пф, продвижение 
12:18 Анонимность в Сети от профессионалов 
17:29 Вконтакте в Украине разблокируют? 
17:20 Куплю киношный домен/сайт 
17:09 Сделать агрегатор на WP 
15:12 Чем монетизируете АДАЛТ? 
14:16 Подскажите сервис смс подтверждения регистрации на сайте 
12:43 Как выучить правила? - Автошкола 
12:21 Новая тизерная сеть Actionteaser.ru