Как заставить гугл выплюнуть из индекса страницы
Страницы: 1 2 След.
Как заставить гугл выплюнуть из индекса страницы
Добрый день, уважаемые гуру!
Уже до отчаяния дело доходит, хочется взять кувалду и пойти искать гугловы сервера. Нужна ваша помощь.

Есть сайт, интернет-магазин, 9 месяцев назад была разработана более крутая версия, более функциональная и наполненная 100% уникальным контентом.
Как умный Саша я решил не рубить старую версию на корню, и выдрал со старого движка все страницы, сохранил каждую страничку в виде HTML+картинки и залил на новый движок под теми же URL-ами. В верхней части каждой старой странички заботливо добавил тулбар "Наш сайт обновился - милости просим на новый сайт, ну и ссылку на новый раздел нового сайта".
И все было прекрасно, падали желтые листья, солнышко грело, трафик после перехода на новый движок благодаря сохранению старых страниц не просел.
Как и полагается я подкинул в sitemap.xml новые урлы, старые удалять не стал.
Через некоторое время стал ставить по немногу 301 редиректы со старых страниц на новые.
Еще через 3 месяца, когда трафик на старые страницы практически сошел на нет - просто запретил к индексированию все старые страницы.
Шло время, я оптимизировал движок, выпилил образовавшиеся дубли записями в robots.txt
Потом я сделал мобильную версию, подогнал мета-теги под семантическое ядро, загнал на страницы микроразметку...

Стоит отметить, что Яшка на все реагировал адекватно, я добавляю запрет на индексацию в robots.txt - через неделю этих страниц в поиске уже нет. Я добавляю rel="canonical" - вауля, Яшка через неделю обновляет выдачу.

Гугл же муд..к! Он:
- Держит в индексе старые страницы сайта, которые запрещены в robots.txt уже 6 месяцев
- Держит в индексе все дубли, которые уже месяцев 5 как содержат в коде rel="canonical"
- До сих пор считает 80% страниц сайта не оптимизированными для мобильного, гордо сообщая об этом в поисковой выдаче, хотя в google page speed выдает ~100%

Подскажите, как пнуть эту скотину и заставить нормально проиндексировать сайт и самое главное, как заставить его выплюнуть старье, уже пол-года как запрещенное к индексации?
Изменено: Smyke - 15 Марта 2017 11:18
aka Фантом_Страйкеруса
нужно знать специальную команду - "фу"
Ссылка на сайте всего 10 рублей https://www.cy-pr.com/forum/f79/t100010/
тиц 10, страниц в поиске 9200, 9840, 10046

Для гОВНА специальная цена – 100$ ссылка
Цитата
WhitePussy пишет:
нужно знать специальную команду - "фу"

Смешно. Угу.
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.

Кстати у меня практически такая же ситуация выкинуть нужно около 4 т стр а может есть плагин какой?
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
Цитата
WhitePussy пишет:
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!

Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
Цитата
WhitePussy пишет:
Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота:)
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!
Изменено: WhitePussy - 15 Марта 2017 22:42
Нужно было ждать пока страницы склеются и тогда только удалять со старого сайта. После удаления страниц создать новую карту сайта и добавить ее в ВМ яндекса и гугла,  после чего делать 301 с главной старого на новый. После склейки удалять весь сайт. А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить. Ему нужно больше времени от 6 мес и дольше.
Изменено: video-freelancer - 15 Марта 2017 22:51
Цитата
WhitePussy пишет:
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!

Эмм, не увидел в ваших сообщениях ничего вразумительного или по делу. Вопрос звучал так: "Как принудительно удалить страницы из индекса Гугла". Ваши ответы: "Сказать команду Фу", "Проблема не в страницах", "Нужно подождать". Вы и вправду считаете свои ответы в этой теме полезными в решении моей проблемы?
Цитата
video-freelancer пишет:
А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить
Не сразу, а спустя 3 месяца после переноса, когда трафик по старым URLам сошел на нет (видимо переклеились все-таки к тому моменту раз трафика больше не было)
Изменено: Smyke - 16 Марта 2017 09:37
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.
multimix.net.ua
Цитата
igor0230 пишет:
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.

Да вроде нет, бэклинки уже просмотрел, отдельно линки на злополучные страницы искал в поиске - ничего.
Кажется моя ошибка была в следующем:
я тупо закрыл от индекса ненужные страницы (через robots.txt) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
Цитата
Smyke пишет:
я тупо закрыл от индекса ненужные страницы (через robots.txt ) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
в вашем случае хоть роботсом можно закрыть, а у меня их не закроешь, слишком много и все идут от главной страницы. НО -закрытие в роботсе не поможет, на других сайтах проверял это, если страницы вылезли то вылезли... наверно придется ждать=) но ошибки в ВМ гугла висят.
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
13:54 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
14:50 Индексация страниц 
12:36 У кого новостник, дайте пару советов плиз 
13:53 AviTool - мощный инструмент для автоматизации работы с Avito 
17:01 Absence в Армении 
23:19 Ребята подскажите какими сервисами и прогами вы пользуетесь для SEO продвижения? 
14:50 Какую выбрать тему/нишу для сайта? 
22:45 Обменник криптовалюты OnlyCrypto 
21:36 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
20:19 Cryptonet.pro - быстрый и надежный обмен электронных валют! 
16:18 swapsfera.com 
14:35 garantcoin.io - быстрый и надёжный сервис обмена криптовалюты GarantCoin 
13:20 GoodsMoney.io 
12:50 SpaceSwap.cc - Быстрый и надежный обменник криптовалют 
19:42 Топ-5 способов использовать мобильные прокси для бизнеса: подробный обзор 
22:08 Накрутка поисковых подсказок 
05:04 Точные прогнозы на футбол 
14:01 Union Pharm - топовая фарма-партнерка для профессионалов! 
10:59 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди 
12:23 150+ хакерских поисковых систем и инструментов 
17:41 Стряхнуть обыденность - об Агасфере