Как заставить гугл выплюнуть из индекса страницы
Страницы: 1 2 След.
Как заставить гугл выплюнуть из индекса страницы
Добрый день, уважаемые гуру!
Уже до отчаяния дело доходит, хочется взять кувалду и пойти искать гугловы сервера. Нужна ваша помощь.

Есть сайт, интернет-магазин, 9 месяцев назад была разработана более крутая версия, более функциональная и наполненная 100% уникальным контентом.
Как умный Саша я решил не рубить старую версию на корню, и выдрал со старого движка все страницы, сохранил каждую страничку в виде HTML+картинки и залил на новый движок под теми же URL-ами. В верхней части каждой старой странички заботливо добавил тулбар "Наш сайт обновился - милости просим на новый сайт, ну и ссылку на новый раздел нового сайта".
И все было прекрасно, падали желтые листья, солнышко грело, трафик после перехода на новый движок благодаря сохранению старых страниц не просел.
Как и полагается я подкинул в sitemap.xml новые урлы, старые удалять не стал.
Через некоторое время стал ставить по немногу 301 редиректы со старых страниц на новые.
Еще через 3 месяца, когда трафик на старые страницы практически сошел на нет - просто запретил к индексированию все старые страницы.
Шло время, я оптимизировал движок, выпилил образовавшиеся дубли записями в robots.txt
Потом я сделал мобильную версию, подогнал мета-теги под семантическое ядро, загнал на страницы микроразметку...

Стоит отметить, что Яшка на все реагировал адекватно, я добавляю запрет на индексацию в robots.txt - через неделю этих страниц в поиске уже нет. Я добавляю rel="canonical" - вауля, Яшка через неделю обновляет выдачу.

Гугл же муд..к! Он:
- Держит в индексе старые страницы сайта, которые запрещены в robots.txt уже 6 месяцев
- Держит в индексе все дубли, которые уже месяцев 5 как содержат в коде rel="canonical"
- До сих пор считает 80% страниц сайта не оптимизированными для мобильного, гордо сообщая об этом в поисковой выдаче, хотя в google page speed выдает ~100%

Подскажите, как пнуть эту скотину и заставить нормально проиндексировать сайт и самое главное, как заставить его выплюнуть старье, уже пол-года как запрещенное к индексации?
Изменено: Smyke - 15 Марта 2017 11:18
aka Фантом_Страйкеруса

Прогон по твиттеру, постинг в 1500 аккунтов
Постинг в твиттер аккаунты, для ускорения индексации ваших сайтов, сателлитов, дорвеев.

нужно знать специальную команду - "фу"
Ссылка на сайте всего 10 рублей https://www.cy-pr.com/forum/f79/t100010/
тиц 10, страниц в поиске 9200, 9840, 10046

Для гОВНА специальная цена – 100$ ссылка
Цитата
WhitePussy пишет:
нужно знать специальную команду - "фу"

Смешно. Угу.
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.

Кстати у меня практически такая же ситуация выкинуть нужно около 4 т стр а может есть плагин какой?
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
Цитата
WhitePussy пишет:
Цитата
nebot пишет:
Цитата
Smyke пишет:
как заставить его выплюнуть старье,
кстати присоединяюсь к вопросу: удалять постранично неактуально, если нужно выкинуть из поиска более нескольких тысяч несуществующих страниц, изза которых сайт проседает.
ну а как вы себе это представляете? Если бы можно было так легко управлять выдачей,то бардак был бы, гугл всё знает, и всё сделает. То что страницы в индексе, не значит что они участвуют в поиске, и тем более это не значит, что сайт проседает именно из за таких страниц. Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!

Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
Цитата
WhitePussy пишет:
Факторов ранжирования более 1000, а вы утверждаете что просадка из за каких то мифических страниц!
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохотаsmile:)
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!
Изменено: WhitePussy - 15 Марта 2017 22:42
Нужно было ждать пока страницы склеются и тогда только удалять со старого сайта. После удаления страниц создать новую карту сайта и добавить ее в ВМ яндекса и гугла,  после чего делать 301 с главной старого на новый. После склейки удалять весь сайт. А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить. Ему нужно больше времени от 6 мес и дольше.
Изменено: video-freelancer - 15 Марта 2017 22:51
Цитата
WhitePussy пишет:
Цитата
Smyke пишет:
Действительно, зачем это удалять дубли контента + не уникальный контент. Факторов все-равно тысяча. Тут ничего не исправить. Господь, жги!
вы просите помочь, чтобы потом разговаривать про господа?
А по делу, я вам написал по-моему крайне вразумительно, что ещё вы хотите? Можете устроить охоту на сотрудников гугла, поймать одного и бить дубинкой по голове, пока он не выкинет ненужные вам страницы из выдачи. Если вы не внимательно читаете мои сообщения, о чём вообще можно вести дальше беседу!
Цитата
nebot пишет:
допустим у сайта несколько тысяч страниц отдают 404 в ВМ гугла, другими словами это жопа сколько ошибок, а удалить их по 1 неохота[IMG]
Пройдёт время и гугл сам выбросит страницы из выдачи. Я не занимаюсь самостоятельным удалением страниц на своих сайтах из поисковиков, но помоему, в вебмастере гугла есть инструмент для удаления ненужных страниц, а по другому ну никак!

Эмм, не увидел в ваших сообщениях ничего вразумительного или по делу. Вопрос звучал так: "Как принудительно удалить страницы из индекса Гугла". Ваши ответы: "Сказать команду Фу", "Проблема не в страницах", "Нужно подождать". Вы и вправду считаете свои ответы в этой теме полезными в решении моей проблемы?
Цитата
video-freelancer пишет:
А вы что сделали, дождались склейки яндексом и сразу удалили со старого страницы не дав гуглу склеить
Не сразу, а спустя 3 месяца после переноса, когда трафик по старым URLам сошел на нет (видимо переклеились все-таки к тому моменту раз трафика больше не было)
Изменено: Smyke - 16 Марта 2017 09:37
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.
multimix.net.ua
Цитата
igor0230 пишет:
Может ссылки остались на эти страницы, вот он по этим ссылкам и ищет эти страницы.

Да вроде нет, бэклинки уже просмотрел, отдельно линки на злополучные страницы искал в поиске - ничего.
Кажется моя ошибка была в следующем:
я тупо закрыл от индекса ненужные страницы (через robots.txt) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
Цитата
Smyke пишет:
я тупо закрыл от индекса ненужные страницы (через robots.txt ) в надежде что это приведет выпадению страниц из поиска
Получается теперь Гугл и не лезет туда, куда ему доступ запрещен. И именно поэтому страницы так и сидят в индексе
в вашем случае хоть роботсом можно закрыть, а у меня их не закроешь, слишком много и все идут от главной страницы. НО -закрытие в роботсе не поможет, на других сайтах проверял это, если страницы вылезли то вылезли... наверно придется ждать=) но ошибки в ВМ гугла висят.
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
21:14 Adsense личный опыт 
21:08 Яндекс не любит украинскй хостинг? 
19:16 Апдейт ИКС 24.05.19 
13:15 Зарабатывай до 50% за сейл с партнерской программой EssayPro! 
12:34 Обновление поисковой базы 2019-05-22 
10:03 Показ белых блоков без рекламы 
09:53 Обновление поисковой базы 2019-05-26 
19:19 Продам 3 сайта 
17:22 Вёрстка 
16:51 Сайт под финансовые офферы на WP 
16:48 Прием смс на реальные номера US|Продажа ssh-tunel (не Брут) 
14:20 Комплексный прогон по трастовым сайтам, статейное размещение. Рост НЧ-СЧ, Тиц-пр. 
12:33 Бесплатное создание сайта 
10:04 Взлом, предлагаем удаление страниц, негативной информации, видео YouTube, компромата, негативных новостей! 
21:20 Не могу установить Виндовс 7 х64 на новый ноут Леново 530S-15IKB Laptop (ideapad) 
19:27 Стоит ли покупать автонаполняемый сайт 
13:00 Выгодный и бескомпромиссно мощный сервис email рассылок по РФ, СНГ, Европе, США. 
15:21 Черная тема Adwords, высокооплачиваемо, с гарантом! 
15:09 На какую тему создать сайт? 
07:41 Куплю аккаунт ADWORDS 
17:58 Срочно! МОжно ли пользоваться этими гарант-сервисами?