Непалишийся копипаст
Страницы: 1
Непалишийся копипаст
Прочитал в блоге - http://blogarbik.ru

Цитата
Дело в том, что Яндекс считает трастовым только те сайты где происходит какая то жизнь. Ну допустим форум стоит или же каждый день добавляются новые материалы.

Варезный сайт не банится в том случае, если на него каждый день добавляются какие либо новости.
Объясняю почему это происходит.

Вот у нас сайт на движке Dle. На каждой странице у нас по 10 кратких новостей. Ну так вот. Если вы каждый день добавляете новые 5-10 новостей, новые новости сдвигают вниз старые новости вниз. В результате на каждой странице нашего сайта уже другой набор кратких новостей. А вот этот набор новостей уникален для Яндекса. Соответственно бот Яндекса заходит на сайт и видит каждый день новые уникальные страницы.

Вот и весь секрет почему один копипаст банится а другой нет.
Просто за счёт того что каждый день добавляются новые страницы, контент страниц постоянно меняется и он уникален.

Чтобы так делать нужно делать отложенную публикацию новостей.

Допустим в Арбаноиде мы реализовали такую возможность. Т.е. можно выбрать дату публикации новостей на 1-2 месяца вперёд. И каждый день без вашего ведома страницы будут добавляться на ваш сайт.

Читать подробнее>>>

Так-то в большинстве случаев это утверждение может быть верным, но на все 100% не могу согласиться, так как:
* так всё же некоторые сайты вылетают;
* есть сайт (варез) на юкозе он более года не пополняется и не чего, находится спокойно в Яше и почти все страницы в ПС (только не в Гоше), контент - копипаст.
Цитата
Prapovednik пишет:
Прочитал в блоге - http://blogarbik.ru
Цитата
Дело в том, что Яндекс считает трастовым только те сайты где происходит какая то жизнь. Ну допустим форум стоит или же каждый день добавляются новые материалы.
Варезный сайт не банится в том случае, если на него каждый день добавляются какие либо новости.
Объясняю почему это происходит.
Вот у нас сайт на движке Dle. На каждой странице у нас по 10 кратких новостей. Ну так вот. Если вы каждый день добавляете новые 5-10 новостей, новые новости сдвигают вниз старые новости вниз. В результате на каждой странице нашего сайта уже другой набор кратких новостей. А вот этот набор новостей уникален для Яндекса. Соответственно бот Яндекса заходит на сайт и видит каждый день новые уникальные страницы.
Вот и весь секрет почему один копипаст банится а другой нет.
Просто за счёт того что каждый день добавляются новые страницы, контент страниц постоянно меняется и он уникален.
Чтобы так делать нужно делать отложенную публикацию новостей.
Допустим в Арбаноиде мы реализовали такую возможность. Т.е. можно выбрать дату публикации новостей на 1-2 месяца вперёд. И каждый день без вашего ведома страницы будут добавляться на ваш сайт.

Читать подробнее>>>
Так-то в большинстве случаев это утверждение может быть верным, но на все 100% не могу согласиться, так как:
* так всё же некоторые сайты вылетают;
* есть сайт (варез) на юкозе он более года не пополняется и не чего, находится спокойно в Яше и почти все страницы в ПС (только не в Гоше), контент - копипаст.
Согласна, оставила знаете какой сайт в покое, а на нем посещалка только растет, хотя второй месяц ничего не добавляю. И страниц в ПС больше, чем их есть на сайте (или мне просто так кажется smile:) )
felis_serval, нужно проверить на наличее дублей. У меня были. Платон сказал, что необходимо их запретить в robots.txt.
Цитата
wood-doors пишет:
felis_serval, нужно проверить на наличее дублей. У меня были. Платон сказал, что необходимо их запретить в robots.txt.
А как это сделать? smile:confused:
Там 2.5 к страниц...
Вот сейчас вылезло 2 страницы, но в гугл вебмастере. Заблокировал в robots.txt. ПС считает эти страницы недоступными и выдает 404 ошибку, что, пологаю, не есть хорошо.
qfdjj.JPG (11.94 КБ) [ Скачать ]
У Вас сайт-визитка, по большому счету, легко это контролировать, у меня...энциклопедия. Как обнаружить дубли, если они есть?
В гугл вебмастере в ошибках сканирования. А в Яндексе... щас посмотрю.

Общая информация -> исключено роботом.
Изменено: wood-doors - 14 Марта 2011 23:05
Там 76 страниц, и все они в разное время действительно перестали существовать, как та, про Праповедника...
felis_serval, если индексацию разделов/категорий не запрещали, то нормально все
Цитата
wood-doors пишет:
Платон сказал, что необходимо их запретить в robots.txt.

А Гугл наоборот говорит не закрывать в роботс.тхт, а использовать мета теги
<met a name="robots" content="noindex, follow" />
Цитата
felis_serval пишет:
Там 2.5 к страниц...

Если у Вас CMS, то хоть мильён... В Вордпрессе это три строчки кода.
=====================================
Проблемы с Wordpress? Решение здесь.
Действительно, забросил сайт (варез) в сентябре 2010 - он в индексе
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
22:56 "Осталось 5 дн. до НГ" АПдейт Яндекс выдача 
22:47 Ссылки с сайтов РБ 
22:44 25.12.25 Апдейт Яндекс выдача 
22:35 Продвижение-2022: Гугл все? Нет – Гугл не все! 
22:33 Дзен окончательно всё? Или у кого-то еще «стреляет» белый контент? 
20:16 Волна банов за ПФ под Новый год? Кого еще зацепило? 
19:42 Нашел скрины выплат с Сапы за 2010 год. Пошел плакать 
18:09 Onechange.me — надежный обменник криптовалют и фиатных средств 
16:14 xpoint.pro - быстрый и надежный криптообменный сервис Xpoint 
16:05 Продвижение на Авито 
14:59 Рассылки СМС/SMS, Вайбер/Viber, Ватсап/Whatsapp, Телеграм/Telegram любой тематики по всему миру 
10:06 CryptoGraph — Анонимный обмен криптовалют без KYC и AML 
08:53 Размещение статей, ссылок и постовых на качественных ресурсах 
08:22 Мониторинг обменников Сrypto-scout.io 
22:54 Стряхнуть обыденность - об Агасфере 
22:42 Владельцы "китайцев" 3-леток, признавайтесь честно — сгнили или едут? 
22:38 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди 
23:08 Физические сим-карты 
22:52 37 противникам прививок от COVID грозят уголовные дела 
21:44 С юмором по жизни! 
13:34 Компьютерная мышь