Непалишийся копипаст
Страницы: 1
Непалишийся копипаст
Прочитал в блоге - http://blogarbik.ru

Цитата
Дело в том, что Яндекс считает трастовым только те сайты где происходит какая то жизнь. Ну допустим форум стоит или же каждый день добавляются новые материалы.

Варезный сайт не банится в том случае, если на него каждый день добавляются какие либо новости.
Объясняю почему это происходит.

Вот у нас сайт на движке Dle. На каждой странице у нас по 10 кратких новостей. Ну так вот. Если вы каждый день добавляете новые 5-10 новостей, новые новости сдвигают вниз старые новости вниз. В результате на каждой странице нашего сайта уже другой набор кратких новостей. А вот этот набор новостей уникален для Яндекса. Соответственно бот Яндекса заходит на сайт и видит каждый день новые уникальные страницы.

Вот и весь секрет почему один копипаст банится а другой нет.
Просто за счёт того что каждый день добавляются новые страницы, контент страниц постоянно меняется и он уникален.

Чтобы так делать нужно делать отложенную публикацию новостей.

Допустим в Арбаноиде мы реализовали такую возможность. Т.е. можно выбрать дату публикации новостей на 1-2 месяца вперёд. И каждый день без вашего ведома страницы будут добавляться на ваш сайт.

Читать подробнее>>>

Так-то в большинстве случаев это утверждение может быть верным, но на все 100% не могу согласиться, так как:
* так всё же некоторые сайты вылетают;
* есть сайт (варез) на юкозе он более года не пополняется и не чего, находится спокойно в Яше и почти все страницы в ПС (только не в Гоше), контент - копипаст.
Цитата
Prapovednik пишет:
Прочитал в блоге - http://blogarbik.ru
Цитата
Дело в том, что Яндекс считает трастовым только те сайты где происходит какая то жизнь. Ну допустим форум стоит или же каждый день добавляются новые материалы.
Варезный сайт не банится в том случае, если на него каждый день добавляются какие либо новости.
Объясняю почему это происходит.
Вот у нас сайт на движке Dle. На каждой странице у нас по 10 кратких новостей. Ну так вот. Если вы каждый день добавляете новые 5-10 новостей, новые новости сдвигают вниз старые новости вниз. В результате на каждой странице нашего сайта уже другой набор кратких новостей. А вот этот набор новостей уникален для Яндекса. Соответственно бот Яндекса заходит на сайт и видит каждый день новые уникальные страницы.
Вот и весь секрет почему один копипаст банится а другой нет.
Просто за счёт того что каждый день добавляются новые страницы, контент страниц постоянно меняется и он уникален.
Чтобы так делать нужно делать отложенную публикацию новостей.
Допустим в Арбаноиде мы реализовали такую возможность. Т.е. можно выбрать дату публикации новостей на 1-2 месяца вперёд. И каждый день без вашего ведома страницы будут добавляться на ваш сайт.

Читать подробнее>>>
Так-то в большинстве случаев это утверждение может быть верным, но на все 100% не могу согласиться, так как:
* так всё же некоторые сайты вылетают;
* есть сайт (варез) на юкозе он более года не пополняется и не чего, находится спокойно в Яше и почти все страницы в ПС (только не в Гоше), контент - копипаст.
Согласна, оставила знаете какой сайт в покое, а на нем посещалка только растет, хотя второй месяц ничего не добавляю. И страниц в ПС больше, чем их есть на сайте (или мне просто так кажется smile:) )
felis_serval, нужно проверить на наличее дублей. У меня были. Платон сказал, что необходимо их запретить в robots.txt.
Цитата
wood-doors пишет:
felis_serval, нужно проверить на наличее дублей. У меня были. Платон сказал, что необходимо их запретить в robots.txt.
А как это сделать? smile:confused:
Там 2.5 к страниц...
Вот сейчас вылезло 2 страницы, но в гугл вебмастере. Заблокировал в robots.txt. ПС считает эти страницы недоступными и выдает 404 ошибку, что, пологаю, не есть хорошо.
qfdjj.JPG (11.94 КБ) [ Скачать ]
У Вас сайт-визитка, по большому счету, легко это контролировать, у меня...энциклопедия. Как обнаружить дубли, если они есть?
В гугл вебмастере в ошибках сканирования. А в Яндексе... щас посмотрю.

Общая информация -> исключено роботом.
Изменено: wood-doors - 14 Марта 2011 23:05
Там 76 страниц, и все они в разное время действительно перестали существовать, как та, про Праповедника...
felis_serval, если индексацию разделов/категорий не запрещали, то нормально все
Цитата
wood-doors пишет:
Платон сказал, что необходимо их запретить в robots.txt.

А Гугл наоборот говорит не закрывать в роботс.тхт, а использовать мета теги
<met a name="robots" content="noindex, follow" />
Цитата
felis_serval пишет:
Там 2.5 к страниц...

Если у Вас CMS, то хоть мильён... В Вордпрессе это три строчки кода.
=====================================
Проблемы с Wordpress? Решение здесь.
Действительно, забросил сайт (варез) в сентябре 2010 - он в индексе
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
14:31 Rotapost прикрыли! Чем пользоваться? 
00:23 Раскрутка форума 
00:19 Продвижение по ключам 
17:40 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
14:07 2Index - быстрая индексация страниц сайта и обратных ссылок 
12:02 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
22:23 Подскажите нормальный сервис накрутки ПФ 
16:15 Продам обменник криптовалюты, а также новый обменник под ключ с обучением. Скидки на скрипты обменника 
16:04 CryptoGraph — Анонимный обмен криптовалют без KYC и AML 
05:30 CoinCapital  
04:22 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
20:30 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
19:53 №1 Рассылка / Инвайтинг [TELEGRAM] | Приватный метод 
19:52 Trustpilot Reviews | Подниму рейтинг вашей компании 
16:49 monetizer.agency – рекламная сеть для взрослого и развлекательного трафика. 100$ новому вебмастеру 
20:43 Добро пожаловать в цифровой мир... 
15:59 Про мясо 
23:09 ПП от PMS remote.team - 200$ за команду 
13:28 Компьютерная мышь 
22:55 Ну что, кто куда деваете свои сайты? 
22:34 Используете беспроводные наушники?