Непалишийся копипаст
Страницы: 1
Непалишийся копипаст
Прочитал в блоге - http://blogarbik.ru

Цитата
Дело в том, что Яндекс считает трастовым только те сайты где происходит какая то жизнь. Ну допустим форум стоит или же каждый день добавляются новые материалы.

Варезный сайт не банится в том случае, если на него каждый день добавляются какие либо новости.
Объясняю почему это происходит.

Вот у нас сайт на движке Dle. На каждой странице у нас по 10 кратких новостей. Ну так вот. Если вы каждый день добавляете новые 5-10 новостей, новые новости сдвигают вниз старые новости вниз. В результате на каждой странице нашего сайта уже другой набор кратких новостей. А вот этот набор новостей уникален для Яндекса. Соответственно бот Яндекса заходит на сайт и видит каждый день новые уникальные страницы.

Вот и весь секрет почему один копипаст банится а другой нет.
Просто за счёт того что каждый день добавляются новые страницы, контент страниц постоянно меняется и он уникален.

Чтобы так делать нужно делать отложенную публикацию новостей.

Допустим в Арбаноиде мы реализовали такую возможность. Т.е. можно выбрать дату публикации новостей на 1-2 месяца вперёд. И каждый день без вашего ведома страницы будут добавляться на ваш сайт.

Читать подробнее>>>

Так-то в большинстве случаев это утверждение может быть верным, но на все 100% не могу согласиться, так как:
* так всё же некоторые сайты вылетают;
* есть сайт (варез) на юкозе он более года не пополняется и не чего, находится спокойно в Яше и почти все страницы в ПС (только не в Гоше), контент - копипаст.
Цитата
Prapovednik пишет:
Прочитал в блоге - http://blogarbik.ru
Цитата
Дело в том, что Яндекс считает трастовым только те сайты где происходит какая то жизнь. Ну допустим форум стоит или же каждый день добавляются новые материалы.
Варезный сайт не банится в том случае, если на него каждый день добавляются какие либо новости.
Объясняю почему это происходит.
Вот у нас сайт на движке Dle. На каждой странице у нас по 10 кратких новостей. Ну так вот. Если вы каждый день добавляете новые 5-10 новостей, новые новости сдвигают вниз старые новости вниз. В результате на каждой странице нашего сайта уже другой набор кратких новостей. А вот этот набор новостей уникален для Яндекса. Соответственно бот Яндекса заходит на сайт и видит каждый день новые уникальные страницы.
Вот и весь секрет почему один копипаст банится а другой нет.
Просто за счёт того что каждый день добавляются новые страницы, контент страниц постоянно меняется и он уникален.
Чтобы так делать нужно делать отложенную публикацию новостей.
Допустим в Арбаноиде мы реализовали такую возможность. Т.е. можно выбрать дату публикации новостей на 1-2 месяца вперёд. И каждый день без вашего ведома страницы будут добавляться на ваш сайт.

Читать подробнее>>>
Так-то в большинстве случаев это утверждение может быть верным, но на все 100% не могу согласиться, так как:
* так всё же некоторые сайты вылетают;
* есть сайт (варез) на юкозе он более года не пополняется и не чего, находится спокойно в Яше и почти все страницы в ПС (только не в Гоше), контент - копипаст.
Согласна, оставила знаете какой сайт в покое, а на нем посещалка только растет, хотя второй месяц ничего не добавляю. И страниц в ПС больше, чем их есть на сайте (или мне просто так кажется smile:) )
felis_serval, нужно проверить на наличее дублей. У меня были. Платон сказал, что необходимо их запретить в robots.txt.
Цитата
wood-doors пишет:
felis_serval, нужно проверить на наличее дублей. У меня были. Платон сказал, что необходимо их запретить в robots.txt.
А как это сделать? smile:confused:
Там 2.5 к страниц...
Вот сейчас вылезло 2 страницы, но в гугл вебмастере. Заблокировал в robots.txt. ПС считает эти страницы недоступными и выдает 404 ошибку, что, пологаю, не есть хорошо.
qfdjj.JPG (11.94 КБ) [ Скачать ]
У Вас сайт-визитка, по большому счету, легко это контролировать, у меня...энциклопедия. Как обнаружить дубли, если они есть?
В гугл вебмастере в ошибках сканирования. А в Яндексе... щас посмотрю.

Общая информация -> исключено роботом.
Изменено: wood-doors - 14 Марта 2011 23:05
Там 76 страниц, и все они в разное время действительно перестали существовать, как та, про Праповедника...
felis_serval, если индексацию разделов/категорий не запрещали, то нормально все
Цитата
wood-doors пишет:
Платон сказал, что необходимо их запретить в robots.txt.

А Гугл наоборот говорит не закрывать в роботс.тхт, а использовать мета теги
<met a name="robots" content="noindex, follow" />
Цитата
felis_serval пишет:
Там 2.5 к страниц...

Если у Вас CMS, то хоть мильён... В Вордпрессе это три строчки кода.
=====================================
Проблемы с Wordpress? Решение здесь.
Действительно, забросил сайт (варез) в сентябре 2010 - он в индексе
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
17:03 Устали от Пустых Обещаний? Market-Place.su даёт реальные деньги! 
15:08 Стоит ли добавлять сайт в Rambler топ 100? 
14:14 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
19:33 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
09:02 Как продвигать сайт с неуникальным контентом 
08:57 Absence в Армении 
14:50 Индексация страниц 
19:43 CactusPay.PRO | Умная платёжная система с выводом в USDT TRC-20 
19:24 Продам аккаунты HH.RU 
17:46 Terminal.cash - надежный обмен криптовалюты 
16:18 Volna.money 
16:13 swapsfera.com 
16:04 GoodsMoney.io 
13:27 PonyBit.ru - обменный пункт PonyBit.ru (Понибит.ру) 
21:28 Ну что, кто куда деваете свои сайты? 
20:48 Точные прогнозы на футбол 
22:09 Добро пожаловать в цифровой мир... 
19:42 Топ-5 способов использовать мобильные прокси для бизнеса: подробный обзор 
22:08 Накрутка поисковых подсказок 
14:01 Union Pharm - топовая фарма-партнерка для профессионалов! 
10:59 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди