| Цитата | ||
|---|---|---|
Новичек80 пишет:
Запускайте сайт ![]() |
- люди пересматривают фильмы
А второе - уж хочется подышать в затылок какому нибудь гид-у или ivi

|
#16
27 Мая 2014 19:02
- люди пересматривают фильмы
А второе - уж хочется подышать в затылок какому нибудь гид-у или ivi ![]() |
|
#17
27 Мая 2014 19:23
5 тонн страниц разом ПСы будут индексить полгода-год, чтобы хотя бы 30% вывести в ТОП50. Да еще с доменом Тувалу
(Доменное имя в данной доменной зоне актуально приобрести, если Ваш сайт работает в онлайн-режиме, предоставляя трансляцию передач. Вы можете купить домены в зоне .TV, если Ваша деятельность связана с продажей спутниковых тарелок, пультов). И чо все упёрлись в этот уник - текст должен быть интересный и читабельный, пусть не 100%-й уник. |
|
#18
27 Мая 2014 19:27
Я бы не ждал и как только все категории более менее наполнены открыл его для индексации, а после ежедневно наполнял + возраст сайта будет расти. ПС будут видеть что сайт наполняется и т. д.
|
|
#19
27 Мая 2014 19:32
Я слышал что от 3 месяцев до полугода максимум Купил домен именно tv не просто так. С названием звучит, легко запоминается. Понятно, что интересно - это и стараемся делать. Если вы разбираетесь - не могли бы сказать как побыстрее загнать такое кол-во страниц в поиск. Может есть метод какой нибудь |
|
#20
27 Мая 2014 19:55
, но совет есть - начинайте выкладывать хотя бы основное тело сайта, чтобы загнать роботов на сайт и сформировать свой контингент посетителей. У меня только с закладок 30% посетителей в день заходят. А так, успехов в нелегком труде . |
|
#21
27 Мая 2014 21:27
Запускаете сайт и на нём сразу > 5000 страниц? Злодейски...
Как по мне, алгоритмы поисковой системы должны стороной обходить сайты, на которых при первом посещении роботом отдаётся список из более чем тысячи страниц. 1. Первое впечатление о таком сайте - автоматически сгенерированный контент, и тратить ресурсы на его индексацию, разбор контента и его анализ (включая так называемую «уникальность») неразумно. Отсюда следует, что если робот всё-таки решит «посмотреть» сайт, то к оценке будут приняты всего лишь несколько страниц. 2. Если оценка страниц будет производиться, вероятнее всего это будут главная страница и страницы разделов. Боюсь представить, сколько ссылок должно исходить с этих страниц, если всего на сайте более 5000 материалов. Это при том, что поисковая система пока не знает, какие ссылки являются навигационными, какие - контентными (ссылки в статье), а какие - второстепенными (похожие материалы и т. д.), значит в оценку контента страницы войдёт их общее количество. Допустим, это 5-10 ссылок на основные разделы сайта и пользовательские соглашения + ~20-25 ссылок на категории (жанры, например) + 10-20 ссылок на материалы. Итого, видим на странице кучу HTML-тегов, какие-то пока ещё неизвестные скриптики, текст на тысячу-другую букв и по скромным подсчётам около 50 ссылок. 3. Алгоритмы дали оценочку нескольким страницам и решили проиндексировать их. Проиндексировали, проанализировали тексты, спама нет, сервер отдаёт корректный код ответа, качество кода страничек удовлетворяет и т. д., и т. п. Странно, что такой мега-большой сайт не имеет ни одной входящей ссылки, но это же не говорит о качестве только что замеченного сайта, поэтому давайте-ка попробуем вывести сайт в результатах поиска при следующем обновлении поисковой базы. 4. Между решением о включении сайта в поисковую выдачу и фактическим включением есть промежуток времени. Тут алгоритмы поисковой системы замечают появление большого количество ссылок на отсутствующий в результатах поиска сайт в социальных сетях. «Хм-м-м!» - подумали алгоритмы, - «Мы о нём только узнали, нигде на него ещё нет ссылок, а тут резкий скачок популярности среди живых людей... Странно, однако! Кому ещё, кроме как не владельцу сайта, заниматься такой ерундой? А вдруг... Ну ладно, следим за сайтом.». 5. «Уважаемый %username%! dd.mm.YY произошло обновление поисковой базы Яндекса», сайт появляется в результатах поиска, где-то там, за горизонтом. Серверы Яндекса тем временем не дремлют и продолжают «сидеть» в социальных сетях, где вот ещё недавно был колоссальный всплеск активности псевдо-пользователей новенького сайта, но как-то всё неестественно: за пару часов появились 1000+ ссылок, потом перерыв, потом ещё ссылки, потом перерыв и больше ничего не слышно. Подозрительная активность, которую некому больше вызвать, кроме как самому владельцу сайта (о сайте ж ещё никто не знает, кроме ботов, что проявили активность). «А у меня идея! Давайте не будем больше добавлять в поиск страницы, а этому %username%, если будет писать в службу поддержки, будем давать стандартный ответ с текстом «... наши алгоритмы приняли решение ограничить сайт в результатах поиска» - подумал один из алгоритмов, «Команду выплюнуть из поиска все страницы, кроме главной, принял» - ответил исполнитель. 6. «Да ну нафиг! Надо тупо развивать сайт и всё будет чики-пуки!» - подумал владелец сайта, запуская импорт в БД данных ещё для 5-10 тысяч страниц. «Вот-вот робот зайдёт на сайт, увидит уйму страниц и начнёт их индексировать с такой скоростью, что мой сервачок просто ляжет» - продолжает фантазировать владелец сайтика. 7. Проходит месяц-полтора, но ссылок в социальных сетях и на форумах, кроме тех тысяч, что появлялись из неоткуда за полчаса, на этот сайт так и не появилось. «Сайт не представляет ценности для пользователей.» - подумали алгоритмы поисковой системы, сделав на серверах пометку, что такой-то код с таким-то текстом и по такому-то адресу, грубоя говоря, полная фигня, - «И пока всё полностью не поменяется, плевать мы хотели на этот сайт». 8. Тут должна быть картинка с какой-нибудь хитрой рожей. Шутки-шутками, но вам, автор темы, не кажется, что вы выбираете не ту стратегию развития своего ещё не запущенного проекта? Запускать нужно маленький сайтик, искать и исправлять «косячки» в коде, править вёрстку. Когда код будет более-менее устойчивым, кроссбраузерность будет достигнута, можно потихоньку добавлять материалы. Сначала по 5-15 в день, выдерживая промежутки времени перед каждой публикацией. За это время поисковые системы уже заметят сайт и начнут обращать на него внимание, пусть даже не самым качественным он будет, но что сайт развивается, будет хорошо заметным фактом. Неделька-две, затем дополняем боковую менюшку каким-нибудь полезным модулем, теми же ссылками на новинки или новые персоны. Убить 2-3 месяца и получить в результате сайт с 3 тысячами страниц - это гораздо лучше, чем запустить многостраничник, который и в дальнейшем будет брать только количеством. |
|
#22
27 Мая 2014 22:06
Изменено:
Coder - 27 Мая 2014 22:10
|
|
#23
28 Мая 2014 14:44
![]()
1-5 Пункт. Вы относите это к сайту исключительно со стороны Яндекс-а? Если да, тогда понятно. Не думаю что у Гугл нет мощностей для индексация крупных сайтов с несколькими тысяч страниц.
Что касается различных модулей - это ведь чисто 100% копия тысячи сайтов про фильмы - боковое меню с новинками и комментариями, а я так не работаю. Конечно иметь не стандартную структуру сайта - может по началу навредить, но с другой стороны сайт будет бросаться своей оригинальностью + среднее время проведенное пользователем на сайте будет больше, а для ПС это хороший знак я понимаю. Автоматически-сгенерированный контент на 5 млн знаков? Это вообще возможно? - никогда о таком не слышал.
Много работы проделано и хочется чтобы все это было не зря В методе и в самой стратегии я сомневаюсь, поэтому и пришел на этот форум чтобы получить совет. Вчера много мыслей было и появилось несколько вопросов: 1 - все таки решил запустить сайт с 2500 тысячами страниц, возможно ли что Гугл (с Яндексом то все понятно) проиндексирует их, и все будет очень даже хорошо? 2 - запускаю сайт с теми же 2500 страницами, занимаюсь добавление нового материала с частотой 2-3 страницы нового материала/час и спустя n-ое количество времени (скажем месяц) делаю качественный прогон (вообще стоит ли такое делать для молодого сайта? )
3 - запускаю сайт с 1000 страницами, все остальные заготовки ставлю на автопостинг, чтобы получалось ~100-150 страниц в день (в среднем по 5-6 страниц нового материала в час), итого спустя месяц получится более 5500 страниц. Предоположим что при первичной индексации ПС увидели только 1000+ страниц. Как в таком случае они отреагируют? 4 - запускаю сайт с 1000 страницами, ставлю все тот же автопостинг, однако частоту добавления нового материала уменьшаю до 3-4 страниц нового материала в час. Итого спустя месяц получается 3880 страниц нового материала, после чего делаю качественный прогон. ******************************************************************************************* Какой из пунктов самый вменяемый и будет полезен для самого сайта? Или все не верно с вашей точки зрения
Так же хотелось бы узнать ситуацию касательно прогона - буду благодарен.
Изменено:
Smokey Baron - 28 Мая 2014 14:46
|
|
#24
28 Мая 2014 15:37
- Ждете полной индексации гуглом и яндексом - Автопостинг ставите по нарастающей - например, в первую неделю после индексации - по 1 статье в каждый раздел, во вторую - по 2 и т.д. - при этом смотрите на результаты и корректируете - если затормозилось - приостанавливаете, пока ситуация не прояснится. Прогон с полугода, имхо (хотя некоторые и сразу, и после месяца-двух делают) - да и то, нужно смотреть внимательно: какой, кто, как. Запороть легко, вылезти трудно. Я бы на пока вообще бы об этом не думал - есть с чем работать на пока. |
|
#25
28 Мая 2014 16:18
Согласен с Coder, загрузили 250-350 страниц, ждете появления в ПС, посмотрели плюсы и минусы, прогнали по Xenu, site-auditor и по другим сервисам.
Из личного: закинул 2 сайта - один с 315 страницами по нормативной документации, через месяц у Яшки 175 страниц в поиске, у Гугля- 5, другой по софту 130 стр. - в Яшке 12, в Гугле - 80 стр. Просчитать действия ПС для всех абсолютно сайтов невозможно, только практика. |
||||
| 17.05.2021 17:21 | Как правильно сделать seo-анализ сайта? |
| 18.09.2020 14:32 | Анализ сайта. |
| 18.05.2019 15:44 | Где вы покупаете тексты для своих сайтов |
| 22.11.2018 15:15 | Анализ сайта, что видите ? |
| 28.06.2018 17:51 | Анализ сайта |