Статьи
1 - 20 из 61
Начало | Пред. |
1
2
3
4
|
След. |
Конец
Что мы знаем о факторах ранжирования в поисковых системах? Немного, но кое-что. Во-первых, их немало. Только Google различает их около двухсот. Во-вторых, эти сигналы по-своему (иногда разнонаправленно) влияют на продвижение сайта в выдаче. В-третьих, Google постоянно обновляет список учитываемых им факторов, добавляя новые и меняя отношение к старым.
Статья не про "работают или не работаю ссылки", а для тех, кто занимается их покупкой или хочет самостоятельно начать это делать. В ней я дам некоторые рекомендации, опираясь на свой опыт по ссылочным биржам.
Несмотря на все жуткие фильтры от поисковых систем, ссылки остаются важным методом продвижения сайта. Если раньше на первом месте было количество, на втором - их качество, то сейчас же главную роль играет их естественность, что бы ни понимали под этим словом.
Было время, когда раскрутка сайтов, особенно по коммерческим тематикам, была войной бюджетов. До недавнего времени работа контор по раскрутке сайтов заключалась, по сути, в массовой закупке ссылок при минимальной работе над самим проектом.
Основной тренд всех поисковиков последнее время - естественность во всем и запрет всевозможных "искусственных" методов продвижения. В теории звучит красиво, но вызывает много вопросов. У посетителей - почему в топе зачастую находится ерунда, а не требуемые сайты.
Способы монетизации постоянно ограничиваются путем введения новых санкций. И далеко не всегда эти ограничения идут на пользу простым пользователям поисковых систем, зачастую даже наоборот. Сейчас главное найти компромисс и минимизировать риски в плане поисковых фильтров, получая при этом достойный доход.
Постоянные колебания позиций сайта в выдаче поисковых систем и, как следствие, перманентные скачки органического трафика - то, о чем любой веб-мастер или сеошник знает не понаслышке. Это данность, с которой давно уже смирились все.
Прикрываясь заботой о пользователях, Гугл думает только о своем заработке. Поиск последнее время совершенно не улучшается, особенно это заметно по некоммерческим запросам. Продвинуть даже очень качественный сайт в топ стало намного сложнее, чем раньше.
У большинства фильтров, кроме тотального бана, есть одна проблема – их сложно диагностировать и отделить один от другого. Большинство методов косвенные, поэтому не нужно паниковать и делать поспешные неверные выводы.
Интернет-магазины, пожалуй, самая конкурентная ниша в интернете. Конкуренция высока практически во всех тематиках, даже по тем товарам, которые, казалось бы, не пользуются высоким спросом. Следствие – большие трудности в продвижении, высокие затраты и много потраченных нервов как хозяином магазина, так и человеком, который занимается его продвижением.
Суть всех фильтров Гугла (да и, по сути, всех поисковых систем) сводится к одному неутешительному для многих вебмастеров выводу – ужесточение критериев для индексации сайтов вообще и для попадания на первые места выдачи в частности. Перфекционистские попытки улучшить сайт, приблизить его к гугловскому идеалу, приводят зачастую к обратному эффекту, а именно к фильтрам и санкциям.
Создать блог может любой. Это вопрос двух минут. Вести блог – уже намного сложнее, но глянув на огромное количество личных дневников, складывается впечатление, что и ведение блога не является чем-то очень сложным и оно также доступно массовому пользователю интернета. По сути, так и есть; вести блог очень просто, если он предназначен для себя и для узкого круга друзей и знакомых. Если речь идет о серьезном заработке на сайте, то ситуация становится намного более сложной.
Блоги вошли в жизнь жителей интернета как-то незаметно, простите за банальность. Раньше были просто домашние странички, которые регулярно обновлялись, в них публиковались интересные автору вещи, его новости, события из жизни... Их стало так много, таких страничек, что к ним начали относиться пренебрежительно, их называли сайт про меня и мою собачку, намекая на то, что опубликованные материалы неинтересны никому, кроме хозяина ресурса.
Бывают также ситуации, когда источники поискового трафика себя исчерпали. Сайт находится на вершинах выдачи по всем нужным поисковым запросам, все вспомогательные проекты тоже, а посещаемость нужно и нужно повышать. А семантическое ядро не расширишь до бесконечности. Выход один – если не хочется терять сайт, а еще и хочется развивать, нужно искать альтернативные источники трафика.
Фильтры поисковых систем – неизбежная вещь. Только благодаря им (в идеале, в теории, конечно...) посетители, использующие поиск, получают релевантную выдачу; им выдаются те сайты, которые наиболее точно соответствуют введенным ими поисковым запросам. Увы, это всего лишь теория; на практике большинство фильтров очень далеко от совершенства. Их влияние приводят к тому, что на первых местах в поиске находятся не самые релевантные страницы, а те, которым удалось теми или иными способами обойти эти фильтры.
Цель статьи не научить читателя обманывать других и выезжать в топ за счет ущемления прав конкурентов. Цель, скорее, информационная ознакомить, проинформировать, предостеречь. Черными методами пользуются многие, но многие же и не подозревают, что все эти методы можно использовать против них самих. Статья рассчитана на тех, кто не собирается их использовать, но кто готов противостоять подобным мерам со стороны соперников.
Конкуренция не всегда бывает честной, особенно в тех случаях, когда идет борьба за каждого клиента. Многие владельцы бизнеса и горе-оптимизаторы, помимо нормальных традиционных способов продвижения используют "черные" методы, которые позволяют поднять свой сайт за счет других. В том числе – атаки на сайте, которые мешают им попасть в топы, которые отбирают у них клиентов и т. п.
Юзабилити – учение об удобстве интерфейсов. Современный сайт представляет собой не просто страницы с текстом, перелинкованные определенным образом. Сайт является сложной системой, где все элементы спроектированы таким образом, чтобы посетитель за минимальное время получил максимальное удовлетворение своих потребностей. Или, с другой стороны, владелец сайта получил наибольшую отдачу (в финансовом плане) от каждого посетителя.
Контент, создаваемый пользователями и восхваляемый апологетами Web 2.0, неприменим для большинства серьезных сайтов. Это то количество, которое не то что не перерастет никогда в качество, а, наоборот, это потенциальное качество умрет в зародыше, утонув в потоке бреда.
Основой любого интернета-проекта является контент – то есть, его смысловое наполнение. Чаще всего это бывает именно текстовая информация. Когда сайт становится относительно крупным, у его автора просто начинает не хватать времени самостоятельно писать материалы, поэтому и приходится нанимать сторонних людей – копирайтеров. Многие пытаются сэкономить, и это им потом дороже обходится; из-за некачественного контента сайт в лучшем случае не может достичь высоких позиций в поиск, а в худшем – попадает под фильтры.