Оптимизация. Вопрос СЕОшникам
Страницы: Пред. 1 2
Оптимизация. Вопрос СЕОшникам
Dizzy ну и на том спасибо smile:)

спасибо и вам kewlar, хорошо помогли мне в коментарии, думаю я теперь понял суть.

Сейчас ежедневно добавляю по 10 материалов на сайт с уникальным описанием (300 - 500 символов)
А так же 2 дня назад выложил 10 уникальных статей на сайт с 2500 - 3500 символов каждая.
И так далее буду потихоньку добавлять по 10 уникальных материалов на сайт, думаю в теченик месяца дабьюсь хороших позиций в топах путем продвижения уникальным контентом.

да и еще:
Цитата
Наращивайте "траст"


Поясните пожалуйста термин "траст" smile:)
Цитата
Термин траст во многом определяется возрастом сайта, качеством контента и ресурса в целом. Чем старше, чем больше хорошего хорошего контента, чем выше траст у доноров ссылочной массы, чем ближе тематика и т.д. и т.п. ... понятие траста довольно обширное... Грубо говоря - это степень уважения ресурса в глаза ПС.


Проще говоря, это степень доверия поисковика к сайту
Насколько я успел понять в оптимизации, т. к. занимаюсь этим вопросом недавно, ключевые слова ещё играют роль для поисковиков. Только их должно быть от трёх до пяти фраз (фраза - 1-3 слова), большее количество не воспринимается должным образом или вообще игнорируется, проверено на практике. Ключевые слова должны обязательно содержаться в тексте главной страницы и повторятся несколько раз (желательно не меньше 3 раз). И ещё, для лучшей индексации необходимо правильное написание файла robots.txt. То же проверено. У меня некоторые страницы выпадали из индекса. Сейчас индексируются все, может даже больше, чем надо. Ну, а файл sitemap.xml в wordpress генерируется плагином автоматически. Нареканий нет.
Как показал анализ наблюдений, что хорошо гуглу - плохо яндексу.
P.S. Может это совпадение, но при переходе с Joomla на WordPress мой первый сайт mybalkhash.ru потерял свой PR2, теперь PR0.
Цитата
P.S. Может это совпадение, но при переходе с Joomla на WordPress мой первый сайт mybalkhash.ru потерял свой PR2, теперь PR0.


Изменились страницы - потерялись ссылки - упал pr.
Цитата
Насколько я успел понять в оптимизации, т. к. занимаюсь этим вопросом недавно, ключевые слова ещё играют роль для поисковиков. Только их должно быть от трёх до пяти фраз (фраза - 1-3 слова), большее количество не воспринимается должным образом или вообще игнорируется, проверено на практике. Ключевые слова должны обязательно содержаться в тексте главной страницы и повторятся несколько раз (желательно не меньше 3 раз). И ещё, для лучшей индексации необходимо правильное написание файла robots.txt. То же проверено. У меня некоторые страницы выпадали из индекса. Сейчас индексируются все, может даже больше, чем надо. Ну, а файл sitemap.xml в wordpress генерируется плагином автоматически. Нареканий нет.
Как показал анализ наблюдений, что хорошо гуглу - плохо яндексу.
P.S. Может это совпадение, но при переходе с Joomla на WordPress мой первый сайт mybalkhash.ru потерял свой PR2, теперь PR0.


А можно поинтересоваться - откуда такая уверенность, особенно, если Вы занимаетесь этим недавно? Просто ради интереса - кликните правой кнопкой по этой странице и посмотрите кеи.

Да и все остальное... При чем тут robots? Если имеется ввиду запрет индексации дублированного контента, то эти проблемы есть не у всех движков, к примеру последние версии Амиро имеют встроенные функции проверки и редакции дублей, а сайты не на PHP, а на HTML вообще не имеют этих проблем.

А насчет того, что "хорошо гуглу - плохо яндексу", так это тоже еще вопрос. Если пользоваться белыми методами раскрутки, то этот принцип не очень-то оправдывается. Есть нюансы, конечно. Может Вас не затруднит привести конкретные примеры, когда "белое" продвижение в Гугле губит позиции в Яндексе?
Спасибо Joker и Dizzy. Что-то такое я и думал...
Цитата
А можно поинтересоваться - откуда такая уверенность, особенно, если Вы занимаетесь этим недавно? Просто ради интереса - кликните правой кнопкой по этой странице и посмотрите кеи.

Да и все остальное... При чем тут robots? Если имеется ввиду запрет индексации дублированного контента, то эти проблемы есть не у всех движков, к примеру последние версии Амиро имеют встроенные функции проверки и редакции дублей, а сайты не на PHP, а на HTML вообще не имеют этих проблем.

А насчет того, что "хорошо гуглу - плохо яндексу", так это тоже еще вопрос. Если пользоваться белыми методами раскрутки, то этот принцип не очень-то оправдывается. Есть нюансы, конечно. Может Вас не затруднит привести конкретные примеры, когда "белое" продвижение в Гугле губит позиции в Яндексе?

Попытаюсь объяснить.
По поводу robots.txt. Сначала брал готовый файл на сайте разработчика wordpress. Появились проблемы с размещением и индексацией размещаемых статей. Поисковик с биржи не видел статьи, а в яндексе всё было. Нашёл другое написание файла, которое советовали знающие люди, и проблема исчезла.
По поводу ключевых слов. Собирал в кучу слова и фразы со всего сайта, проверял их на сайте статистики яндекса. После этого на протяжении нескольких дней наблюдал за сайтом, смотрел за анализом на различных ресурсах. Результат был ниже меньшего. Изменений практически не было. После того, как количество слов было доведено до нормы, анализ сайта стал давать результат интересней.
По поводу гугла и яндекса. Тут всё просто. Что идексирует гугл, то не всё индексирует яндекс. У меня в гугле по индексации ошибок нет, а в яндексе отмечены страницы, запрещённые к индексации. В этом ничего плохого не вижу. Тем более яндекс их помечает как замечания, не критичные ошибки, которых нет в гугле.
Это мои наблюдения. Это не инструкция к действию.
Цитата
По поводу robots.txt. Сначала брал готовый файл на сайте разработчика wordpress. Появились проблемы с размещением и индексацией размещаемых статей. Поисковик с биржи не видел статьи, а в яндексе всё было. Нашёл другое написание файла, которое советовали знающие люди


Так сложно запомнить несколько инструкций, чтобы самому составить роботс?

Цитата
на протяжении нескольких дней наблюдал за сайтом, смотрел за анализом на различных ресурсах.


Тоесть были изменени кеи, и в течении трех дней результат не соответствовал ожиданиям? Нуну... 3 дня... да по крайней мере месяц ждать надо

Цитата
По поводу гугла и яндекса. Тут всё просто. Что идексирует гугл, то не всё индексирует яндекс. У меня в гугле по индексации ошибок нет, а в яндексе отмечены страницы, запрещённые к индексации. В этом ничего плохого не вижу. Тем более яндекс их помечает как замечания, не критичные ошибки, которых нет в гугле.


Логика вебмастера.

Цитата
Это мои наблюдения.


Не проще почитать литературу на тему SEO? Можно секономить несколько лет своей жизни
Цитата
Так сложно запомнить несколько инструкций, чтобы самому составить роботс?



Тоесть были изменени кеи, и в течении трех дней результат не соответствовал ожиданиям? Нуну... 3 дня... да по крайней мере месяц ждать надо



Логика вебмастера.



Не проще почитать литературу на тему SEO? Можно секономить несколько лет своей жизни


наблюдал за ключевыми словами не три дня, больше, 2-3 недели. может написал не так.
Литературу по СЕО читаю, что нахожу. Благо её много.
Спасибо за критику и советы. Я ламер.
Цитата
насчет линкопомойки я имел ввиду с одной странице сайта не должно ссылаться более 10 ссылок.


Линкопомойка возникает не от определённого количества ссылок со страницы.
Важно размещение ссылок на странице. Так называемое структурирование. Если ссылки размещены одна за другой и без использования тегов, то естественно это не приветствуется. Количество ссылок со страницы важно для тех, на кого ссылка. Ссылка передаёт часть ТИЦ и PR на сайт на который ссылается. Если ссылок больше 50, то передавать уже толком нечего. Если сайт с ТИЦ 10, то ссылка со страницы с 20 ссылками ничего не принесёт. Чем меньше ссылок на странице, тем ценнее ссылка для сайтов, но зависимость тут не прямая. С тематических ресурсов ссылка будет ценнее и т.д.
Видите ли, ув. balkhash, оказывается, не все используют Вордпресс. Здесь ведется разговор об общих принципах и ошибках оптимизации, а не о конкретных движках с их проблемами. Ошибки в robots.txt типичное дело для тех, кто только осваивает новый для себя движок, пока не разберешься, что и где дублируется вполне можно оказаться в саплиментале. (От себя - вообще-то, так обращаться с роботсом нельзя. Где гарантия, что у Вас запрешено к индексации все ненужное и не запрещено кое-что необходимое? Тем более, что многие из подобных проблем могут быть решены и другими способами - плагинами, например, хотя бы All in One Seo).

Но речь не об этом. Если у Вас что-то индексируется неправильно, то это автоматом не значит, что у остальных те же проблемы. У меня есть один давнишний сайт на чистом HTML c небольшими фрагментами SSI, все страницы фактически статические, нафих мне вообще тот роботс на таком сайте? Все ненужное я давно спрятал в ноиндекс+нофоллоу.

Так и с остальным. Для объективной картины нужна широкая статистическая выборка по сайтам разного возраста, геопривязки и собранная на приличном временном отрезке. А все шевеления вроде "я поменял одно ключевое слово и вылез в топ" (это не о Вас лично, но...) это просто совпадения, попали в удачный серп и считаете что все под контролем, попали в неудачный - появляются поспешные выводы о сверхзначимости одного кея для ПС.
Цитата
Видите ли, ув. balkhash, оказывается, не все используют Вордпресс. Здесь ведется разговор об общих принципах и ошибках оптимизации, а не о конкретных движках с их проблемами. Ошибки в robots.txt типичное дело для тех, кто только осваивает новый для себя движок, пока не разберешься, что и где дублируется вполне можно оказаться в саплиментале. (От себя - вообще-то, так обращаться с роботсом нельзя. Где гарантия, что у Вас запрешено к индексации все ненужное и не запрещено кое-что необходимое? Тем более, что многие из подобных проблем могут быть решены и другими способами - плагинами, например, хотя бы All in One Seo).

Но речь не об этом. Если у Вас что-то индексируется неправильно, то это автоматом не значит, что у остальных те же проблемы. У меня есть один давнишний сайт на чистом HTML c небольшими фрагментами SSI, все страницы фактически статические, нафих мне вообще тот роботс на таком сайте? Все ненужное я давно спрятал в ноиндекс+нофоллоу.

Так и с остальным. Для объективной картины нужна широкая статистическая выборка по сайтам разного возраста, геопривязки и собранная на приличном временном отрезке. А все шевеления вроде "я поменял одно ключевое слово и вылез в топ" (это не о Вас лично, но...) это просто совпадения, попали в удачный серп и считаете что все под контролем, попали в неудачный - появляются поспешные выводы о сверхзначимости одного кея для ПС.


Спасибо. Ваша информация, думаю, не будет для меня лишней. Чем больше советов, информации, тем быстрее найдёшь нужное.
Друзья, у меня вопрос, как правельно перелинковать страницы сайта, сколько ключевых слов должны заключаться в тег <strong><h1><b>, да и вообще сколько должно быть ключевых слов на одной страницы сайта. Сколько раз Должен повторяться один ключевой запрос на этой страницы, чтобы придать больший вес этой вот самой странице?

Многие говорят что перелинковка влияет в основном на гугл на поднятие PR, а может ли она повлиять при ранжировании яндексом сайты, поднять его в потах?
Страницы: Пред. 1 2
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
09:47 Adsense личный опыт 
13:13 LOSPOLLOS.COM - Конвертим по рецепту Хайзенберга. Dating, Mainstream, Binary Options 
13:47 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
08:27 Ищу специалистов 
08:18 Прибыль 200$ - 400$, за каждую 1000 уников! Google, FB и тд 
08:12 ру гембла 
09:18 Влияние использования ИИ для написания текстов на позицию в поисковой выдаче 
04:05 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
23:00 №1 Рассылка / Инвайтинг [TELEGRAM] | Приватный метод 
23:00 Trustpilot Reviews | Подниму рейтинг вашей компании 
22:59 Продвижение YouTube видео в топ поиска | Любой тип контента | Гарантия результата 
22:59 Установка|Настройка|Доработка|Наполнение сайтов|Дизайн|3D|Видеомонтаж 
22:04 BestX24 - быстрый и безопасный обменник криптовалют и электронных денежных средств 
19:58 Создам под вашу нишу сетку сайтов-сателлитов для привлечения целевого трафика 
03:07 Всего п онемногу 
12:45 Куплю проигрышные букмекерские аккаунты 
11:55 Union Pharm - топовая фарма-партнерка для профессионалов! 
17:09 Точные прогнозы на футбол 
10:00 Ну что, кто куда деваете свои сайты? 
16:22 Компьютерная мышь 
23:55 Добро пожаловать в цифровой мир...