Продвижение в Google сегодня
Страницы: 1 2 След.
Продвижение в Google сегодня
Доброго времени суток уважаемые вебмастера!
Хотелось бы поговорить о том как сегодня можно продвинуть сайт в Гугле, какие действия сегодня актуально предпринимать чтобы ощутить рост позиций в ТОП. С яндексом все как то более менее понятно, он как то предсказуем по сравнению с гуглом, кто бы что не говорил, но по сути все действия как и ранее: наполнение тематическим контентом, оптимизация, наращивание ссылочной массы с анкорными и безанкорными ссылками...

Давайте обсудим, что вы делаете для того чтобы продвинуться в гугле?
Крауд-маркетинг от 10-15 руб за вечную трафиковую ссылку на форумах. Постинг в соц.сети и др.

Качественный хостинг Моментальная поддержка. Бесплатный ssl-сертификат
СЯ, контент, ссылочная масса, внутренняя оптимизация, микроразметка, перелинковка + ко всему твитер - моя личная стратегия (для сдл, не коммерческие проэкты)
Цитата
flash пишет:
что вы делаете для того чтобы продвинуться в гугле
Не делать нерекомендованного и смотреть информацию в WM гугла.
Мне под гугл помогает накрутка поведенческих факторов. Использую разные плагины аля Контент-Локер.
Coder пишет:
Цитата
Не делать нерекомендованного и смотреть информацию в WM гугла.
Прямо таки с самого старта проекта рекомендациями одаривает?
Не подписываюсь на темы, так что не слежу за вопросами, которые вы оставляете в топике после меня. Если нужно получить ответ, пишите в ЛС с указанием ссылки на мой комментарий.
Цитата
Алик Яушев пишет:
Прямо таки с самого старта проекта рекомендациями одаривает
) Особенно полезно "Оптимизация HTML" и результат обработки загруженной карты. Ну и ошибки сканирования - хотя, там что ни пункт - прям таки кладезь мудрости...

А у вас не так?! smile:eek: ... Тогда, может быть, я не WM гугла смотрю?!()
Цитата
О. Н. пишет:
Использую разные плагины аля Контент-Локер
а есть что-то подобное но в виде софта?
Цитата
dima пишет:
СЯ, контент, ссылочная масса, внутренняя оптимизация, микроразметка, перелинковка + ко всему твитер - моя личная стратегия (для сдл, не коммерческие проэкты)
Скажите пожалуйста пару слов о микроразметке, немного подробнее, как делать и тд.По твиттеру, вы держите сфою твиттер-ферму или заказываете твиты? Сколько твитов на страницу?
Цитата
flash пишет:
Цитата
пару слов о микроразметке, немного подробнее, как делать и тд.
микроразметку внедрил в шаблон, использую _schema.org, именно ее хорошо понимают яндекс и гуглРазделил контент на:Заголовок
Дата публикации
Автор статьи( указал аккаунт google+)
Категория
Текст статьи
Комментарии

Сделать можно почитав информацию в сети, либо воспользовавшись услугами мастеров. Я делал сам себе:)


Цитата
flash пишет:
По твиттеру, вы держите сфою твиттер-ферму или заказываете твиты? Сколько твитов на страницу?
Заказываю несколько при публикации, потом через время посылаю сигналы. В целом до 30 на один пост выходит, иногда больше
Цитата
flash пишет:
Давайте обсудим, что вы делаете для того чтобы продвинуться в гугле?
прежде всего мониторинг конкурентов, будете хорошо знать их методы продвижения, будете всегда выше их, при определённых усилиях конечно же.
Цитата
Meteo пишет:
прежде всего мониторинг конкурентов, будете хорошо знать их методы продвижения, будете всегда выше их, при определённых усилиях конечно же.
Оценка конкурентов тоже полезная вещь, но хотелось бы конкретики. Вот подобрали вы такие сайты из выдачи по запросам которым вы хотите продвинуться, посмотрели статьи конкурентов, возможно найдете ссылки на эти страницы... Что еще можно оценить?
Цитата
flash пишет:
Давайте обсудим, что вы делаете для того чтобы продвинуться в гугле?
Можно сказать, что уже особо ничего не делаю. Разве что увеличиваю количество материалов на сайте по теме сайта (уникальных) и оживляю общалкой. По тематике для Гугла достаточно пополнение новыми уникальными материалами. А так Гугл сильно любит сайты, что живут 5 лет и более. Чем дольше живёт сайт - тем больше Гугл его любит, естественно для сайтов с уникальными материалами. Также гугл любит всякие разные счётчики показывающие, что на сайт ходят не только из той деревни, в которой находится владелец/админ сайта.Как я понял, Гугл уже не использует внешние ссылки при определении места в выдаче. Видимо понял, что так можно накручивать места. У него какая-то своя внутренняя система оценки качества сайтов. Так как у моего сайта внешних ссылок крайне мало, а в выдаче очень часть топ 1-3 по запросам.
Я пока систему внутренней оценки сайтов Гуглом не понял, потому пока ничего не делаю нового и ничего не меняю в схеме. Т.к. отказ от обновлений PR на самом деле означает, что:
1 - Гугл придумал нечто, что теперь заменяет значение PR
2 - значение PR убрано с открытого показа, чтобы владельцы и админы сайтов не знали его значения и не старались манипулировать им. 
У меня есть устойчивое подозрение о том, что значение PR Гуглом обновляется постоянно, но никому не показывается и используется только внутри Гугла. Примерно как ВИЦ (взвешенный индекс цитирования) у Яндекса.
http://sovpl.forum24.ru
Чтобы не нужно было каждый раз здесь писать сайт
Цитата
Денис Долгушев пишет:
1 - Гугл придумал нечто, что теперь заменяет значение PR
http://www.cy-pr.com/news/se/9364/
Цитата
sharkson пишет:
Цитата
Денис Долгушев пишет:
1 - Гугл придумал нечто, что теперь заменяет значение PR
http://www.cy-pr.com/news/se/9364/
Почитал твою статью и немного про то, чего там описано. В общем, как я понял, вместо значения PR будет значение KBT. И алгоритм ещё не запущен, а скоро будет запущен. Но из описания я понял, что в результате вычислений каждый сайт будет получать значение KBT также в числовом виде от 0 до 10 (0,0 - 1,0). Так что как только запустят алго, и пройдёт раздача значений, буковки PR можно будет заменить на буковки KBT. Хотят сам KBT  я не совсем понял. То есть не понял совсем. Они ориентируются на свою сеть знаний (или как у них она там называется). Но я полностью уверен в том, что их сеть знаний на самом деле мало чего знает. И имеет ещё меньшую достоверность. Это я могу гарантировать на 100%, так как сам занимаюсь исследованием и работой с информацией. Пусть даже в области подводных лодок. Я тут посмотрел на сохранённую копию своего исследования на 01.10.2011 года - там было всего 856 страниц. На 01.02.2015 года резервная копия составляет 1730 страниц. Буквально за 4 года объём знания удвоился. И это всё на 100% результат текущего исследования, которое не закончено и продолжается по мере возможности, т.к. финансовых возможностей для закупок материалов нет. Но даже на этом уровне могу сказать например, что ещё никто в мире за 100 лет не работал например с документами германских тральщиков или сторожевиков 2 мировой войны и 1 мировой войны. И чего там может прорезаться одному Богу известно. Это в смысле новых данных и полученных из них результатов (кои называются знаниями). Никакой компьютер не в состоянии оценить достоверность данных так, как это может сделать человек. Потому однозначно, что та оценка KBT будет не совсем объективна. Могу даже сказать, что в 2005 году, когда я имел материала всего чуть более чем на 500 страниц я твёрдо знал, что больше уже быть не может. Сейчас, в 2015 году я имею материала на 1730 страниц и твёрдо знаю, что если будут деньги на материалы, то вполне возможны и 2000 страниц текстовой копии исследования. А какие качественные результаты могут быть найдены - это даже представить не могу. А когда исследование продолжается, то как алгоритм сумеет оценить его достоверность? Так как во время исследования всё время результаты улучшаются и находятся ошибки. И заодно устанавливается например то, что результаты полученные ранее и считавшиеся правильными на самом деле ошибочные, и потому исправляются сразу, как устанавливается факт ошибки. Ни один компьютер или программа не в состоянии устанавливать результаты исследования и оценивать их достоверность. Ну и плюс к этому нужно помнить, что Гугл всё-таки американская компания, и потому политические исправления, например истории, там всегда есть. И что может помешать американцам внести в их базу знаний политически мотивированные изменения делающие недостоверную информацию у них достоверной, а правдивую недостоверной? Такое никто не может гарантировать в принципе. Ну и наконец смогу сказать, что моё исследование улучшается ежедневно, когда я им занимаюсь. Каким образом алгоритм Гугла, даже если предположить его объективность, сумеет проверять достоверность информации на сайте? Вот на примере своего исследования могу привести пример, что допустим была 1 атака американской подводной лодки. Но документы по ней уничтожены или утеряны. Японский конвой по которому была проведена атака также информацию про атаку не сохранил. В Японии при капитуляции уничтожили очень много документов, в том числе и конвойных. Понятно, что длительным (или не очень) изучением ситуации с местом атаки лодки и теми конвоями, что были в море рано или поздно можно выйти на конвой атакованный. А потом проверяя ремонты судов найти поражённые и повреждённые суда. Но это может человек с помощью своего мозга. Компьютеру проверить это невозможно в принципе. Так как для проверки компьютерный алгоритм должен уметь думать как человек и иметь человеческую логику. А у компов такого нет. И быть не может. В результате в их базе знаний будет информация о том, что той атаки не было, т.к. документы не сохранились в основном. А атака была на самом деле и была успешной. В результате их база знаний становится не верной. Не специально, а просто в силу того, что компьютер не имеет возможностей людей в умственном плане. В описанном примере единственной зацепкой являлась ведомость американского бюро вооружений с указанием расхода торпед по целям и координат атак с номерами лодок.
В общем итоге какой-то очень мутный алгоритм там, в Гугле, придумали. Лично я так и не понял как он будет проверять, например, мой сайт и моё исследование. Так как даже теоретически не могу представить себе как компьютер в состоянии сделать это.
Цитата
Денис Долгушев пишет:
В общем итоге какой-то очень мутный алгоритм там, в Гугле, придумали. Лично я так и не понял как он будет проверять, например, мой сайт и моё исследование. Так как даже теоретически не могу представить себе как компьютер в состоянии сделать это.



Не стал цитировать весь текст уважаемого... не понял в водовороте ссылок. Кто ясно мыслит, тот ясно излагает. И видя поток амбициозного сплошного текста, содрогнулся. Опять кого-то потянуло в высшую математику, теорию алгоритмов и теорию большого заговора. Если у кого-то больная голова, лучше к врачу, но не в СЕО. А чтоб остальным не заразиться - лучше на природу. Чистый воздух лучше чистого маразма.
Страницы: 1 2 След.
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
03:12 Сайты-копипасты 
01:18 Найти элемент в коде 
21:47 Webvork - международная товарная СРА сеть с сертифицированными офферами на Европу. 
09:59 Ошибка после размещения кода HTML! 
15:34 Adtrafico - Правильная партнёрская сеть под бурж трафик 
14:43 Партнерская программа OWNR WALLET 
13:47 DreamCash.tl - заработок на онлайн-видео. До 95% отчислений, отличный конверт! 
04:47 BetaTransfer касса — это надежный сервис приема платежей в сфере High Risk 
16:38 Belurk — высокоскоростные анонимные прокси от 0,24 рублей 
15:28 Ural-obmen.ru — выгодный сервис обмена 
15:09 Obama.ru - безопасный обмен криптовалют и электронных денежных средств 
13:14 A-Parser 1.1 - продвинутый парсер поисковых систем, Suggest, PR, DMOZ, Whois, etc 
11:51 Европейский эквайринг 
11:19 BestChange – обменивать электронную валюту можно быстро и выгодно 
01:05 Точные прогнозы на футбол 
14:41 Бесплатный мини-аудит юзабилити и конверсии + технический SEO-аудит в подарок 
11:15 Каспкрски ОС 
15:24 Добро пожаловать в цифровой мир... 
22:58 У меня дикая просадка по РСЯ за последние 3 суток 
21:51 Linux - это максимальная свобода 
21:33 Ням-ням! - 8 деликатесов, которые когда-то ели только бедные люди