Цитата |
---|
Сергей пишет:
Тогда вопрос: почему же он не понижал позиции когда я сразу залил 200к страниц? |
Наверное потому, что ДАЖЕ Гугл не в состоянии реагировать на изменения в режиме реального времени. У Яши есть АП выдачи, когда порция обработанных данных (которую он скачал неделей ранее) попадает в базу (индекс, выдачу). Яндексу нужно время (квартал или около того) чтобы обновить тИЦ сайтов, Гуглу же на обновление своей базы (тулбарный PR) нужно времени и того более.
Гугл быстро проиндексировал сайт (согласно только ему известному алгоритму), выстроил стандартный вариант ранжирования - а по прошествии времени (только ему известному) просто внес коррективы исходя из большего массива данных. Больше страниц, больше тегов, больше дублей, больше... больше... больше - идите Вы, владелец сайта, в конец очереди...
Именно поэтому, как мне кажется, новые сайты и умудряются получать PR - попадая на этот стык обработки данных. Есть сайт, есть понятная структура (Друпала, Вордпресса, Джумлы и др.), есть контент - почему бы не дать циферку. Если же сайт попадает во вторую фазу (ПС разобралась, что это сплошной копипаст) - циферку ему не дают. А потом интернет полниться криками "молодому сайту дали 2, а старичок с возрастом полгода ничего не получил... где логика". ИМХО.