Алгоритмы ранжирования
Алгоритм ранжирования - способ, при помощи которого определяется ценность определенной страницы в системе поиска.
Итак, что же влияет на наш результат?
- Рейтинг сайта
- Плотность ключевых слов в тексте
- Уникальность и релевантность контента
- Объем текстов
- Мета-теги страниц
- Количество и качество внешних ссылок
- Поведенческие факторы внутри сайта
- Релевантность отдаваемого контента
- Траст
- Возраст сайта
У каждой Поисковой системы свои алгоритмы! У гугла одни, у яндекса другие, у бинга третьи.
Бинг - это гугл застрявший году так в 2007, т.е. рулят ссылки в больших объемах. В целом качество ссылок не так важно.
Гугл огромен, ежемесячно серверы Google обрабатывают порядка 100 млрд запросов, ежедневно гугл обрабатывает 500 млн поисковых запросов.
Первая и пожалуй основная цель поисковых систем - отдавать пользователю "Релевантный" ответ.
Т.е. вводим в поиск "Слон", нам отдается ответ о слонах.
По этому рекомендуется использовать в своих дорвеях "Релевантный контент". Копипаст, мешанину, что угодно. Но релевантный.
У поисковых систем есть свои поисковые роботы. Пауки, цель которых находить новые страницы и заносить в свою базу данных.
Бывают так же «дятлы», которые простукивают Ваш сайт, чтобы определить, что он доступен.
Роботы не анализируют Ваш контент, они передают на сервера, где и происходит обработка.
Быстробот яндекса
Быстробот - это алгоритм яндекса, который дает бонус "новому контенту".
Быстробот любят дорвейщики и особенно активно используют в сложных нишах. Рядом с материалами, добавленными быстророботом, система пишет, сколько часов назад был опубликован файл.
Свежая новость имеет высокие шансы попасть в ТОП 10, поскольку ее релевантность рассчитывается на основании внутренних факторов.
Когда документ проиндексирует основной бот, на нее начинают распространяться основные алгоритмы ранжирования. В результате страница может потерять свои позиции.
Есть люди, которые работают чисто на быстробота. Делают дорвеи по определенных ключам, они вылазят в топ, висят сутки-двое, позиции уходят, делают новые и так по циклу. Тут в целом важно лишь 1 правило, что бы количество денег потраченное на трафик было меньше, чем доход с этого трафика.
Яндекс параноидальный, индексирует дольше гугла или бинга. У яндекса есть такое понятие как АПЫ, а еще он перешел на ИКС, как метрику. Если закинуть сайт в яндекс вебмастер есть большой шанс поймать метку "Дорвей"
Яндекс очень зацикленный на поведенческих факторах! По этому, если Вы хотите, что бы ваш сайт долго жил и давал трафик, поведенческие на дорвее, должны быть максимально приближены к белому сайту
Ссылочное под бинг
Бинг - это застрявший году в 2007 гугл. Не важно, какого качества ссылки, важно что бы их было мно-о-ого, ну или о-о-очень много. Как раз под бинг можно расчехлить все свои хрумеры, gsa, спамилки. Бинг не настолько популярен как гугл, по этому нужно учитывать, что по ключу с которого идет трафик в гугл, не факт, что будет так же идти трафик в Бинг. Я бы вообще брал здесь ВЧ и СЧ ключевые слова, если вы намерены работать чисто под бинг.
Достаточно плохо заходят дешевые домены вроде .win .loan и прочие до 1$.
Мало кто знает, но у бинга тоже есть своя вебмастер консоль Опять же сильно выражено явление рандома... При прочих равных, 2 одинаковых сайта могут занять абсолютно разные позиции. Один может быть в топе, а другой в жо...
Google - гигант
Как бы это парадоксально не звучало, считают гугл самым "Стабильным" поисковиком. Он индексирует огромные объемы и вполне можно затеряться среди армии белых сайтов. Пауки гугла работают на ура, индексация здесь очень быстрая.
Важно понимать, что индексация в гугл не равно трафик. У вас может быть проиндексировано 40.000 страниц, которые будут давать 20 уников, а может быть проиндексировано 20, которые будут давать больше.
Для проверки индексации есть бесплатная программа XSEOchecker очень удобная и простая!
Выдача динамична и постоянно меняется. Есть в дорвейном лексиконе такое понятие как "Трясет выдачу". Так вот это и означает, что позиции разных сайтов постоянно меняются. Критические изменения можно увидеть на сайте Algoroo
Во времена максимальной тряски рекомендуется переждать и не генерить в этот отрезок времени.
При этом изменения могут затронуть например только какие-то определенные ниши, определенные страны. По этому часто бывает, что у кого то трафик упал, у кого то вырос, а у кого то ничего не изменилось. Это тоже в порядке вещей!
Так же тут отмечаются выходы и обновления поисковых алгоритмов!
Наиболее известные фильтры-алгоритмы Гугла
1. Панда
Понижает позиции сайтов с низкокачественным контентом.
Определяет спамный, автоматически сгенерированный, бесполезный, низкокачественный контент и понижает его в выдаче. Алгоритм в первую очередь нацеленный на борьбу с нами.
За что можно получить пессимизацию
- Неуникальный контент (плагиат)
- Дублированный контент на разных страницах одного сайта
- Автоматически сгенерированный контент
- Контент, переспамленный ключевыми запросами
- Спамный контент, сгенерированный пользователями (например, комментарии)
- Недостаточное количество контента на странице (по отношению к рекламным блокам, например)
- Плохой пользовательский опыт
2. Пингвин (Google Penguin)
Понижает в ранжировании сайты со спамными ссылочными профилями и сайты, манипулирующие ссылочной массой.
В определенные моменты времени, за "Спамные неестественные ссылки" был шанс, что выкинет вообще из выдачи. Но от данной идеи в гугле отказались, я так понимаю из за того, что таким образом просто можно было бы "топить" конкурентов и теперь спамные ссылки просто не учитываются или учитываются минимально.
У гугла есть свой собственный инструмент, с помощью которого можно "Отказаться" от ссылок.
Ссылки\траст пожалуй до сих пор один из самых основных алгоритмов влияющих на топовые позиции.
3. Антипиратский апдейт (Google's Pirate Update)
Понижает в ранжировании сайты, которые регулярно получают жалобы за содержание пиратского (защищенного авторским правом) контента.
Тут все понятно! Если допустим кто то выложил фильм, а у него есть копирайт.
На сайт можно пожаловаться на нарушение авторских прав, DMCA.
Этим иногда злоупотребляют конкуренты.
Наиболее затрагиваемый контент фильмы, музыка, книги, доступные для скачивания или просмотра. Торрент-треккеры и сайты-агрегаторы ссылок на файлообменники, формально они не хранят запрещенные файлы, но предоставляют информацию о том, как их скачать из сети.
Накладывается за содержание на сайте пиратского контента или информации о том, как получить такой контент в обход правообладателя.
4. Колибри (Hummingbird)
Его цель предоставлять более релевантные результаты, основываясь на смысловой составляющей поискового запроса.
Другими словами теперь мало напичкать страницу нужным ключом, что бы он вышел в топ. Гугл так же смотрит соответствие по смыслу, ищет похожие тематические фразы, синонимы.
Другими словами алгоритм борется с "Переспамом" ключевых слов.
5. Голубь (Pigeon)
Предоставляет более релевантные результаты локального поиска.
Алгоритм региональной выдачи. Вы можете присвоить своему сайту определенный регион и ранжироваться там выше.
Несмотря на ожидания многих специалистов, в основном коснулся только англоязычного сегмента. После выхода этого алгоритма местонахождение пользователя и его расстояние до объекта, предлагаемого как результат выдачи, стали учитываться как факторы ранжирования.
6. Mobile Friendly Update
Повышает оптимизированные для мобильных устройств страницы в результатах поиска на мобильном устройстве.
Другими словами гугл работает над тем, что бы пользователям было удобно пользоваться интернетом. А пожалуй 70% текущей выдачи становится мобильной. Для борьбы с неудобными сайтами был введен этот алгоритм.
Проверить оптимизирован ли ваш сайт под мобильные устройства можно здесь.
Можно использовать к примеру Boostrap шаблоны. Я действительно иногда проверяю свои шаблоны на оптимизацию и те, что не проходят удаляю!
7. RankBrain
Его цель предоставить пользователю лучшие результаты, основанные на релевантности и машинном обучении.
Я думаю не открою никому америку, если расскажу, что гугл, да и вообще поисковые системы, социальные сети, крупнейшие гиганты следят за Вами. )
Данный алгоритм анализирует поведение пользователей на Вашем сайте, в результате чего определяет достоин ли Ваш сайт быть на той позиции, где он находится или же нет. Мое личное мнение, что используются различные гугл плагины, браузер Crome, гугл метрики, включая гугл аналитикс.
Другими словами, чем дольше залипают на сайте ваши пользователи, чем меньше из них потом снова возвращается в гугл с этим же запросом, тем лучше для вашего сайта/дорвея.
8. Опоссум (Possum)
Цель его предоставлять лучшие, более релевантные результаты локальной выдачи, основываясь на местонахождении пользователя.
Благодаря этому алгоритму местонахождение пользователя стало еще более важным фактором для показа того или иного результата из Local Business - чем ближе пользователь к адресу компании, тем с большей вероятностью данный результат будет присутствовать в выдаче.
Если я ищу кафе и сам нахожусь на тверской у меня включена галочка "Определять мое местоположение", гугл может показать мне ближайшие кафе.
9. Фред (Fred)
Цель отфильтровывать низкокачественные страницы из результатов поиска, чьей целью является прибыль от размещения рекламы и ссылок на другие сайты
Пожалуй каждому из нас однажды попадались сайты, на которых 70-80% контента - это реклама.
Она повсюду, ее настолько много, что мы с трудом можем найти то, за чем пришли!
Именно для борьбы с подобными сайтами и был создан данный алгоритм.
В первую очередь могут пострадать:
- Сайты, злоупотребляющие баннерной, pop-up и другими видами рекламы
- Сайты со статьями написанными специально для роботов поисковых систем с целью генерации трафика
- Сайты с большим количеством исходящих ссылок
Другими словами, слишком сильно не грешим с рекламой, не переусердствуем с внешней перелинковкой!
И как бы все не звучало страшно и не казалось, что все алгоритмы нацелены на Вас, на деле всегда все работает иначе! Алгоритмы - это нейросеть, они не идеальны, алгоритмы можно и нужно "Щупать" искать слабые места, что бы потом максимально забить выдачу своими сайтами. Знание алгоритмов - дает знание о том, как их можно обойти!
И это лишь основные факторы ранжирования, считается, что всего их более 200 и любая мелочь +- может повлиять на Ваш результат.
Алгоритмы ранжирования Google
Алгоритмы ранжирования Яндекс
Рекомендации для WebmasterА Google
Рекомендации для WebmasterА Яндекс
Существуют так же такие региональные поисковики как - seznam - Чехия или baidu - Китай.
Вывод:
Если вкратце пройтись. Дорвеи не должны быть переспамлены ссылками. Контент в идеале должен быть "Релевантным". Поисковики пусть еще и не до конца понимают смысл, но понимают, когда там что то не то.
Времена, когда можно было взять текстовку из электронных книг и это заходило. Контент не должен быть переспамлен ключами. Очень даже полезно добавлять тематические ключи из этой тематики. Агрессивная реклама, когда ее слишком много - может быть пессимизированна. Слишком много спамных ссылок могут либо перестать учитываться, либо навредить позициям. Плохие поведенческие так же влияют на позиции. Дорвей в идеале должен быть оптимизирован под мобильную выдачу, проверить это можно здесь! Не забываем про "Локальную выдачу".
Ну и конечно же в первую очередь сражаемся с пандой, цель которой как раз подъедать дорвеи и не давать им прорваться высоко.