Поисковый алгоритм яндекса. Палех – новый алгоритм Яндекса

Интернет состоит из миллионов сайтов и содержит экзабайты информации. Чтобы люди могли узнать о существовании этой информации и воспользоваться ей, существуют поисковые системы. Они реализуют право человека на доступ к информации - любой информации, которая нужна в данный момент. Поисковая система - это техническое средство, с помощью которого пользователь интернета может найти данные, уже размещенные в сети.

Пользователи ищут в интернете самые разные вещи - от научных работ до эротического контента. Мы считаем, что поисковая система в каждом случае должна показывать подходящие страницы - от статей по определенной теме до сайтов для взрослых. При этом она просто находит ту информацию, которая уже есть в интернете и открыта для всех.

Яндекс не является цензором и не отвечает за содержание других сайтов, которые попадают в поисковый индекс. Об этом было написано в одном из первых документов компании «Лицензия на использование поисковой системы Яндекса», созданном еще в 1997 году, в момент старта : «Яндекс индексирует сайты, созданные независимыми людьми и организациями. Мы не отвечаем за качество и содержание страниц, которые вы можете найти при помощи нашей поисковой машины. Нам тоже многое не нравится, однако Яндекс - зеркало Рунета, а не цензор».

Информация, которая удаляется из интернета, удаляется и из поискового индекса. Поисковые роботы регулярно обходят уже проиндексированные сайты. Когда они обнаруживают, что какая-то страница больше не существует или закрыта для индексирования, она удаляется и из поиска. Для ускорения этого процесса можно воспользоваться формой « ».

В ответ на запрос, который пользователь ввел в поисковой строке, поисковая система показывает ссылки на известные ей страницы, в тексте которых (а также в метатегах или в ссылках на эти сайты) содержатся слова из запроса. В большинстве случаев таких страниц очень много - настолько, что пользователь не сможет просмотреть их все. Поэтому важно не просто найти их, но и упорядочить таким образом, чтобы сверху оказались те, которые лучше всего подходят для ответа на заданный запрос - то есть, наиболее релевантные запросу. Релевантность - это наилучшее соответствие интересам пользователей, ищущих информацию. Релевантность найденных страниц заданному запросу Яндекс определяет полностью автоматически - с помощью сложных формул, учитывающих тысячи свойств запроса и документа. Процесс упорядочивания найденных результатов по их релевантности называется ранжированием. Именно от ранжирования зависит качество поиска - то, насколько поисковая система умеет показать пользователю нужный и ожидаемый результат. Формулы ранжирования строятся также автоматически - с помощью машинного обучения - и постоянно совершенствуются.

Качество поиска - это самый важный аспект для любой поисковой системы. Если она будет плохо искать, люди просто перестанут ей пользоваться.

Поэтому нам важно постоянно совершенствовать алгоритмы ранжирования и делать их устойчивыми к внешнему влиянию (например, к попыткам некоторых вебмастеров обмануть поисковую систему).

Поэтому мы не продаем места в результатах поиска.

Поэтому на результаты поиска никак не влияют политические, религиозные и любые другие взгляды сотрудников компании.

Пользователи просматривают страницу результатов поиска сверху вниз. Поэтому Яндекс показывает сверху, среди первых результатов, те документы, которые содержат наиболее подходящие пользователю ответы - то есть наиболее релевантные заданному запросу. Из всех возможных релевантных документов Яндекс всегда старается выбрать наилучший вариант.

С этим принципом связано несколько правил, которые Яндекс применяет к некоторым типам сайтов. Все эти правила работают полностью автоматически, их выполняют алгоритмы, а не люди.

1. Существуют страницы, которые явно ухудшают качество поиска. Они специально созданы с целью обмануть поисковую систему. Для этого, например, на странице размещают невидимый или бессмысленный текст. Или создают дорвеи - промежуточные страницы, которые перенаправляют посетителей на сторонние сайты. Некоторые сайты умеют замещать страницу, с которой перешел пользователь, на какую-нибудь другую. То есть когда пользователь переходит на такой сайт по ссылке из результатов поиска, а потом хочет снова вернуться к ним и посмотреть другие результаты, он видит какой-то другой ресурс.

Такие ресурсы не представляют интереса для пользователей и вводят их в заблуждение - и, соответственно, ухудшают качество поиска. Яндекс автоматически исключает их из поиска или понижает в ранжировании.

3. По запросам, которые не подразумевают явно потребность в эротическом контенте, Яндекс ранжирует сайты для взрослых ниже или вообще не показывает их в результатах поиска. Дело в том, что ресурсы с эротическим контентом часто используют достаточно агрессивные методы продвижения - в частности, они могут появляться в результатах поиска по самым разнообразным запросам. С точки зрения пользователя, который не искал эротики и порнографии, «взрослые» результаты поиска нерелевантны, и, к тому же, могут шокировать. Более подробно об этом принципе можно почитать .

4. Яндекс проверяет индексируемые веб-страницы на наличие вирусов. Если обнаружилось, что сайт заражен, в результатах поиска рядом с ним появляется предупреждающая пометка. При этом зараженные сайты не исключаются из поиска и не понижаются в результатах поиска - может быть, на таком ресурсе находится нужный пользователю ответ, и он все равно захочет туда перейти. Однако Яндекс считает важным предупредить его о возможном риске.

В течение последних двух лет Google и «Яндекс» неустанно меняли свои алгоритмы. Это нередко приводило к панике среди SEO-специалистов, но подыгрывало последователям органического SEO . Ведь все изменения, вводимые поисковыми системами, были направлены на уменьшение видимости страниц низкого качества и без добавленной ценности.

Так остались ли ещё методики продвижения сайтов, не приводящие к «фильтрации»? Какие стратегии оптимизации следует выбирать SEO-специалистам в 2015–2016 годах?

Что делать для успешного продвижения в Google?

1. Расширять семантическое ядро с учётом алгоритма «Колибри».

Алгоритм Hummingbird («Колибри») был запущен 20 августа 2013 года, но до сих пор многие SEO-специалисты не принимают его во внимание. «Колибри» кардинально изменил способ поисковой системы Google анализировать запросы: вместо сопоставления запросу отдельных ключевых слов на странице поисковик ищет соответствие общего смысла.

Ключевые слова по-прежнему важны, однако следует применять бóльшее их разнообразие, включая синонимы, поисковые подсказки и близкие по смыслу слова и словосочетания. Например, вместе с «ключом» «цветы» использовать фразы «букет ко дню святого Валентина» , «доставка цветов в день заказа» или «цветочная композиция» . Если возможно, т.е. если действительно есть что сказать по этому поводу, то вставлять и диалоговые фразы типа «где купить цветы дёшево?»

Все подобранные «ключи» необходимо разделить на три группы: информационные, навигационные и транзакционные.

  • Информационные запросы (например, «как составить букет?» ) задают, когда ищут образовательный контент. Поэтому на сайте их следует использовать при создании информационных статей с ненавязчивыми ссылками на продукты или услуги.
  • Навигационные запросы (например, «магазин ромашка» ) используют для поиска бренда, конкретного продукта или веб-ресурса, их рациональнее применять на страницах «Главная» и «О компании», например.
  • Транзакционные же явно указывают на намерение совершить некое действие: заказать, купить, скачать. В этом случае используют слова «цена», «купить», «доставка», «аренда», «купон», «скидка» и пр. Подходящие места для них – странички товаров/услуг, акций и т.п.

В любом случае «ключи» не должны напоминать «коровью лепёшку» - несклоняемую и бессмысленную вставку в ткань повествования. Текст должен читаться плавно и естественно, ведь его воспринимает и оценивает Человек, поисковик же работает с «широким» семантическим ядром, а не повторённой 5 раз в «магических» формах и положениях фразой.

2. Совершенствовать структуру URL сайта.

Сайты с упорядоченной структурой адресов обычно ранжируются лучше, чем ресурсы с «грязной» структурой и запутанной организацией контента. URL-адреса и ссылки являются строительными блоками веб-сайта, а потому им следует уделять должное внимание.

  • Динамические адреса типа site.ru/page?id=13579&color=4&size=2&session=754839 слишком длинные и не несут никакого смысла. Показатель кликабельности (CTR, click-through rate) таких ссылок в результатах поиска обычно ниже, поэтому стоит использовать статические человекупонятные урлы (ЧПУ).
  • Множество «битых» ссылок , ведущих на страницу 404 ошибки, также может повредить позициям сайта при ранжировании. Необходимо время от времени проверять сайт на предмет возникновения неработающих ссылок, используя специальные программы, например, Screaming Frog .
  • Ранее считалось, что большое количество исходящих ссылок со страницы негативно сказывается на её ранжировании в поиске, хотя это утверждение некоторые оспаривали. Сейчас Google уже отказался от регламентированного (не более 100 штук) количества ссылок с одной страницы, но настаивает на том, чтобы соответствовали тематике страницы и тем запросам, по которым люди на неё приходят.

3. Фокусироваться только на качественных, потом-кровью заработанных обратных ссылках, пусть их будет и немного.

За определение качества ссылочной массы и естественности анкор-листа в Google отвечает алгоритм «Пингвин» , последнее крупное обновление которого произошло 21 октября 2014 года (Google Penguin 3.0). 15 октября 2015 года началась новая итерация апдейта «Пингвина» - многие сайты, торгующие ссылками через биржу Sape, были понижены в выдаче.

Разработчики Google недвусмысленно нам говорят, что гораздо лучше иметь многочисленные ссылки с нескольких авторитетных нишевых ресурсов, чем сотни единичных ссылок со второсортных сайтов.

Как адаптировать сайт под мобильные устройства? Используйте, например, фреймворк Twitter Bootstrap. Это распространённая и очень удобная система вёрстки сайтов со стандартизированными шаблонами. А главное, что для дальнейшего улучшения сайта вам не придётся долго искать программиста, который смог бы разобраться в HTML-коде: с «Бутстрапом» знакомо большинство верстальщиков, которым не составит труда внести нужные изменения.

Как не потерять благосклонного отношения «Яндекса»?

1. Относиться к текстам как к основному инструменту продвижения.

Наряду с фильтром «Переоптимизация» «Яндекс» в середине 2014 года ввёл новый «Антиспам-фильтр» . Он похож на своего «старшего брата», но более жёсткий (приводит к потере позиций в выдаче вплоть до 1000) и учитывающий больше нюансов.

Что делать, чтобы не подвести свой сайт под «Антиспам-фильтр»?

  • Уделять особое внимание длине и заспамленности ключевыми словами заголовков (title) и описаний (description) страниц.
  • Не зацикливаться на прямых вхождениях «ключей» и ограничить общий процент использования ключевых слов и выражений. Это касается таких «экзотов», как «Где купить ххх дёшево?» , «Недорогие услуги... в городе N» и т.п., но не базовых словосочетаний типа названий товаров или отраслевых терминов, без которых невозможно донести информацию. В отношении последних действует обычный литературный «ограничитель» - критерий тавтологичности.
  • Тщательно редактировать тексты: «Антиспам-фильтр» настроен на определение орфографических и пунктуационных ошибок.
  • Не выделять «ключи» жирным, курсивом и другими способами. Делать это можно лишь в отношении фраз или слов, на которых стоят логические акценты для привлечения внимания читателя. Ничего нового, всё логично - выделяется главная мысль или термин, а не любой «ключ».
  • По возможности заменять избыточные «ключи» словами из подсказок и «Спектра ».

2. Сосредоточиться на естественном линкбилдинге, приносящем трафик.

12 марта 2014 года «Яндекс» произвёл отмену ссылочного ранжирования по Москве и области для коммерческих запросов в ряде сфер. Не за горами отмена избыточного влияния ссылок и по всей России.

Если Вы хотите продолжать размещать рекламные блоки на своём сайте, то желательно не ставить их более двух, причём реклама не должна отвлекать от основного контента, перекрывать его, а уж тем более замещать, отодвигая текст в сторону или вниз.

Это касается и ставших в последнее время модными всплывающих виджетов типа «Мы Вам перезвоним через 26 секунд», «Вы были на сайте уже 10 секунд! Нашли что-то полезное?» и пр.

а) Более 10 лет поиск в Google персонализируется в зависимости от многих факторов:

  • Истории поиска . Если Вы ищете что-то в Google под своим аккаунтом, при формировании результатов поиска учитывается история минимум за год. И даже если Вы работаете с поисковиком анонимно, Google всё равно будет выдавать персонализированные результаты, поскольку при помощи файлов cookie хранит историю поиска в конкретном браузере за 180 дней. Не будешь же чистку каждый день устраивать...
  • Предыдущего запроса. Google работает по механизму уточнения предыдущего запроса, предполагая, что Вы по нему нашли не всё, что искали, а потому предлагает страницы, связанные одновременно с текущим и предыдущим запросами.
  • Географического положения пользователя. Результаты поиска, которые выдаются пользователю в одном городе, могут разительно отличаться от результатов по тому же поисковому запросу в другом городе. 24 июля 2014 года в США был запущен новый алгоритм Pigeon 1.0 («Голубь») , который резко изменил результаты локальной выдачи в связи с введением новых механизмов обработки и интерпретации сигналов местоположения. В итоге близость расположения бизнеса для пользователя Google стала чуть ли не главным фактором в поисковой выдаче. Даты внедрения нового алгоритма в других странах пока не озвучиваются.

б) «Яндекс» не отстаёт от западного конкурента в деле персонализации поиска: 12 декабря 2012 года российская компания запустила алгоритм «Калининград» , учитывающий историю поиска. В то же время «Яндекс» обращает внимание и на географическое положение пользователя, а также разделяет запросы на геозависимые (по которым выдача привязана к региону) и геонезависимые (результаты поиска не зависят от региона пользователя).

Таким образом, вокруг каждого пользователя формируется поисковый пузырь , из которого не так-то легко выбраться. Это порождает массу иллюзий, например, у владельцев сайтов. Нужно просто принять, что практически невозможно узнать, на каких позициях в SERP Ваш сайт видят другие люди. Чтобы получить действительно точные данные по неперсонализированным позициям, следует использовать специальные программы или онлайн-сервисы, например, AllPositions (платный), «Энергослон» (платный), SEOGadget (бесплатный, но с ограничением количества проверок в день).

Но не надо заблуждаться и в отношении этого инструмента - он тоже не отражает реальную видимость ресурса (как мы поняли, она вообще индивидуальна). Увидеть сайт на позициях, определённых программами, может только ОН, Уникум анонимикус , постоянно уничтожающий cookies, генерирующий новые IP и т.п., или же впервые воспользовавшийся браузером где-то на орбите (а может, и там пеленгуют?). Но несмотря на то, что этот инструмент обитает в вакууме, он полезен, просто цель у него другая - оценка в динамике эффективности прикладываемых усилий по развитию ресурса . Иными словами, неперсонализированные позиции помогают понять, одобряет или нет поисковик вашу деятельность. А уж где в SERP сайт увидят Маша или Вася, сильно зависит от их сетевого поведения.

Яндекса опубликована статья о действии нового алгоритма, который назвали «Палех». Он кардинально поменяет выдачу по поисковым НЧ запросам пользователя, так как задача релевантной выдачи решается с помощью нейронных сетей.

По оф. данным на долю уникальных многословных фраз, запрашиваемых не более одного раза за весь период статистики приходится больше половины.

Что такое искусственные нейронные сети?

Сокращенно ИНС – это математическая модель по принципу сетей нервных клеток живых организмов. Т.е. процессы, происходящие в мозге смоделированы в искусственный интеллект с помощью компьютерных алгоритмов. Нейросети не программируются, а обучаются и это явное отличие от прежних поисковых алгоритмов.

Сети выдается очень много примеров правильного ответа на запрос и плохо отвечающих на поставленный пользователем вопрос. Она запоминает и таким образом, обучается распознаванию релевантности запроса и страницы, т.е. понимать что хорошо, а что плохо.

Нейронная сеть после обучения может распознавать изображение на картинках.

Пример работы поиска для микро и нч запросов

На схеме две оси координат: поисковый запрос и заголовки веб-страниц. Чем ближе красная и желтая условные точки, тем релевантней страничка. На этом примере, как раз видно, что в title и в ответе поисковика нет пересекаемых слов. Но по смыслу это самая лучшая пара.

Как повлияет искусственный интеллект поиска на работу вебмастера над оптимизацией сайта?

Основа: запрос – заголовок.

На данном этапе, как заявляют разработчики Яндекса, алгоритм сравнивает задаваемые ключевые слова интернет пользователем и содержание тайтла (Title). Ему не обязательно находить ключи в точном вхождении, чтобы определить наиболее релевантную веб-страницу для выдачи. Более того, в тайтле может вообще не оказаться запрашиваемых слов, но по смыслу речь идет об одном и том же. (См. схему выше).

  1. Уделять особое внимание содержимому title.
  2. Статьи, заточенные по низкочастотные и среднечастотные запросы делать с большим количеством знаков. Чем больше текст, тем легче вставить максимальное число длинных хвостов.
  3. Использовать подзаголовки для мкрч и ассоциаций (предложений по смыслу).

Какие ошибки может допустить оптимизатор, подстраиваясь под новые условия?

В связи с тем, что учитывается содержимое в тайтле, может появиться соблазн повлиять на результат.

Серьезным неправильным шагом будет написание длинных заголовков с использованием микро-частотных хвостов в самом заголовке.

Что делать сео специалистам?

Не нужно впихивать в тайтл нечеловеческие обороты и фразы.

На то это и интеллект, хоть и искусственный, чтобы понять, чему посвящена статья. А все подходящие хвосты вставляйте в большие по объему тексты. При этом, не обязательно добавлять их все слово в слово, можно такие микро предложения разрывать.

В этом году Яндекс решил не дожидаться весны, и сходу обрушился на вебмастеров известиями о запуске нового мобильного алгоритма и результатах стартовавшего еще в декабре алгоритма по борьбе с кликджекингом. А про «буйства» прошлого года и вовсе страшно вспоминать. Чтобы помочь вебмастерам сосредоточиться на главном, редакция SEOnews собрала основные тренды продвижения в Яндексе и попросила экспертов дать советы, исходя из нововведений прошлого ­– начала этого года.

Ссылки

Прошедший 2015 год был по-настоящему годом ссылок. Точнее, он окончательно утвердил антиссылочную политику Яндекса. Запущенный в середине мая алгоритм показал даже самым скептически настроенным SEO-специалистам, что олдскульная закупка ссылок не просто не работает, но и ведет к печальным последствиям для сайта. А обновленный меньше чем через полгода АГС окончательно , что покупные ссылки убивают не только приобретающие их сайты, но и продающие.

Кейсы по выходу из-под «Минусинска» наглядно продемонстрировали, что избавиться от алгоритма несложно: главное – снять так называемые SEO-ссылки. Естественные и качественные ссылки в свою очередь только положительно сказываются на ранжировании, так что в новом году продолжаем прокачивать скилы по наращиванию естественной ссылочной массы.

Алексей Бузин, генеральный директор компании «СЕО-Импульс» :

Яндекс с введением в 2015 году алгоритма «Минусинск» заставил многих SEO-оптимизаторов переосмыслить свое отношение к покупке ссылок. До сих пор немалое количество сайтов находится в топ 10 по конкурентным тематикам с большим количеством откровенно покупных ссылок, но это не значит, что «Минусинск» их обошел стороной. Порог «спамности» ссылочного профиля постепенно повышается, поэтому мы рекомендуем тем владельцам сайтов, которые использовали получение ссылок через биржи, заняться тщательной чисткой ссылочного профиля либо обратиться за помощью к компетентным специалистам, которые помогут им сделать это.


Александр Дронов, старший менеджер отдела поискового продвижения компании i-Media :

Пора начать работать над стратегией получения естественных и качественных ссылок. Внешние факторы ранжирования никто не отменял. «Пингвин» и ручные санкции от Google, а также «Минусинск» и АГС от Яндекса дали понять: пора прекращать покупать абы какие ссылки с анкорами в виде ключевых запросов. Подобные ссылки по определению не могут быть естественными, и рано или поздно за них последует наказание в виде пессимизации сайта в выдаче.

Олег Сахно, руководитель отдела производственных услуг Cubo.ru :

Безопасность

Еще один важный момент, про который уже не первый год говорят в SEO-среде, это безопасность. В 2015 году Яндекс уделил довольно много внимания вопросу безопасного пользования интернетом (говоря о безопасности, Яндекс имеет в виду конфиденциальность и целостность пользовательских данных). Чего стоят одни его ухищрения в Я.Браузере вроде или появление о страницах, подписывающих пользователей на платные мобильные услуги.
Одним из первых крупных подтверждений серьезности намерений Яндекса стало проведение тестирования «безопасной выдачи». В течение ограниченного периода времени поисковик ниже ранжировал сайты, представляющие, по его мнению, опасность для пользователей, а в сниппетах таких ресурсов появлялось уже привычное «Сайт может угрожать безопасности вашего компьютера или мобильного устройства». Учитывая, что такая выдача пользователям понравилась больше, команда Яндекса в серьез сделать безопасность сайта одним из критериев ранжирования.


Продолжением темы стала предновогодняя с алгоритмом по борьбе с кликджекингом. Команда поиска предупредила вебмастеров, что сайты, собирающие пользовательскую информацию мошенническими способами (в первую очередь размещающие невидимые элементы и провоцирующие на нежелательные для пользователя действия), будут ранжироваться ниже. Причем алгоритм учитывает только актуальную информацию и наказывает непосредственно сам сайт, независимо от того сознательно вебмастер занимался кликджекингом или это сделал установленный по незнанию сервис. Подробнее об этом .

Еще раз взгляните на свой сайт и ответьте на несколько вопросов. Вызывает ли он у вас самих доверие? Не установили ли вы на нем какие-то подозрительные сервисы, которые в погоне за сиюминутной выгодой могут привести к долгосрочным негативным последствиям? Может ли пользователь доверить вам свои данные и можете ли вы гарантировать ему их безопасность? Мы не призываем всех повально переходить на HTTPS или устанавливать десятки степеней защиты. Просто отнеситесь с уважением к своим посетителям и помните, что небезопасные сайты теперь наказываются пессимизацией.

Александр Гайдуков, руководитель комплексной оптимизации сайтов в iSEO :

Безопасность (защищенные протоколы, «проверенные» CMS с минимальными рисками, отсутствие скрытых скриптов и фреймов для сбора данных и др.). Недавно мы столкнулись с фильтром Яндекса за кликджекинг, будьте внимательны.

Юзабилити

Пожалуй, это один из несменяемых трендов последних нескольких лет. Здесь сложно отметить, что-то новое, но и пропустить его нельзя. В 2016 году мы продолжаем делать сайты, которые будут удобными и понятными для пользователей. Сделать их такими помогут аналитика и A/B-тесты.

Хотелось бы порекомендовать SEO-специалистам и владельцам сайтов чаще ставить себя на сторону посетителя сайта (потенциального покупателя) и оценивать сайт со стороны удобства его использования. До сих пор в выдаче встречаю интернет-магазины, где нельзя увеличить товар, чтобы его детальнее рассмотреть, а также с трудом можно найти информацию о доставке товара и способах оплаты.


Нужно регулярно анализировать, насколько комфортно получать информацию на вашем интернет-ресурсе, насколько она полная, удобно ли совершать целевые действия. Представители поисковых систем регулярно напоминают, что сайты должны оправдывать ожидания пользователей. В первую очередь это касается дизайна и удобства в использовании интерактивных элементов.

Александр Гайдуков, руководитель комплексной оптимизации сайтов в iSEO:

Работа с поведенческими факторами (оптимизация макетов страниц, регулярные исследования и сплит-тестирования для улучшения юзабилити, генерация нестандартных спецпроектов, например, под сезонные события, для сбора дополнительного лояльного трафика).

Тренд в юзабилити на 2016 год, несомненно – мобилопригодность. Поиск на мобильных устройствах, это уже половина от общего трафика. При этом надо знать меру и относиться с уважением к пользователям и их приватности. Собственно, поэтому и введены санкции за кликджекинг. По сути, все нововведения в юзабилити - это всё та же мантра: делайте сайты для людей.

Контент

Один из главных 2016 года – контент-маркетинг. И это неслучайно. Есть ощущение, что мы снова возвращаемся в эпоху Content is the king. Особенность работы с контентом на данном этапе заключается в его разнообразии. Сегодня контент сайта – это не просто полезные и интересные статьи с деликатно размещенными ключевыми словами, но и инфографики, рекомендации, видео и разного рода интерактивные форматы. И да, все это должно быть красиво оформлено и размещено так, чтобы пользователь мог легко найти интересующую его информацию.

Еще один важный момент – контент уже давно перестал быть «переносчиком ключевых слов». Теперь он решает конкретные задачи пользователя (и таким образом улучшает ваши поведенческие факторы).

К слову, Яндекс открыл для себя новый способ оценки качества контента: теперь для получения более подробных данных о страницах сайтов и просмотра контента в том виде, в котором он отображается в браузере, поисковик JavaScript и CSS.

Олег Сахно, руководитель отдела производственных услуг Cubo.ru:

Контент – это уже не просто внутренние факторы ранжирования, а серьезный упор на коммерческие факторы. Сейчас сайт должен не просто давать ответ, важно решать задачу пользователя. Если информационная потребность пользователя не удовлетворена, сайт не будет успешен в результатах поиска.

Mobile

В 2016 году Яндекс подхватил инициативу Google по развитию мобильного направления. Намеки о том, что flash-элементы попаданию видео в мобильный поиск в итоге переросли в полноценный алгоритм . Как и у Google, алгоритм Яндекса влияет только на мобильную выдачу: более адаптированные сайты получат там преимущество. Адаптивнность ресурса Яндекс определяет по двум критериям:

1. Нет горизонтальной прокрутки. Контент страницы адаптирован под размер экрана.

2. Отсутствуют элементы, которые не работают на популярных мобильных платформах (например, упомянутые выше flash-ролики).

Определить, как обстоят дела с этими критериями у вас на сайте, не составит труда. Для этого никаких mobile-friendly test’ов не нужно. Но даже если до сегодняшнего дня вы игнорировали идею о мобильном или адаптированном сайте и считали это «излишеством», которое вашему бизнесу ни к чему, подумайте о том, что мобильный трафик по всему миру уже обогнал десктопный. А терять в кризис драгоценных клиентов недопустимо. Так что посмотрите, что о разных вариантах «мобилопригодности» эксперты, и делайте свой выбор.

Алексей Бузин, генеральный директор компании «СЕО-Импульс»:

Как и Google, поисковая система Яндекс как бы намекает в своем новом кабинете вебмастера , в разделе «Диагностика сайта», о том, что необходимо сделать сайт mobile-friendly. Инструмент намекает оптимизаторам, что вскоре не будет мобильных и десктопных сайтов. Будут только новые и старые ресурсы.


Александр Дронов, старший менеджер отдела поискового продвижения компании i-Media:

Уделяйте особое внимание мобильной выдаче и тому, как в ней выглядит ваш сайт. Google с прошлого года хуже ранжирует в мобильном поиске сайты без адаптивной верстки или мобильной версии. А на днях Яндекс анонсировал запуск нового алгоритма «Владивосток», анализирующего сайт на «мобилопригодность» и учитывающего данный аспект при его ранжировании в мобильной выдаче. Ничего удивительного: доля мобильного трафика непрерывно растет, и поисковые системы не могут игнорировать данное обстоятельство. По нашим прогнозам, этот тренд будет набирать обороты. Поэтому начинайте анализировать мобильную выдачу и работать над своим местом в ней, а не концентрировать усилия исключительно на десктопной версии сайта и десктопной выдаче.

2 ноября 2016 года Яндекс обьявил о введении нового алгоритма поискового ранжирования «Палех». Теперь вебмастерам придется подстраиваться и под его требования.

Напомню, что алгоритмы поискового продвижения, как это следует из их названия, предназначены для выстраивания очередности в поисковой выдаче по определенному запросу. А это очень важно для нас, вебмастеров, т.к. кому нужен сайт, расположенный в выдаче на 50 месте и более – его никто не найдет и туда никто не придет.

Обычно начинающим вебмастерам советуют делать упор на низкочастотные запросы, где гораздо легче пробиться в ТОП и с гораздо меньшими временными и денежными затратами. Вот как раз на такие запросы и ориентирован Палех.

Причем он ориентирован не просто на низкочастотные запросы, а — на очень-очень низкочастотные и даже уникальные запросы. А такие запросы опытных сеошников, как правило, мало интересуют, что дает нам шанс привлечь на свои сайты больше посетителей.

Суть Палеха заключается в том, что теперь ранжирование идет не только по точным ключевым фразам (их очень трудно угадать), но и по схожим по смыслу.

Для решения этой задачи Яндекс обратился к нейронным сетям, которые не программируются в обычном смысле этого слова, а самообучаются. Благодаря самообучению такие сети и способны улавливать смысл поисковых фраз и искать похожие. Подробнее об этом почитайте на его блоге, посвященной Палеху.

В результате Яндекс получил возможность активнее ранжировать фразы из т.н. «длинного хвоста»; тем, кто забыл, что это, напомню.

Что такое «длинный хвост»

В 2004 году шеф-редактор журнала «Wired» Крис Андерсон провел исследование продаж товара (любого товара). Его интересовал вопрос: что в наибольшей степени приносит прибыль – наиболее популярные сегодня товары (т.н. бестселлеры) или товары, выбывшие из списка бестселлеров и перешедшие в разряд ширпотреба (рестселлеры).

Оказалось, что прибыль от обеих групп товаров примерно одинаковая: бестселлеры дают очень большую прибыль в первый период своего появления, потом, с появлением других бестселлеров – более новых, первые переходят в разряд рестселлеров, но продолжают приносить прибыль – до момента снятия с продажи примерно такую же, как и в период их бестселлерства.

Если расположить все эти данные на графике, то получится примерно такая картина:

Эта теория была применена к разным областям человеческой деятельности, в том числе и к SEO. И дала превосходные показатели: оказалось, что по запросам, составляющими «длинный хвост», переходят до половины пользователей Интернета.

Представьте, что вы живете в Череповце и желаете купить стол. Вы будете писать в адресной строке запрос «мебель» или же «купить двухтумбовый письменный стол в Череповце недорого»?

Запрос «мебель» относится к топовым, а наш длиннющий запрос – к длинному хвосту. Чем больше слов употребляется в запросе, тем быстрее он окажется в самых низкочастотных. Обычно считают, что запросы с число слов более двух- трех относятся к низкочастотным, если слов еще больше — это типичный длинный хвост.

Отличный пример приведен на картинке:

Рис.2

По статистике Яндекса из 280 миллионов ежедневных запросов примерно 100 миллионов – запросы из области длинного хвоста. И на такое количество запросов надо как-то реагировать, он и отреагировал – Палехом.

Почему Палех?

Картинки с «длинным хвостом» изображают по-разному, обычно используя изображения животных: крыс, ящериц и т.д. Вот например, динозавр:

Рис.3

Но поскольку сейчас у нас в стране угар патриотизма, то Яндексу надо было найти что-то такое, чего нет ни у кого, а только у русских. Он и нашел – жар-птицу:

Рис.4

Жар-птица часто изображается на палехских миниатюрах, отсюда и «Палех», понятно?

Но изображение и название – дел десятое, нам-то, вебмастерам, что делать и чего ждать?

Берем курс на Палех

Сразу скажу, ждать от «Палеха» уже особенно нечего: он уже два месяца используется Яндексом и успел отранжировать сайты. Поэтому, если у вас за последнее время как-то изменились позиции сайта, то это его рук дело. Яндекс только обьявил 2 ноября, а так алгоритм уже действует.

Коснулся он прежде всего тех сайтов, где много контента. Если контент был хороший, то сайт начал дополнительно ранжироваться по новым ключевикам – по самым что ни на есть низкочастотным запросам. А если Яндекс посчитал его плохим…

Естественно, Яндекс на хороших, так называемых трастовых, сайтах и контент считает хорошим. А как попасть в трастовые сайты? – Это долго и дорого. Самый быстрый путь ведет через . Там есть бесплатная регистрация, но сразу скажу, что у вас, новичков, шансов мало. И есть – 14.500 рублей плюс НДС. Здесь все попроще, но 100%-й гарантии вам никто не даст.

Ну, или пишите, пишите, пишите и при этом очень старайтесь и будет вам траст. Пути к трасту хорошо описаны в Сети, поищите.

VN:F

...И сообщите о ней друзьям:

А еще Вы можете подписаться на рассылку -
у меня в запасе есть много интересных материалов.

Служебная информация о статье:

В статье кратко расматриваются особенности нового алгори тма Яндекса и даются практические советы начинающим вебмастерам

Written by: Sergey Vaulin

Date Published: 11/08/2016


Палех – новый алгоритм Яндекса , 5.0 out of 5 based on 3 ratings