Принципы ранжирования поиска яндекса. Палех – новый алгоритм Яндекса Поисковый алгоритм яндекса

Примечание редакции: статья вызвала горячие споры. Напоминаем, что мнение автора может не совпадать с мнением редакции. И приглашаем оставлять комментарии - в спорах рождается истина. Правила игры вебмастерам задают поисковые системы. Традиционно работа с продвижением сайта начинается с поисковой оптимизации. Выход в ТОП — это, пожалуй, самый естественный способ показать сайт именно целевой аудитории в момент, когда пользователи действительно его ищут.

Продвижение в рунете определяется двумя поисковыми системами — Google и Яндекс. Алгоритмы ранжирования обоих весьма схожи. Но есть некоторые отличия, которые просто невозможно игнорировать.

По наблюдениям вебмастеров формула ранжирования Google учитывает около 270 факторов , определяющих позиции сайта в выдаче, в то время как формула Яндекса — около 800 .

Действие алгоритма Google логично и последовательно. Сайт появляется в индексе, наращивает ссылочную массу, создает полезный, уникальный контент — выходит в ТОП. За попытки манипулировать рейтингом (к примеру, закупка ссылок) сайт попадет под фильтр.

Для выхода в ТОП Google достаточно планомерно работать с сайтом: регулярно обновлять контент, распространять его в социальных сетях, работать над наращиванием естественной ссылочной массы.

(блог GetGoodRank в ТОП Google на 4 позиции)

Поисковый алгоритм Яндекс

Ситуация в Яндексе обстоит несколько иначе. Во-первых, ТОП Яндекса корректируется вручную. Во-вторых, Яндекс учитывает в ранжировании коммерческие факторы . Это факт.

Летом 2015 года вебмастера отметили существенные колебания ТОПа поисковой выдачи по высокочастотным запросам. Екатерина Гладких, аналитик Яндекс, подтвердила, что в этот период поисковая система тестировала подход к определению релевантности сайтов. Суть метода заключается в том, что сайты, по которым Яндексу не хватает пользовательских данных, искусственно поднимаются в ТОП по запросам, которым сайт является предположительно релевантным. Если сайт в течение тестового периода получит переходы и его поведенческие будут на высоте, то алгоритм присвоит ему более высокие позиции, чем изначально определенные формулой. Екатерина признала, что качество поисковой выдачи из-за введения такого метода «кратковременно снижается».

Выйти в ТОП Яндекс из-за дополнительных факторов ранжирования должно быть сложнее, чем продвинуться в Google, однако практика показывает, что нет:

(блог GetGoodRank в ТОП Яндекса на 4 позиции, а в Google — на 18 позиции)

Хотя качество ранжирования с учетом более 800 факторов оставляет желать лучшего:

(Блог для вебмастеров в ТОП 3 ответов Яндекс на вопрос об использовании цементировочных агрегатов)

Факторы ранжирования в 2016 году

Мы предлагаем говорить о 3 важных группах факторов ранжирования:

    факторы контента — видео, графика, текст, их качество, количество

    пользовательские факторы — факторы, определяющие доверие посетителя сайта.

Если пользователь не доверяет сайту, то не будет ни конверсий, ни покупок

Почему выделяем именно эти три группы? Это те факторы, которые действительно имеют значение для позиций сайта, а также доступны для оптимизации вебмастерам.

Если проанализировать эволюцию поисковых систем, то мы приходим к выводу, что борьба поисковых систем направлена вовсе не на само SEO как таковое, а на его автоматизацию.

Ссылки продолжают работать как в Google, так и в Яндекс. Если бы ссылки не имели значения для поисковых систем, то алгоритмы просто перестали бы их учитывать в определенный момент, без шумных заявлений об отключении, без введения фильтров и санкций за закупку. И пусть бы вебмастера игрались и тешились дальше, сливая SEO-бюджеты сайтов в бестолковую закупку.

Что делать с ссылочным

Закупать ссылки опасно, хотя вебмастеров санкции Минусинска не остановили. Ссылки продолжают закупать, хоть и не в таких количествах, как ранее. Вебмастера рекомендуют тщательно изучать ресурсы, прежде чем получить обратную ссылку:

    качественные, регулярно обновляемые сайты

    сайты, сделанные для людей

    активно посещаемые, используемые сайты

    сайты, точно соответствующие тематике продвигаемого ресурса

Исследование компании Backlinko подтверждает значимость ссылок, указывая их главным фактором для продвижения в Google. Сегодня для высоких позиций сайта выгоднее получить 10 ссылок с разных доменов, чем 10 ссылок с одного домена.

(зависимость позиций сайта от количества ссылающихся доменов в Google, результаты исследования Backlinko)

Факторы контента

Контент — основной информирующий элемент сайта, работающий в двух направлениях. Поисковым системам контент указывает на релевантность сайта интересам пользователей. Для посетителей контент является основным элементом коммуникации.

Сегодня поисковые системы выдвигают особые требования к наполнению сайта. Техническая уникальность текста отходит на второй план, в то время как польза, ценность, актуальность информации становятся главными факторами для ранжирования.

Поисковые системы уже «умеют» определять настроение и удовлетворенность пользователя, отслеживая его поведение на сайте. Иными словами, поисковики понимают, понравился пользователю контент или нет.

Google говорит о достаточности контента, исследования доказывают, что страницы с более объемным контентом ранжируются выше. Этому есть несколько объяснений:

    Полезный, объемный, достаточный текст по теме вызывает больше доверия пользователей — такие страницы получают больше социальных сигналов, что учитывается при ранжировании

    Объемный текст позволяет поисковым системам точнее определить релевантность страницы/сайта

В инструкциях асессорам (Google Search Quality Rating Guide) Google говорит о достаточности основного контента на странице, не указывая точных пределов минимума и максимума.

Для высокого ранжирования важны:

    разнообразие контента — видео-контент увеличивает время на сайте, большое количество качественной, релевантной графики (к примеру, качественные изображения товаров в интернет-магазине) увеличивает время на сайте, количество кликов, глубину просмотра, объемные, полезные статьи и обзоры повышают вероятность добавление сайта в избранное/закладки для быстрого доступа, растет уровень повторных посещений.

    качество — этот компонент, которого пока еще очень не хватает многим сайтам. Проблема низкого качество контента лежит на поверхности: владельцы сайтов больше верят в силу высоких позиций в ТОПе, чем в убеждающую силу текста. В итоге происходит неправильное распределение бюджета на продвижение: текстовый контент заказывается у дешевых копирайтеров, которые до сих пор измеряют тексты символами, количеством ключей и процентами уникальности.

Технически уникальный текст ничего не значит для пользователя. Когда человек приходит на сайт, он хочет получить ответы на главные вопросы: кто, что, где, когда, зачем, почему?

Отвечает ли контент вашего сайта на эти вопросы? Вот отрывок текста сайта из ТОП Google по запросу акриловые ванны:

(пример текста для поисковых машин, не несущий никакой пользы для посетителя)

Такой текст поможет сайту указать релевантность запросу для поисковой системы. Но ценность такого текста для пользователя стремится к нулю.

    Релевантность — это параметр контента, который оценивается и поисковыми системами, и пользователями, ведет к более высоким позициям и улучшению поведенческих факторов сайта.

Пользовательские факторы

Пользовательские факторы — это совокупность действий пользователя на сайте и в отношении сайта: переходы из поиска и прямые заходы, действия на сайте, возвраты в выдачу, клики по кнопкам социальных сетей. К пользовательским факторам также относим юзабилити, напрямую определяющую желание пользователя взаимодействовать с сайтом.

Пользовательские факторы — это те параметры, которые по минимуму подлежат автоматизации. Поисковые системы чувствительны к буму посещений, резким изменениям паттернов поведения пользователей на сайте, географии пользователей. Использование сервисов автоматической накрутки поведенческих факторов понижает сайты в поисковой выдаче до того уровня, когда их практически невозможно найти в поисковой выдаче.

Накрутка поведенческих факторов только для выхода в поисковый ТОП — дело абсолютно неблагодарное. Прибыли сайту такие «посетители» не принесут, а без комплексного анализа и оптимизации сайта под реальных пользователей выход в ТОП для сайта опасен:

Посетители заходят на сайт, обнаруживают некачественный дизайн, неуникальный/неакутальный контент, подозрительные функции и возвращаются в выдачу. Уровень отказов растет, и эффект от «накрутки» поведенческих минимизируется.

Сейчас набирают популярность сервисы, привлекающие к анализу сайта реальных пользователей. Отчет такого анализа показывает, что мешает реальным пользователям совершить целевое действие на сайте, а также укажет, какие именно параметры сайта исправить и улучшить, чтобы пользователь остался доволен, что в результате приведет к росту поведенческих факторов.

Какие факторы ранжирования Google и Яндекс стоит оптимизировать?

Сегодня мы наблюдаем переход SEO из технической плоскости в плоскость психологическую. Работа исключительно с техническими параметрами сайта больше не дает желаемых результатов. Бесспорно, техническое исполнение сайта должно быть на высоте, потому как любые ошибки сайта (кривая верстка, ошибки в тексте, битые ссылки) критично снижают доверие пользователя. Поисковые системы внедрили искусственный интеллект в алгоритмы ранжирования (Яндекс — Матрикснет, Google — RankBrain), которые понимают, что ищет пользователь, и выдают наиболее подходящие результаты. Вебмастера давно отметили, что один и тот же запрос, введенный с двух разных компьютеров двумя разными пользователями получат разный ответ поисковой системы и разный список сайтов в выдаче. Из этого следует, что сегодня резоннее работать с факторами качества сайта, которые вызываю доверие как пользователей, так и поисковых систем, и других сайтов.

Ссылки

Автоматизировать наращивание ссылочной массы больше нельзя. Для получения качественных обратных ссылок нужны:

    новые деловые контакты и связи

    вход в новые целевые сообщества

    работа с брендом (укрепление доверия целевой аудитории, надежность, авторитет)

Контент

Уникальность отходит на второй план, а так, автоматизировать создание контента не представляется возможным. Единственная ситуация, в которой резонно обратиться к автогенерации контента — заполнение карточек товаров интернет-магазина, ассортимент которого насчитывает десятки тысяч позиций. Однако уже сейчас есть отличные рекомендации, как работать с карточками товаров . Сегодня важно уйти от лирики, и давать пользователю действительно качественный контент, четко отвечающий на его вопрос:

Важно, чтобы в пределах одной страницы пользователь нашел ответы на все вопросы, и ему не понадобилось возвращаться в поиск, чтобы полностью собрать «пазл» решения вопроса. Джейсон Демерс (Jason DeMers), SEO-аналитик Forbes, говорит о важности наличия разных типов контента на сайте, акцентируя внимание на видео и изображениях. Именно этот контент обладает наибольшим вирусным потенциалом, мгновенно получая тысячи лайков и репостов в социальные сети, что также способствует наращиванию ссылочной массы.

Пользовательские факторы

Это группа факторов, которые менее всего подлежат автоматизации. Пользовательские факторы требуют наиболее кропотливой работы. Они напрямую зависят как от качества сайта, контента, так и от качества сервиса, надежности компании, которая стоит за сайтом. Важно анализировать поведенческие факторы в метриках, следить за тем, что повлияло на изменения, и укреплять слабые места.

(Активность в Facebook — улучшение пользовательских факторов блога)

Для оптимизации пользовательских факторов необходимо:

    четко понимать потребности и цели пользователей

    качественный контент, точно отвечающий целям пользователя

    удобный, простой в использовании, понятный сайт, способствующий достижению цели пользователя

    техническая исправность сайта

    социальная представленность

    мобильная доступность

Факторов ранжирования много, учесть все в процессе работы над сайтом просто невозможно. Указанные группы факторов имеют наибольший вес в формулах поисковых алгоритмов.

EO 2016 — это интеллектуальное SEO, не подлежащее автоматизации. Сегодня для высокого ранжирования следует работать над качеством сайта, а не акцентировать технические аспекты (ссылки, ключевые слова), как это было ранее.

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Писал недавно аналогичную статью про и решил, что осветить прошлое отечественного поисковика тоже необходимо для полноты картины. Рамблер не предлагать:)

Изначально с 1990 года по 1996 компания под необычным названием «Аркадия» занималась разработкой программных продуктов, тесно связанных с поиском по словам. Первым шагом на пути к созданию поисковой системы, такой, какой мы её знаем сейчас, было создание автоматического классификатора изобретений, весом 10 мб. Благодаря полученным в Аркадии наработкам – старт Яндекса был впечатляющим.

Далекое прошлое: все алгоритмы Яндекса с 1997 года

  • 23 сентября 1997 год – Официальный день рождения компании «Яндекс». Со старта поисковик уже мог учитывать морфологию, расстояние между словами и оценивать релевантность документа к введенному запросу.
  • Ноябрь 1997 года – Пользователи могут получать релевантные ответы на естественно-языковые запросы. Типа «где купить», «куда сходить» и так далее.
  • 1998 год – Яндекс добавил возможность «найти похожий документ» по времени изменения и в диапазоне дат.
  • 1999 год – Становится возможен поиск по разным категориям: зоны текста, категории, изображения. В этот же год добавили понятие «индекс цитирования». В поиске появляется фильтр, нацеленный на избежание порнографии и мата.
  • 2000 год – Яндекс охватывает новые области. В частности «Яндекс.Новости». Теперь тексты ранжируются по степени важности.
  • 2001 год – Объем данных в индексе поисковика превысил 1 терабайт.
  • 2002 год – SEO начинает активно возвышать сайты в поиске. Два основных способа: обмен ссылками и размещение ссылок в каталогах.
  • 2003 год – Популярность обмена ссылками зашкаливает. Появляются автоматические сервисы для обмена бэками. Тенденция сохраняется весь 2004 год.
  • Начало 2005 года – Продвижение с помощью линкаторов (сервисов для автоматической накрутки ссылок) переступает все пределы. В топе результатов поиска появляются абсолютно не релевантные страницы.

    Продвинуть можно было любой сайт по любому запросу без особых трудностей – начали появляться различные приколы. В то время по запросу «враг народа» можно была найти сайт президента РФ Владимира Владимировича. А запрос геморрой показывал русскоязычную версию сайта Microsoft.

  • Конец 2005 года – Логично предположить, «Яндекс» начал истреблять линкаторы. Так называемый «Непот-фильтр» аннулировал вес ссылок с сайтов, занимающихся линко-торговлей.
  • 2006 год – На смену обмену ссылками пришли биржи, на которых можно было приобрести бэклинк с разных площадок (типа досок объявлений).
  • 2007 год – Ссылки стали товаром. И было предсказуемо создание крупной биржи для покупки/продажи ссылок в различных режимах, на разных ресурсах и тд. В те годы, подобный бизнес мог приносить очень неплохой ежемесячный доход. А значит, и заниматься этим стали все подряд. Основной работой в SEO стала покупка бэклинков. В этот же год вышла новая формула ранжирования, по которой по высокочастотным, однословным запросам в ТОП выходили в основном главные страницы сайтов.

Время перемен в Яндекс: история обновлений с 2007 по 2009

  • 20 декабря 2007 года – Обновление алгоритма ранжирования. Первые попытки борьбы со спамом. Из результатов поиска исключаются ресурсы, которые сильно злоупотребляли наращиванием ссылочного профиля.
  • 17 января 2008 года – «8 SP1». Первый алгоритм «Яндекса», который удостоился собственного имени, хоть и не очень понятного. С этого момента верхушку поиска занимают старые, авторитетные сайты. Появляется понятие «трастранк», степень доверия к сайту. Кстати, теперь «Яндекс» обещает называть все свои алгоритмы названием городов.
  • 19 марта 2008 года – Фильтрация, нацеленная на борьбу с покупными ссылками, ужесточается. Большинство сайтов, которые покупали бэклинки, проседают в позициях. Но, ко всеобщему удивлению, от принятых мер поисковая выдача стала только хуже, поэтому все вернулось на свои места.
  • 16 мая 2008 года – «Магадан». Поисковик научился читать транслитерацию, переводы и аббревиатуры. Стал доступен поиск по зарубежным сайтам. Смягчилась фильтрация отбора документов. Вдвое увеличилось количество факторов ранжирования. Почти сразу вышел «Магадан 2.0». Добавлены новые факторы, которые учли уникальность контента и стали классифицировать запросы на коммерческие/некоммерческие и геозависимые/геоНЕзависимые.
  • 12 сентября 2008 года – «Находка». Повысился вес внутренних страниц. Теперь по среднечастотным и по некоторым высокочастотным запросам можно встретить в поиске не только главные страницы. Усиливается борьба с клоакингами (сайты, созданные для манипулирования трафиком. Черный SEO метод). Расширен словарь связей.
  • 10 апреля 2009 года – «Арзамас». Улучшается распознавание опечаток в запросах. Выдача становится . Теперь поисковик учитывает регион пользователя. Появился термин «региональное продвижение». Выявлено 19 основных регионов.
  • 28 сентября 2009 года. Фильтр 17. По словам Яндекса, фильтр работает с 2006 года. Но ранее его присутствие было не столь ярко выражено. Фильтр нацелен на борьбу с некачественными сайтами, например, созданными и заполненными автоматически.
  • 10 ноября 2009 года –«Снежинск». Теперь по высокочастотным однословным запросам лидерами поиска стали информационные сайты, вытеснив коммерческие. Официальное рождение «Матрикснет», нового метода машинного обучения. Теперь все запросы, характеризующие сайты, стали связаны между собой. Первые слухи о поведенческих факторах.

    SEO становится все сложнее.

  • 18 декабря 2009 года – АГС 30. Теперь фильтр стал умнее. Он начал исключать из индекса не только неуникальные сайты, но и ресурсы, не несущие никакой пользы.
  • 22 декабря 2009 года – «Конаково». В поддержку Арзамасу число регионов увеличилось с 19 до 1250.

Изменение алгоритмов Яндекса: наши дни

  • 20 января 2010 года – Анти-портянки. Яндекс ввел фильтр за огромные тексты, перенасыщенные ключевыми словами.
  • 6 августа 2010 года – «Обнинск». Была расширена формула ранжирования, что в первую очередь повлияло на геонезависимые запросы. Алгоритм также негативно повлиял на продвижение некачественными ссылками. Еще в 2010 году подтвердились слухи о поведенческих факторах.
  • 15 декабря 2010 года – «Краснодар». Два крупных нововведения. Первым стала технология «Спектр», которая отвечала на неоднозначные запросы пользователя, разбавляя выдачу разными ответами. Классический пример неоднозначного запроса “Наполеон” – что хотел пользователь? Торт? Полководец? Музыкальная группа? Так вот спектр был создан, чтобы удовлетворить все возможные потребности по неоднозначным запросам. Вторым нововведением стала индексация соц. сети “ВКонтакте”. Теперь можно через поисковую строку можно найти профили пользователей из соцсети.
  • Май 2011 года – Многие сайты потеряли позиции из-за волны ручной пессимизации за накрутку поведенческих факторов.
  • 17 августа 2011 года – «Рейкьявик». Усовершенствование персонализации. Добавление « », теперь, вводя в поисковую строку какую-либо формулу, пользователь сразу получал ответ.
  • 13 сентября 2011 года – «Ты спамный». Фильтр за переспамленный текст. Понижались тексты, которые имели низкий показатель поведенческих факторов.
  • 12 декабря 2012 год –«Калининград». Главная идея сделать полностью персональный поиск. Теперь пользователю предлагались подсказки, основанные на его предыдущей истории. Помимо Калининграда в течение года улучшился поиск по контенту в соцсетях. По неоднозначным запросам появились подсказки, чтобы уточнить, чего хотел пользователь. Немного позже подсказки стали учитывать предыдущие запросы пользователя. В сниппеты стали добавлять профили в социальных сетях. Яндекс начал сотрудничать с Твиттером. После того как открыл Яндексу свою базу данных, скорость индексации сайта с регулярными твиттами заметно улучшилась. Еще понизились сайты с pop-up элементами, которые маскировались под системные сообщения и сигналы социальных сетей.
  • Февраль 2013 года – Яндекс начал отмечать сайты, зараженные вирусами или содержащие вредоносный код.
  • 13 мая 2013 года – К адресу в сниппете сайтов добавили ближайшую станцию метро и время работы организации.
  • 16 мая 2013 года – Платформа «Острова». Принципиальное изменение формата поисковика. Яндекс планировал сделать так, чтобы пользователь мог решать свои проблемы не заходя на конкретный сайт, а сразу в поисковике. Например, заказать/купить/вызвать и так далее. Почему-то дата релиза все время откладывалась.
  • 6 ноября 2013 года – АГС 40. Очередное ужесточение АГС фильтра. Отныне фильтр полностью автоматический.
  • 2014 год. Отныне АГС фильтр не выкидывал страницы из индекса, а обнулял тИЦ. Активная борьба со ссылками. Анонс безссылочной формулы ранжирования для ряда коммерческих тематик в Москве. Очередная волна пессимизации за накрутку ПФ. Волна пессимизации за агрессивную рекламу.
  • 15 апреля 2015 года – Анонс «Минусинск». На «Неделе байнета» Яндекс анонсировал новый алгоритм, направленный на борьбу со ссылочным спамом. На удивление, перед тем как применить санкции к сайтам, Яндекс разослал предупреждения, что весьма несвойственно поисковику.
  • 15 мая – 23 июня 2015 года. За этот короткий промежуток времени прошло три волны, понижающих сайты за ссылочный спам.

Новые алгоритмы поиска Яндекса

2 февраля 2016 года – «Владивосток». Яндекс запустил новый алгоритм, оценивающий «мобилопригодность». Теперь в мобильной выдаче одним из значимых факторов ранжирования является адаптированность сайта под мобильные устройства.

Продолжение следует

Как бы ни усложняли жизнь SEO специалистам, все мы пользуемся поиском. И за последние годы поисковая выдача сильно преобразилась. Причем в лучшую сторону. Надеюсь, Яндекс и дальше будет выдумывать оригинальные способы, ограничивающие возможности воздействовать на результаты поиска. Так работать только интересней.

В течение последних двух лет Google и «Яндекс» неустанно меняли свои алгоритмы. Это нередко приводило к панике среди SEO-специалистов, но подыгрывало последователям органического SEO . Ведь все изменения, вводимые поисковыми системами, были направлены на уменьшение видимости страниц низкого качества и без добавленной ценности.

Так остались ли ещё методики продвижения сайтов, не приводящие к «фильтрации»? Какие стратегии оптимизации следует выбирать SEO-специалистам в 2015–2016 годах?

Что делать для успешного продвижения в Google?

1. Расширять семантическое ядро с учётом алгоритма «Колибри».

Алгоритм Hummingbird («Колибри») был запущен 20 августа 2013 года, но до сих пор многие SEO-специалисты не принимают его во внимание. «Колибри» кардинально изменил способ поисковой системы Google анализировать запросы: вместо сопоставления запросу отдельных ключевых слов на странице поисковик ищет соответствие общего смысла.

Ключевые слова по-прежнему важны, однако следует применять бóльшее их разнообразие, включая синонимы, поисковые подсказки и близкие по смыслу слова и словосочетания. Например, вместе с «ключом» «цветы» использовать фразы «букет ко дню святого Валентина» , «доставка цветов в день заказа» или «цветочная композиция» . Если возможно, т.е. если действительно есть что сказать по этому поводу, то вставлять и диалоговые фразы типа «где купить цветы дёшево?»

Все подобранные «ключи» необходимо разделить на три группы: информационные, навигационные и транзакционные.

  • Информационные запросы (например, «как составить букет?» ) задают, когда ищут образовательный контент. Поэтому на сайте их следует использовать при создании информационных статей с ненавязчивыми ссылками на продукты или услуги.
  • Навигационные запросы (например, «магазин ромашка» ) используют для поиска бренда, конкретного продукта или веб-ресурса, их рациональнее применять на страницах «Главная» и «О компании», например.
  • Транзакционные же явно указывают на намерение совершить некое действие: заказать, купить, скачать. В этом случае используют слова «цена», «купить», «доставка», «аренда», «купон», «скидка» и пр. Подходящие места для них – странички товаров/услуг, акций и т.п.

В любом случае «ключи» не должны напоминать «коровью лепёшку» - несклоняемую и бессмысленную вставку в ткань повествования. Текст должен читаться плавно и естественно, ведь его воспринимает и оценивает Человек, поисковик же работает с «широким» семантическим ядром, а не повторённой 5 раз в «магических» формах и положениях фразой.

2. Совершенствовать структуру URL сайта.

Сайты с упорядоченной структурой адресов обычно ранжируются лучше, чем ресурсы с «грязной» структурой и запутанной организацией контента. URL-адреса и ссылки являются строительными блоками веб-сайта, а потому им следует уделять должное внимание.

  • Динамические адреса типа site.ru/page?id=13579&color=4&size=2&session=754839 слишком длинные и не несут никакого смысла. Показатель кликабельности (CTR, click-through rate) таких ссылок в результатах поиска обычно ниже, поэтому стоит использовать статические человекупонятные урлы (ЧПУ).
  • Множество «битых» ссылок , ведущих на страницу 404 ошибки, также может повредить позициям сайта при ранжировании. Необходимо время от времени проверять сайт на предмет возникновения неработающих ссылок, используя специальные программы, например, Screaming Frog .
  • Ранее считалось, что большое количество исходящих ссылок со страницы негативно сказывается на её ранжировании в поиске, хотя это утверждение некоторые оспаривали. Сейчас Google уже отказался от регламентированного (не более 100 штук) количества ссылок с одной страницы, но настаивает на том, чтобы соответствовали тематике страницы и тем запросам, по которым люди на неё приходят.

3. Фокусироваться только на качественных, потом-кровью заработанных обратных ссылках, пусть их будет и немного.

За определение качества ссылочной массы и естественности анкор-листа в Google отвечает алгоритм «Пингвин» , последнее крупное обновление которого произошло 21 октября 2014 года (Google Penguin 3.0). 15 октября 2015 года началась новая итерация апдейта «Пингвина» - многие сайты, торгующие ссылками через биржу Sape, были понижены в выдаче.

Разработчики Google недвусмысленно нам говорят, что гораздо лучше иметь многочисленные ссылки с нескольких авторитетных нишевых ресурсов, чем сотни единичных ссылок со второсортных сайтов.

Как адаптировать сайт под мобильные устройства? Используйте, например, фреймворк Twitter Bootstrap. Это распространённая и очень удобная система вёрстки сайтов со стандартизированными шаблонами. А главное, что для дальнейшего улучшения сайта вам не придётся долго искать программиста, который смог бы разобраться в HTML-коде: с «Бутстрапом» знакомо большинство верстальщиков, которым не составит труда внести нужные изменения.

Как не потерять благосклонного отношения «Яндекса»?

1. Относиться к текстам как к основному инструменту продвижения.

Наряду с фильтром «Переоптимизация» «Яндекс» в середине 2014 года ввёл новый «Антиспам-фильтр» . Он похож на своего «старшего брата», но более жёсткий (приводит к потере позиций в выдаче вплоть до 1000) и учитывающий больше нюансов.

Что делать, чтобы не подвести свой сайт под «Антиспам-фильтр»?

  • Уделять особое внимание длине и заспамленности ключевыми словами заголовков (title) и описаний (description) страниц.
  • Не зацикливаться на прямых вхождениях «ключей» и ограничить общий процент использования ключевых слов и выражений. Это касается таких «экзотов», как «Где купить ххх дёшево?» , «Недорогие услуги... в городе N» и т.п., но не базовых словосочетаний типа названий товаров или отраслевых терминов, без которых невозможно донести информацию. В отношении последних действует обычный литературный «ограничитель» - критерий тавтологичности.
  • Тщательно редактировать тексты: «Антиспам-фильтр» настроен на определение орфографических и пунктуационных ошибок.
  • Не выделять «ключи» жирным, курсивом и другими способами. Делать это можно лишь в отношении фраз или слов, на которых стоят логические акценты для привлечения внимания читателя. Ничего нового, всё логично - выделяется главная мысль или термин, а не любой «ключ».
  • По возможности заменять избыточные «ключи» словами из подсказок и «Спектра ».

2. Сосредоточиться на естественном линкбилдинге, приносящем трафик.

12 марта 2014 года «Яндекс» произвёл отмену ссылочного ранжирования по Москве и области для коммерческих запросов в ряде сфер. Не за горами отмена избыточного влияния ссылок и по всей России.

Если Вы хотите продолжать размещать рекламные блоки на своём сайте, то желательно не ставить их более двух, причём реклама не должна отвлекать от основного контента, перекрывать его, а уж тем более замещать, отодвигая текст в сторону или вниз.

Это касается и ставших в последнее время модными всплывающих виджетов типа «Мы Вам перезвоним через 26 секунд», «Вы были на сайте уже 10 секунд! Нашли что-то полезное?» и пр.

а) Более 10 лет поиск в Google персонализируется в зависимости от многих факторов:

  • Истории поиска . Если Вы ищете что-то в Google под своим аккаунтом, при формировании результатов поиска учитывается история минимум за год. И даже если Вы работаете с поисковиком анонимно, Google всё равно будет выдавать персонализированные результаты, поскольку при помощи файлов cookie хранит историю поиска в конкретном браузере за 180 дней. Не будешь же чистку каждый день устраивать...
  • Предыдущего запроса. Google работает по механизму уточнения предыдущего запроса, предполагая, что Вы по нему нашли не всё, что искали, а потому предлагает страницы, связанные одновременно с текущим и предыдущим запросами.
  • Географического положения пользователя. Результаты поиска, которые выдаются пользователю в одном городе, могут разительно отличаться от результатов по тому же поисковому запросу в другом городе. 24 июля 2014 года в США был запущен новый алгоритм Pigeon 1.0 («Голубь») , который резко изменил результаты локальной выдачи в связи с введением новых механизмов обработки и интерпретации сигналов местоположения. В итоге близость расположения бизнеса для пользователя Google стала чуть ли не главным фактором в поисковой выдаче. Даты внедрения нового алгоритма в других странах пока не озвучиваются.

б) «Яндекс» не отстаёт от западного конкурента в деле персонализации поиска: 12 декабря 2012 года российская компания запустила алгоритм «Калининград» , учитывающий историю поиска. В то же время «Яндекс» обращает внимание и на географическое положение пользователя, а также разделяет запросы на геозависимые (по которым выдача привязана к региону) и геонезависимые (результаты поиска не зависят от региона пользователя).

Таким образом, вокруг каждого пользователя формируется поисковый пузырь , из которого не так-то легко выбраться. Это порождает массу иллюзий, например, у владельцев сайтов. Нужно просто принять, что практически невозможно узнать, на каких позициях в SERP Ваш сайт видят другие люди. Чтобы получить действительно точные данные по неперсонализированным позициям, следует использовать специальные программы или онлайн-сервисы, например, AllPositions (платный), «Энергослон» (платный), SEOGadget (бесплатный, но с ограничением количества проверок в день).

Но не надо заблуждаться и в отношении этого инструмента - он тоже не отражает реальную видимость ресурса (как мы поняли, она вообще индивидуальна). Увидеть сайт на позициях, определённых программами, может только ОН, Уникум анонимикус , постоянно уничтожающий cookies, генерирующий новые IP и т.п., или же впервые воспользовавшийся браузером где-то на орбите (а может, и там пеленгуют?). Но несмотря на то, что этот инструмент обитает в вакууме, он полезен, просто цель у него другая - оценка в динамике эффективности прикладываемых усилий по развитию ресурса . Иными словами, неперсонализированные позиции помогают понять, одобряет или нет поисковик вашу деятельность. А уж где в SERP сайт увидят Маша или Вася, сильно зависит от их сетевого поведения.

2 ноября 2016 года Яндекс обьявил о введении нового алгоритма поискового ранжирования «Палех». Теперь вебмастерам придется подстраиваться и под его требования.

Напомню, что алгоритмы поискового продвижения, как это следует из их названия, предназначены для выстраивания очередности в поисковой выдаче по определенному запросу. А это очень важно для нас, вебмастеров, т.к. кому нужен сайт, расположенный в выдаче на 50 месте и более – его никто не найдет и туда никто не придет.

Обычно начинающим вебмастерам советуют делать упор на низкочастотные запросы, где гораздо легче пробиться в ТОП и с гораздо меньшими временными и денежными затратами. Вот как раз на такие запросы и ориентирован Палех.

Причем он ориентирован не просто на низкочастотные запросы, а — на очень-очень низкочастотные и даже уникальные запросы. А такие запросы опытных сеошников, как правило, мало интересуют, что дает нам шанс привлечь на свои сайты больше посетителей.

Суть Палеха заключается в том, что теперь ранжирование идет не только по точным ключевым фразам (их очень трудно угадать), но и по схожим по смыслу.

Для решения этой задачи Яндекс обратился к нейронным сетям, которые не программируются в обычном смысле этого слова, а самообучаются. Благодаря самообучению такие сети и способны улавливать смысл поисковых фраз и искать похожие. Подробнее об этом почитайте на его блоге, посвященной Палеху.

В результате Яндекс получил возможность активнее ранжировать фразы из т.н. «длинного хвоста»; тем, кто забыл, что это, напомню.

Что такое «длинный хвост»

В 2004 году шеф-редактор журнала «Wired» Крис Андерсон провел исследование продаж товара (любого товара). Его интересовал вопрос: что в наибольшей степени приносит прибыль – наиболее популярные сегодня товары (т.н. бестселлеры) или товары, выбывшие из списка бестселлеров и перешедшие в разряд ширпотреба (рестселлеры).

Оказалось, что прибыль от обеих групп товаров примерно одинаковая: бестселлеры дают очень большую прибыль в первый период своего появления, потом, с появлением других бестселлеров – более новых, первые переходят в разряд рестселлеров, но продолжают приносить прибыль – до момента снятия с продажи примерно такую же, как и в период их бестселлерства.

Если расположить все эти данные на графике, то получится примерно такая картина:

Эта теория была применена к разным областям человеческой деятельности, в том числе и к SEO. И дала превосходные показатели: оказалось, что по запросам, составляющими «длинный хвост», переходят до половины пользователей Интернета.

Представьте, что вы живете в Череповце и желаете купить стол. Вы будете писать в адресной строке запрос «мебель» или же «купить двухтумбовый письменный стол в Череповце недорого»?

Запрос «мебель» относится к топовым, а наш длиннющий запрос – к длинному хвосту. Чем больше слов употребляется в запросе, тем быстрее он окажется в самых низкочастотных. Обычно считают, что запросы с число слов более двух- трех относятся к низкочастотным, если слов еще больше — это типичный длинный хвост.

Отличный пример приведен на картинке:

Рис.2

По статистике Яндекса из 280 миллионов ежедневных запросов примерно 100 миллионов – запросы из области длинного хвоста. И на такое количество запросов надо как-то реагировать, он и отреагировал – Палехом.

Почему Палех?

Картинки с «длинным хвостом» изображают по-разному, обычно используя изображения животных: крыс, ящериц и т.д. Вот например, динозавр:

Рис.3

Но поскольку сейчас у нас в стране угар патриотизма, то Яндексу надо было найти что-то такое, чего нет ни у кого, а только у русских. Он и нашел – жар-птицу:

Рис.4

Жар-птица часто изображается на палехских миниатюрах, отсюда и «Палех», понятно?

Но изображение и название – дел десятое, нам-то, вебмастерам, что делать и чего ждать?

Берем курс на Палех

Сразу скажу, ждать от «Палеха» уже особенно нечего: он уже два месяца используется Яндексом и успел отранжировать сайты. Поэтому, если у вас за последнее время как-то изменились позиции сайта, то это его рук дело. Яндекс только обьявил 2 ноября, а так алгоритм уже действует.

Коснулся он прежде всего тех сайтов, где много контента. Если контент был хороший, то сайт начал дополнительно ранжироваться по новым ключевикам – по самым что ни на есть низкочастотным запросам. А если Яндекс посчитал его плохим…

Естественно, Яндекс на хороших, так называемых трастовых, сайтах и контент считает хорошим. А как попасть в трастовые сайты? – Это долго и дорого. Самый быстрый путь ведет через . Там есть бесплатная регистрация, но сразу скажу, что у вас, новичков, шансов мало. И есть – 14.500 рублей плюс НДС. Здесь все попроще, но 100%-й гарантии вам никто не даст.

Ну, или пишите, пишите, пишите и при этом очень старайтесь и будет вам траст. Пути к трасту хорошо описаны в Сети, поищите.

VN:F

...И сообщите о ней друзьям:

А еще Вы можете подписаться на рассылку -
у меня в запасе есть много интересных материалов.

Служебная информация о статье:

В статье кратко расматриваются особенности нового алгори тма Яндекса и даются практические советы начинающим вебмастерам

Written by: Sergey Vaulin

Date Published: 11/08/2016


Палех – новый алгоритм Яндекса , 5.0 out of 5 based on 3 ratings

Я уже несколько лет занимаюсь поисковым продвижением сайтов Евгения Попова . Для тех, кто не знает, Евгений Попов известен как успешный инфобизнесмен и автор многочисленных обучающих курсов по теме создания сайтов и информационного бизнеса.

Недавно Евгений попросил меня подготовить статью о самых важных факторах ранжирования Яндекса и Google. Я собрал и проанализировал информацию из многих авторитетных источников, плюс дополнительно подкрепил ее комментариями и пояснениями из своего многолетнего опыта по продвижению сайтов.

В итоге был создан довольно полезный PDF-отчет, который получил название «34 основных фактора ранжирования Яндекс и Google ». Данный отчет создавался в конце 2016 года, но все перечисленные факторы все также актуальны и в 2018 году, так как периодически обновляются. Особенно с учетом последних нововведений от поисковых систем. Не так давно было запущены новые алгоритмы: Баден-Баден от Яндекса и Google Fred .

Для тех, кто не любит что-то скачивать, выкладываю ниже полное содержание аналитического материала под названием: «34 основных фактора ранжирования Яндекс и Google в 2016-2017 году».

О ПОДБОРКЕ ФАКТОРОВ

Читать сотни факторов (которые учитывают поисковые системы) интересно, но не очень полезно в плане практического применения. Большинство существующих материалов на эту тему либо уже устарели, либо изначально не адаптированы под русскоязычный Интернет.

Мы проанализировали много публикаций и исследований различных факторов в авторитетных источниках (ссылки представлены ниже). Дополнительно сверили все эти утверждения с заявлениями ведущих разработчиков Google и Яндекс. В итоге получилась подборка наиболее важных факторов, которые учитывают современные поисковые системы Яндекс и Google.

Но мы представили не только описание самих факторов, но и дали по ним подробные пояснения, чтобы вы смогли внедрить те или иные моменты на своих сайтах и получить реальную пользу в
виде роста позиций в поисковых системах.

Подумайте, пожалуйста, за нас. Уберите лишнюю «воду» и дайте нам более приближенную к жизни выборку» — такую просьбу высказал один из веб-мастеров.

Сразу подчеркну, что не стоит пытаться узнать и учесть абсолютно все факторы ранжирования поисковых систем. Это бессмысленная трата времени. И прочитав текст ниже, вы поймете почему.

По известным от разработчиков данным Яндекс учитывает более 800 факторов ранжирования, а Google (как минимум) 271 фактор .

Данные по Яндексу получены из интервью руководителя поисковых сервисов Яндекса Александра Садовского для www.sostav.ru , а также из других заявлений официальных лиц.

Данные по Google получены на основе исследования ресурса northcutt.com .

Дополнительно использовались материалы статьи Брайана Дина (Brian Dean, интернет-ресурс backlinko.com). В своей работе зарубежный SEO-специалист привел описание более 200 факторов, которые учитывает Google при построении поисковой выдачи.

Ниже представлен полезный аналитический материал, но он ни в коем случае не претендует на истину в последней инстанции.

Дополнительное пояснение:

Темным цветом представлен русский перевод и описание фактора с английского языка (информация была взята из материалов статьи Брайана Дина http://backlinko.com/google-ranking-factors).

Синим цветом дается расшифровка конкретного фактора. Вы сможете прочитать не только описание, которое адаптировано под современные реалии русскоязычного Интернета, но и получите ценные советы из 7-ми летнего практического опыта от SEO-специалиста Руслана Савченко.

ФАКТОР №1. ВОЗРАСТ ДОМЕНА

«Разница между шестимесячным доменом и годовалым на самом деле не так уж велика » – Мэт Каттс (Matt Cutts) руководитель отдела веб-спама и качества поиска Google.

Поисковые системы безусловно учитывают возраст домена… но это не очень важный фактор.

Руслан Савченко : На самом деле очень важно различать понятия «возраст домена» и «возраст сайта». Многие начинающие веб-мастера покупают давно зарегистрированные доменные имена, но сайты на этих доменах не развивались.

Поисковые системы учитывают именно «возраст сайта». Если сайт был долгое время недоступен или стояла временная страница («заглушка») — это не засчитывается в возраст. В целом не стоит акцентировать большое внимание на возрасте домена, важнее работать над качеством сайта.

P.S. При покупке нового сайта (домена), обязательно проверьте его историю через сервис https://archive.org/web/ .

ФАКТОР №2. НАЛИЧИЕ КЛЮЧЕВЫХ СЛОВ В ДОМЕНЕ

Не дает такой же эффект, какой был раньше, но наличие ключевых слов в доменном имени по-прежнему учитывается. В конце концов, поисковые системы до сих пор выделяют жирным шрифтом ключевые слова, которые появляются в имени домена.

Ключевые слова в названии доменного имени учитываются, хотя это далеко не самый важный фактор. Но если есть возможность зарегистрировать доменное имя с ключевой фразой, которая точно отражает название и тематику сайта, то почему бы это не сделать?

При наличии ключевых слов в домене, они подсвечиваются. Соответственно повышается показатель кликабельности в поисковой выдаче. Если пользователь видит в адресе сайта выделение слов, которые он набрал в строке поиска, вероятность перехода на сайт повышается. Это положительный фактор, который также учитывается.

ФАКТОР №3. ИСТОРИЯ ДОМЕНА

Домен с частой сменой собственника (через WHOIS) или при не своевременном продлении регистрации («дроп»), может заставить поисковые системы «обнулить» историю сайта, и перестать учитывать ссылки, указывающие на домен.

Очень желательно, чтобы владелец домена не менялся часто. Каждая смена собственника временно «замораживает» накопленное к сайту доверие. Поисковые алгоритмы ждут, что будет делать с сайтом новый собственник.

Стоит отметить: если вы резко поменяете содержимое сайта (не дизайн, а именно тематику и сам контент), то поисковые системы также обнулят доверие к вашему сайту. Возраст домена перестанет оказывать прежнее влияние.

ФАКТОР №4. ДОМЕН ТОЧНОГО СОВПАДЕНИЯ

Домены точного совпадения (EMD) все еще могут дать вам преимущество… если, конечно, у вас качественный сайт. Но когда на таком домене размещается низкокачественный сайт, он слабо защищен от EMD-алгоритма.

Для начала давайте расшифрую, что из себя представляет так называемый домен точного совпадения (EMD).

EMD-домен (Exact Match Domain) - если переводить дословно, то это домен с точным вхождением ключевых слов. Когда вы регистрируете доменное имя, которое состоит исключительно из популярной ключевой фразы, то это может вызвать подозрение у поисковых алгоритмов. В наибольшей зоне риска находятся домены:

  • со словами в названии «купить, скачать, бесплатно и т.п.».
  • если в названии домена присутствуют исключительно слова из популярной ключевой фразы, но отсутствует уникальное имя бренда и т.п..
  • Если домен состоит из 3-х и более ключевых слов, к примеру, «купить недвижимость в Краснодаре недорого». У Google разработан специальный EMD-алгоритм, который борется с так называемыми EMD-доменами.

Фактор вхождения ключевых слов в название домена оказывает всё меньшее влияние на поисковую выдачу, но при прочих равных, поисковые системы отдадут предпочтение сайту с узкотематическим названием (содержащим ключевые слова), чем порталу с общей тематикой.

Какой сайт, по вашему мнению, лучше отвечает на запрос «ремонт BMW». Сайт с доменным именем AvtoMir.com или сайт Remont.BMW-club.com? Уверен на 100%, что (без учета остальных факторов) предпочтение отдается именно 2-му варианту. Точно так же думают Google и Яндекс.

Кстати я не зря привел пример с поддоменом 3-го уровня Remont.BMW-club.com. Вариант с доменом 2-го уровня Remont-BMW.com был бы не самым оптимальным.

Представители поисковых систем отмечали, что с большим недоверием относятся к доменам 2-го уровня, которые состоят исключительно из ключевых слов. Именно такие домены рискуют получить наказание от алгоритма EMD. Это и не удивительно, ведь не так давно, как раз на таких доменных именах создавали бесполезные для людей сайты («дорвеи»).

Но если имя домена – это название вашей фирмы или бренда в сочетании с ключевым словом, то это удачный вариант и EMD ему не грозит.

При этом если у вас стоит выбор: зарегистрировать домен состоящий из ключевых слов или из названия вашего бренда, то лучше отдать предпочтение именно второму варианту.

Ведь даже если вы не боитесь алгоритма EMD, то ссылки, ведущие на ваш сайт, уже не смогут быть полностью безанкорными. А за это можно получить наказание уже от других алгоритмов и фильтров. К примеру, тот же Google Penguin и Минусинск от Яндекса, которые наказывают сайты за большое количество внешних ссылок с прямым вхождением ключевых слов в анкор.

Но это уже тема отдельного большого разговора, поэтому переходим к следующим факторам ранжирования.

ФАКТОР №5. ПРИСУТСТВИЕ КЛЮЧЕВОГО СЛОВА В ТЕГЕ «TITLE»

Тег title является вторым по важности SEO-параметром веб-страницы (после самого контента), и поэтому оказывает сильное влияние на ранжирование по конкретному поисковому запросу.

Не стоит забывать, что именно содержимое тега «title» Яндекс и Google показывают в поисковой выдаче.

Если объяснить работу поисковых систем максимально упрощенно, то ответ на запрос пользователя формируется исходя из ключевых слов, которые присутствуют в теге title, а также в тексте самой страницы. Это один из важнейших SEO-параметров.

Другое дело, что ни в коем случае нельзя перенасыщать текст и title страницы ключевыми словами. За это у современных поисковых систем существуют различные санкции: начиная от фильтра «уникализации заголовков», заканчивая алгоритмами, которые наказывают за переспам, избыточное содержание ключевых слов в тексте страницы и т.д.

ФАКТОР №6. ТЕГ «TITLE» НАЧИНАЕТСЯ С КЛЮЧЕВОГО СЛОВА

Важно понимать, что существует заголовок страницы (он находится в теге title), который пользователи видят в результатах поисковой выдачи.

Но есть ещё заголовок к тексту на странице (он находится в теге H1). Его пользователи видят уже после того как перешли на саму страницу сайта.

Оба эти заголовка очень важны для поисковой оптимизации сайта. Поэтому ключевая фраза должна присутствовать в обоих тегах.

ФАКТОР №9. КЛЮЧЕВОЕ СЛОВО ЧАСТО УПОТРЕБЛЯЕТСЯ В ТЕКСТЕ ДОКУМЕНТА

Если ключевое слово встречается в тексте страницы чаще, чем любые другие, то это является положительным фактором соответствия страницы определенному поисковому запросу.

Именно поэтому ещё несколько лет назад оптимизаторы создавали SEO-тексты с большим вхождением ключевых слов, выделяли их жирным и т.п. В современных условиях за большое количество ключевых слов в тексте можно быстрее получить «спам-фильтр», чем добиться каких-то бонусов к релевантности страницы.

Поэтому пишите тексты, которые будет интересно читать людям, создавайте страницы, которые смогут решать конкретную проблему пользователя. В современных условиях даже одного вхождения ключевой фразы в тексте уже достаточно, чтобы она была релевантна тому или иному поисковому запросу.

ФАКТОР №10. ЛАТЕНТНО-СЕМАНТИЧЕСКИЙ ИНДЕКС КЛЮЧЕВЫХ СЛОВ В КОНТЕНТЕ (LSI)

Ключевые слова LSI помогают поисковым системам определять значения слов с болеe чем одним значением. Например, слово Apple — это компьютерная компания или фрукт. Наличие или отсутствие LSI также может выступать показателем качества контента на сайте.

В последние годы даже появился термин LSI-копирайтинг . И соблюдение определенных требований позволяет повышать релевантность определенного текста и соответственно всей страницы в целом. Давайте попробуем разобраться, что такое LSI.

Для начала приведу цитату, которую ни в коем случае не стоит пытаться понять неопытным людям. Если вы новичок, лучше сразу пропустите этот абзац. Но именно такие понятия даются, когда в некоторых авторитетных источниках подобные термины пытаются объяснить более «научным» языком: «LSI — это сингулярное разложение терм-документной матрицы, которое позволяет выловить ключевые составляющие этой матрицы и проигнорировать шумы. »

Прочитали? А теперь забудьте. Постараюсь дать более понятное объяснение:

LSI – это способ определения тематики и качества текста на основе анализа содержащихся в нем слов. Проще говоря, если в тексте встречаются слова «двигатель», «колесо», «руль» — то, скорее всего, текст про автомобиль.

Поисковые системы начали вводить алгоритмы, которые борются с перенасыщенными одними и теми же ключевыми словами текстами. Если в тексте очень часто употребляется одна и та же ключевая фраза, то у поисковых систем Яндекс и Google возникают вопросы к качеству материала.

Либо это попытка искусственно повысить значимость страницы по определенному поисковому запросу, либо автор не очень компетентен в данной теме, раз он не может использовать синонимы и в целом более богатый лексикон. И первый и второй вариант может привести к понижению страницы сайта в поиске.

Учитываются также качество оформления текста, отсутствие грамматических ошибок и многие другие параметры.

Тексты, которые написаны с учетом требований LSI, крайне редко попадают под какие-то фильтры и намного легче поднимаются на высокие места в поиске. Особенно это актуально в тематиках с высокой конкуренцией.

P.S. Проанализируйте ваших конкурентов, которые находятся на первых местах в Google и Яндекс. Посмотрите на оформление их страниц, какие слова они используют в текстах и т.п. Это даст вам много пищи для размышлений, если ваш сайт ещё не находится в ТОПе.

Но это действительно большая тема, а мне не хотелось бы вас утомлять, поэтому переходим к следующему фактору.

ФАКТОР №11. КЛЮЧЕВЫЕ СЛОВА LSI В ТЕГАХ «TITLE» И «DESCRIPTION»

Как и в случае с контентом сайта, ключевые слова LSI в мета-тегах страницы помогают определить правильное значение слов-синонимов. Это также один факторов релевантности.

Исходя из контекста алгоритмы поисковых систем понимают к какой тематике относится слово с несколькими значениями. К примеру, на сайте появился заголовок: «Зажглась новая звезда эстрады». Если бы в заголовке не было слова «эстрады», то было бы непонятно к какой тематике относить этот фрагмент текста – к астрономии или к шоу-бизнесу.

Именно поэтому важно, чтобы в тегах «title» и «description» всегда были слова, которые четко определяют тематику страницы вашего сайта.

ФАКТОР №12. СКОРОСТЬ ЗАГРУЗКИ HTML-СТРАНИЦЫ И ТЕХНИЧЕСКИЕ ОШИБКИ НА САЙТЕ

Поисковые системы учитывают скорость загрузки страницы в качестве одного из факторов ранжирования. Боты поисковых систем могут оценивать скорость вашего сайта достаточно точно, основываясь на коде страницы и размере загружаемых файлов.

Это не самый важный фактор. Тот же Александр Садовский (руководитель поисковых сервисов Яндекса) заявлял, что алгоритмы не наказывают сайт за какие-то технические ошибки и недостатки.

Но если прямых санкций и нет, то есть косвенное негативное влияние на ранжирование. К примеру, если страницы вашего сайта долго загружаются и на них постоянно возникают ошибки – это раздражает пользователей.

Чаще всего недовольные посетители просто закрывают ваш сайт и уходят к вашим конкурентам. Соответственно у вашего сайта ухудшаются так называемые поведенческие факторы. А они уже напрямую влияют на ранжирование. Более того, существует показатель «отказов». В частности, когда пользователь провел на странице вашего сайта менее 15 секунд и вернулся обратно в поиск.

Соответственно поисковые системы будут понижать ваш сайт в результатах поиска не за сами технические недостатки вашего сайта, а за последствия, которые они вызывают.

ФАКТОР №13. ПОВТОРЯЮЩИЙСЯ КОНТЕНТ (В ТОМ ЧИСЛЕ ДУБЛИ СТРАНИЦ)

Идентичный контент на одном сайте (даже слегка измененный) может отрицательным образом повлиять на видимость сайта в поисковых системах.

Дубли страниц, повторяющийся контент на разных страницах – это довольно негативные факторы. Тем самым вы забираете «вес» у своих же страниц.

Более того, вы заставляете роботов поисковых систем индексировать лишний неуникальный контент (страницы). А у поисковых ботов строго ограниченное время для каждого сайта.

ФАКТОР №14. ОПТИМИЗАЦИЯ ИЗОБРАЖЕНИЙ

Изображения на страницах передают важную информацию о их релевантности. Поисковые системы определяют тематику картинок, анализируя название файла самой картинки, и текст, который находится в тегах: alt, title, description.

В идеале нужно заполнять все теги и делать подписи к картинкам. Особенно тег alt (альтернативный текст картинки). На его содержимое поисковые системы обращают внимание в первую очередь.

Поэтому подписывайте, что изображено на картинках. Также желательно, чтобы в тегах описания изображения присутствовали ключевые слова, под которые оптимизирована сама страница.

ФАКТОР №15. ЧАСТОТА И РАЗМЕР ОБНОВЛЕНИЙ КОНТЕНТА

Поисковым системам нравится недавно обновленный контент, особенно для запросов, которые чувствительны ко времени.

Поисковые системы любят часто обновляемые сайты. Безусловно, ваши старые записи также могут хорошо ранжироваться, но, если вы внесете в них существенные изменения, что-то добавите, улучшите – все это пойдет только в плюс.

Поддерживайте ваши материалы в актуальном состоянии, либо пишите новые записи и ставьте на них ссылки с ваших старых страниц.

ФАКТОР №16. ВИДИМОСТЬ КЛЮЧЕВОГО СЛОВА

Присутствие ключевого слова среди первых 100 слов контента страницы считается значимым сигналом релевантности.

Ведь если пользователь пришел на страницу сайта и уже в начале страницы не нашел ответ на свой запрос, то он, чаще всего, закроет ваш сайт и отправится в поиск искать дальше. Поисковые системы это также понимают, поэтому присутствие ключевого слова в самом начале текста имеет двойное значение.

ФАКТОР №17. КАЧЕСТВО И ТЕМАТИКА ИСХОДЯЩИХ ССЫЛОК

Более того, многие начинающие веб-мастера начитались уже устаревших мифов о том, что исходящие ссылки забирают ценный вес их сайта и поэтому добавляют ко всем исходящим ссылкам параметр rel=«nofollow». Тем самым они не только не сохраняют вес своих страниц, а просто отдают его в никуда.

Плюс ко всему такой подход наносит вред вашему сайту. Ведь rel=«nofollow» стоит ставить только в том случае, если вы ссылаетесь на нетематический ресурс.

Проводились эксперименты на различных сайтах. Так вот страницы, с которых стояли ссылки на качественные тематические материалы по теме, занимали более высокие места в поиске, чем страницы, с которых вообще не было исходящих ссылок.

Логика здесь простая. Даже невероятно авторитетная Wikipedia, у которой показатель ТИЦ 150 000 и огромное доверие от поисковых систем – всегда ссылается на источники и дополнительные материалы по теме. Вы скажете, так у них все исходящие ссылки закрыты параметром rel=«nofollow». Да, это так, но сделано это было для защиты от спамеров. Так как пока не были предприняты эти меры, многие веб-мастера и оптимизаторы пытались любой ценой получить ссылку с Википедии.

Но вывод простой. Если вы не являетесь известным экспертом в своей области и ваш интернет-ресурс не имеет большого доверия со стороны поисковых систем, то алгоритмы Яндекса и Google вряд ли поверят, что вы написали очень качественную статью, не использовав ни одного источника и ни разу никого не процитировав.

Ещё хуже, если вы сделали рерайт или, проще говоря, переписали своими словами чужую статью. Именно с этим и ведут борьбу поисковые системы, и их алгоритмы уже очень хорошо научились определять авторов и плагиаторов.

Кстати в этом кроется небольшой секрет, почему большие аналитические статьи с неуникальными частями текста, но со ссылками на источники или другие материалы по теме, занимают высокие места в поиске. Точно также успешно живут новостные агрегаторы, которые публикуют неуникальные материалы, но всегда ставят активные ссылки на источники.

Есть и другие практические секреты, и нюансы по поводу исходящих ссылок, но нам уже пора переходить к следующему фактору.

ФАКТОР №18. ПОЛЕЗНЫЙ ВСПОМОГАТЕЛЬНЫЙ КОНТЕНТ

В соответствии с ныне общедоступным документом Google Rater Guidelines, полезный вспомогательный контент является показателем качества страницы (и, следовательно, дополнительным фактором ранжирования). К примерам можно отнести: процентные и кредитные калькуляторы, конвертеры валют, интерактивные рецепты и т.п.

Все дополнительные функции и возможности, которые несут пользу для посетителей вашего сайта, также дают дополнительные бонусы к ранжированию. Все дополнительные «фишки» влияют не столько напрямую, как косвенно. Ведь пока пользователь сайта использует калькулятор или другую функцию, он проводит дополнительное время на вашем сайте.

Таким образом, удовлетворяя и заинтересовывая посетителей вашего сайта, вы улучшаете пользовательские факторы – а это очень важно в современных условиях. Именно эти факторы оказывают прямое влияние на позиции вашего сайта в поиске Google и Яндекс.

ФАКТОР №19. МУЛЬТИМЕДИЙНЫЕ МАТЕРИАЛЫ НА САЙТЕ

Изображения, видео и другие мультимедийные материалы могут служить сигналом качества контента.

В продолжение предыдущего фактора. Благодаря красивым картинкам и качественным видео, вы можете задерживать пользователей вашего сайта и улучшать поведенческие данные. Плюс, поисковые системы лучше ранжируют страницы, на которых присутствуют изображения и видео.

При прочих равных, страница, на которой есть хотя бы одна картинка, будет занимать более высокие места в поиске, чем ее исключительно текстовый аналог.

ФАКТОР №20. КОЛИЧЕСТВО И КАЧЕСТВО ВНУТРЕННИХ ССЫЛОК, УКАЗЫВАЮЩИХ НА СТРАНИЦУ

Количество внутренних ссылок на страницу показывает ее важность относительно других страниц сайта.

Важно качество и количество ссылок на целевую страницу. Каждая страница вашего сайта имеет определенный «вес». Он может расти, если на эту страницу ведут внешние ссылки с других сайтов или имеются ссылки со страниц вашего сайта.

Соответственно, когда вы написали новую статью на какую-то тему, подумайте, а может у вас уже есть статья по схожей теме и было бы уместно сослаться на неё по нужной ключевой фразе?

ФАКТОР №21. ДЛИНА URL-АДРЕСА

Search Engine Journal отмечает, что слишком длинные URL-адреса могут навредить релевантности страницы.

Такая тенденция есть. Желательно создавать короткие URL-адреса страниц. В идеале они должны состоять из 2-3 ключевых слов, написанных на транслите.

ФАКТОР №22. ЖИВЫЕ ЛЮДИ-АСЕССОРЫ

Хотя это не было подтверждено, Google подала патент на систему, которая позволяет людям-редакторам влиять на SERP (страницу результатов поиска).

Так называемые асессоры действительно присутствуют и у Яндекса, и у Google. Конечно, сайтов миллионы, и оценить всю поисковую выдачу вручную — нереально. Но самые высокие места (ТОП 10) поисковой выдачи в наиболее конкурентных тематиках оцениваются в том числе специальными асессорами.

Именно поэтому изначально некачественные сайты имеют очень мало шансов выйти в ТОП поисковой выдачи. Даже если предположить, что владельцы «плохих» сайтов разгадают текущие алгоритмы поисковых систем и выйдут на первые места в поиске, то шансов надолго там задержаться будет крайне мало.

ФАКТОР №23. ОПТИМИЗАЦИЯ САЙТА ПОД МОБИЛЬНЫЕ УСТРОЙСТВА

Создание адаптивных сайтов в наше время – это уже не дань «моде», а реальная необходимость. Сайты, которые не адаптированы для мобильных устройств, получают штрафы от поисковых систем и сильно понижаются в результатах мобильного поиска.

Ни для кого не секрет, что большинство современных людей ищут товары и услуги в Интернете в том числе с планшетов, мобильных телефонов и т.п.

В некоторых тематиках процент пользователей, которые заходят на сайты исключительно с мобильных устройств, достигает 80%.

Поэтому если вы до сих пор не сделали дизайн вашего сайта адаптивным, то пора срочно этим заняться. Вы банально теряете новых посетителей и потенциальных клиентов.

ФАКТОР №24. КОММЕРЧЕСКИЕ ФАКТОРЫ

Если у вас коммерческий сайт, то довольно серьезное влияние на его позиции в поиске оказывают современные коммерческие факторы. К ним можно отнести: присутствие страницы контактов, удобная форма заказа, наличие доставки, доступность службы технической поддержки клиентов, широта ассортимента товаров и др.

На самом деле только самых важных коммерческих факторов можно перечислить более 30-ти. Это специфическая тема и здесь есть много нюансов, поэтому подробно данный вопрос будем рассматривать отдельно.

ФАКТОР №25. ССЫЛКИ СО СТАРЫХ ДОМЕНОВ

Полностью согласен. Но стоит отметить, что получать ссылки с авторитетных доменов довольно сложно (или дорого). Конечно, есть определенные интересные методы получения качественных и естественных ссылок (в том числе без затрат). Но это большая отдельная тема, поэтому идем далее.

ФАКТОР №26. КОЛИЧЕСТВО ССЫЛАЮЩИХСЯ ДОМЕНОВ

Количество ссылающихся доменов является одним из самых важных факторов ранжирования в алгоритме Google, в чем вы можете убедиться из графика Moz (горизонтальная ось – позиция в списке результатов поиска):

Мои личные наблюдения также подтверждают описанную выше информацию. Лучше иметь 10 обратных ссылок с 10-ти разных доменов, чем 20 ссылок, но с одного домена.

ФАКТОР №27. ССЫЛКИ С САЙТОВ-КОНКУРЕНТОВ

Здесь речь идет о следующем. К примеру, вы продвигаетесь по запросу: «купить автомобиль в Москве». Если бы вы получили ссылки с сайтов, которые стоят в ТОП 10 по этому же запросу, то это дало бы мощнейший эффект.

Но будем реалистами. В тематиках с высокой конкуренцией никто не захочет ставить ссылку на конкурента. Только если вы не гений угроз или дипломатии.

Хотя в моей практике бывали случаи, когда удавалось получить безанкорную ссылку (просто по URL-адресу) с сайта конкурента в ТОП 10. Но это больше исключение из правил.

При этом не обязательно пытаться получить ссылки с прямых конкурентов. Смотрите сайты за пределами ТОП 10. Более того, можно искать сайты по смежным запросам в этой же тематике.

Кстати в информационных тематиках есть несколько интересных подходов, благодаря которым можно получать ссылки с «непрямых» сайтов-конкурентов. Это важная и большая тема, поэтому мы обязательно рассмотрим её отдельно.

ФАКТОР №28. ССЫЛКИ И УПОМИНАНИЕ САЙТА В СОЦИАЛЬНЫХ СЕТЯХ

Ссылки и упоминание названия вашего сайта в социальных сетях дают как прямой, так и косвенный эффект для продвижения. Кстати некоторые социальные сети лучше работают для Яндекса, а некоторые для Google. И речь идет далеко не только про Facebook, Twitter и Вконтакте.

Более того, существует подход, который позволяет не только повышать доверие к страницам вашего сайта (за счет ссылок из социальных сетей), но и дополнительно продвигать конкретные поисковые запросы.

Также сейчас все более важной становится работа по получению не только ссылок, но и отзывов, упоминаний о вашем сайте на различных форумах, сайтах рекомендаций, в тех же социальных сетях. В том числе, когда на том или ином интернет-ресурсе вообще не стоит обратная ссылка на ваш сайт, а присутствует исключительно упоминание бренда или доменного имени в тексте.

Это направление получило название крауд-маркетинг и для достижения высоких результатов в конкурентных тематиках без него сложно обойтись.

ФАКТОР №29. КАЧЕСТВО КОНТЕНТА, КОТОРЫЙ ОКРУЖАЕТ ССЫЛКУ

Здесь все логично. Если страница-донор, с которой будет стоять ссылка на ваш сайт, имеет качественный и интересный контент, красивое оформление, полезные картинки, видео и т.п., то она может занимать более высокие места в поисковых системах. И такая страница будет иметь больше доверия со стороны Яндекса и Google. Соответственно, и с ссылки с такой страницы будут иметь больший вес и авторитет.

Довольно глупо приобретать ссылку на ваш сайт с качественного сайта, но размещаться в каком-то неинтересном и плохо оформленном контенте. Ещё хуже, если эта страница будет размещена в каком-то разделе с большим уровнем вложенности. К примеру, будет помещена в очень старый материал, находящийся в архиве.

Тем более владельцы качественных интернет-ресурсов вряд ли разрешат размещать на своем сайте материалы плохого качества. А если они разрешают публиковать плохие статьи со ссылками на своем сайте, то сразу же возникают вопросы к перспективам и к ценности такого сайта-донора.

ФАКТОР №30. ПОКАЗАТЕЛЬ ОТКАЗОВ

Поисковые системы вполне могут использовать пользователей, как тестеров качества (если отказов много - сайт, скорее всего, не очень хорошего качества).

«Отказом» считается, когда пользователь провел на конкретной странице сайта менее 15 секунд и ушел с обратно в поисковую выдачу. Этот фактор в сочетании с другими поведенческими данными позволяет поисковым системам дополнительно оценить качество определенных веб-страниц.

ФАКТОР №31. ПОВТОРНЫЕ ПОСЕЩЕНИЯ САЙТА

Поисковые системы также могут смотреть, возвращаются ли пользователи на сайт после первого посещения. Повторный трафик может повысить позиции сайта в списке результатов поиска.

Учитываются не только повторные посещения сайта, но и многие другие действия. К примеру, как часто пользователи сохраняют сайт у себя в закладках, переходят ли на сайт напрямую по URL-адресу, вводят ли название сайта в поиске, делятся ли ссылками на сайт и т.п.

ФАКТОР №32. КОЛИЧЕСТВО КОММЕНТАРИЕВ НА САЙТЕ

Страницы с большим количеством комментариев могут быть сигналом активности пользователей и косвенным подтверждением качества контента.



Поделиться: