Весенняя лихорадка Google

Что происходит с Google? Благодаря этому поисковику нынешняя весна оказалась не слишком лояльной к нашим с вами сайтам. Если вы видите, что трафик из Гугла «прижался» сначала раз, потом другой, то с вами происходит то же, что и со всеми.

В марте, в двадцатых числах, Гугл перешёл на новый алгоритм ранжирования сайтов — Mobile-first index. Это значит, что те страницы сайтов, которые Google считает недружественными мобильным устройствам, существенно понизились в выдаче. Это происходило и раньше, однако с официальным релизом ситуация вошла в пике. Кстати, сам Google заявлял, что ничего в целом не изменится и новый индекс не повлияет на ранжирование, но на практике мы увидели ровно противоположное.

Но этого мало. Судя по всему, новый алгоритм был не до конца отработан. Когда сайты были переиндексированы, практически для всех наших клиентов это привело к плавному падению трафика на пару недель в начале апреля. Причём для всех перешедших на мобилопригодный дизайн — других у нас практически нет. Потом посещаемость вернулась.

А для отдельных сайтов случилось более резкое падение, практически отвесное, и пришлось вмешиваться в ситуацию. Потому что в некоторых случаях те страницы, которые считались этим поисковиком мобилопригодными, вдруг перестали им так восприниматься, и пришлось выявлять такие случаи и вносить изменения в контент или даже в код.

Как только выправилась ситуация с новым алгоритмом, в России случилась блокировка мессенджера Telegram Роскомнадзором. Поскольку для его блокировки РКН задействовал блокировку облачных серверов на Google, то у многих перестал работать сервисы Google, включая поиск. Мало того, в некоторых случаях наши с вами сайты недоступны из-за использования на них кода Google Analytics — но это не связано с гугл-поиском, просто хозяйке на заметку. Или же использовали какие-то другие сервисы с аналогичной ситуацией. Ну и если кто-то пользовался теми же облачными серверами, например, для хостинга сайта, то такой сайт в России также блокировался, заодно, по ip.

Это продолжается до сих пор, одни сервера снимаются с блокировки, другие ставятся. Поэтому мы недосчитываемся посетителей из Гугла.

Зато растет доля Яндекса (после публикации этой записи блокировка временно зацепила его, а Телеграм всё продолжает работать). Так что в целом поисковый трафик пострадать не должен, хотя, скорее всего, все-таки страдает. В конце концом, Google у многих предустановлен на смартфонах, и переключаться с него не всегда удобно. В утешение — ситуация меняется каждый день, а кого-то эта блокировка не задела и поиск работает нормально,

Google выкатил mobile-first индекс

Google спустя 1,5 года после анонсирования наконец-то объявил о введении mobile-first индекса. Поздравляем тех, воспользовался отпущенным временем и успел перевести свои сайты на mobile-friendly дизайн. Дело трудное, нервное, затратное, требует сложных и умных решений. Кто справился — молодец! Кто ещё в пути — желаем успехов!

Короткая справка: эта новость означает, что теперь Гугл сканирует в первую очередь мобильный вариант сайта и выстраивает места в поиске на основе его содержания. Те, у кого мобильного варианта нет, должны уповать на то, что его нет и у конкурентов, потому что иначе они оказываются на последних местах. Google объявил о введении mobile-first поискового индекса 1,5 года назад и наделал много шума. Это критичное для всех владельцев сайтов нововведение ожидалось спустя полгода после анонса, но реализовалось через полтора: сроков никто не знал.

Если вы не знаете, воспринимается ли ваш сайт как мобилопригодный, проверьте его с помощью специального теста от Google — Mobile Friendly Test.

Сайты с мобильной версией начали подключаться Гуглом к новому индексу постепенно, еще несколько месяцев назад. Сообщается, что уведомление через поисковую панель должны получать все вебмастера, кто удостоился.

А вот сама новость:

https://webmasters.googleblog.com/…/rolling-out-mobile-firs…

Google увеличил длину сниппетов и сделал их безразмерными

Google в конце ноября 2017 увеличил длину сниппетов. Их средняя длина в поисковой выдаче увеличилась со 160 до 230, а официальные рекомендации теперь говорят, что нет прежнего ограничения для мета description в 160-180 символов.

По словам представителей Google, ограничений длины метаописания вообще нет, а представители отрасли считают, что разумно иметь в виду длину в 320 символов

https://www.searchengines.ru/snippets-seo.html

Современное SEO — профессионализм, качество, технологичность

Прекрасный обзор истории SEO. Единственное, с чем я не согласна — с тем, что сейчас уже поздно начинать разработку мобильной версии / адаптивного дизайна. Точнее, не стоит делать быстро и плохо, это точно хуже, чем ничего не делать. Google пока что не ввёл индекс mobile-first, а всё почему? Потому что дело это дорогостоящее и долгое, а плохая версия никому не нужна — ни пользователю, ни собственникам сайтов, ни самому Гуглу. Но качественная мобильная / адаптивная версии улучшит потерянные позиции.

Почитайте:

http://www.forbes.ru/tehnologii/342721-seo-ot-manipulyaciy-s-poiskovym-trafikom-k-vysokim-tehnologiyam

Что такое контентная SEO-оптимизация и как именно мы работаем?

Раньше мы назывались Школа интернет-маркетинга Expertum.ru, но вот уже по факту несколько лет мы занимаемся услугами по SEO и контентной оптимизации. Официально с 2017 года мы называемся «Агентство SEO и контентной оптмизации Expertum». У нас есть свои технологии и свои секреты, но интересно другое: за годы работы мы пришли к очень нестандартному выводу.

Как ни парадоксально, но Expertum.ru не работает над продвижением семантического ядра, хотя заказчики обычно начинают разговор именно с этого. Мы продвигаем товары и услуги, а не запросы — хотя запросы важны, но как инструмент, а не цель. И конечно, подумав, все соглашаются с тем, что запросы нужны для продаж, а не сами по себе.

Технология одного ограниченного семантического ядра предполагает покупку ссылок и сознательное ограничение трафика. Мы никогда за свою 15-летнюю историю не покупали ссылки. Наши методы — методы контентной оптимизации — предполагают продвижение по всему частотному спектру, причем средне- и низкочастотные запросы имеют более высокую конверсию в продажи и обеспечивают глобально 67% всего трафика. Мы продвигаем услуги и товары, а их спрашивают не только высокочастотными фразами. Поэтому мы и не работаем с семантическим ядром в привычном понимании, просто оно у нас неограниченное.

Над высокочастотными фразами мы также работаем, но не снимаем позиции (это нерабочий инструмент, поскольку выдача персонализирована), а следим за долей поискового трафика и выдачей релевантных страниц. Т.е мы привлекаем целевой трафик и стремимся к высокой конверсии, получая на выходе большие продажи.

Какими инструментами и ПО для SEO-оптимизации пользоваться?

Если знать, зачем, то нужно пользоваться следующими инструментами. Если не знать, зачем, то любые инструменты будут бесполезны. Итак:

Wordstat.Яндекс – для изучения и расширения семантики, подбора запросов и подзапросов, выявления потребностей и вопросов потребителей.

Панели вебмастеров Яндекса и Гугла — для управления полнотой индексации, управления релевантностью страниц, диагностики сайта и т.п.

Дополнительно: Bertal.ru – для внешней проверки кода ответа сервера.

Яндекс.Метрика и Гугл.Аналитикс — для мониторинга ситуации: отчёты по поисковому трафику, поисковым фразам, поведенческим факторам (глубина просмотра, показатель отказов и т.п.).

Поисковые операторы, в частности, самый востребованный и постоянно используемый — site, для определения полноты индексации и релевантности страниц, также для внешнего аудита и конкурентного анализа.

Проверка скорости страниц и мобилопригодности (есть сервисы Google: Page Speed Insights и Mobile-Friendy).

Сервисы по конкурентному анализу: Similarweb.com.

Для решения ежедневных задач и регулярного аудита этого достаточно. Для более сложных аудитов — тоже.

Чем не надо пользоваться?

Сервисами при биржах покупки ссылок – например, по сбору семантического ядра, снятию позиций. Дело в том, что аналогичные сервисы есть у поисковиков (усреднённые позиции снимает Вебмастер, для уточнения семантики используется Вордстат).

И ещё дело в том, что использование таких сервисов (сейчас самый популярный — Ки Коллектор) затягивает работу – на самом деле, необязательно предварительно составлять ядро, чтобы продвигать сайт, оно в этом сервисе нужно для снятия позиций и закупки ссылок. Одновременно ядро ограничивает потенциал продвижения, поскольку мы «продвигаемся» только по тем запросам, которые попали в ядро, причем затем ядро вычищается с целью оптимизации бюджета, то есть большое число фраз из него выпадает. Одновременно это в целом бессмысленная работа: если мы закупаем ссылки, то мы инвестируем в сайт-продавец ссылок, а не в свой сайт, причём это очень рискованные вложения: сайты-продавцы могу прекратить существование, попасть под санкции и т.п. Ещё больше риск попасть под фильтры или санкции продвигаемому сайту.

Что читать по копирайтингу, контенту и SEO?

Можно кидать тапками, но это не Бюро Горбунова и не Glavred. Потому что про SEO и контентную оптимизацию там нет. Это рекомендации для копирайтеров амбициозных проектов, которые хотят занять нишу «восхитительных», без KPI и чётких критериев. Особенно с позиции привлечения трафика.

Что читать рабочим лошадкам, перед которыми стоит задача зарабатывать своим работодателям на хлеб с маслом, т.е. делать контент с учетом SEO? А контент — понятие широкое, включает и копирайтинг, и структуру, и просто рабочие тексты типа описаний товаров.

В целом книг по SEO и контенту в частности, которые способны сохранять актуальность, не существует. Просто потому, что реальность меняется за период написания и подготовки книги к изданию, они устаревают в момент выхода в продажу. Актуальные сведения есть:

— в постоянно обновляемых материалах от поисковиков: Яндекс.Вебмастер, Гугл. Вебмастер (документация, помощь, блоги и т.п), лучше на них подписаться и читать регулярно;

— в теоретических материалах, которые описывают базовые алгоритмы поисковиков. Например, статья «Растолкованный PageRank» Александра Садовского, который разъясняет запатентованный алгоритм поиска Google. И хотя сам по себе PageRank давно не служит определяющим фактором ранжирования, однако базовый алгоритм работы поиска, описанный в этой статье, работает и помогает принимать правильные базовые решения по оптимизации контента.

Также есть внутренние учебные материалы, обучающие семинары и гайдлайны по оптимизации в Expertum, их большое количество, они постоянно обновляются и работают для разных случаев. По ним ведётся работа над собственными проектами и над проектами клиентов, обучение на внешних семинарах.

Что не нужно читать: справочные материалы от бирж ссылок и сопутствующих инструментов по составлению семантического ядра и снятию позиций, форумы оптимизаторов-манимейкеров. Поэтому читать форум Searchengines.ru практически бесполезно, только в поиске ответов на какие-то точечные вопросы: например, уточнить поисковый оператор, узнать сведения о фильтрах и изменениях алгоритмов. За методами продвижения, «трендами SEO 2017 года» и т.п. туда идти не нужно, поскольку общие принципы поисковой оптимизации неизменны со времен «Растолкованного Page Rank» (2000-2001 год) и с тех пор только углубляются, обрастая нюансами, а временные «хаки» и попытки обойти базовые принципы обычно только вредят.

Отчеты по географии в Яндекс.Метрике — насколько им можно доверять

Вдогонку к предыдущему посту. Такая же засада, которая нас подстерегает при попытке выудить информацию по поисковым фразам, подстерегает и при попытке выудить информацию по городам. Допустим, вы хотите сравнить два годичных периода по распределению регионов. Увы, и здесь все гораздо сложнее, чем это выглядит в интерфейсе Яндекс.Метрики с отчётом по географии.

Во-первых, можно дополнить, что во всех случаях, хоть с информацией по поисковым фразам, хоть с информацией по регионам, с прошествием времени все данные архивируются, сжимаются и по большей части теряются, а восстанавливаются опять-таки по вычислительному методу с большой погрешностью и потерями. Поэтому выяснить что-то до единиц невозможно, а иной раз погрешности совсем большие — до десятков процентов.

Во-вторых, с географией всё ещё хуже. Например, вас интересуют данные по Свердловской области. По факту люди могут ходить с московскими или любыми другими IP-адресами, сидя в Свердловской области, и доля таких людей растет с реогранизацией операторов, покупкой региональных провайдеров и перераспределением диапазонов IP-адресов, переходом их на новые технические решения, маршрутизацию и т.п., а также в связи с ростом мобильного трафика. Это усиливает погрешность, хотя метод определения географии по IP в принципе очень неточный — вы наверняка встречались с сайтами, где ваш город определялся неверно. То есть тут даже тенденции оценивать тяжело без дополнительных исследований — если по отчетам вы видите, что доля интересующего вас региона упала, то все совсем не очевидно. Может, доля упала, а может, и выросла, но ходит по московским или неопределенным IP.

Например, мобильный трафик загружается из прокси, люди ходят через VPN, через браузеры с турбо-режимом, которые тоже работают через прокси, и так далее. Учитывая, что маркетингом и им же в интернете в компаниях часто занимаются люди без технического образования, им можно только посочувствовать. Или посоветовать не гнаться за излишней точностью. Гораздо важнее, чем отчёты, реальные действия, в силу которых ваш посетитель от вас не уйдёт, а придёт и купит у вас что-либо, и неважно, какой у него IP и какой он сделал запрос.

А какие именно действия, расскажем в следующих посланиях.

Вход – рубль, выход – два. Яндекс объявил о пессимизации за использование покупных ссылок

Автор: Людмила Ладонина

Покупные ссылки будут причинять сайтам вред, теперь это объявлено официально. Вчера все, кто следит за темой поискового продвижения, были ошарашены грядущим введением Яндексом алгоритма пессимизации за покупные ссылки, ему дали имя «Минусинск».

Поскольку покупные ссылки – это основной метод продвижения, который тотально предлагают SEO-агентства, то шок оказался сильным.

Источник: Expertum.ru

Читать далее Вход – рубль, выход – два. Яндекс объявил о пессимизации за использование покупных ссылок

Новогоднее чудо — с нового 2014 года Яндекс отключает влияние внешних ссылок

Жить надо так, будто никаких внешних ссылок нет, а есть несколько сотен внешних и внутренних факторов, которые влияют на поисковую видимость сайта и в Яндексе, и в Google — в крупнейших поисковых системах на русскоязычном рынке. Это непросто, но совсем не так больно.

На самом деле, мы все так и живём в последние годы — ведь если раньше последовательно заявлялось сначала примерно о 200, затем о 400 факторах формулы ранжирования, то внешний ссылочный фактор явно не был в приоритете. Проверено на реальных сайтах, поэтому Expertum.ru никогда не учил покупать ссылки и никогда не рекомендовал их для своих клиентов на поисковый консалтинг, а в последний год из программы обучения SEO ушла также и рекомендация проверять, закрыты ли ссылки, стоит ли nofollow или не стоит и т.п.

С нововведениями не придётся ни вносить изменения в программу обучения, ни менять стратегии для клиентов на консалтинг. Ориентиры были и есть другие, контент — он интересный и работает! А добывать ссылки скучно и ссылочный фактор не творит магию. И по-прежнему инвестиции в качественный контент — это лучшие инвестиции, которые может себе позволить владелец сайта.

Заявление Яндекса о том, что теперь формула ранжирования содержит порядка 800 параметров, и внешних ссылок среди них не будет, логичное продолжение процесса усложнения формулы и полного ухода от ссылочных манипуляций. К этому давно шло — и ссылки на самом деле давно не работают так, как об этом принято думать, и их влияние не сравнить с хорошо продуманным умелым стратегическим копирайтингом и другими качественными действиями.

Желаем роста в Новом году!