Позиции сайта в выдаче не зависят от его посещаемости
Буквально на днях всемирно известная поисковая система развеяла один из давних SEO-мифов, официально заявив о том, что «в ранжировании веб-ресурса показатель его посещаемости не учитывается».
Представителю поисковой системы был задан вопрос: «Могут ли переходы с других сайтов (реферальный трафик) влиять на позицию веб-ресурса в выдаче? Зависит ли от роста такого трафика скорость SEO-продвижения»? Ответ Google последовал незамедлительно: «Нет, позиции сайта никак не связаны с показателями его посещаемости. Получение релевантного трафика – индикатор того, что вы выбрали правильный путь для продвижения своего ресурса»!
Впрочем, пользователи жалуются на то, что столь неоднозначный ответ лишь увеличил количество вопросов. Представитель поисковой системы говорил только о реферальном трафике или о трафике сайта в целом?
Размещенные на сайте фреймы из Instagram препятствуют продвижению
Аналитик поисковой системы Джон Мюллер не рекомендует размещать на страницах веб-ресурсов снимки из популярной мобильной соцсети Instagram. По его словам, приложение снабжает встраиваемые изображения директивами, которые блокируют отображение контента в поиске.
К такому выводу специалист пришел после обращения вебмастера с жалобой на резкое снижение трафика из сервиса Гугл.Картинки. Как оказалось, посещаемость упала после размещения на сайте картинок из Instagram. Тщательный анализ ресурса показал, что Instagram встраивает в коды изображений мета-теги robots и теги iframe с директивами noindex. Как известно, данные атрибуты используются веб-мастерами для блокировки от индексации.
Так, тег iframe указывает на наличие картинки, но использованный мета-тег блокирует от индексации вместе с остальным контентом на странице, – рассказал Джон Мюллер.
Ну что же Яндекс? Разбираемся в ситуации связанной с падением позиций в Яндекс в блоге 39saitov.ru.
Новое руководство JS SEO дополнено пояснениями о мета-теге robots
Корпорация Google внесла изменения в обновленную версию руководства по SEO для JavaScript. Необходимость в этом возникла из-за вопроса, заданного в официальном Twitter аккаунте поисковика одним из вебмастеров. Выяснилось, что у специалиста возникли сложности с применением JS для меняющегося мета-тега robots. В новой редакции об этом нет никаких упоминаний.
Представитель поисковой системы поблагодарил вебмастера за уместный и своевременный вопрос, а также добавил, что в середине августа будет выпущена расширенная версия руководства.
Так, дополненный документ позволяет использовать JS для динамического мета-тега robots. Сотрудник компании также наглядно продемонстрировал правильное применение такого подхода и добавил, что новые нормы не распространяются на случаи использования тега robots с атрибутом noindex.
Поисковик продолжает блокировать сайты за неестественные ссылки
Австралийский специалист на официальной страничке поисковой системы в Twitter разместил сообщение с просьбой уточнить, почему к его веб-ресурсу поисковик применил санкции. Он также добавил, что примерно с 2014 года отказался от использования неестественных ссылок. При малейших подозрениях проводил процедуру отклонения ссылок с помощью инструмента disavow. Тем не менее, сайт все равно попал под санкции поисковика.
Экспертам не понятен механизм применения санкций Google, возможны ли ошибочные решения или преднамеренные наказания SEO-компаний. Несколько месяцев назад представитель поисковой системы Джон Мюллер рассказал, что веб-ресурсы, давно не приобретающие ссылки, могут не опасаться вероятности применения к ним ручных санкций. При этом многие указывали на то, что алгоритм Google Penguin попросту игнорирует неестественные ссылки, а не вводит соответствующие санкции.