Рубрики

Урок 416 Как избавиться от переспама запросов и переоптимизации страниц сайта

Петр Александров
Автор статьи Пётр Александров
23
Время прочтения: 8 мин.

Привет! На прошлом уроке я рассказал вам, как выявить и проверить переспам и переоптимизацию страниц на сайте. В этом же уроке продолжим, расскажу, что нужно делать со всем этим и как бороться.

Как избавиться от переоптимизации страниц сайта

Вот типичная картина переоптимизированности страницы:

Забегая вперед, хочу сказать, что это резкое падение страницы связано с внедрением алгоритма «Баден-Баден». Про алгоритм Яндекса «Баден-Баден» мы еще поговорим в ближайшем уроке, но по сути «Баден-Баден» был внедрен для борьбы с переоптимизацией.

Если посмотреть, позиции, то ярко выражено резкое падение (обращайте внимание только на позиции по Яндексу):

Невооруженным глазом можно наблюдать резкий обвал всех запросов на странице . И тут, я полагаю, всем понятно, что Яндексу явно что-то перестало нравиться и это надо исправлять, чтобы снова попасть в ТОП.

К сожалению, в данном случае Пиксель Тулс (напомню, на прошлом уроке мы искали подобные страницы с помощью данного инструмента) показал, что на странице нет переоптимизации. Попробовал вручную с помощью операторов site посмотреть, что выдаст Яндекс, в итоге ничего. Тоже самое уже отметили в комментариях к прошлой статье:

Стоило мне написать прошлый урок, как Яндекс сразу же убрал возможность проверить переоптимизацию таким способом. Возможно «Яндексоиды» читают мой блог? xD

По ходу Пиксель Тулс тоже делал выводы о переоптимизации с помощью данного операторов, потому что эта страница тоже никак не отображается переоптмизированной.

Вообще, если переоптимизация обнаружена Pixel Tools в экспертной функции, то сервис еще даст рекомендации что делать, что-то в этом роде:

Но, к сожалению, в данном случае Пиксель Тулс отобразил страницу так, как будто на ней нет переоптимизации и поэтому список правок не получил. Чуть ниже я показал, как можно другими способами найти то, что стоит подправить.

Вот еще очень хороший сервис проверки на переоптимизацию от Arsenkin (бесплатно), вот он показал, что вероятность фильтра 99%, а это уже намного ближе к правде. 🙂

Переоптимизация в Арсенкине

Жаль только вот рекомендации не дает по корректировке страниц.

Как избавиться от переспама в запросах

Вот, например, в съемщике позиций я четко вижу, как у меня просел запрос. Причем остальные запросы этой страницы находятся в ТОПе.

После того, как нашли переспамленный запрос, нужно понять что с ним делать. Конечно, можно на глаз изучить страницу и постараться понять, что не так с запросом и где находится переспам (а иногда и «недоспам»). Но это не всегда легко заметить (я исключаю явные случаи, когда ключи чуть ли не в каждом предложении).

Например, был случай: как-то создавалась страница по низкоконкурентному запросу. Статья была лучшая в рунете на момент публикации по всем параметрам, но по истечении месяца основной запрос так и не попал даже в ТОП-100. Конечно, это насторожило, изучая страницу, показалось что все-таки много выделений было жирным (хотя жирным ключевые слова не выделяли, а просто фразы по смыслу и для удобства в визуальном восприятии). Была переоптимизация.

Просто убрали эти выделения жирным, и вуаля, через пару недель страница залетела на 7-ую позицию по основному запросу, а после прочно закрепилась в ТОП-3 надолго (за счет поведенческих факторов), даже когда конкуренция по запросу сильно выросла. Вообще, я рекомендую не делать много всяких выделений в тексте, даже если это не ключевые слова. Если прям очень надо, лучше обойтись CSS, без излишнего использования тегов strongi и др.

Но, к сожалению, не всегда на глаз удается найти проблему на странице. Для дополнительной помощи можно воспользоваться сторонними сервисами.

К примеру, можно воспользоваться сервисом Seolib.

  1. Во вкладке «Инструменты» находим раздел «Релевантность текстов»:
    Релевантность текстов
  2. Вбиваем ключевое слово и обязательно ставим галочку напротив «Сравнить ТОП со своим сайтом», указываем наш целевой URL:
    Сравнение релевантности
  3. На выходе мы получаем таблицу в виде сравнение ТОПовых страниц с нашими, вот что получилось:
  4. Обратите внимание на подчеркнутое красным. Видно, что по контенту у нас объем текста маловат, я бы добавил текста побольше. Количество точных вхождений запроса — слишком много, да и количество вхождений в словоформах (ключевые слова в разных падежах) — аналогично, перебор. Мы, по сути получили список рекомендаций того, что нужно сделать со страницей, чтобы избавиться от переспама. Там же отображаются наши «переборы»/»недоборы» по ключам в Title, Description, заголовках h и др.

Помимо SEOlib есть еще очень много других инструменты, например текстовой анализатор от Just Magic. Очень качественный с технической точки зрения, но вот «человечности» сервису явно не хватает. Чтобы пользоваться данным сервисом вам нужно будет не один раз прочитать документацию, причем очень внимательно. На выходе получите, что-то вроде этого:

Текстовой анализатор в Just-Magic

Также, подобное есть и в Rush Analytics (про кластеризацию запросов с помощью Rush Analytics я уже рассказывал). Вот полная инструкция, как пользоваться текстовым анализатором. На выходе получится файл, но уже более понятный простому «смертному» 🙂 :

Текстовой анализатор в Rush Analytics

Текстовой анализатор в Rush

Помимо этих сервисов, есть еще функционал в GoGetLinks, который мне тоже нравится. Выглядит он таким образом:

Поиск причин переоптимизации вручную

Если же вдруг у вас нет возможности/желания пользоваться подобными сервисами или хотите получить более точные данные, можно все это дело сделать вручную (данный ручной метод мы до сих пор применяем для очень важных запросов). Алгоритм следующий:

  1. Берем наш самый основной запрос, вбиваем его в нашем регионе в браузере в режиме инкогнито.
  2. Выписываем ТОП-10 URL в таблицу.
  3. Берем тексты с этих сайтов, прогоняем их с помощью SEO анализа текстов в Адвего.
  4. «Выдергиваем» метатеги и заголовки h1 у сайтов, обязательно обращаем внимание на количество повторений ключевых слов, наличия точного/разбавленного вхождения, длину.
  5. Заполняем следующие данные в таблицу: объем контента, какие фразы встречаются чаще (берем во внимание не только основные ключи, но и дополнительные, расширяющие семантику статьи), количество повторений.
  6. Если у вас интернет-магазин, рекомендую еще обязательно обращать внимание  на то, как выводятся список товаров на страницах «листингах» (категории, метки и пр.), какие ключи используются в них, сколько товаров выводятся и т.д.
  7. Найти средние значения. Причем, если в таблице из 10 url будут пара страниц, которые сильно выбиваются из средних значений других сайтов, то такие урлы лучше исключить из анализа сильноискаженного параметра.

Получится что-то вроде этого:

Таблица оптмизации страницы

Заключение

Вы должны понимать, что если бы мы не мониторили позиции, то с такой легкостью не нашли бы переспам и переоптимизацию. Мы просто потеряли бы трафик, который конвертируется в деньги. Поэтому, я настоятельно рекомендую регулярно производить съем позиций сайта.

Текстовые анализаторы хороши, но не стоит слепо все делать по их указаниям. Их стоит рассматривать как дополнительный инструмент, который дает подсказку. Заморачиваться, чтобы все на 100% было как в их рекомендациях — не стоит. Пробовали, экспериментировали. Куча потраченного времени и денег, от обычных SEO-оптимизированных текстов разницы в позициях нет. И помните, что сайты в ТОПе постоянно меняются.

Ну вот и все. Вы делаете необходимые правки, которые требуются для того, чтобы убрать переспам и/или переоптимизацию и молитесь ждете изменений. Как правильно и когда лучше оценить изменения на сайте/страницах я расскажу уже в одном из самых ближайших уроков. Оставайтесь на связи! 🙂

23 комментария на «Урок 416 Как избавиться от переспама запросов и переоптимизации страниц сайта»
  1. Сергей

    Петр, ты где пропал?

    • Пётр Александров Автор статьи
      https://wpnew.ru

      У меня была свадьба, потом свадебное путешествие и т.д. 🙂 На блог никак не мог писать, к сожалению.

  2. Денис

    К сожалению до конца так и не понятно, за что же идёт наказание, за точные вхождения, за ключевые слова из этого вхождения или всё вместе? Анализ топ 10 вообще не информативен, так как у кого-то каждое слово из фразы 1-2%, у кого-то 3-4, у меня 2-3, а я улетел с 5-го места на 46-е, спрашивается, с какого? Большинство статей содержат в себе 2 точных вхождения, 1-е в начале, 2-е в конце, иногда есть склонённое в середине, объём статей 1500-3000 символов. Правлю ряд статей, и уже грешу на недоспам, так как некоторые слова из вхождения, местами менее 1%. Иногда срабатывает просто убрать 1 точное вхождение и запрос с 46-го места поднимается на 12, но не всегда… Кстати, что вы думаете по поводу суммы ключевых слов из фразы? Вот запрос — желе из красной смородины на зиму. Сколько в сумме должны иметь эти слова? Кто-то пишет каждое слово до 5%, кто-то, что все 4 слова 5-7%. Фразу убрать не проблема, но если не срабатывает, как не переборщить с убиранием слов из фразы? В принципе если будет недоспам, арсенкин вряд-ли покажет фильтр типа 99%? Что скажете? Извините если сумбурно. Спасибо.

    • Пётр Александров Автор статьи
      https://wpnew.ru

      Все вместе. Тут все очень сложно. Тяжело в некоторых случаях сказать недоспам или переспам, просто пробовать корректировать. По поводу конкретных процентов частотности: универсальной цифры нет, в каждой тематике по своему, даже я бы сказал, по каждому запросу в разнобой + очень много других факторов (не раз наблюдал, как в ТОПе сидит сайт с кучей выделенных жирным ключевых слов, други факторы перевешивали в данном случае)

  3. Павел
    http://konovalovpavel.ru

    интересная статья. в последнее время применяю последний способ с 10 сайтами топа. значит правильно делал. но позиции не снимаю.

    • Пётр Александров Автор статьи
      https://wpnew.ru

      При анализе ТОП-10 не забывай ориентироваться на семантическое ядро тоже, а то можно из-за конкурентов упустить парочку вкусных запросов. Позиции все же рекомендую снимать

  4. Нина

    Спасибо вам за статью… Я уже давно использую сервис гогетлинкс… Кажется менее затратный в отличие от других…

    • Пётр Александров Автор статьи
      https://wpnew.ru

      Данных GoGetLinks не всегда бывает достаточно)

  5. Сергей

    Интересные моменты ты затронул! Спасибо за информативную статью, очень поможет мне в работе.

    • Пётр Александров Автор статьи
      https://wpnew.ru

      Рад был помочь)

Добавить комментарий
Ваш адрес email не будет опубликован. Обязательные поля помечены
Нажав на кнопку «Отправить комментарий» вы принимаете соглашение на обработку персональных данных.
Подпишитесь на бесплатные уроки по e‑mail и получите книгу в подарок
Нажав на кнопку «Подписаться» вы принимаете соглашение на обработку персональных данных.
Книга по SEO