LSI-копирайтинг и SEO или Контент в эпоху новых поисковых алгоритмов

Автор: Татьяна Стефаненко, главный редактор отдела контента департамента SEO «Ашманов и партнеры»

LSI-копирайтинг в SEO применяется давно. Но только в последние полгода стали очень много об этом говорить. И это понятно. Принципы LSI объявили панацеей, когда поисковики начали определять релевантные страницы исключительно по содержанию, а за бессмыслицу с SEO-ключами загонять под фильтр. И вот появилась такая мантра – всем будет хорошо от осмысленного LSI-контента: и вашему сайту в ранжировании, и поисковикам, и людям, которые ищут полный и точный ответ на свой запрос. Почему так? И как это работает? В статье мы собрали информацию про LSI в SEO и рассказали вкратце, как у нас получается все это делать, чтобы не угодить под «Баден-Баден» за переоптимизацию и улучшить видимость.

Если вы в курсе, что такое LSI-копирайтинг (latent semantic indexing), пропустите этот абзац. Если нет, то подробно о термине можно узнать из wiki. А если вкратце, то это метод написания полезных текстов, которые расцениваются поисковиками как релевантные ключевому запросу при анализе сопутствующей семантики (соответствующие тематические фразы, слова, синонимы и т.п.). Робот вычисляет не по схеме «запрос – заголовок страницы», как когда-то делал «Палех» Яндекса, а по соответствию «запрос – весь документ».  Так действует сейчас «Королев». Он  анализирует все содержание страницы, чтобы выявить смысловое соответствие запросу или отсутствие такого (анализ LSA). И если ты хочешь быть в ТОПе, то нужно размещать на сайте осмысленные тексты, то есть писать по LSI для SEO-продвижения.

И это не новость. Про LSI-копирайтинг писали еще лет десять назад, если не больше. Как правило, за пределами рунета. В российском интернет-пространстве об LSI заговорили в связи с алгоритмом Panda от Google. Но особенно активно рунет вздрогнул этой весной, когда Яндекс запустил алгоритм «Баден-Баден» для определения переоптимизированных страниц. Тогда под фильтр попали сайты с текстами, где было больше SEO-ключей, чем смысла.

Вот за это сайты попадают под фильтр. Пример переоптимизированного текста про бурение скважин:

LSI-копирайтинг и SEO или Контент в эпоху новых поисковых алгоритмов

Сайту с такими текстами – дорога в «Баден-Баден». Сервис «Тургенев»* (рабочее название) поставил ему 14 (максимальный балл). Это значит, что уровень бессмыслицы зашкаливает, и сайт очень рискует попасть под фильтр. Если уже не там.

«Тургенев»* – разработка «Лаборатории поисковой аналитики» компании «Ашманов и партнеры». Сервис определяет стилистические ошибки, маркирует seo-штампы, показывает уровень переоптимизации и так далее. После релиза планируем выложить его в бесплатный доступ.

Текст с нулевым риском «Баден-Бадена»:

LSI-копирайтинг и SEO или Контент в эпоху новых поисковых алгоритмов

Анализ этого текста не показывает риск, это значит, что все ок. В этом фрагменте значительно больше смысла и конкретики, чем в предыдущем тексте. Но есть другие проблемы. Смотрим подсветку и колонку справа. Нужно поработать над стилистикой и использовать больше синонимов слова «изделия», заменить «рекомендуется», «оптимальную» и т.д.

Как работать с LSI в SEO

Сейчас многие противопоставляют SEO- и LSI-тексты. Хотя, по сути, качественный копирайтинг для SEO-продвижения строился и строится по тем же принципам, что и LSI. Просто оптимизаторы должны составлять адекватные технические задания, а авторы – писать по теме без «воды», структурировать текст и органично включать ключевые запросы в допустимом количестве.

Схема работы №1

Распространенная схема работы SEO-агентств: 

  • Оптимизатор собирает LSI-ключи с помощью сервиса (конечно, парсится при этом ТОП-10).
  • Оптимизатор составляет техническое задание (ТЗ) копирайтеру по набору ключевых запросов, но без списка LSI-окружения!
  • Автор пишет текст. И потом оптимизатор проверяет его по SEO-параметрам, информативности и на соответствие семантическому окружению из своего LSI-списка.
  • Считается, если автор раскрыл тему полностью, то там должны быть все необходимые LSI-ключи. Это такая своеобразная проверка экспертности автора и в то же время облегчение его труда, так как копирайтер не зацикливается на добавлении LSI-ключей, а думает исключительно про раскрытие темы статьи. Неплохой подход, но есть вопросы. Насколько верно оптимизатор подобрал свой блок «проверочных» LSI-фраз? И не сужает ли парсинг ТОПа набор семантики? Ориентация на конкурентов, по сути, создает что-то вроде filter bubble, ограничивая нас от важной информации, той семантики, о которой мы даже не догадываемся.

    Есть несколько инструментов, позволяющих правильно подобрать семантическое окружение:

  • Поисковые подсказки
  • Рекомендации Яндекса и Google внизу страницы
  • Правая колонка Яндекс.Вордстат
  • Специальные сервисы
  • Подробный список инструментов описан в блоге Сергея Кокшарова.

    Добавим к этому еще информацию из брифа и всех доступных материалов от заказчика (pdf-инструкций, презентаций и т.д.). Нужно обратить внимание на терминологию, устойчивые выражения (коллокации, как их еще называют), чтобы расширить семантический пул.

    Схема работы №2

    Мы где-то с 2015-го года уже собираем LSI-семантику в дополнение к ключевым словам для ТЗ. Не для всех проектов, но такие задачи появились не вчера. Вкратце – как  сейчас у нас это происходит:

  • Проводится распределение запросов по страницам. При распределении запросов применяется кластеризация по ТОП-ам. Процесс кластеризации заключается в том, что запросы объединяются в группы при условии наличия определенного количества общих URL в ТОП-10 по каждому запросу. Таким образом, можно сделать утверждение что, существуют такие ресурсы, текстовая оптимизация которых позволяет ранжироваться им в ТОП-10 по всей группе запросов.
  • Далее в текстовый анализатор (ТА) подаются запросы для подсчета среднего количества вхождений указанных запросов.
  • Важно: анализируются тексты именно на сайтах, образующих кластер запросов (те сайты, которые находятся в ТОП-10 по всем запросам одновременно).

  • Так как у нас проектов не 2-3, а свыше сотни, то при подборе LSI-семантики и составлении ТЗ, используем текстовый анализатор, разработанный в рамках «Лаборатории поисковой аналитики» нашей компании.
  • Далее оптимизатор просматривает результаты, полученные при помощи ТА (текстового анализатора), и при необходимости добавляет еще ключи, допсемантику, исходя из своего экспертного анализа и учитывая стратегию заказчика (например, продвинуть товары определенных брендов).
  • LSI-копирайтинг и SEO или Контент в эпоху новых поисковых алгоритмов

    Фрагмент ТЗ для информационной статьи про инвестиции в недвижимость Сочи (для блога сайта по недвижимости).

    «Доп. слова» – это как раз и есть LSI-ключи. Здесь их всего 1.

    Полное техническое задание не приводим, так как в нем указаны мета-теги, рекомендации, касающиеся конкретного заказчика, это не можем светить. Но не суть. Как видите, ТЗ не напичкано запросами и даже LSI-ключами. На выходе – в статье была информация о стоимости квадратных метров, ликвидности жилья, статистические данные и т.д. Все по теме. В марте 2017 года была опубликована статья в разделе articles сайта. Вот, что мы увидели по запросам:

    LSI-копирайтинг и SEO или Контент в эпоху новых поисковых алгоритмов

    Другой пример. В рамках «Лаборатории поисковой аналитики» оптимизатор проанализировал сайт и основных конкурентов по наиболее важным запросам семантического ядра. При поиске LSI-окружения использовал бесплатный сервис pixelplus, а также наш собственный сервис «Тургенев».

    В общем, схема составления ТЗ та же, что и выше описывалась. Фрагмент текстовой рекомендации:

    LSI-копирайтинг и SEO или Контент в эпоху новых поисковых алгоритмов

    Длинный список из графы «Дополнительно необходимо использовать» – это LSI-окружение (тематические слова). Понятно, что в тексте про гидрокостюм для плавания и бега будут фигурировать слова «вода», «спортивный» и т.д. Однако не так очевидно упоминание брендов Tyr и Aqua Sphere.

    По сути, этот список – семантическая матрица для написания текста, опорные пункты, которые следует аккуратно включить. И в итоге для этого интернет-магазина мы написали около 35 текстов (для фильтров, в разделы каталога). В августе разместили их на сайте. Но не все сразу. Так, «Тургенев» выдал по некоторым текстам показатели риска «Баден-Баден». Мы проанализировали тексты, исправили и только тогда залили на сайт.

    В середине сентября видимость подросла с 52.98% до 57.51%. Ниже график сравнения с конкурентами (видимость по семантическому ядру,  см. красный вектор).

    LSI-копирайтинг и SEO или Контент в эпоху новых поисковых алгоритмов

    Контент в эпоху новых поисковых алгоритмов

    Сейчас многие подробно исследуют возможности LSI. Это интересно. И, конечно же, можно изучить n-граммный анализ, потом научиться писать тексты по векторной модели, собрать коллокации (устойчивые выражения, характерные для тематики) и их правильно распределять по пространству текста. Создавать такие семантически идеальные тексты для поисковиков – это интересно как эксперимент, но не имеет смысла. Нейронные сети все равно будут работать быстрее нас и скоро распознают подлог. LSI-принципы полезны только в виде свода правил при написании качественного контента.

    Каким должен быть контент?

  • В списке требований к LSI-текстам в Википедии указаны все те условия, которые должны быть выполнены при написании любого хорошего текста. Польза, простота изложения, структура, логика, ритм, достоверность и так далее.
  • Любопытно, по каким критериям поисковики планируют определять достоверность информации? Даже на авторитетном ресурсе может быть статья странного содержания. В качестве примера приведу не LSI-текст, а очаровательную статью из очень авторитетного журнала конца XVIII-го века:

    LSI-копирайтинг и SEO или Контент в эпоху новых поисковых алгоритмов

    «Библиотека ученая, экономическая, нравоучительная, историческая и увеселительная в пользу и удовольствие Всякого звания Читателей» (1793 г.). Книга из собрания Тобольского архива.

    Текст для тех, кто не видит на фото:

    Лекарство от угрызения бешеной собаки

    Как скоро кого укусит бешеная собака, то должно сделать род теста из одной или двух столовых ложек соли, смоченной водою так, чтоб соль оною совершенно напиталась. Сим должно тереть рану по три или по четыре раза в день, в продолжение десяти дней. Сего же теста положив на тряпку, должно прикладывать к укушенному месту. Сие лекарство весьма действительно, и сим же способом можно лечить собак и прочих укушенных животных.

    По части достоверности информации (особенно в сложной медицинской тематике) сегодня много вопросов. Даже у самих медицинских специалистов – они возмущаются тем, что  тексты копипастят с одной клиники на другую, не задумываясь о содержании и достоверности. И другой момент – у самих врачей порой расходится представление о достоверности той или иной методики лечения, диагностирования. Но это тема другой статьи.

  • Должна быть жесткая семантическая связь внутри текста – текст четко по теме, без длинных лирических отступлений (не нужно размывать семантику).
  • Должна быть семантическая связь текста с другими элементами web-страницы. Текст должен гармонично вписываться в общую структуру, не дублировать, а информационно дополнять остальной контент (кнопки, баннеры, фото, видео и т.д.). Сегодня копирайтинг существует в комплексе с интерфейсом, поэтому нужно писать текст, учитывая композицию и дополнительную информацию остального контента на странице. Некоторые уже пишут тексты в специальных программах-редакторах или программах для прототипов – просто переносят туда визуальный контент со страницы (Axure Pro, в блокноте Evernote и т. п.). Так текст лучше пишется, потому что ты его видишь в общем контексте, а не в отрыве от реальности в ворде.
  • Иллюстрации должны быть по теме, так как нейросеть распознает картинки не только по окружающему тексту, но и по изображению. Скорее всего, это будет влиять на ранжирование тоже.
  • Собственно, пока все. Не тужите, LSI‑копирайтинг вам в помощь!

     


    Читайте также:

    Добавить комментарий

    Войти с помощью: