Как собрать семантику в 2023 году
Главное правило сеошного клуба — поделиться сервисами сеошного клуба. Нашей команде LZ.Media никогда не бывает жалко знаний для коллег. И сегодня мы поговорим про особенности сбора семантического ядра в 2023-м году.
Обращаемся к Wordstat
Для работы с запросами мы всегда использовали, используем и, надеемся, продолжим использовать “великий и ужасный” Яндекс.Вордстат. Для автоматизации работы с ним мы устанавливаем расширение WordStater. С этим плагином можно искать минус-слова, анализировать конкурентов и, конечно же, собирать ключи, в том числе по определенным страницам, или дополнять уже имеющуюся семантику по конкретным группам запросов.
Также сейчас мы пользуемся расширением Alaev SEO Tools для сбора региональной семантики. Кстати, о том, куда пропали регионы из “Вордстата”, мы даже написали отдельную статью.
Так выглядит “Вордстат” с расширениями
Плагины отлично помогают, когда у вас, можно сказать, уже есть база, т.е. надо просто что-то уточнить, быстро просмотреть, упорядочить. Но что делать, если нужно собрать семантическое ядро по целому сайту и с большим количеством интентов? Тут не обойтись без сторонних сервисов.
Работа с Key Collector
Если бы сеошники были язычниками, то вершину их божественного пантеона, скорее всего, занимал бы Key Collector. Здесь можно парсить сразу несколько групп ключевиков, группировать минус-слова для быстрого отсеивания нецелевых запросов, собирать все виды частотностей и много чего ещё.
Классический рабочий экран SEO-специалиста в LZ.Media выглядит примерно так
Раньше мы всегда собирали семантику через Key Collector и даже были готовы терпеть длительное время ожидания, пока парсятся запросы, и настраивать автоматическое введение капчи. Удобство программы превосходило ее недостатки. Пока не вышла 4 версия. Парсинг стал таким медлительным, что это реально мешало нам работать.
К счастью, через какое-то время всё встало на свои места: версию “допилили”. Но мы тому моменту уже начали интересоваться альтернативами Key Collector. Так что теперь мы нередко прибегаем к помощи других сервисов. О них скажем ниже, а пока — пошаговая инструкция по сбору семантики.
Сбор ключевых слов: основные действия
Подготовка
Прежде всего, сеошный клуб должен ненадолго превратиться в интеллектуальный и ответить на три жизненно важных вопроса: что, где… и кто. Это значит, что вам нужно определиться с географией поисков (для каких регионов ищете запросы) и понять, а какие собственно запросы нужны, исходя из целевой аудитории сайта и ее нужд (болей).
Здесь большое значение имеет интент запроса: информационный, коммерческий, смешанный. При сборе семантики всегда нужно проверять, а что попадается в выдаче по тому или иному запросу. Иногда запрос подходит, но только на первый взгляд, потому что поисковая система выдает топ сайтов не о том, что нужно. В общем, без понимания клиентского бизнеса и анализа его конкурентов тут тоже не обойтись.
Сбор масок
Маска (базис) — это общая, а вернее даже обобщающая фраза, которая определяет вашу бизнес-нишу или реализуемые товары с услугами. Маски нужно обязательно фиксировать в рамках мозгового штурма перед тем, как искать детализированные ключевые запросы.
Сочетаний слов в разных вариантах может быть очень много (и даже бесчисленное множество). Например, в event-индустрии к релевантным маскам относятся: “организация мероприятий”, “проведение мероприятий”, “организация и проведение мероприятия”, “организовать мероприятие” и т.д.
Чтобы быстро собрать разные варианты “масочных” словосочетаний, мы в LZ.Media используем генератор фраз. Есть и другие автоматические комбинаторы.
Вот так работает генератор в простом примере с “организацией мероприятий”
Также вы можете пользоваться сервисами для парсинга, но важно вовремя вычленять из результатов мусор и нецелевые базисы. Исходные фразы для поиска запросов вам помогут собрать:
- Wordstat. В нем нужны не только левая колонка, но и правая, которая подскажет синонимы.
- Планировщик ключевых слов Google или Google Search Console (вкладка “Эффективность”).
- Сборщики семантики у конкурентов, например, Ahrefs или Key.so.
- Яндекс.Вебмастер (раздел “Поисковые запросы”), где можно посмотреть и топовые, и рекомендованные запросы.
Когда маски “добыты”, с этим набором фраз можно собирать полноценные запросы в “Вордстате”, Key Collector, Rush Analytics или даже с помощью “Мутагена”. Но и на этом сбор ключевых слов не будет закончен.
Образец сбора ключевых слов после парсинга масок
Частотность запросов
Так как вам на следующих этапах предстоит сортировка запросов и чистка семантики, лучше сразу собрать все виды запросов по частотности.
- Общая (базовая) частотность — всевозможные варианты поисковых запросов с собранными ключевыми словами, включая словоформы, хвосты и т.д.
- Частичная (фразовая) частотность — это запросы в разных склонениях и с любым порядком слов.
- Точная частотность — запросы только с вашими ключами без каких-либо дополнений или изменений в последовательности и частях речи.
Общая частотность автоматически собирается в любом сервисе, а вот остальные типы надо парсить дополнительно. В Key Collector это происходит достаточно долго, поэтому советуем использовать:
- Rush. Используйте сервис для сбора СЯ на разных стадиях: работа с “Вордстатом”, сбор подсказок, кластеризация и прочее.
- Arsenkin. Тут тоже можно отдельно собирать частотности по готовым запросам, проверять их сезонность, проводить кластеризацию, парсить поисковые подсказки и т.д.
Зачем надо собирать разные по частотности запросы, а не брать всё, везде и сразу? Дело в том, что опытный сеошник должен во многом ориентироваться на точные вхождения: с их помощью он сможет отсортировать запросы по приоритетности. Если вы увидите, например, что в последней колонке таблицы напротив некоторых запросов стоят нули, значит, в такой формулировке никто не ищет ваши ключи. И тогда, возможно, надо подумать об удалении их из семантического ядра.
Чистка и кластеризация запросов
Предположим, вы разобрались с частотностью и скачали из сервиса сбора семантики заветную таблицу с данными. Скорее всего, ключей будет более, чем достаточно: на наших масштабных проектах семантическое ядро иногда стартует с 8-10 тысяч запросов. Такую цифру надо уменьшать:
- Мы чистим запросы с помощью Key Collector в разделе “Анализ групп”. Программа разделяет запросы по ключам и вы можете сразу увидеть, какие из них нерелевантны. Например, надо удалить все запросы со словом “Москва”, если клиент предлагает корпоративы только в Санкт-Петербурге.
Так выглядит аналитика групп в Key Collector
- Также запросы можно и нужно кластеризовать. Кластеризация — это группировка (распределение) запросов для лучшей структуры семантического ядра. Объединяют в кластеры те ключи, которые сходятся по интентам, потребностям клиента или топу поисковой выдачи. Автоматическую кластеризацию можно выполнять в Arsenkin или Rush либо использовать отдельную программу Keyassort.
Когда таким образом у вас уже отсеялось какое-то количество запросов, нужно потрудиться вручную. Убирайте дубли, мусорные запросы и т.д. В общем виде ваша цель сводится к тому, чтобы не допустить ни одного французского императора до рецепта слоеного торта. Ну а чтобы вам было легче работать, лучше заранее составить список стоп-слов и добавить их в программу перед парсингом.
Пожалуй, на этом статью можно завершить. Надеемся, вы из нее почерпнули для себя что-то новое и интересное. Ну а мы отправляемся сеошить дальше, пока не вышла пятая версия Key Collector…
Подписывайся на наши соцсети — там мы рассказываем о своей работе и анонсируем новые статьи: LZ.Media в ВК и телеграм.
Остались вопросы?
Оставьте заявку, чтобы получить консультацию