Составление семантического ядра рекомендации. Как правильно составить семантическое ядро? Как собрать семантическое ядро онлайн

В данном руководстве мы пошагово опишем алгоритм подбора эффективного семантического ядра.

Несмотря на то, что в данном руководстве часто упоминается функционал Rush Analytics, по сути не важно, какими инструментами вы будете собирать данные.
Вы можете собирать данные даже вручную, копируя их из браузера, однако, на это уйдет в 100-300 раз больше вашего времени.

Данная методология подходит для коммерческих сайтов (сайтов услуг), для интернет-магазинов и для информационных порталов. Однако для каждого типа сайтов есть свои нюансы в поисковом спросе - вы легко их поймете в процессе создания семантического ядра.

1.
2.

Базовая парадигма сбора семантики

На схеме выше показана единственно верная логика сбора семантического ядра - сначала получить базовые запросы (маркерные), которые характеризуют вашу тематику, а потом расширить их дополнительными запросами и сформировать структуру сайта.

Почему именно такая методология? Все просто: при таком подходе к подбору семантического ядра вы
а) будете контролировать процесс сбора семантики и не "закопаетесь" в уйме ключевых слов
б) вам практически не придется чистить семантическое ядро вручную
в) Это быстрее, чем любая другая методология.

Давайте раз и навсегда разберемся в терминологии, которую наша команда использует при работе с семантикой

Фактически есть 2 типа запросов: маркерные запросы и запросы из облака ключевых слов

Маркерные запросы

Маркерные запросы - это запросы, которые четко отвечают продвигаемой странице. Такие запросы обычно имеют значимую частотность по Wordstat и являются средне-частотными (СЧ), или "жирными" низкочастотниками (НЧ), и могут породить "хвост" запросов, например при добавлении слов "купить", "цена", "отзывы".

Примеры:
Платья
Красные платья
Красные платья в пол

Телевизоры
Телевизоры Samsung
Телевизоры Самсунг
LED телевизоры Samsung

Стиральные машины
Стиральные машины для дачи
Стиральные машины шириной 40 см

Другими словами, эти ключевые слова часто являются названием страниц/категорий/статей/карточек товара и прочих типов страниц, которые вообще можно продвигать в поисковых системах.

Часто задаваемые вопросы про маркеры:

Q: Могут ли для страницы быть несколько маркеров?

A: Да - конечно - это довольно частый случай.

Например, на одну страницу могут идти такие маркеры как:
Телевизоры Samsung
Телевизоры Samsung купить
Телевизоры Самсунг
Телевизоры Самсунг купить
Телевизоры самсунг цена

Все эти запросы четко отвечают одной странице
Так же на одну страницу могут идти два маркера-синонима, не связанных лингвистически:

Спецоджеда
Рабочая одежда

Электроплита бош
электрическая плита bosch

Это вполне нормально и логично.

НЕ маркеры - облако запросов. Это все второстепенные запросы, которые уточняют маркерные запросы - т.е. по факту это маркеры + 1/2/3 слова или синонимы маркеров. Как правило запросы из облака - менее частотные и поэтому мы будем привязывать их к маркерам

Как найти маркерные запросы?

Сразу скажем, что получить маркерные запросы для сайта любого объема ПОЛНОСТЬЮ автоматически не получится по ряду причин. Это на данный момент основной фронт ручной работы при подборе семантики. Мы работаем над автоматизированным алгоритмом и сообщим вам о его выходе.

Вариант №1: можно получить маркеры для страниц своего сайта из Яндекс Метрики 2.0 - как это сделать - детально описано в этой статье . Плюсы такого метода - что вы сразу будете знать релевантные URL для этих запросов.

Вариант №2 : Берем названия категорий/услуг своего сайта и расширяем их логическими гипотезами:
"Как, по каким запросам пользователи еще могут искать эту страницу моего сайта? Какие есть синонимы?"

NB!: Отличным подспорьем в определении маркеров является старый добрый Яндекс Wordstat, при всех его недостатках. Рекомендуем использовать браузерный плагин Yandex Wordstat Assistant от компании Semantica - очень удобный - выполняет роль своего рода "заметок на полях" - в него можно в один клик добавить интересующие слова.

Мы понимаем, что не у каждого оптимизатора/владельца бизнеса есть под рукой департамент разработки, который быстро сможет выгрузить для сайта связку URL - название категории/страницы.

Что такое связка URL-название категории/страницы?

Поэтому есть 3 варианта как получить связку URL - название категории/страницы:

  1. Запросить у программистов - идеальный:)
  2. Самому спарсить это с сайта. В этом поможет отличный и простой инструмент - Screaming Frog (официальный сайт Screaming Frog). Это парсер сайта, который в итоге отдаст вам в формате Excell таблицу вида URL - заголовок H1 (это и есть название категории/страницы).
  3. Если структура сайта еще только проектируется - резонно вручную придумать связки URL-название категории.

Фактически маркеры для вашего сайта будут состоять из:

  1. Запросов, выгруженных из Яндекс Метрики
  2. Названий категорий/страниц, взятых с сайта
  3. Расширений названий категорий/страниц т.е. логических гипотез

Важно выполнить эту часть работы по подбору семантического ядра максимально тщательно т.к. если вы потеряете большую часть маркеров - вы потеряете большую часть семантического ядра.

Часто задаваемые вопросы по подбору маркеров:

Q: У меня большой сайт и маркеров сотни или тысячи - как быть?!

A: В таком случае нужно работать итерациями, собирая семантику начиная с самых приоритетных категорий.
Реалии таковы, что собрать семантику для большого интернет-магазина или портала "за раз" невозможно - вы просто "закопаетесь".
Определите самые приоритетные категории по принципу самой высокой маржинальности и принципу сезонности - эффективнее всего начинать продвигать категории за 6 месяцев до их пикового сезонного спроса. Сезонность можно оценить в Яндекс Wordstat. Пример запроса:


Q: На сколько низкочастотное слово может быть маркером?

A: Здесь все зависит от тематики. В узких тематиках даже ключевые слова с частотностью 15 по кавычкам "" могут быть маркерными запросами. Главное правило - спросите себя - хотел бы мой пользователь видеть отдельную страницу под этот запрос (и связанные с ним?). Удобно ли ему будет пользоваться той структурой, что я создаю?

NB:! Для интернет магазинов нужно сразу же скрестить все маркеры со словами "купить" и "цена" - это тоже будут маркеры. Таким образом все запросы точно попадут на нужные страницы.

Q: Как мне держать маркеры в Excell, чтобы потом мне было удобно с ними работать?

A: Идеальный и единственно правильный вариант - всегда держать связку URL-маркер в Excel - так вы всегда сможете понимать какие маркеры идут на один URL, даже если ваш список перемешается.
В дальнейшем таким образом вы сможете фильтровать целые кластеры, которые идут на одну страницу - это может быть и 10 и 50 ключевых слов. Очень удобно.

Пример правильного оформления маркеров в Excel

Итак, после N времени работы мы собрали маркеры для всего сайта (или части сайта), что дальше?

Естественно, что маркеры, это далеко не полная семантика - теперь нам нужно собрать облако запросов - расширить наше семантическое ядро.

Облако запросов - расширение семантического ядра

Облако запросов - это все ключевые слова, полученные парсингом поисковых подсказок и Яндекс Wordstat по маркерным запросам.

По нашему опыту эффективнее всего получать расширения запросов из поисковых подсказок Яндекса + Google и левой колонки Яндекс Wordstat.

Не потому, что в Rush Analytics есть парсинг только Яндекс Wordstat и поисковых подсказок:)
Потому, что эти источники семантики: а) Обладают максимальной полнотой б) Подсказки изначально трастовый источник семантики т.к. сам Яндекс исправляет орфографию и добавляет в подсказки ТОЛЬКО реальные запросы пользователей. Что нам и нужно.

Часто задаваемые вопросы по сбору облака запросов

Q: У меня есть база Пастухова, есть аккаунт в SeoPult и Sape - там тоже есть ключевые слова - чем они плохи?

A: Если говорить о готовых базах данных (например, База Пастухова), то плохи они вот чем а) непонятно откуда взяты эти запросы - реальные ли это запросы или же это "кривые" запросы горе-оптимизаторов б) Большинство запросов в готовых базах данных банального сгенерированы или уже потеряли актуальность.
SeoPult и Sape можно использовать, чтобы прикинуть свои маркеры - иногда там можно найти интересные ключевые слова

Таким образом, проще собрать свежие и актуальные ключевые слова для своей тематики, чем "копаться в мусоре".

Поверьте - все пригодные запросы этих баз данных есть в Яндекс Wordstat и поисковых подсказках. Мы проверяли.

Итак - у нас есть 2 потенциальных источника семантики - Яндекс Wordstat и поисковые подсказки.

Алгоритм сбора облака запросов

  1. Берем маркерные запросы и собираем по ним левую колонку Яндекса Wordstat.
  2. После сбора ключевых слов - очищаем полученные данные от мусорных и нецелевых запросов.
    В нашем сервисе мы реализовали алгоритм автоматической очистки стоп-слов в Яндекс Wordstat - воспользуйтесь готовыми списками стоп-слов по гео-запросам и списками популярных мусорных слов по различным тематикам. Вы так же можете добавить свой список стоп-слов "под себя".
  3. По полученному списку ключевых слов собираем поисковые подсказки - ставим второй уровень перебора и перебор русского алфавиты.
    Для интернет-магазинов/коммерческих сайтов, у которых в семантике есть иностранные бренды крайне рекомендуем поставить и перебор английского алфавита.
    Для всех сайтов, у которых есть числовые артикулы - рекомендуем поставить перебор цифр.
  4. ВАЖНО: в поисковых подсказках вам будут встречаться нецелевые ключевые слова. Избежать ручной чистки этих слов довольно просто - для этого в Rush Analytics есть функционал стоп-слов, который вырезает нецелевые ключевые слова "на лету" - указав список стоп-слов для вашей тематики - в финальной выгрузке вы получите список только нужных и целевых ключевых слов.

    Тематические списки стоп-слов и гео запросы интегрированы непосредственно в интерфейс Rush Analytics - во все типы проектов (Wordstat, сбор подсказок и в кластеризацию).
  5. После сбора поисковых подсказок вам будет доступен итоговый файл - это как раз то, что нам нужно.

Формируем финальное облако запросов:

Финальное облако запросов будет включать в себя:
а) Ключевые слова, собранные с левой колонки Wordstat
б) Ключевые слова, полученные из поисковых подсказок

Т.е. вам нужно объединить 2 массива данных (2 файла), которые мы получили из поисковых подсказок и из Яндекс Wordstat.
Не забудьте проверить частотность собранных подсказок по Wordstat - это пригодится вам в дальнейшей работе.

Здесь вы должны иметь от нескольких тысяч до нескольких сотен тысяч целевых ключевых слов + знать их частотность по Wordstat. Уже на данном этапе понятно, что собранная база ключевых слов в 10-50 раз превышает то, что имеют конкуренты:)

Построение финальной структуры сайта - кластеризация ключевых слов.

Понятно, что привязать полученное облако запросов к маркерам вручную очень трудоемкая задача, требующая нечеловеческой концентрации и уйму времени. Именно это явилось одной из причин, по которой мы реализовали в Rush Analytics функционал кластеризации запросов по методу подобия выдачи поисковых систем.

Как работает алгоритм кластеризации ключевых слов в Rush Analytics?
Мы собираем ТОП10 результатов поисковый выдачи (Яндекса или Google - на выбор), далее сравниваем - какие запросы имеют несколько (от 3 до 8ми) общих URLв ТОПе и исходя из этих данных автоматически группируем запросы в кластеры.

Часто задаваемые вопросы по кластеризации ключевых слов:

Q: Какая еще цель кластеризации, кроме облегчения рутинной работы по группировке ключевых слов?

A: Кластеризация ключевых слов на основе данных из поисковой выдачи - гарантирует то, что запросы, которые попали в один кластер будут УСПЕШНО продвигаться на одну страницу. Кластеризация по методу подобия ТОПов исключает попадание коммерческих и информационных запросов в один кластер.
Коммерческие запросы никогда не продвинутся на одну страницу с информационными. Частая ошибка при продвижении интернет-магазинов, которая приводит к печальным последствиям - это продвижении коммерческих и информационных запросов на одну страницу.

Q: Почему часть ключевых слов в моем проекте некластеризована?

A: Изначально сервис Rush Analytics создавался для внутренних нужд агентства Rush Agency. Наш основной профиль - продвижение крупных Ecommerce проектов, где основная задача не сгруппировать запросы "абы как", а сгруппировать их так, чтобы они успешно попадали в ТОП поисковой выдачи уже в момент индексации страниц, сделанных под семантику . Таким образом - мы кластеризуем только те ключевые слова, для которых нашлась пара, и которые реально будут продвигаться на одну страницу. Остальные ключевые слова мы оставляем некластеризованными, чтобы не вводить в заблуждение специалистов, которые работают с семантикой.

Q: Почему в кластеризации есть настройки точности? Зачем они?

A: В каждой тематике есть свой, необходимый и достаточный порог схожести выдачи, чтобы получить качественное семантическое ядро. Например при продвижении интернет-магазинов, будет большой проблемой, если при кластеризации запросов ключевые слова "мультиварка Redmond RX500" и "Мультиварка Redmond RX500-1" будут попадать в один кластер - т.к. это разные товары и они должны продвигаться на разные карточки товара. Здесь мы рекомендуем использовать точность = 5
Для инфо-тематик, например, для сайтов скидок или рецептов, такая точность не нужна - здесь задача получить максимальное количество сгруппированных кластеров для написания статей. Для таких сайтов мы рекомендуем точность 3 или 4. А для сайтов в очень конкурентных тематиках, где борьба за ТОП идет в основном по конкурентным ВЧ запросам - мы рекомендуем использовать повышенную точность кластеризации - 6 или 7, а под некластеризованные запросы создавать отдельные страницы.

Q: В чем разница в ваших алгоритмах кластеризации? Какой для какого случая использовать?

A: У нас есть 3 алгоритма кластеризации:

  • Кластеризация с ручными маркерами
  • Кластеризация по Wordstat
  • Комбинированный алгоритм кластеризации (ручные маркеры + Wordstat)

Работают они по одному и тому же базовому принципу - сравнению подобия ТОПов поисковых систем, но предназначены для решения несколько различных задач.

Алгоритм с использование ручных маркеров:

Данный алгоритм эффективнее всего использовать когда у вас есть готовая и довольно разветвленная структура сайта (каталога), и вы наперед знаете все маркеры и вам нужно просто понять по каким запросам вы собираетесь продвигать существующие страницы, а задачи расширения структуры сайта не стоит. В таком случае вы берете свои маркеры (названия категорий/страниц), собираете по ним подсказки, размечаете маркеры как 1, собранное облако как 0 и отправляете на кластеризацию. На выходе вы получите готовую семантику для своих категорий, а слова, которые не привязались к вашей структуре останутся некластеризованными.

Алгоритм кластеризации по Wordstat

Этот алгоритм скорее решает обратную алгоритму ручных маркеров задачу: вы еще не знаете структуры своего сайта и не можете выделить маркеры - вы просто собрали Wordstat, подсказки и частотность по подсказкам. Теперь вам нужно структурировать эту семантику, чтобы получить группы запросов под страницы будущего сайта или будущих категорий существующего сайта. В таком случае алгоритм кластеризации по Wordstat подойдет как нельзя лучше, работает он следующим образом:
Весь список ключевых слов сортируется по убыванию частотности, алгоритм пытается привязать все возможные слова из списка к самому частотному слову и формирует кластер, далее все повторяется итерационно для следующих по частотности ключевых слов.
Не волнуйтесь за то, что ключевые слова могут при первом проходе алгоритма привязаться к неверному кластеру - мы используем алгоритмы машинного обучения, построенные на бинарных деревьях, чтобы предотвратить это:)

Комбинированный алгоритм (ручные маркеры + Wordstat) - сочетает подходы двух предыдущих методов.

Этот алгоритм подходит для задачи одновременного подбора ключевых слов для существующей структуры сайта и ее расширения. Работает он следующим образом: сначала мы пытаемся привязать все возможные запросы к вашим маркерным запросам и формируем готовую структуру, привязанную к вашим маркерам. Далее, все запросы, что не были привязаны к маркерам - сортируются по убыванию частотности и группируются между собой. В результате вы получаете:
а) Готовую семантику для существующих категорий сайта
б) Расширение семантики для вашего сайта.
Мы настоятельно рекомендуем использовать комбинированный алгоритм - он дает наилучший результат.

Финализируем структуру сайта - делаем комбинированную кластеризацию

Так как мы изначально собирали семантику правильно (формируя маркерные запросы для нашего сайта) - будем использовать комбинированный алгоритм кластеризации.

Для выполнения кластеризации ваш список запросов должен выглядеть так:



Где в первой колонке находятся ключевые слова, в второй разметка маркер/не маркер (1/0), а в третьей любая частотность Wordstat (та, которую вы обычно используете для продвижения). Скачать пример файла для загрузки в кластеризатор


Вы можете не фильтровать вручную ключевые слова с частотностью, ниже который вы не работаете с ключевыми словами - такой функционал предусмотрен прямо в проектах по кластеризации. Функционал особенно полезен при кластеризации по Wordstat.


Определение релевантных URL для кластеров.

В результате кластеризации вы получите готовый список кластеров, под которые нужно продвигать страницы вашего сайта. Теперь главный вопрос состоит в принятии решения - на какую страницу продвигать тот или иной кластер.

Мы в Rush Agency, предпочитаем сразу продумывать структуру сайта и URL страниц и сразу привязывать маркерные запросы (а соответственно и кластеры) к страницам. Но это требует большой подготовки и просчета на этапе создания семантики - не всегда на это есть время и ресурсы. Так же для информационных порталов и интернет-магазинов не всегда можно предугадать все поисковые желания пользователей используя логические гипотезы и приходится делать кластеризацию списка ключевых слов используя только частотность Wordstat.

Специально для этого случая - мы предусмотрели функционал автоматического определения релевантных URL для кластеров.

ВАЖНО!: для автоматического определения релевантных URL необходимо ввести адрес вашего сайта при создании проекта по кластеризации

Работает алгоритм следующим образом:

После кластеризации наши алгоритмы проверят, не находится ли ваш сайт уже ТОПе по маркерному запросу - если да, то мы присвоим кластеру и всем его запросам URL вашего сайта, который уже в ТОПе и подсветим его зеленым цветом в веб-интерфейсе и в XLSX выгрузке.

Если ваш сайт не в ТОПе по маркерному запросу - мы попытаемся определить релевантную страницу на вашем сайте используя поиск по вашему сайту с оператором "site:". Найденный URL с вашего сайта будет присвоен кластеру и всем входящим в него запросам. Такие URL имею обычный цвет - черный.

Вместо заключения

В результате, при правильном подходе к созданию семантического ядра, описанном в данном руководстве - вы в кратчайшие сроки получите максимально полное семантическое ядро для вашего сайта. К тому же запросы, сгруппированные по методу подобия поисковой выдачи с большой вероятностью попадут в ТОП выдачи поисковых систем уже в момент индексации (или переиндексации) страниц, на которые они продвигаются.

Успехов при работе с семантическим ядром. Мы рады, что вы с нами и используете наши инструменты, в которые мы вкладываем очень много труда!

Надеемся, что статья оказалась для вас полезной и будем рады, если вы поделитесь ей с друзьями в социальных сетях.

____
Команда Rush Analytics

2014 год в сфере поисковой оптимизации выявил новый тренд - продумывание и сборка семантического ядра. СЯ представляет собой обширный перечень для сайта ключевых запросов, и при его сборке преследуются следующие цели:

    Обнаружить значительное количество НЧ/мНЧ вхождений

    Обнаружить минимально конкурентные запросы

    Максимально охватить ЦА

    Разработать структуру сайта или откорректировать уже имеющуюся

    Повысить хостовые метрики вебсайта

Составление семантического ядра - непростой процесс, который подразделяется на следующие стадии:

    Подготовительный этап

    Определение базовых сегментов вебсайта

    Увеличение перечня

    Оптимизация СЯ

    Деление веб-серверов на кластеры

    Составление перечня лэндинговых страниц

По итогам в структуру ресурса внедряются запросы. Качественно подобранное СЯ представляет собой проработанный каркас сайта с крупным числом лэндинговых страниц.

Ключевые запросы

При подборе «ключевиков» для СЯ нужно подготовить изначальный перечень сегментов сайта согласно созданной структуре, для чего формируются стартовые вхождения, которые характеризуют сайт. Затем в первичный перечень добавляется детальная информация о товаре или услуге согласно ее характеристикам.

Список запросов значительно увеличивается, при этом он содержит только актуальные данные с вебсайта. Комбинации слов из перечная формируют словосочетания, из которых составляется расширенный список первичных запросов.

Расширение перечня запросов

Ключевиков, выработанных этим методом, не хватает, ведь не учитываются пользовательские фразы из поисковых систем. Расширить список запросов можно с помощью сервисов вроде wordstat.yandex.ru, подсказок поисковых систем.

Увеличить список также помогают программы, например KeyCollector.

При подборе данных по спискам вхождений требуется обозначить зону поиска - регион. В дополнение можно узнать и провести анализ продвигаемых конкурентами «ключевиков». Для этого необходимо действовать по алгоритму:

    По расширенному перечню первичных запросов определить сайты-конкуренты. В этом помогут специальные сервисы, среди которых www.engine.seointellect.ru/requests_analyses

    Проверить результаты на их видимость поисковыми системами и учесть данные в будущем. Примеры подобных сервисов: www.megaindex.ru/?tab=siteAnalyze , www.spywords.ru .

    Консолидировать результаты.

Оптимизация СЯ

Сводный файл требует чистки от лишних для сайта вхождений: упоминаний товаров и услуг, отсутствующих на вебсайте, запросов с наименованиями конкурентов и регионами, где товар не распространяется. Все неподходящие запросы необходимо удалить.

Очистить семантическое ядро можно с помощью двух способов.

«Анализ групп» в Key Collector

При запуске Key Collector отобразится список слов и частота их упоминаний в выбранных запросах. Отметьте все неподходящие слова, фразы с упоминанием отмеченных слов выделятся в списке, удалите все лишние вхождения.

Так удатся подчистить СЯ от большей части неподходящих вхождений, но на этом подготовка не заканчивается. Нередко становится нужно убрать часть запросов по выбранному признаку: упоминанию города, региона, определенным вхождениями. Поэтому вам необходимо составить перечень стоп-слов.

Список стоп-слов

Списки стоп-слов подразделяются на общие и специальные. Общие включают запросы по географическому признаку: город, район, регион. То есть, при распространении товара или услуги в регионе, необходимо исключить все запросы с упоминанием регионов в вашем СЯ. Если ваш сайт занимается продажей товара от 10 компаний, то запросы с упоминанием остальных необходимо удалить. Эти стоп-слова определяются при просмотре списка запросов.

Создание списка стоп-слов - дело кропотливое. Упростить себе жизнь можно двумя методами:

    Инструмент «Фильтр» в MS Excel

    Кнопка «Стоп-слова» в Key Collector

После оптимизации ядра список дополняется нужными вхождениями. Необходимо установить эффективность конкретных запросов для привлечения пользовательского трафика и их перспективность.

Подготовка СЯ

Для дальнейшей работы над семантическим ядром необходимо подобрать дополнительную информацию по запросам.

Вам понадобится установить обычную и точную частотности при вводе запроса. Сначала определим термины. Обычная частота - это числовой показатель количества ввода запросов, включающих необходимый, в поисковую систему в любой морфологической форме.

Точная частота же напротив - это число запросов в точной словоформе. У запроса «семантическое ядро» обычная частота - 8381, а точная - 1202. То есть, дословный запрос без других слов и изменений был введен юзерами 1202 раза за месяц, а с дополнениями - 8381 раз, из чего делаем вывод: эффективное продвижение только по точному запросу невозможно.

Геозависимость

Что такое геозависимость запроса? Геозависимыми называют запросы, результат поисковой выдачи которых различается в зависимости от региона. SEO-специалисты нередко обращаются к запросам с геозависимостью, присваивая нужные регионы конкретному сайту.

Коэффициент эффективности запроса

Все необходимые цифры для расчетов могут быть получены с помощью программы Key Collector. Следующий шаг - расчет коэффициента эффективности (КЭ) вхождения при привлечении пользователей на сайт. Рассчитать его можно с помощью следующей формулы:

Коэффициент эффективности (%) = WS«!» * 100 / WS

В данном случае, WS – это обычная частота по wordstat.yandex.ru, а WS«!» – точная частота.

Рассмотрим конкретный расчет КЭ по вхождениям «семантическое ядро» и «создать семантическое ядро»:·

    Запрос «семантическое ядро»: WS – 8381, WS«!» – 1202, КЭ = 14,34%

    Запрос «создать семантическое ядро»: WS – 242 WS«!» – 14, КЭ = 5,78%

Низкий КЭ не значит, что запрос не нуждается в продвижении, но прежде всего стоит сконцентрироваться на наиболее эффективных запросах. В основном, высокий КЭ именно у низкочастотных запросов, то есть конверсия непопулярных запросов выше.

При создании СЯ стоит сначала сконцентрироваться на геозависимых вопросах, а потом переходить к остальным.

Заключение

Обработанные данные формируют семантическое ядро в виде списка с характеристиками запросов. СЯ распределяется по сегментам сайта, а также по параметрам запросов. Проработанное СЯ - это фундамент для продвижения вебсайта в интернете.


Семантическое ядро сайта представляет собой , которые используют пользователи в интернете для поиска услуг, товаров и любой другой информации, которую предлагает данный сайт. Для веб-мастеров, это план действий по продвижению ресурса. В идеальном плане семантическое ядро сайта создается один раз, перед тем, как начать оптимизацию и продвижение.


Семантическое ядро сайта составляется обычно в несколько этапов:

  1. Подбираются всевозможные слова (фразы) подходящие по теме сайта. Вначале можно ограничиться 100 – 200 поисковыми запросами. Для того чтобы знать какие запросы вам подходят, ответьте себе на вопрос «Чему я хочу посвятить свой сайт?»
  2. Расширение семантического ядра за счет ассоциативных запросов
  3. Следует отсеять неподходящие слова. Тут вы отсеиваете те фразы, по которым вы не будете продвигать ваш сайт. Таких слов обычно находится больше половины.
  4. Отсеиваются высококонкурентные запросы, по которым продвигать сайт нет смысла. Как правило, убирается три слова из пяти или более.
  5. И последнее, это правильное распределение списка поисковых запросов на страницах ресурса. Рекомендуется высококонкурентные запросы оставлять на главной странице ресурса, менее конкурентные необходимо группировать по смыслу и располагать на других страницах. Для этого нужно создать в Exel документ и разбить ключевые слова по страницам.

Подбор поисковых запросов и проверка частотности

Первое, что нужно сделать, это собрать как можно больше всевозможных запросов по вашей теме, которые интересуют пользователей в Сети. Для этого существует два метода:

  • Бесплатные, в которые входят: Wordstat Yandex, Словоеб, дедовский способ, подсказки от Google (External Keyword Tool), анализ семантики конкурентов и поисковые подсказки.
  • Платные которые включают Key Collector, Semrush, базы Пастухова и некоторые другие сервисы.

Данные инструменты подходят для различных целей (к примеру, Semrush лучше использовать для буржунета). Конечно, это все можно доверить оптимизаторам, но присутствует вероятность того, что вам составят неполное семантическое ядро.

Многие пользуются для сбора ключевых фраз базу Пастухова, но с Key Collector намного удобнее собирать запросы с сервисов .

На начальном этапе сбор запросов лучше сделать в Excel, это выглядит так:


Если для вашего ресурса важнее будет Google, то акцент делайте на него, но также учитывайте и анализируйте ключевые слова из Яндекса. Еще очень важно собрать длинный хвост низкочастотных запросов, по ним вы получите трафик намного быстрее.

Можно воспользоваться и еще одним вариантом, это узнать ключевые фразы (слова) у конкурентов и воспользоваться ими. На этом этапе вы просто собираете как можно больше ключевых фраз (слов) подходящих по теме вашего ресурса, а затем переходите к следующему этапу – фильтрации.

Анализ запросов, удаление "пустышек"

Этот этап уже проще, здесь надо отфильтровать слова пустышки и те, что не связаны с тематикой сайта. К примеру, у вас доставка обедов в Киеве, а в списке присутствуют другие города.

Как определить пустые запросы? Зайдите в Яндекс Вордстат и введите ключевое слово:


Вы видите 881 показов в месяц, но если точнее определить:


Теперь вырисовывается совсем иная картина. Может это и не лучший пример, но главное, чтобы вы поняли суть. Есть большое число ключевых фраз, по которым виден достаточный трафик, хотя на самом деле там все отсутствует. Вот поэтому нужно и отсеять такие фразы.

К примеру, если человек перед тем (либо после того) как набрать запрос «доставка обедов» прописывал в поисковой строке еще какую-либо фразу (называется одна сессия поиска), то Yandex делает предположение, что эти фразы поиска как-то взаимосвязаны. Если такая взаимосвязь наблюдается у нескольких человек, то такие ассоциативные запросы показываются в правой колонке wordstat.


Такие поисковые запросы сортируются в окошке wordstat в порядке убывания частотности их ввода в связке с основным запросом в этом месяце (показывается частота их употребления в поисковике Яндекса). Вам надо воспользоваться такой информацией, чтобы расширить семантическое ядро вашего ресурса.

Распределение запросов по страницам

После этого необходимо распределить собранные вами ключевые слова (фразы) на страницах вашего сайта. Распределение проводить намного проще, когда у вас еще нет самих страниц.

Ориентируйтесь, прежде всего, на ключевые слова в поисковых запросах и их частотность. С конкурентностью следует поступить так: главную страницу выделите для одного-двух высококонкурентных запросов.

Для среднеконкурентных или низкоконкурентных запросов, оптимизируйте соответственно страницы разделов и статей.

Если в поисковых запросах присутствует семантическое сходство, просто соберите одинаковые фразы и определите их в одну группу. При составлении ключевых слов для продвижения ресурса всегда используйте не только стандартные инструменты, но и творческий подход.

Сочетая нестандартные и классические способы можно просто и быстро создать семантическое ядро сайта, подобрать наиболее оптимальную стратегию раскрутки и намного быстрее достигнуть успеха!

Семантическое ядро — это страшное название, которое придумали SEOшники для обозначения довольно простой вещи. Нам надо просто подобрать ключевые запросы, по которым мы будем продвигать наш сайт.

И в этой статье я покажу вам, как правильно составить семантическое ядро, чтобы ваш сайт побыстрее вышел в ТОП, а не топтался месяцами на месте. Тут тоже есть свои «секретики».

И прежде чем мы перейдем к составлению СЯ, давайте разберем, что это такое, и к чему мы в итоге должны прийти.

Что такое семантическое ядро простыми словами

Как это ни странно, но семантическое ядро — это обычный excel файл, в котором списком представлены ключевые запросы, по которым вы (или ваш копирайтер) будете писать статьи для сайта.

Вот как, например, выглядит мое семантическое ядро:

Зеленым цветом у меня помечены те ключевые запросы, по которым я уже написал статьи. Желтым — те, которым статьи собираюсь написать в ближайшее время. А бесцветные ячейки — это значит, что до этих запросов дело дойдет немного позже.

Для каждого ключевого запроса у меня определена частотность, конкурентность, и придуман «цепляющий» заголовок. Вот примерно такой же файл должен получиться и у вас. Сейчас у меня СЯ состоит из 150 ключевиков. Это значит, что я обеспечен «материалом» минимум на 5 месяцев вперед (если даже буду писать по одной статье в день).

Чуть ниже мы поговорим о том, к чему вам готовиться, если вы вдруг решите заказать сбор семантического ядра у специалистов. Здесь скажу кратко — вам дадут такой же список, но только на тысячи «ключей». Однако, в СЯ важно не количество, а качество. И мы с вами будем ориентироваться именно на это.

Зачем вообще нужно семантическое ядро?

А в самом деле, зачем нам эти мучения? Можно же, в конце концов, просто так писать качественные статьи, и привлекать этим аудиторию, правильно? Да, писать можно, а вот привлекать не получится.

Главная ошибка 90% блогеров — это как раз написание просто качественных статей. Я не шучу, у них реально интересные и полезные материалы. Вот только поисковые системы об этом не знают. Они же не экстрасенсы, а всего лишь роботы. Соответственно они и не ставят вашу статью в ТОП.

Здесь есть еще один тонкий момент с заголовком. Например, у вас есть очень качественная статья на тему «Как правильно вести бизнес в «мордокниге». Там вы очень подробно и профессионально расписываете все про фейсбук. В том числе и то, как там продвигать сообщества. Ваша статья — самая качественная, полезная и интересная в интернете на эту тему. Никто и рядом с вами не валялся. Но вам это все равно не поможет.

Почему качественные статьи вылетают из ТОПа

Представьте, что на ваш сайт зашел не робот, а живой проверяльщик (асессор) с Яндекса. Он понял, что у вас самая классная статья. И рукам поставил вас на первое место в выдаче по запросу «Продвижение сообщества в фейсбук».

Знаете, что произойдет дальше? Вы оттуда все равно очень скоро вылетите. Потому что по вашей статье, даже на первом месте, никто не будет кликать. Люди вводят запрос «Продвижение сообщества в фейсбук», а у вас заголовок — «Как правильно вести бизнес в «мордокниге». Оригинально, свежо, забавно, но… не под запрос. Люди хотят видеть именно то, что они искали, а не ваш креатив.

Соответственно, ваша статья будет вхолостую занимать место в ТОП выдачи. И живой асессор, горячий поклонник вашего творчества, может сколько угодно умолять начальство оставить вас хотя бы в ТОП-10. Но не поможет. Все первые места займут пустые, как шелуха от семечек, статейки, которые друг у друга переписали вчерашние школьники.

Зато у этих статей будет правильный «релевантный» заголовок — «Продвижение сообщества в фейсбук с нуля» (по шагам, за 5 шагов, от А до Я, бесплатно и пр.) Обидно? Еще бы. Ну так боритесь против несправедливости. Давайте составим грамотное семантическое ядро, чтобы ваши статьи занимали заслуженные первые места.

Еще одна причина начать составлять СЯ прямо сейчас

Есть еще одна вещь, о которой почему-то люди мало задумываются. Вам надо писать статьи часто — как минимум каждую неделю, а лучше 2-3 раза в неделю, чтобы набрать побольше трафика и побыстрее.

Все это знают, но почти никто этого не делает. А все потому, что у них «творческий застой», «никак не могут себя заставить», «просто лень». А на самом деле вся проблема именно в отсутствие конкретного семантического ядра.

Я ввел в поле поиска один из своих базовых ключей — «smm», и Яндекс тут же выдал мне с десяток подсказок, что еще может быть интересно людям, которым интересно «smm». Мне остается только скопировать эти ключи в блокнотик. Потом я точно так же проверю каждый из них, и соберу подсказки еще и по ним.

После первого этапа сбора СЯ у вас должен получиться текстовый документ, в котором будет 10-30 широких базовых ключей, с которыми мы и будем работать дальше.

Шаг #2 — Парсинг базовых ключей в SlovoEB

Конечно, если вы напишите статью под запрос «вебинар» или «smm», то чуда не произойдет. Вы никогда не сможете выйти в ТОП по такому широкому запросу. Нам надо разбить базовый ключ на множество мелких запросов по этой теме. И делать это мы будем с помощью специальной программы.

Я использую KeyCollector, но он платный. Вы можете воспользоваться бесплатным аналогом — программой SlovoEB. Скачать её вы можете с официального сайта.

Самое сложное в работе с этой программой — это её правильно настроить. Как правильно настроить и использовать Словоеб я показываю . Но в той статье я упор делаю на подбор ключей для Яндекс-Директа.

А тут давайте по шагам посмотрим особенности использования это программы для составления семантического ядра под SEO.

Сначала создаем новый проект, и называем его по тому широкому ключу, который хотите парсить.

Я обычно даю такое же название проекту, как и мой базовый ключ, чтобы потом не запутаться. И да, предупрежу вас еще от одной ошибки. Не пытайтесь парсить все базовые ключи одновременно. Вам потом будет очень сложно отфильтровать «пустые» ключевые запросы от золотых крупиц. Давайте парсить по одному ключу.

После создания проекта — проводим базовую операцию. То есть мы собственно парсим ключ через Яндекс Вордстат. Для этого нажмите на кнопку «Ворстат» в интерфейсе программы, впишите ваш базовый ключ, и нажмите «Начать сбор».

Для примера, давайте распарсим базовый ключ для моего блога «контекстная реклама».

После этого запустится процесс, и через некоторое время программа нам выдаст результат — до 2000 ключевых запросов, в которых содержится «контекстная реклама».

Так же рядом с каждым запросом будет стоять «грязная» частотность — сколько раз этот ключ (+ его словоформы и хвосты) искали в месяц через яндекс. Но не советую делать никаких выводов из этих цифр.

Шаг #3 — Сбор точной частотности для ключей

Грязная частотность нам ничего не покажет. Если вы будете на неё ориентироваться, то не удивляйтесь потом, когда ваш ключ на 1000 запросов не приносит ни одного клика в месяц.

Нам надо выявить чистую частотность. И для этого мы сначала выделяем все найденные ключи галочками, а потом нажимаем на кнопочку «Яндекс Директ» и снова запускаем процесс. Теперь Словоеб будет нам искать точную частоту запроса в месяц для каждого ключа.

Теперь у нас есть объективная картина — сколько раз какой запрос вводили пользователи интернета за последний месяц. Предлагаю теперь сгруппировать все ключевые запросы по частотности, чтобы с ними было удобнее работать.

Для этого нажимаем на значок «фильтр» в столбце «Частота «!» », и указываем — отфильтровать ключи со значением «меньше или равно 10».

Теперь программа покажет вам только те запросы, частотность которых меньше или равна значению «10». Эти запросы вы можете удалить или скопировать на будущее в другую группу ключевых запросов. Меньше 10 — это очень мало. Писать статьи под эти запросы — пустая трата времени.

Сейчас нам надо выбрать те ключевые запросы, которые принесут нам более или менее хороший трафик. И для этого нам надо выяснить еще один параметр — уровень конкурентности запроса.

Шаг #4 — Проверка конкурентности запросов

Все «ключи» в этом мире делятся на 3 типа: высокочастотные (ВЧ), среднечастотные (СЧ), низкочастотные (НЧ). А еще они могут быть выосококонкурнетными (ВК), среднеконкурентными (СК) и низкоконкурентными (НК).

Как правило, ВЧ запросы являются одновременно и ВК. То есть если запрос часто ищут в интернете, то и сайтов, которые хотят по нему продвигаться — очень много. Но это не всегда так, бывают счастливые исключения.

Искусство составления семантического ядра как раз и заключается в том, чтобы найти такие запросы, которые имеют высокую частотность, а уровень конкуренции у них низкий. Вручную определить уровень конкуренции очень сложно.

Можно ориентироваться на такие показатели, как количество главных страниц в ТОП-10, длина и качество текстов. уровень траста и тиц сайтов в ТОП выдачи по запросу. Все это даст вам некоторое представление о том, насколько жесткая борьба за позиции для этого конкретного запроса.

Но я рекомендую вам воспользоваться сервисом Мутаген . Он учитывает все парметры, о которых я сказал выше, плюс еще с десяток, о которых ни вы, ни я наверное даже не слышали. После анализа сервис выдает точное значение — какой уровень конкуренции у данного запроса.

Здесь я проверил запрос «настройка контекстной рекламы в google adwords». Мутаген показал нам, что у этого ключа конкурентность «более 25» — это максимальное значение, которое он показывает. А просмотров у этого запроса всего 11 в месяц. Значит нам он точно не подходит.

Мы можем скопировать все ключи, которые подобрали в Словоеб, и сделать массовую проверку в Мутаген. После этого нам останется только просмотреть список и взять те запросы, у которых много запросов и низкий уровень конкуренции.

Мутаген — это платный сервис. Но 10 проверок в сутки вы можете сделать бесплатно. Кроме того, стоимость проверки очень низкая. За все время работы с ним я еще не истратил и 300 рублей.

Кстати, на счет уровня конкуренции. Если у вас молодой сайт, то лучше выбирать запросы с уровнем конкуренции 3-5. А если вы раскручиваетесь уже более года, то можно брать и 10-15.

Кстати, на счет частотности запросов. Нам сейчас надо сделать заключительный шаг, который позволит вам привлекать достаточно много трафика даже по низкочастотным запросам.

Шаг #5 — Сбор «хвостов» для выбранных ключей

Как уже много раз было доказано и проверено, основной объем трафика ваш сайт будет получать не от основных ключей, а от так называемых «хвостов». Это когда человек вводит в поисковую строку странные ключевые запросы, с частотностью 1-2 в месяц, но таких запросов очень много.

Чтобы увидеть «хвост» — просто зайдите в Яндекс и введите выбранный вами ключевой запрос в строку поиска. Вот что вы примерно увидите.

Теперь вам надо просто выписать эти дополнительные слова в отдельный документ, и использовать их в своей статье. При чем не надо ставить их всегда рядом с основным ключом. Иначе поисковые системы увидят «переоптимизацию» и ваши статьи упадут в выдаче.

Просто используйте их в разных местах вашей статьи, и тогда вы будете получать дополнительный трафик еще и по ним. Еще бы я вам рекомендовал постараться использовать как можно больше словоформ и синонимов для вашего основного ключевого запроса.

Например, у нас есть запрос — «Настройка контекстной рекламы». Вот как можно его переформулировать:

  • Настройка = настроить, сделать, создать, запустить, запуск, включить, разместить…
  • Контекстная реклама = контекст, директ, тизер, РСЯ, адвордс, кмс. direct, adwords…

Никогда не знаешь, как именно люди будут искать информацию. Добавьте все эти дополнительные слова к себе в семантическое ядро, и используйте при написании текстов.

Вот так, мы собираем список из 100 — 150 ключевых запросов. Если вы составляете семантическое ядро впервые, то у вас может уйти на это несколько недель.

А может ну его, глаза ломать? Может есть возможность делегировать составления СЯ специалистам, которые сделают это лучше и быстрее? Да, такие специалисты есть, но пользоваться их услугами нужно не всегда.

Стоит ли заказывать СЯ у специалистов?

По большому счету специалисты по составлению семантического ядра сделают вам только шаги 1 — 3 из нашей схемы. Иногда, за большую дополнительную плату, сделают и шаги 4-5 — (сбор хвостов и проверку конкурентности запросов).

После этого они выдадут вам несколько тысяч ключевых запросов, с которыми вам дальше надо будет работать.

И вопрос тут в том, собираетесь ли вы писать статьи самостоятельно, или наймете для этого копирайтеров. Если вы хотите делать упор на качество, а не на количество — то надо писать самим. Но тогда вам будет недостаточно просто получить список ключей. Вам надо будет выбрать те темы, в которых вы разбираетесь достаточно хорошо, чтобы написать качественную статью.

И вот тут встает вопрос — а зачем тогда собственно нужны специалисты по СЯ? Согласитесь, распарсить базовый ключ и собрать точные частотности (шаги #1-3) — это совсем не сложно. У вас уйдет на это буквально полчаса времени.

Самое сложное — это именно выбрать ВЧ запросы, у которых низкая конкуренция. А теперь еще, как выясняется, надо ВЧ-НК, на которые вы можете написать хорошую статью. Вот именно это займет у вас 99% времени работы над семантическим ядром. И этого вам не сделает ни один специалист. Ну и стОит ли тратиться на заказ таких услуг?

Когда услуги специалистов по СЯ полезны

Другое дело, если вы изначально планируете привлекать копирайтеров. Тогда вам необязательно разбираться в теме запроса. Копирайтеры ваши тоже не будут в ней разбираться. Они просто возьмут несколько статей по этой теме, и скомпилируют из них «свой» текст.

Такие статьи будут пустыми, убогими, почти бесполезными. Но их будет много. Самостоятельно вы сможете писать максимум 2-3 качественные статьи в неделю. А армия копирайтеров обеспечит вам 2-3 говнотекста в день. При этом они будут оптимизированы под запросы, а значит будут привлекать какой-то трафик.

В этом случае — да, спокойно нанимайте специалистов по СЯ. Пусть они вам еще и ТЗ для копирайтеров составят заодно. Но сами понимаете, это тоже будет стоить отдельных денег.

Резюме

Давайте еще раз пробежимся по основным мыслям в статье для закрепления информации.

  • Семантическое ядро — это просто список ключевых запросов, под которые вы будете писать статьи на сайт для продвижения.
  • Необходимо оптимизировать тексты под точные ключевые запросы, иначе ваши даже самые качественные статьи никогда не выйдут в ТОП.
  • СЯ — это как контент-план для социальных сетей. Он помогает вам не впадать в «творческий кризис», и всегда точно знать, о чем вы будете писать завтра, послезавтра и через месяц.
  • Для составления семантического ядра удобно использовать бесплатную программу Словоеб, надо только её .
  • Вот пять шагов составления СЯ: 1 — Подбор базовых ключей; 2 — Парсинг базовых ключей; 3 — Сбор точной частотности для запросов; 4 — Проверка конкурентости ключей; 5 — Сбор «хвостов».
  • Если вы хотите сами писать статьи, то лучше сделайте семантическое ядро самостоятельно, под себя. Специалисты по составлению СЯ не смогут здесь вам помочь.
  • Если вы хотите работать на количество и использовать копирайтеров для написания статей, то вполне можно привлечь делегировать и составления семантического ядра. Лишь бы на все хватило денег.

Надеюсь, эта инструкция была вам полезна. Сохраняйте её в избранное, чтобы не потерять, и поделитесь с друзьями. Не забудьте скачать мою книгу . Там я показываю вам самый быстрый путь с нуля до первого миллиона в интернете (выжимка из личного опыта за 10 лет =)

До скорого!

Ваш Дмитрий Новосёлов

Учитывая постоянную борьбу поисковых систем с различными накрутками ссылочных факторов, правильная структура сайта всё больше выходит на первый план при проведении поисковой оптимизации сайта.

Один из основных ключей для грамотной проработки структуры сайта — является максимально детальная проработка семантического ядра.

На данный момент, существует достаточно большое количество общих инструкций как делать семантическое ядро, поэтому в данном материале, мы постарались дать больше деталей, как именно его делать и как это делать с минимальными затратами времени.

Мы подготовили руководство, которое отвечает пошагово на вопрос, как создать семантическое ядро сайта. С конкретными примерами и инструкциями. Применив которые, вы сможете самостоятельно создавать семантические ядра для продвигаемых проектов.

Поскольку данный пост достаточно практический, то очень много различной работы будет выполнено через Key Collector , так как он довольно много экономит времени при работе с семантическим ядром.

1. Формирование генерирующих фраз для сбора

Расширяем фразы для парсинга одной группы

Для каждой группы запросов очень желательно сразу расширить синонимами и другими формулировками.

Например, возьмем запрос “купальники для плавания” и получим еще различные переформулировки с помощью следующих сервисов.

Wordstat.Yandex — правая колонка

В итоге для заданной изначально фразы мы еще можем получить по 1-5 других различных пере формулировок по которым дальше необходимо будет собирать запросы в рамках одной группы запросов.

2. Сбор поисковых запросов из различных источников

После того как мы определили все фразы в рамках одной группы переходим к сбору данных из различных источников.

Оптимальный набор источников парсинга для получение максимально качественных данных на выходе для рунета это:

● Wordstat.Yandex — левая колонка

● Поисковые подсказки Yandex + Google (с перебором по окончаний и подстановки букв перед заданной фразой)

Подсказка : если вы не используете при своей работе прокси, то для того чтобы ваш IP не банился поисковыми системами, то желательно использовать такие задержки между запросами:

● Кроме этого, также желательно в ручном режиме импортировать данные из база данных Prodvigator’а.

Для буржунета используем тоже самое, кроме данных из Wordstat.Yandex и данных по поисковым подсказкам ПС Yandex:

● Поисковые подсказки Google (с перебором по окончаний и подстановки букв перед заданной фразой)

● SEMrush — соответствующая региональная база

● аналогично используем импорт из база данных Prodvigator’а.

Кроме этого если ваш сайт уже собирает поисковый трафик, то для общего анализа поисковых запросов в вашей теме желательно выгрузить и все фразы из Yandex.Metrika и Google Analytics:

И уже для конкретного анализа нужной группы запросов можно с помощью фильтров и регулярных выражений вычленить те запросы, которые нужны для анализа конкретной группы запросов.

3. Чистка запросов

После того как все запросы собраны нужно провести предварительную чистку полученного семантического ядра.

Чистка с готовыми списками стоп слов

Для этого желательно сразу воспользоваться готовыми списками стоп слов как общими, так и специальными по вашей тематики.

Например, для коммерческой тематики такими фразами будут:

● бесплатно, скачать, …

● рефераты, википедия, вики, …

● б/у, старые, …

● работа, профессия, вакансии, …

● сонник, сон, …

● и другие такого плана.

Кроме этого, сразу чистим от всех городов России, Украины, Белоруссии, … .

После того как мы загрузили весь список своих стоп слов, то выбираем опцию тип поиска вхождений “независимый от словоформы стоп-слова” и нажимаем “Отметить фразы в таблице”:

Таким образом мы удаляем очевидные фразы с минус словами.

После того как мы прочистили от очевидных стоп слов, дальше уже необходимо просмотреть семантическое ядро в ручном режиме.

1. Один из быстрых способов это: когда мы встречаем фразу с очевидными не подходящими для нас словами, например, бренд который мы не продаем, то мы

● напротив такой фразы нажимаем слева на указанную иконку,

● выбираем стоп слова,

● выбираем список (желательно создать отдельный список и назвать его соответственно),

● сразу, по необходимости, можно выделить все фразы которые содержат указанные стоп слова,

● добавить в список стоп-слов

2. Второй способ быстро выявить стоп-слова это воспользоваться функционалом “Анализа групп”, когда мы группируем фразы по словам которые входят в эти фразы:

В идеале, чтобы повторно не возвращаться к определенным стоп словам желательно все отмеченные слова занести в определенный список стоп слов.

в итоге, мы получим список слов для отправки в список стоп слов:

Но, желательно, данный список также быстро посмотреть, чтобы туда не попали не однозначные стоп слова.

Таким образом можно быстро пройтись по основным стоп словам и удалить фразы, которые содержат данные стоп слова.

Чистка неявных дублей

● сортируем по убыванию частоты для этой колонки

В итоге оставляем только самые частотные фразы в таких подгрупках, а всё другое удаляем.

Чистка фраз, которые не несут особой смысловой нагрузки

Кроме вышеперечисленной чистки слов, также можно удалить фразы которые не несут особой смысловой нагрузки и не особо повлияют на поиск групп фраз под создание отдельных посадочных страниц.

Например, для интернет магазинов можно удалить такие фразы, которые содержат следующие ключевые слова:

● купить,

● продажа,

● интернет магазин, … .

Для этого мы создаем еще один список в Стоп-словах и заносим данные слова в этот список, отмечаем и удаляем со списка.

4. Группировка запросов

После того как мы вычистили от самых очевидных мусорных и неподходящих фраз, дальше можно уже приступать к группировке запросов.

Это можно делать в ручном режиме, а можно воспользоваться некой помощью от поисковых систем.

Собираем выдачу по нужной поисковой системе

В теории лучше собирать по нужному региону в ПС Google

● Google достаточно хорошо понимает семантику

● его легче собирать, не так банит различные прокси

Нюансы: даже для украинских проектов лучше собирать выдачу по google.ru, так как там сайты лучше выстроены по структуре, поэтому, проработку по посадочным страницам получим значительно лучше.

Сбор таких данных можно производить

● так и с помощью других инструментов.

Если у вас достаточно много фраз, то для сбора данных выдаче поисковых систем тут уже явно понадобятся прокси. Оптимально по скорости сбора и работы показывает связка A-Parser’a + прокси (как платные, так и бесплатные).

После того как мы собрали данные выдачи, то теперь производим группировку запросов. Если вы собрали данные в Key Collector, то дальше можете произвести группировку фраз прямо в нём:

Нам не очень нравиться как это делает KC поэтому у нас свои наработки, которые позволяют получить значительно лучше результаты.

В итоге, с помощью такой группировки нам удается довольно быстро объединить запросы с разной формулировкой, но с одной проблемой пользователей:

В итоге, это приводит к хорошей экономии времени финальной обработки семантического ядра.

Если у вас нет возможности самому собирать выдачу с помощи прокси, то можно воспользоваться различными сервисами:

Они помогут вам в быстрой группировке запросов.

После такой кластеризации на основе данных выдачи в любом случае нужно проводить дальнейший детальный анализ каждой группы и объединять похожие по смыслу.

Например, такие группы запросов в итоге нужно объединить на одну страницу сайта

Самое главное: каждая отдельная страница на сайте должна соответствовать одной потребности пользователей.

После такой обработки семантики на выходы мы должны получить максимально подробную структуру сайта:

● информационные запросы

Например, в случае с купальниками мы можем сделать вот такую структуру сайта:

которые будут содержать свои title, description, текст (за надобностью) и товары/услуги/контент.

В итоге, после того как мы уже детально разгрупировали все запросы, можно уже приступить к детальному сбору всех ключевых запросов в рамках одной группы.

Для быстрого сбора фраз в Key Collector мы:

● отбираем основогенерирующие фразы для каждой группы

● заходим, например, в парсинг подсказок

● выбираем распределить по группам

● выбираем из выпадающего списка “Скопировать фразы из” Yandex.Wordstat

● нажимаем Копировать

● и начинаем сбор данных из другого уже источника, но по тем же распределенным фразам в рамках групп.

В итоге

Давайте рассмотрим теперь цифры.

Для темы “купальники” изначально из всех источников нами было собрано больше 100 000 различных запросов.

На этапе чистки запросов нам удалось сократить кол-во фраз на 40%.

После этого мы собрали частотность по Google AdWords и для анализа оставили только те которые были с частотностью больше 0.

После этого мы сделали группировку запросов на основе выдачи ПС Google и нам удалось получить около 500 групп запросов в рамках которых мы уже проводили детальный анализ.

Заключение

Надеемся, что данное руководство поможет вам значительно быстрее и качественнее собирать семантические ядра для своих сайтов и пошаговое ответит на вопрос как собрать семантическое ядро для сайта.

Удачного сбора семантических ядер, и в результате качественного трафика на ваши сайты. Если у вас остались вопросы будем рады на них ответить в комментариях.

(78 оценок, средняя: 4,90 из 5)