Составление ядра. Как удалить лишние ключевые слова. Статистика ключевых слов Yandex wordstat

Как составить семантическое ядро сайта

Здравствуйте, уважаемые читатели блога. Данная статья написана в рамках марафона. Напомню, что мы учимся создавать сайты под РСЯ и зарабатывать на них. Присоединиться к нам можно в любой момент – все подробности в статьях по тегу «марафон». Ищите на блоге.

Как составить семантическое ядро сайта? Давайте разбираться

Как обычно, перед тем, как мы перейдем непосредственно к практике, мне хотелось бы высказать несколько теоретических мыслей, дать свое понимание этого вопроса.

Составлять семантическое ядро сайта не так сложно, как вы можете подумать. Это всего-навсего рутинная, «нудная» работа. Но никак не сложная, сверхсекретная.

Для успешной работы вы обязательно . Напомню, что там мы составили подразделы своего будущего сайта, причем сделали это максимально подробно.

Чем подробнее и качественнее выполнен предыдущий урок, тем легче вам будет справиться с этим. Если же там сделано 2-3 раздела – обязателньо уделите время тому материалу. Сейчас вы поймете, почему это важно.

Какие программы нужны для составления ядра?

Я пользуюсь всего лишь двумя программами/сервисами:

  1. Key collector;
  2. Сервис rooke.ru

При помощи Кей Коллектора мы парсим нужные ключевые слова, формируем группы этих слов для написании статей.

Сервисом руки мы анализируем конкурентов.

Мне вполне достаточно этих инструментов. Замечу, что платный Key collector вполне можно заменить программой Словоёб. Выбирайте сами, что использовать.

Key collector: работа с семантическим ядром

Признаться, я не представляю, как работал без этой программы ранее. Собственно, она за вас делает всю рутинную работу, вам же остается нажать несколько кнопок, отбросить мусор, скопировать отчет с хорошими кеями под статью. Давайте разбираться.

Я привык все показывать на примерах. Так оно сильно понятнее. Тем более, если это касается работы с программами/сервисами.

В предыдущем уроке мы рассматривали в качестве примера тематику «канализация». Далеко от нее отходить не будем и сейчас.

К примеру, нам нужно подобрать ключи под написание статей для этой части нашего ядра.

Нужно составить семантическое ядро раздела

Парсим это ключевое слово в кей коллекторе (обязательно собираем все виды частотностей).

Отчетливо видим группы запросов, именно под них мы и будем писать статьи в дальнейшем.

В данном случае это запрос «трос для прочистки канализации» , следующим основным запросом группы будет «прочистка засоров канализации» и так далее сверху-вниз.

Когда сделали парсинг, нужно отбросить «ключи-пустышки»: это те ключевые слова, точная частотность которых меньше либо равна «!5» (данный параметр зависит от трафика тематики, может быть увеличен или уменьшен). А также убираем ключи, явно не подходящие, под вашу статью (другие города, слова-амонимы и т.п).

Отбрасываем запросы-пустышки

Оставшиеся ключи сортируем по убыванию (вверху у нас находится самый частотный ключ группы).

Минутку внимания:)

Наверняка, Вам интересен дополнительный заработок в Интернете.
Предлагаю инструменты, которые несколько лет использую сам:


Сохраняем проект, экспортируем ключи в эксель файл. На основе их мы будем писать статью в дальнейшем.

Экспорт в Эксель

Я описал подробный процесс составления семантического ядра сайта, повторюсь, когда вы «набьете руку», соберете ни одну сотню запросов, можно парсить только более-менее частотные ключи, и на основании их сразу уже выписывать темы для статей, нужные ключевые сова для них. Но изначально лучше все делать, так как описано: подробно и пошагово.

Однако, для того, чтобы понять, как писать статью (какой объем, сколько раз повторять ключ и т.п.), нам мало знать ключевые запросы под нее, нужно еще проанализировать конкурентов.

Делаем это при помощи выше упомянутого сервиса rooke.ru.

Анализ конкурентов при помощи сервиса rooke.ru

Перед тем, как делать анализ, нам нужно установить необходимые настройки. Замечу, что система позволяет делать анализ конкурентов абсолютно бесплатно.

Начало создания РК в rookee

В поле адрес сайта указываем любой сайт: можно ваш блог, можно создаваемый сайт под РСЯ – разницы нет.

Затем нужно выбрать приоритетную поисковую систему. В нашем случае выбираем Яндекс, так как именно под эту поисковую систему мы делаем свой сайт, и продвигаться также будем под нее.

Процесс создания РК

Выберите и тематику сайта.

Выбираем нужное

Система прогнозирует бюджет на продвижение, считает количество посетителей.

Переходим в нашу рекламную компанию. Добавляем нужный запрос (проанализируем конкурентов на основании все тех же КС – «трос для прочистки канализации»). Не забудьте снять галочку, запустить продвижение по добавленным запросам.

Добавляем нужный запрос в систему

Запрос добавлен в систему, затем нам необходимо проанализировать конкурентов. Нажимаем на соответствующую кнопку.

Анализ конкурентов

Нам достаточно собирать следующие параметры (другие не рекомендую, так как будете терять время).

Какие настройки выставлять

Когда система сделала за вас всю работу (просмотрела конкурентов, все просчитала), она выведет результирующий файл.

Самым ленивым (надеюсь, что вы не такие) можно воспользоваться ей.

Из таблицы берем следующие данные: среднее количество символов текста, всего вхождений, точных вхождений.

Система сделала нужный нам анализ

Для тех, кто не боится потратить лишние 30-60 секунд (я это делаю): экспортируем таблицу в эксель, отсеиваем два результата с максимальным объемом символов, и два с минимальным.

На основании шести оставшихся результатов анализируем те же показатели: объем статьи, количество вхождений. Тем самым мы получаем более объективные и реальные данные.

Экспортируем таблицу с конкурентами

Собственно, на этом анализ конкурентов закончен.

У нас есть все данные для составления технического задания на написание статьи копирайтером (ее объем, количество вхождений «основного ключа», НЧ ключи достаточно будет употребить 1 раз).

Как правильно составить семантическое ядро?

Я описал свой опыт составления семантического ядра. Считаю, что он правильный, ибо приносит результаты: трафик на сайт.

Если вкратце описать процессы, можно сказать, что правильный сбор семантического ядра заключается в следующем:

  1. Парсим выдачу;
  2. Отсеиваем не нужные, «пустые» запросы;
  3. На основании наиболее частотного ключа из синонимической группы запросов анализируем конкурентов;
  4. Собираем все данные в один файл (это и есть ваше ядро);
  5. Получаем исходные данные для написания статьи.

Да, не спорю, вам может показаться, что это слишком сложная задача, она будет «забирать» очень много времени, вы не справитесь…

До скорой встречи.

UPD : если Вам лень самим все это делать: вникать в нюансы, покупать Кей Коллектор, то можно заказать семантическое ядро у Вадима Захарова по приятным ценам . Знаю Вадима уже много лет, успешно сотрудничаем все это время.

В прошлой статье я вам рассказал, но, а сегодня пришло время рассказать о том, как составить семантическое ядро сайта при помощи специальных программ и серверов.

Наступает лето и как-то все труднее и тяжелее становиться вести блог, вот и результат статьи выходят редко что вас наверняка не радует. Не правда ли?

Честно сказать дело вовсе не в летней поре, а в моей «глупости» создания блога на начальном этапе. В общем, я при создании блога отталкивался от своих мыслей, а не от запросов пользователей. В общем, получилось так, что я сам себе отвечал на вопросы, смешно.

В одном из прошлых своих постов, я уже, как то писал для чего нужно СЯ сайту и что это такое, где раскрыл основу основ его создания, пора бы, наверное, и к практике создания семантического ядра перейти.

как создать семантическое ядро для сайта

В прошлой статье я в основном рассказывал теорию, но как показывает практика не всегда все пользователи понимают такой материал, так что представляю пошаговую инструкцию, которую можно взять за основу и сделать своё семантическое ядро без особых усилий. Да именно за основу, так как прогресс не стоит на месте и, возможно, уже есть более продвинутые способы создания ядра для сайта.

Ищем конкурентов для составления семантического ядра сайта

Итак, первым делом мы должны определиться, про что и о чём будет наш будущий сайт. Я возьму за основу тему «экология окружающей природы» и подберу к ней ключевые слова. Для определения основных ключей я возьму сайт конкурента находящейся на первых местах и Google.

Как вы понимаете я возьму за основу первые три сайта в выдаче Яндекс.

сезоны-года.рф
zeleneet.com
biofile.ru

Отбираем запросы конкурентов - автоматически

На этом шаге нам хорошо подойдёт любой сайт, который может автоматически определить запросы сайта, подходящие для его продвижения в топ. Я предпочитаю использовать , какой вы предпочтёте сервер - это сугубо ваше мнение, о котором вы можете написать мне в комментариях и обсудить.

Добавляем нашего донора, а не наш сайт!

Как вы уже догадались я взял один из трёх сайтов, - вы же должны взять несколько. Жмём далее…

Как видите, я отобрал только первые 10 запросов для наглядного примера. Вы должны собрать как можно больше ключевых слов также не поленитесь подумать, как вы спросили у гугла, чтоб найти ответ на ваш вопрос, которые собираетесь размещать в интернете на своём блоге или сайте. Переходим к следующему этапу формирования семантического ядра своими руками.

Как вы уже поняли вам осталось только экспортировать базу ключевых слов и перейти к следующему шагу на пути создания семантического ядра сайта, который вы сделаете самостоятельно. Не забываете проставить галочки на ключевых словах, которые пытаетесь сохранить в файле exel.

Отбираем НЧ СЧ и ВЧ запросы

На этом этапе нам поможет сервер, осторожно партнерская ссылка, зарегистрироваться в rookee.ru. Переходим на него и создаём новую рекламную кампанию используя сайт нашего конкурента.

Добавляем сайт и следуем пошаговой инструкции интернет ресурса.

Теперь нужно немного подождать, чтоб робот отсканировал сайт и дал вам наиболее интересные запросы, которые вы также можете применить впоследствии. Вот мой результат.

Как видите, система нашла 299 запроса, но они меня не интересуют и я просто возьму их удалю и добавлю те 10, которые мне дал seopult на первом этапе. Кстати, один запрос должен оставаться, иначе не сможете все удалить.
У меня после удаления получилось так. Когда я добавлю основную базу запросов, я этот ключ удалю, чтоб он мне не мешал, так как он для меня не актуален. Теперь добавляем запросы, которые получили ранее.

Теперь нам нужно перейти в папку «запросы» и немного подождать, когда запросы просканирует поисковый робот. У меня в итоге вышло так, что все слова оказались НК (низкоконкурентными), которые мне вполне подходят для создания сайта и привлечения первых читателей на блог.

Если у вас есть слова со значением ВК (высокая конкуренция) или СК (средняя конкуренция), то на первом этапе формирования ядра вам следует от них отказаться и выбрать только низкую конкуренцию.

Экспортируем слова и переходим к следующему завершающему шагу. Так как у меня все слова по низкой конкуренции я ничего не удалял, у вас, возможно, другая ситуация. Но я вас убедительно прошу удалить средне и высоко конкурентные запросы, так как это лишние ваши затраты.

Составляем семантическое ядро для сайта

Для завершающего этапа нам понадобится программа Key Collector,я буду использовать её бесплатный прототип, который вы легко можете найти в интернете. Название этой программы я, пожалуй, оставлю вам в виде домашнего задания. Итак, открываем программу и вписываем свой найденные ключи, у меня их пока 9 штук.

Как мы видим, что из 9 запросов нам лучше писать про прибор для измерения влажности воздуха. Это пример с одним ключевым словом, которое актуально под НЧ запрос на указанную тематику.

Не забываете, что программа способна также подобрать 1 тыс. слов по основному запросу с его словоформами, для этого просто впишите слова в красную вкладку «пакетный сбор слов из Яндекс worstat».

После того как вы отберёте максимальное количество релевантных слов не забудьте их отсортировать по значимости начиная с меньшего. Старайтесь также делать хорошую перелинковку вашей статье, - это вызовет улучшение поведенческих фактов на вашем ресурсе.

Ну вот и все, что-то я затянул с работой. А вы как делаете СЯ для своего интернет-магазина? напишите мне об этом в комментариях.

P.S. Вы также можете получать мои новые статьи на почту просто подписавшись на rss рассылку и узнавать о моих секретах и методах первыми. А вы, как составляете семантическое ядро сайта? Напишите, мне о своем способе в комментариях, подискутируем.

Здравствуйте, уважаемые читатели блога сайт. Хочу сделать очередной заход на тему «сбора семядра». Сначала , как полагается, а потом много практики, может быть и несколько неуклюжей в моем исполнении. Итак, лирика. Ходить с завязанными глазами в поисках удачи мне надоело уже через год, после начала ведения этого блога. Да, были «удачные попадания» (интуитивное угадывание часто задаваемых поисковикам запросов) и был определенный трафик с поисковиков, но хотелось каждый раз бить в цель (по крайней мере, ее видеть).

Потом захотелось большего — автоматизации процесса сбора запросов и отсева «пустышек». По этой причине появился опыт работы с Кейколлектором (и его неблагозвучным младшим братом) и очередная статья на тему . Все было здорово и даже просто замечательно, пока я не понял, что есть один таки очень важный момент, оставшийся по сути за кадром — раскидывание запросов по статьям.

Писать отдельную статью под отдельный запрос оправдано либо в высококонкурентных тематиках, либо в сильно доходных. Для инфосайтов же — это полный бред, а посему приходится запросы объединять на одной странице. Как? Интуитивно, т.е. опять же вслепую. А ведь далеко не все запросы уживаются на одной странице и имеют хотя бы гипотетический шанс выйти в Топ.

Собственно, сегодня как раз и пойдет речь об автоматической кластеризации семантического ядра посредством KeyAssort (разбивке запросов по страницам, а для новых сайтов еще и построение на их основе структуры, т.е. разделов, категорий). Ну, и сам процесс сбора запросов мы еще раз пройдем на всякий пожарный (в том числе и с новыми инструментами).

Какой из этапов сбора семантического ядра самый важный?

Сам по себе сбор запросов (основы семантического ядра) для будущего или уже существующего сайта является процессом довольно таки интересным (кому как, конечно же) и реализован может быть несколькими способами, результаты которых можно будет потом объединить в один большой список (почистив дубли, удалив пустышки по стоп словам).

Например, можно вручную начать терзать Вордстат , а в добавок к этому подключить Кейколлектор (или его неблагозвучную бесплатную версию). Однако, это все здорово, когда вы с тематикой более-менее знакомы и знаете ключи, на которые можно опереться (собирая их производные и схожие запросы из правой колонки Вордстата).

В противном же случае (да, и в любом случае это не помешает) начать можно будет с инструментов «грубого помола». Например, Serpstat (в девичестве Prodvigator), который позволяет буквально «ограбить» ваших конкурентов на предмет используемых ими ключевых слов (смотрите ). Есть и другие подобные «грабящие конкурентов» сервисы (spywords, keys.so), но я «прикипел» именно к бывшему Продвигатору.

В конце концов, есть и бесплатный Букварис , который позволяет очень быстро стартануть в сборе запросов. Также можно заказать частным образом выгрузку из монстрообразной базы Ahrefs и получить опять таки ключи ваших конкурентов. Вообще, стоит рассматривать все, что может принести хотя бы толику полезных для будущего продвижения запросов, которые потом не так уж сложно будет почистить и объединить в один большой (зачастую даже огромный список).

Все это мы (в общих чертах, конечно же) рассмотрим чуть ниже, но в конце всегда встает главный вопрос — что делать дальше . На самом деле, страшно бывает даже просто подступиться к тому, что мы получили в результате (пограбив десяток-другой конкурентов и поскребя по сусекам Кейколлектором). Голова может лопнуть от попытки разбить все эти запросы (ключевые слова) по отдельным страницах будущего или уже существующего сайта.

Какие запросы будут удачно уживаться на одной странице, а какие даже не стоит пытаться объединять? Реально сложный вопрос, который я ранее решал чисто интуитивно, ибо анализировать выдачу Яндекса (или Гугла) на предмет «а как там у конкурентов» вручную убого, а варианты автоматизации под руку не попадались. Ну, до поры до времени. Все ж таки подобный инструмент «всплыл» и о нем сегодня пойдет речь в заключительной части статьи.

Это не онлайн-сервис, а программное решение, дистрибутив которого можно скачать на главной странице официального сайта (демо-версию).

Посему никаких ограничений на количество обрабатываемых запросов нет — сколько надо, столько и обрабатывайте (есть, однако, нюансы в сборе данных). Платная версия стоит менее двух тысяч, что для решаемых задач, можно сказать, даром (имхо).

Но про техническую сторону KeyAssort мы чуть ниже поговорим, а тут хотелось бы сказать про сам принцип, который позволяет разбить список ключевых слов (практически любой длины) на кластеры, т.е. набор ключевых слов, которые с успехом можно использовать на одной странице сайта (оптимизировать под них текст, заголовки и ссылочную массу — применить магию SEO).

Откуда вообще можно черпать информацию? Кто подскажет, что «выгорит», а что достоверно не сработает? Очевидно, что лучшим советчиком будет сама поисковая система (в нашем случае Яндекс, как кладезь коммерческих запросов). Достаточно посмотреть на большом объеме данных выдачу (допустим, проаналазировать ТОП 10) по всем этим запросам (из собранного списка будущего семядра) и понять, что удалось вашим конкурентам успешно объединить на одной странице. Если эта тенденция будет несколько раз повторяться, то можно говорить о закономерности, а на основе нее уже можно бить ключи на кластеры.

KeyAssort позволяет в настройках задавать «строгость», с которой будут формироваться кластеры (отбирать ключи, которые можно использовать на одной странице). Например, для коммерции имеет смысл ужесточать требования отбора, ибо важно получить гарантированный результат, пусть и за счет чуть больших затрат на написание текстов под большее число кластеров. Для информационных сайтов можно наоборот сделать некоторые послабления, чтобы меньшими усилиями получить потенциально больший трафик (с несколько большим риском «невыгорания»). Как это сделать опять же поговорим.

А что делать, если у вас уже есть сайт с кучей статей, но вы хотите расширить существующее семядро и оптимизировать уже имеющиеся статьи под большее число ключей, чтобы за минимум усилий (чуток сместить акцент ключей) получить поболе трафика? Эта программка и на этот вопрос дает ответ — можно те запросы, под которые уже оптимизированы существующие страницы, сделать маркерными, и вокруг них KeyAssort соберет кластер с дополнительными запросами, которые вполне успешно продвигают (на одной странице) ваши конкуренты по выдаче. Интересненько так получается...

Как собрать пул запросов по нужной вам тематике?

Любое семантическое ядро начинается, по сути, со сбора огромного количества запросов, большая часть из которых будет отброшена. Но главное, чтобы на первичном этапе в него попали те самые «жемчужины», под которые потом и будут создаваться и продвигаться отдельные страницы вашего будущего или уже существующего сайта. На данном этапе, наверное, самым важным является набрать как можно больше более-менее подходящих запросов и ничего не упустить, а пустышки потом легко отсеяться.

Встает справедливый вопрос, а какие инструменты для этого использовать ? Есть один однозначный и очень правильный ответ — разные. Чем больше, тем лучше. Однако, эти самые методики сбора семантического ядра, наверное, стоит перечислить и дать общие оценки и рекомендации по их использованию.

  1. Яндекс Вордстат и его аналоги у других поисковых систем — изначально эти инструменты предназначались для тех, кто размещает контекстную рекламу, чтобы они могли понимать, насколько популярны те или иные фразы у пользователей поисковиков. Ну, понятно, что Сеошники этими инструментами пользуются тоже и весьма успешно. Могу порекомендовать пробежаться глазами по статье , а также упомянутой в самом начале этой публикации статье (полезно будет начинающим).

    Из недостатков Водстата можно отметить:

    1. Чудовищно много ручной работы (однозначно требуется автоматизация и она будет рассмотрена чуть ниже), как по пробивке фраз основанных на ключе, так и по пробивке ассоциативных запросов из правой колонки.
    2. Ограничение выдачи Вордстата (2000 запросов и не строчкой больше) может стать проблемой, ибо для некоторых фраз (например, «работа») это крайне мало и мы упускаем из вида низкочастотные, а иногда даже и среднечастотные запросы, способные приносить неплохой трафик и доход (их ведь многие упускают). Приходится «сильно напрягать голову», либо использовать альтернативные методы (например, базы ключевых слов, одну из которых мы рассмотрим ниже — при этом она бесплатная!).
  2. КейКоллектор (и его бесплатный младший брат Slovoeb ) — несколько лет назад появление этой программы было просто «спасением» для многих тружеников сети (да и сейчас представить без КК работу над семядром довольно трудно). Лирика. Я купил КК еще два или три года назад, но пользовался им от силы несколько месяцев, ибо программа привязана к железу (начинке компа), а она у меня по нескольку раз в год меняется. В общем, имея лицензию на КК пользуюсь SE — так то вот, до чего лень доводит.

    Подробности можете почитать в статье « ». Обе программы помогут вам собрать запросы и из правой, и из левой колонки Вордстата, а также поисковые подсказки по нужным вам ключевым фразам. Подсказки — это то, что выпадает из поисковой строки, когда вы начинаете набирать запрос. Пользователи часто не закончив набор просто выбирают наиболее подходящий из этого списка вариант. Сеошники это дело просекли и используют такие запросы в оптимизации и даже .

    КК и SE позволяют сразу набрать очень большой пул запросов (правда, может потребоваться много времени, либо покупка XML лимитов, но об этом чуть ниже) и легко отсеять пустышки, например, проверкой частотности фраз взятых в кавычки (учите матчасть, если не поняли о чем речь — ссылки в начале публикации) или задав список стоп-слов (особо актуально для коммерции). После чего весь пул запросов можно легко экспортировать в Эксель для дальнейшей работы или для загрузки в KeyAssort (кластеризатор), о котором речь пойдет ниже.

  3. СерпСтат (и другие подобные сервисы) — позволяет введя Урл своего сайта получить список ваших конкурентов по выдаче Яндекса и Гугла. А по каждому из этих конкурентов можно будет получить полный список ключевых слов, по которым им удалось пробиться и достичь определенных высот (получить трафик с поисковиков). Сводная таблица будет содержать частотность фразы, место сайта по ней в Топе и кучу другой разной полезной и не очень информации.

    Не так давно я пользовал почти самый дорогой тарифный план Серпстата (но только один месяц) и успел за это время насохранять в Экселе чуть ли не гигабайт разных полезняшек. Собрал не только ключи конкурентов, но и просто пулы запросов по интересовавшим меня ключевым фразам, а также собрал семядра самых удачных страниц своих конкурентов, что, мне кажется, тоже очень важно. Одно плохо — теперь никак время не найду, чтобы вплотную заняться обработкой всей это бесценной информации. Но возможно, что KeyAssort все-таки снимет оцепенение перед чудовищной махиной данных, которые нужно обработать.

  4. Букварикс — бесплатная база ключевых слов в своей собственной программной оболочке. Подбор ключевиков занимает доли секунды (выгрузка в Эксель минуты). Сколько там миллионов слов не помню, но отзывы о ней (в том числе и мой) просто отличные, и главное все это богатство бесплатно! Правда, дистрибутив программы весить 28 Гигов, а в распокованном виде база занимает на жестком диске более 100 Гбайт, но это все мелочи по сравнению с простотой и скоростью сбора пула запросов.

    Но не только скорость сбора семядра является основным плюсом по сравнению с Вордстатом и КейКоллектором. Главное, что тут нет ограничений на 2000 строк для каждого запроса, а значит никакие НЧ и сверх НЧ от нас не ускользнут. Конечно же, частотность можно будет еще раз уточнить через тот же КК и по стоп-словам в нем отсев провести, но основную задачу Букварикс выполняет замечательно. Правда, сортировка по столбцам у него не работает, но сохранив пул запросов в Эксель там можно будет сортировать как заблагороссудится.

Наверное, еще как минимум несколько «серьезных» инструментов собора пула запросов приведете вы сами в комментариях, а я их успешно позаимствую...

Как очистить собранные поисковые запросы от «пустышек» и «мусора»?

Полученный в результате описанных выше манипуляций список, скорее всего, будет весьма большим (если не огромным). Поэтому прежде чем загружать его в кластерезатор (у нас это будет KeyAssort) имеет смысл его слегка почистить . Для этого пул запросов, например, можно выгрузить к кейколлектор и убрать:

  1. Запросы со слишком низкой частотностью (лично я пробиваю частотность в кавычках, но без восклицательных знаков). Какой порог выбирать решать вам, и во многом это зависит от тематики, конкурентности и типа ресурса, под который собирается семядро.
  2. Для коммерческих запросов имеется смысл использовать список стоп-слов (типа, «бесплатно», «скачать», «реферат», а также, например, названия городов, года и т.п.), чтобы заранее убрать из семядра то, что заведомо не приведет на сайт целевых покупателей (отсеять халявшиков, ищущих информацию, а не товар, ну, и жителей других регионов, например).
  3. Иногда имеет смысл руководствоваться при отсеве показателем конкуренции по данному запросу в выдаче. Например, по запросу «пластиковые окна» или «кондиционеры» можно даже не рыпаться — провал обеспечен заранее и со стопроцентной гарантией.

Скажите, что это слишком просто на словах, но сложно на деле. А вот и нет. Почему? А потому что один уважаемый мною человек (Михаил Шакин) не пожалел времени и записал видео с подробным описанием способов очистки поисковых запросов в Key Collector :

Спасибо ему за это, ибо данные вопрос гораздо проще и понятнее показать, чем описать в статье. В общем справитесь, ибо я в вас верю...

Настройка кластеризатора семядра KeyAssort под ваш сайт

Собственно, начинается самое интересное. Теперь весь этот огромный список ключей нужно будет как-то разбить (раскидать) на отдельных страницах вашего будущего или уже существующего сайта (который вы хотите существенно улучшить в плане приносимого с поисковых систем трафика). Не буду повторяться и говорить о принципах и сложности данного процесса, ибо зачем тогда я первую часть этой стать писал.

Итак, наш метод довольно прост. Идем на официальный сайт KeyAssort и скачиваем демо-версию , чтобы попробовать программу на зуб (отличие демо от полной версии — это невозможность выгрузить, то бишь экспортировать собранное семядро), а уже опосля можно будет и оплатить (1900 рубликов — мало, мало по современным реалиям). Если хотите сразу начать работу над ядром что называется «на чистовик», то лучше тогда выбрать полную версию с возможностью экспорта.

Программа КейАссорт сама собирать ключи не умеет (это, собственно, и не ее прерогатива), а посему их потребуется в нее загрузить. Сделать это можно четырьмя способами — вручную (наверное, имеется смысл прибегать к этому методу для добавления каких-то найденных уже опосля основного сбора ключей), а также три пакетных способа импорта ключей :

  1. в формате тхт — когда нужно импортировать просто список ключей (каждый на отдельной строке тхт файлика и ).
  2. а также два варианта экселевского формата: с нужными вам в дальнейшем параметрами, либо с собранными сайтами из ТОП10 по каждому ключу. Последнее может ускорить процесс кластеризации, ибо программе KeyAssort не придется самой парсить выдачу для сбора эти данных. Однако, Урлы из ТОП10 должны быть свежими и точными (такой вариант списка можно получить, например, в Кейколлекторе).

Да, что я вам рассказываю — лучше один раз увидеть:

В любом случае, сначала не забудьте создать новый проект в том же самом меню «Файл», а уже потом только станет доступной функция импорта:

Давайте пробежимся по настройкам программы (благо их совсем немного), ибо для разных типов сайтов может оказаться оптимальным разный набор настроек. Открываете вкладку «Сервис» — «Настройки программы» и можно сразу переходить на вкладку «Кластеризация» :

Тут самое важное — это, пожалуй, выбор необходимого вам вида кластеризации . В программе могут использоваться два принципа, по которым запросы объединяются в группы (кластеры) — жесткий и мягкий.

  1. Hard — все запросы попавшие в одну группу (пригодные для продвижения на одной странице) должны быть объединены на одной странице у необходимого числа конкурентов из Топа (это число задается в строке «сила группировки»).
  2. Soft — все запросы попавшие в одну группу будут частично встречаться на одной странице у нужного числа конкурентов и Топа (это число тоже задается в строке «сила группировки»).

Есть хорошая картинка наглядно все это иллюстрирующая:

Если непонятно, то не берите в голову, ибо это просто объяснение принципа, а нам важна не теория, а практика, которая гласит, что:

  1. Hard кластеризацию лучше применять для коммерческих сайтов . Этот метод дает высокую точность, благодаря чему вероятность попадания в Топ объединенных на одной странице сайта запросов будет выше (при должном подходе к оптимизации текста и его продвижению), хотя самих запросов будет меньше в кластере, а значит самих кластеров больше (больше придется страниц создавать и продвигать).
  2. Soft кластеризацию имеет смысл использовать для информационных сайтов , ибо статьи будут получаться с высоким показателем полноты (будут способны дать ответ на ряд схожих по смыслу запросов пользователей), которая тоже учитывается в ранжировании. Да и самих страниц будет поменьше.

Еще одной важной, на мой взгляд, настройкой является галочка в поле «Использовать маркерные фразы» . Зачем это может понадобиться? Давайте посмотрим.

Допустим, что у вас уже есть сайт, но страницы на нем были оптимизированы не под пул запросов, а под какой-то один, или же этот пул вы считаете недостаточно объемным. При этом вы всем сердцем хотите расширить семядро не только за счет добавления новых страниц, но и за счет совершенствования уже существующих (это все же проще в плане реализации). Значит нужно для каждой такой страниц добрать семядро «до полного».

Именно для этого и нужна эта настройка. После ее активации напротив каждой фразы в вашем списке запросов можно будет поставить галочку. Вам останется только отыскать те основные запросы, под которые вы уже оптимизировали существующие страницы своего сайта (по одному на страницу) и программа KeyAssort выстроит кластеры именно вокруг них. Собственно, все. Подробнее «курите» в этом видео:

Еще одна важная (для правильной работы программы) настройка живет на вкладке «Сбор данных с Яндекс XML» . вы можете прочитать в приведенной статье. Если вкратце, то Сеошники постоянно парсят выдачу Яндекса и выдачу Вордстата, создавая чрезмерную нагрузку на его мощности. Для защиты была внедрена капча, а также разработан спецдоступ по XML, где уже не будет вылезать капча и не будет происходить искажение данных по проверяемым ключам. Правда, число таких проверок в сутки будет строго ограничено.

От чего зависит число выделенных лимитов? От того, как Яндекс оценит ваши . можно перейдя по этой ссылке (находясь в том же браузере, где вы авторизованы в Я.Вебмастере). Например, у меня это выглядит так:

Там еще есть снизу график распределения лимитов по времени суток, что тоже важно. Если запросов нужно пробить много, а лимитов мало, то не проблема. Их можно докупить . Не у Яндекса, конечно же, напрямую, а у тех, у кого эти лимиты есть, но они им не нужны.

Механизм Яндекс XML позволяет проводить передачу лимитов, а биржи, подвязавшиеся быть посредниками, помогают все это автоматизировать. Например, на XMLProxy можно прикупить лимитов всего лишь по 5 рублей за 1000 запросов, что, согласитесь, совсем уж не дорого.

Но не суть важно, ибо купленные вами лимиты все равно ведь перетекут к вам на «счет», а вот чтобы их использовать в KeyAssort, нужно будет перейти на вкладку "Настройка " и скопировать длинную ссылку в поле «URL для запросов» (не забудьте кликнуть по «Ваш текущий IP» и нажать на кнопку «Сохранить», чтобы привязать ключ к вашему компу):

После чего останется только вставить этот Урл в окно с настройками KeyAssort в поле «Урл для запросов»:

Собственно все, с настройками KeyAssort покончено — можно приступать к кластеризации семантического ядра.

Кластеризация ключевых фраз в KeyAssort

Итак, надеюсь, что вы все настроили (выбрали нужный тип кластеризации, подключили свои или покупные лимиты от Яндекс XML), разобрались со способами импорта списка с запросами, ну и успешно все это дело перенесли в КейАссорт. Что дальше? А дальше уж точно самое интересное — запуск сбора данных (Урлов сайтов из Топ10 по каждому запросу) и последующая кластеризация всего списка на основе этих данных и сделанных вами настроек.

Итак, для начала жмем на кнопку «Собрать данные» и ожидаем от нескольких минут до нескольких часов, пока программа прошерстит Топы по всем запросам из списка (чем их больше, тем дольше ждать):

У меня на три сотни запросов (это маленькое ядро для серии статей про работу в интернете) ушло около минуты. После чего можно уже приступать непосредственно к кластеризации , становится доступна одноименная кнопка на панели инструментов KeyAssort. Процесс этот очень быстрый, и буквально через несколько секунд я получил целый набор калстеров (групп), оформленных в виде вложенных списков:

Подробнее об использовании интерфейса программы, а также про создание кластеров для уже существующих страниц сайта смотрите лучше в ролике, ибо так гораздо нагляднее:

Все, что хотели, то мы и получили, и заметьте — на полном автомате. Лепота.

Хотя, если вы создаете новый сайт, то кроме кластеризации очень важно бывает наметить будущую структуру сайта (определить разделы/категории и распределить по ним кластеры для будущих страниц). Как ни странно, но это вполне удобно делать именно в KeyAssort, но правда уже не в автоматическом режиме, а в ручном режиме. Как?

Проще опять же будет один раз увидеть — все верстается буквально на глазах простым перетаскиванием кластеров из левого окна программы в правое:

Если программу вы таки купили, то сможете экспортировать полученное семантическое ядро (а фактически структуру будущего сайта) в Эксель. Причем, на первой вкладке с запросами можно будет работать в виде единого списка, а на второй уже будет сохранена та структура, что вы настроили в KeyAssort. Весьма, весьма удобно.

Ну, как бы все. Готов обсудить и услышать ваше мнение по поводу сбора семядра для сайта.

Удачи вам! До скорых встреч на страницах блога сайт

посмотреть еще ролики можно перейдя на
");">

Вам может быть интересно

Vpodskazke - новый сервис Вподсказке для продвижения подсказок в поисковых системах

Если у Вас встал вопрос «Как составить семантическое ядро», то перед решением надо сначала разобраться, с чем Вы связались.

Семантическое ядро сайта представляет собой список фраз, которые вводят пользователи в поисковых системах. Соответственно, продвигаемые страницы должны отвечать на пользовательские запросы. Разумеется, нельзя пихать на одну и ту же страницу кучу разнотипных ключевых фраз. Один основной поисковый запрос = одна страница.

Важно, чтобы ключевые слова соответствовали тематике сайта, не имели грамматических ошибок, имели вменяемую частотность, а также соответствовали по ряду других характеристик.

Семантическое ядро обычно хранится в Excel-таблице. Эту таблицу можно хранить/создать где угодно - на флешке, в Google Docs, на Яндекс.Диске либо где-то еще.

Вот наглядный пример простейшего оформления:

Особенности подбора семантического ядра сайта

Для начала следует понимать (хотя бы примерно) какие именно фразы использует Ваша аудитория при работе с поисковой системой. Этого будет вполне достаточно для работы с инструментами по подбору ключевых фраз.

Какие ключи использует аудитория

Ключи — это как раз и есть те самые фразы, которые пользователи вводят в поисковые системы для получения той или иной информации. Например, если человек хочет купить холодильник, он так и пишет - «купить холодильник», ну или «купить холодильник недорого», «купить холодильник samsung» и т.д., в зависимости от предпочтений.

Теперь давайте разбираться с признаками, по которым можно классифицировать ключи.

Признак 1 - популярность . Здесь ключи можно условно разделить на высокочастотные, среднечастотные и низкочастотные.

Низкочастотные запросы (иногда обозначаются как НЧ) имеют частоту до 100 показов в месяц, среднечастотные (СЧ) - до 1000, а высокочастотные (ВЧ) - от 1000.

Однако, эти цифры являются чисто условными, ибо есть масса исключений из этого правила. Например, тематика криптовалюты. Здесь гораздо правильнее считать низкочастотными запросы с частотой до 10000 показов в месяц, среднечастотными - от 10 до 100 тысяч, а высокочастотными - все остальное. На сегодня ключевое слово «криптовалюта» имеет частоту более 1,5 миллионов показов в месяц, а «биткоин» зашкалил за 3 миллиона.

И несмотря на то, что «криптовалюта» и «биткоин», на первый взгляд, являются очень вкусными поисковыми запросами, гораздо правильнее (как минимум на начальных этапах) делать акцент именно на низкочастотых запросах. Во-первых, потому что это более точные запросы, а значит, приготовить релевантный контент будет проще. Во-вторых, низкочастотных запросов ВСЕГДА в десятки-сотни раз больше, чем высокочастотных и среднечастотных (причем в 99,5% случаев - еще и вместе взятых). В-третьих, «низкочастотное ядро» гораздо проще и быстрее расширить, чем два других. НО… Это не значит, что СЧ и ВЧ нужно игнорировать.

Признак 2 - потребности пользователя . Здесь можно условно разделить на 3 группы:

  • транзакционные - подразумевают какое-то действие (содержат в себе слова «купить», «скачать», «заказать», «доставка» и т.д.)
  • информационные - просто поиск тех или иных сведений («что будет, если», «что лучше», «как правильно», «как сделать», «описание», «характеристики» и т.д.)
  • прочие. Это особая категория, т.к. непонятно, чего именно хочет пользователь. Для примера возьмем запрос «торт». «Торт» что? Купить? Заказать? Испечь по рецепту? Посмотреть фотографии? Непонятно.

Теперь о применении второго признака.

Во-первых , данные запросы лучше не «смешивать». Например, у нас есть 3 поисковых запроса - «ноутбук dell 5565 amd a10 8 гб hd купить», «ноутбук dell 5565 amd a10 8 гб hd обзор» и «ноутбук dell 5565 amd a10 8 гб hd». Ключи почти полностью идентичны. Однако, именно отличия и играют решающую роль. В первом случае мы имеем «транзакционный» запрос, по которому нужно продвигать именно карточку товара. Во втором - «информационный», а в третьем - «прочий». И если по информационному ключу нужна отдельная страница, то логично задать вопрос - а что делать с третьим ключом? Очень просто - просмотреть ТОП-10 Яндекса и Google по данному запросу. Если будет много торговых предложений - значит запрос все-таки коммерческий, а если нет - значит информационный.

Во-вторых , транзакционные запросы можно условно подразделить еще и на «коммерческие» и «некоммерческие». В коммерческих запросах придется конкурировать с «тяжеловесами». Например, по запросу «купить samsung galaxy» придется конкурировать с Евросетью, Связным, по запросу «купить духовой шкаф ariston» - с М.Видео и Эльдорадо. И что делать? Очень просто - «замахиваться» на запросы, у которых гораздо более низкая частота. Например, на сегодня запрос «купить samsung galaxy» имеет частоту около 200 000 показов в месяц, в то время, как «купить samsung galaxy a8» (а это уже вполне конкретная модель линейки) имеет частоту 3600 показов в месяц. Разница в частоте громадная, но по второму запросу (именно за счет того, что подразумевается вполне конкретная модель) можно получить гораздо больше трафика, чем по первому.

Анатомия поисковых запросов

Ключевую фразу можно разбить на 3 части - тело, спецификатор, хвост.

Для наглядности возьмем уже рассмотренный ранее «прочий» запрос - «торт». Чего хочет пользователь - непонятно, т.к. он состоит только из тела и не имеет спецификатора и хвоста. Однако, он высокочастотный, а значит имеет бешеную конкуренцию в поисковой выдаче. Однако, 99,9% при посещении сайта скажет «нет, это не то, что я искал» и просто уйдет, а это негативный поведенческий фактор.

Добавим спецификатор «купить» и получаем транзакционный (а в качестве бонуса - еще и коммерческий) запрос «купить торт». Слово «купить» отражает намеренья пользователя.

Поменяем спецификатор на «фото» и получим запрос «торт фото», который уже не является транзакционным, ибо пользователь просто ищет фотографии тортов и ничего покупать не собирается.

Т.е. именно с помощью спецификатора мы и определяем какой это запрос - транзакционный, информационный или прочий.

С продажей тортов разобрались. Теперь к запросу «купить торт» добавим словосочетание «на свадьбу», которое будет являться «хвостом» запроса. Именно «хвосты» делают запросы более конкретными, более детальными, но при этом не отменяют намерений пользователя. В данном случае - раз торт свадебный, то торты с надписью «с днем рождения» отметаются сразу, т.к. они не подходят по определению.

Т.е. если взять запросы:

  • купить торт на рождение ребенка
  • купить торт на свадьбу
  • купить торт на юбилей

то мы увидим, что цель пользователя одна и та же - «купить торт», а «на рождение ребенка», «на свадьбу» и «на юбилей» отражают потребность более детально.

Теперь, когда Вы знаете анатомию поисковых запросов, можно вывести некую формулу подбора семантического ядра. Для начала определяете некие базовые термины, имеющие прямое отношение к Вашей деятельности, а затем собираете наиболее подходящие спецификаторы и хвосты (расскажем немного позже).

Кластеризация семантического ядра

Под кластеризацией подразумевается распределение собранных ранее запросов по страницам (даже если страницы еще не созданы). Зачастую этот процесс называют «группировкой семантического ядра».

И вот тут многие допускают одну и ту же ошибку - разделять запросы нужно по смыслу, а не по количеству имеющихся страниц на сайте или в разделе. Страницы при необходимости всегда можно создать.

Теперь давайте разберемся, какие ключи куда распределять. Сделаем это на примере структуры, в которой уже есть несколько разделов и групп:

  1. Главная страница. Для нее отбираются только самые важные, конкурентные и высокочастотные запросы, являющиеся основой продвижения сайта в целом. («салон красоты в Санкт-Петербурге»).
  2. Категории услуг/товаров. Здесь вполне логично разместить запросы, не содержащие в себе особой конкретики. В случае с «салоном красоты в СПб» вполне логично создать несколько категорий по ключам «услуги визажиста», «мужской зал», «женский зал» и т.п.
  3. Услуги/товары. Здесь уже должны фигурировать более конкретные запросы - «свадебные прически», «маникюр», «вечерние прически», «окрашивание» и т.п. В какой-то степени это «категории внутри категории».
  4. Блог. Сюда подойдут информационные запросы. Их гораздо больше, чем транзакционных, поэтому и страниц, которые будут им релевантны, должно быть больше.
  5. Новости. Сюда выделяются ключи, наиболее подходящие для создания коротких новостных заметок.

Как выполняется кластеризация запросов

Существует 2 основных способа кластеризации - ручная и автоматическая.

У ручной кластеризации есть 2 основных минуса: долго, трудоёмко. Однако, весь процесс контролируется лично Вами, а значит можно добиться очень высокого качества. Для ручной кластеризации будет вполне достаточно Excel’я, Google Таблиц либо Яндекс.Диска. Главное - иметь возможность фильтровать и сортировать данные по тем или иным параметрам.

Многие для кластеризации используют сервис Keyword Assistant. По сути, это ручная кластеризация с элементами автоматики.

Теперь рассмотрим плюсы и минусы автоматической группировки, благо, сервисов много (как бесплатные, так и платные) и выбирать есть из чего.

Например, внимания достоин бесплатный сервис кластеризации от команды SEOintellect. Он подойдет для работы с небольшими семантическими ядрами.

Для «серьезных» объемов (несколько тысяч ключей) уже имеет смысл пользоваться платными сервисами (например, Топвизор, SerpStat и Rush Analytics). Работают они следующим образом: Вы загружаете ключевые запросы, а на выходе получаете готовы Excel-файл. Упомянутые выше 3 сервиса работают примерно по одной и той же схеме - группируют по смыслу, анализируя пересечение фраз, а также по каждому запросу просматривают ТОП-30 поисковой выдачи, чтобы выяснить, на скольких URL встречается запрашиваемая фраза. На основе вышеперечисленного и происходит распределение по группам. Происходит все это «в фоне».

Программы для создания семантического ядра

Для сбора подходящих поисковых запросов есть множество платных и бесплатных инструментов, есть из чего выбрать.

Начнем с бесплатных.

Сервис wordstat.yandex.ru. Это бесплатный сервис. Для удобства рекомендуется установить в Ваш браузер плагин Wordstat Assistant. Именно поэтому мы будем рассматривать эти 2 инструмента в паре.

Как это работает?

Очень просто.

Для примера мы соберем небольшое ядро по путевкам в Анталию. В качестве «базовых» у нас будет 2-й запрос - «туры в анталию» (в данном случае количество «базовых» запросов не принципиально).

Теперь переходим по адресу https://wordstat.yandex.ru/ , логинимся, вставляем первый «базовый» запрос и получаем список ключей. Затем с помощью «плюсиков» добавляем подходящие ключи в список. Обратите внимание, если ключевая фраза окрашена в синий и слева обозначена плюсом, значит ее можно добавить в список. Если же фраза «обесцвечена» и помечена минусом - значит она в список уже добавлена, а нажатие на «минус» приведет к ее удалению из списка. Кстати, список ключей слева и плюсы-минусы - это и есть те самые фишки плагина Wordstat Assistant, без которых работа в Яндекс.Wordstat вообще не имеет смысла.

Также стоит отметить, что список будет сохранен ровно до тех пор, пока он лично Вами не будет откорректирован или очищен. Т.е. если вбить в строку «телевизоры samsung», то список ключей Яндекс.Wordstat обновится, но ранее собранные ключи в списке плагина сохранятся.

По этой схеме прогоняем через Wordstat все заранее подготовленные «базовые» ключи, собираем всё необходимое, а затем путем нажатия на одну из этих двух кнопок копируем собранный ранее список в буфер обмена. Обратите внимание, что кнопка с двумя листиками копирует список без частот, а с двумя листиками и числом 42 - с частотами.

Затем скопированный в буфер обмена список можно вставить в таблицу Excel.

Также в процессе сбора можно просмотреть статистику показов по регионам. Для этого в Яндекс.Wordstat есть вот такой переключатель.

Ну а в качестве бонуса можно глянуть историю запроса - узнать, когда частота повышалась, а когда - понижалась.

Данная фишка может быть полезна при определении сезонности запроса, а также для выявления падения/роста популярности.

Еще одной интересной фишкой является статистика показов по указанной фразе и ее формам. Для этого необходимо заключить запрос в кавычки.

Ну а если перед каждым словом добавить еще и восклицательный знак, то в статистике будет отображено количество показов по ключу без учета словоформ.

Не менее полезным является оператор «минус». Он убирает ключевые фразы, в которых содержится указанное Вами слово (или несколько слов).

Есть и еще один хитрый оператор - вертикальный разделитель. Он необходим для того, чтобы объединить сразу несколько списков ключей в один (речь про однотипные ключи). Для примера возьмем два ключа: «туры в анталию» и «путевки в анталию». В строке Яндекс.Wordstat прописываем их следующим образом и получаем на выходе 2 списка по этим ключам, объединенных в один:

Как видите, у нас куча ключей, где есть «туры», но нет «путевок» и наоборот.

Еще одной важнейшей фишкой является привязка частоты к региону. Регион можно выбрать вот тут.

Использование Wordstat для сбора семантического ядра подойдет в том случае, если Вы собираете мини-ядра для каких-то отдельных страниц, либо не планируете больших ядер (до 1000 ключей).

SlovoEB и Key Collector

Мы не прикалываемся, программа именно так и называется. Если в двух словах, то программа позволяет делать ровно то же самое, но в автоматическом режиме.

Данная программа разработана командой LegatoSoft - та самая команда, которая разработала Key Collector, о нем тоже пойдет речь. По сути, Словоёб является сильно обрезанной (но бесплатной) версией Кей Коллектора, однако для работы со сбором небольших семантических ядер он вполне справляется.

Специально для Словоёба (или Кей Коллектора) имеет смысл создать отдельный аккаунт на Яндексе (если забанят - не жалко).

Единоразово необходимо произвести небольшие настройки.

Пару логин-пароль необходимо прописывать через двоеточие и без пробелов. Т.е. если Ваш логин [email protected] и пароль 15101510ioioio, то пара будет выглядеть вот так: my_login:15101510ioioio

Обратите внимание - прописывать в логине @yandex.ru нет необходимости.

Данная настройка является единоразовым мероприятием.

Сразу проясним пару моментов:

  • сколько проектов создавать для каждого сайта - решать только Вам
  • без создания проекта программа работать не будет.

Теперь давайте разбираться с функционалом.

Для сбора ключей из Яндекс.Wordstat на вкладке «Сбор данных» нажимаем на кнопку «Пакетный сбор слов из левой колонки Яндекс.Wordstat», вставляем список ранее подготовленных ключевых фраз, нажимаем «Начать сбор» и ждем его окончания. Минус у такого способа сбора только один - после окончания парсинга приходится вручную удалять ненужные ключи.

На выходе мы получаем таблицу с собранными из Wordstat ключевыми словами и базовой частотой показов.

Но мы-то с Вами помним, что можно еще задействовать кавычки и восклицательный знак, верно? Этим и займемся. Тем более что данный функционал в Слоёбе реализован.

Запускаем сбор частот в кавычках и наблюдаем за тем, как данные будут постепенно появляться в таблице.

Единственный минус состоит в том, что сбор данных производится через сервис Яндекс.Wordstat, а это значит, что даже на сбор частот по 100 ключам будет уходить достаточно много времени. Однако, эта проблема решена в Key Collector’е.

И еще одна функция, о которой хотелось бы рассказать - сбор поисковых подсказок. Для этого копируем список ранее спарсенных ключей в буфер обмена, нажимаем кнопку сбора поисковых подсказок, вставляем список, выбираем поисковые системы, с которых будет вестись сбор поисковых подсказок, нажимаем «Начать сбор» и ждем его окончания.

На выходе мы получаем расширенный список ключевых фраз.

Теперь переходим к «старшему брату» Словоёба - Key Collector’у.

Key Collector платный, но имеет гораздо более широкий функционал. Так что если Вы профессионально занимаетесь продвижением сайтов или маркетингом - Key Collector просто мастхэв, ибо Словоёба будет уже недостаточно. Если коротко, то Кей Коллектор умеет выполнять:

  • Парсить ключи из Wordstat*.
  • Парсить поисковые подсказки*.
  • Отсечка поисковых фраз по стоп-словам*.
  • Сортировка запросов по частоте*.
  • Выявление запросов-дублей.
  • Определение сезонных запросов.
  • Сбор статистики из Liveinternet.ru, «Метрика», Google Analytics, Google AdWords, «Директ», «Вконтакте» и другие.
  • Определение релевантных страниц по тому или иному запросу.

(знаком * отмечен функционал, имеющийся в Словоёбе)

Процесс сбора ключевых слов из Wordstat и сбор поисковых подсказок абсолютно идентичен тому, что реализован в Словоёбе. Однако, сбор частот реализован двумя способами - через Wordstat (как в Словоёбе) и через Директ. Через Директ сбор частот ускоряется в несколько раз.

Делается это следующим образом: нажимаем на кнопку Д (сокращение от «Директ», ставим галочку о заполнении колонок статистики Wordstat, проставляем галочки (при необходимости) о том, какую именно частоту мы хотим получить (базовую, в кавычках, или в кавычках и с восклицательными знаками», нажимаем «Получить данные» и ждем окончания сбора.

Сбор через данных Яндекс.Директ занимает гораздо меньше времени, чем через Wordstat. Однако, тут есть и один минус - статистика может быть собрана не по всем ключам (например, если ключевая фраза слишком длинная). Однако, этот минус компенсируется сбором данных из Wordstat.

Планировщик ключевых слов Google

Данный инструмент крайне полезен для сбора ядра с учетом нужд пользователей поисковой системы Google.

С помощью Планировщика ключевых слов Google можно найти новые запросы по запросам (как бы странно это ни звучало), и даже сайтам/тематикам. Ну а в качестве бонуса можно даже прогнозировать трафик и комбинировать новые поисковые запросы.

По имеющимся запросам статистику можно получить, выбрав соответствующую опцию на главной странице сервиса. При необходимости можно выбрать регион и минус-слова. Результат будет выведен в CSV-формате.

Как узнать семантическое ядро сайта конкурента

Конкуренты могут нам быть еще и друзьями, т.к. у них можно позаимствовать идеи по подбору ключевых слов. Практически по каждой странице можно получить список ключевых слов, под которые она оптимизирована, причем вручную.

Первый способ - изучить контент страницы, мета-теги Title, Description, H1 и KeyWords. Можно сделать всё вручную.

Второй способ - воспользоваться сервисами Advego или Istio. Для анализа конкретно взятых страниц этого вполне достаточно.

Если же требуется произвести комплексный анализ семантического ядра сайта, то имеет смысл воспользоваться более мощными инструментами:

  • SEMrush
  • Searchmetrics
  • SpyWords
  • Google Trends
  • Wordtracker
  • WordStream
  • Ubersuggest
  • Топвизор

Однако, приведенные выше инструменты больше подходят для тех, кто занимается профессиональным продвижением нескольких сайтов одновременно. «Для себя» даже ручного способа будет вполне достаточно (в крайнем случае - Advego).

Ошибки при составлении семантического ядра

Самая частая ошибка - очень маленькое семантическое ядро

Разумеется, если это какая-то узкоспециализированная ниша (например, ручное изготовление элитных музыкальных инструментов), то ключей при любом раскладе будет мало (сотня-полторы-две).

Чем больше семантическое ядро (но без «мусора») - тем лучше. В некоторых нишах семантическое ядро может состоять из нескольких… МИЛЛИОНОВ ключей.

Вторая ошибка - синонимайзинг. Точнее - его отсутствие

Вспомните пример с Анталией. Ведь в данном контексте «туры» и «путевки» - это одно и то же, но эти 2 списка ключей могут кардинально отличаться. «Стриппер» вполне могут искать по запросу «зачистка для проводов» или «инструмент для удаления изоляции».

Внизу поисковой выдачи у Google и Яндекса есть вот такой блок:

Именно там зачастую и можно подсмотреть синонимы.

Составление семантического ядра исключительно из ВЧ-запросов

Вспомните, что мы в начале поста говорили о низкочастотных запросах, и вопрос «а почему это ошибка?» у Вас больше не возникнет. Низкочастотные запросы как раз и будут приносить основную долю трафика.

«Мусор», т.е. нецелевые запросы

Необходимо удалить из собранного ядра все запросы, которые Вам не подходят. Если у Вас магазин сотовых телефонов, то для Вас запрос «продажа сотовых телефонов» будет целевым, а «ремонт сотовых телефонов» - мусорным. В случае с сервисным центром по ремонту сотовых телефонов все с точностью до наоборот: «ремонт сотовых телефонов» - целевой, а «продажа сотовых телефонов» - мусорный. Третий вариант - если у Вас магазин сотовых телефонов, к которому «прикреплен» сервисный центр, то оба запроса будут целевыми.

Еще раз - мусора в ядре быть не должно.

Отсутствие группировки запросов

Разбивать ядро на группы строго обязательно.

Во-первых, это позволит составить грамотную структуру сайта.

Во-вторых, не будет «ключевых конфликтов». Например, возьмем страницу, которая продвигается по запросам «купить наливной пол» и «купить ноутбук acer». Поисковая система может прийти в замешательство. В итоге будет провалено по обоим ключам. А вот по запросам «ноутбук hp 15-006 купить» и «ноутбук hp 15-006 цена» уже имеет смысл продвигать одну страницу. Более того, не просто «имеет смысл», а будет единственным правильным решением.

В-третьих, кластеризация позволит прикинуть сколько страниц еще нужно создать, чтоб ядро было охвачено полностью (а главное - нужно ли?).

Ошибки в разделении коммерческих и информационных запросов

Основная ошибка в том, что коммерческими могут оказаться и запросы, в которых нет слов «купить», «заказать», «доставка» и т.п.

Например, запрос «». Как определить, коммерческий это запрос, или информационный? Очень просто - смотрим поисковую выдачу.

Google нам говорит, что это коммерческий запрос, т.к. в выдаче у нас первые 3 позиции занимают документы со словом «купить», а на четвертой позиции хоть и расположились «отзывы», но взгляните на адрес - это достаточно известный интернет-магазин.

А вот с Яндексом все оказалось не так просто, т.к. в ТОП-5 у нас 3 страницы с обзорами/отзывами и 2 страницы с торговыми предложениями.

Тем не менее, данный запрос все-таки относится к коммерческим, т.к. коммерческие предложения есть и там, и там.

Однако, есть и инструмент для массовой проверки ключей на «коммерцию» - Semparser.

Подобрали «пустые» запросы

Частоты необходимо собирать и базовые, и в кавычках. Если частота в кавычках равна нулю - запрос лучше удалить, т.к. это пустышка. Нередко бывает даже так, что базовая частота превышает несколько тысяч показов в месяц, а частота в кавычках - нулевая. И сразу же конкретный пример - ключ «крем для кожи недорого». Базовая частота 1032 показа. Выглядит вкусно, правда?

Но весь вкус теряется, если пробить эту же фразу в кавычках:

Не все пользователи печатают без ошибок. Из-за них «кривые» ключевые запросы в базу и попадают. Включать их в семантические ядро бессмысленно, поскольку поисковые системы все равно перенаправляют пользователя на «исправленный» запрос.

И с Яндексом ровно то же самое.

Так что «кривые» запросы (даже если они высокочастотные) удаляем без сожаления.

Пример семантического ядра сайта

Теперь переходим от теории к практике. После сбора и кластеризации семантическое ядро должно выглядеть примерно вот так:

Итог

Что же нам требуется для составления семантического ядра?

  • хотя бы немного мышления бизнесмена (или хотя бы маркетолога)
  • хотя бы небольшие навыки оптимизатора.
  • важно уделить особое внимание структуре сайта
  • прикиньте, по каким запросам пользователи могут искать нужную им информацию
  • на основе «прикидок» собираете список наиболее подходящих запросов (Яндекс.Wordstat + Wordstat Assistant, Словоёб, Key Collector, Планировщик ключевых слов Google), частоты с учетом словоформ (без кавычек), а также без учета (в кавычках), удаляете «мусор».
  • собранные ключи необходимо сгруппировать, т.е. распределить по страницам сайта (даже если эти страницы еще не созданы).

Нет времени? Обращайтесь к нам, мы сами все за Вас сделаем!


Семантическое ядро сайта представляет собой , которые используют пользователи в интернете для поиска услуг, товаров и любой другой информации, которую предлагает данный сайт. Для веб-мастеров, это план действий по продвижению ресурса. В идеальном плане семантическое ядро сайта создается один раз, перед тем, как начать оптимизацию и продвижение.


Семантическое ядро сайта составляется обычно в несколько этапов:

  1. Подбираются всевозможные слова (фразы) подходящие по теме сайта. Вначале можно ограничиться 100 – 200 поисковыми запросами. Для того чтобы знать какие запросы вам подходят, ответьте себе на вопрос «Чему я хочу посвятить свой сайт?»
  2. Расширение семантического ядра за счет ассоциативных запросов
  3. Следует отсеять неподходящие слова. Тут вы отсеиваете те фразы, по которым вы не будете продвигать ваш сайт. Таких слов обычно находится больше половины.
  4. Отсеиваются высококонкурентные запросы, по которым продвигать сайт нет смысла. Как правило, убирается три слова из пяти или более.
  5. И последнее, это правильное распределение списка поисковых запросов на страницах ресурса. Рекомендуется высококонкурентные запросы оставлять на главной странице ресурса, менее конкурентные необходимо группировать по смыслу и располагать на других страницах. Для этого нужно создать в Exel документ и разбить ключевые слова по страницам.

Подбор поисковых запросов и проверка частотности

Первое, что нужно сделать, это собрать как можно больше всевозможных запросов по вашей теме, которые интересуют пользователей в Сети. Для этого существует два метода:

  • Бесплатные, в которые входят: Wordstat Yandex, Словоеб, дедовский способ, подсказки от Google (External Keyword Tool), анализ семантики конкурентов и поисковые подсказки.
  • Платные которые включают Key Collector, Semrush, базы Пастухова и некоторые другие сервисы.

Данные инструменты подходят для различных целей (к примеру, Semrush лучше использовать для буржунета). Конечно, это все можно доверить оптимизаторам, но присутствует вероятность того, что вам составят неполное семантическое ядро.

Многие пользуются для сбора ключевых фраз базу Пастухова, но с Key Collector намного удобнее собирать запросы с сервисов .

На начальном этапе сбор запросов лучше сделать в Excel, это выглядит так:


Если для вашего ресурса важнее будет Google, то акцент делайте на него, но также учитывайте и анализируйте ключевые слова из Яндекса. Еще очень важно собрать длинный хвост низкочастотных запросов, по ним вы получите трафик намного быстрее.

Можно воспользоваться и еще одним вариантом, это узнать ключевые фразы (слова) у конкурентов и воспользоваться ими. На этом этапе вы просто собираете как можно больше ключевых фраз (слов) подходящих по теме вашего ресурса, а затем переходите к следующему этапу – фильтрации.

Анализ запросов, удаление "пустышек"

Этот этап уже проще, здесь надо отфильтровать слова пустышки и те, что не связаны с тематикой сайта. К примеру, у вас доставка обедов в Киеве, а в списке присутствуют другие города.

Как определить пустые запросы? Зайдите в Яндекс Вордстат и введите ключевое слово:


Вы видите 881 показов в месяц, но если точнее определить:


Теперь вырисовывается совсем иная картина. Может это и не лучший пример, но главное, чтобы вы поняли суть. Есть большое число ключевых фраз, по которым виден достаточный трафик, хотя на самом деле там все отсутствует. Вот поэтому нужно и отсеять такие фразы.

К примеру, если человек перед тем (либо после того) как набрать запрос «доставка обедов» прописывал в поисковой строке еще какую-либо фразу (называется одна сессия поиска), то Yandex делает предположение, что эти фразы поиска как-то взаимосвязаны. Если такая взаимосвязь наблюдается у нескольких человек, то такие ассоциативные запросы показываются в правой колонке wordstat.


Такие поисковые запросы сортируются в окошке wordstat в порядке убывания частотности их ввода в связке с основным запросом в этом месяце (показывается частота их употребления в поисковике Яндекса). Вам надо воспользоваться такой информацией, чтобы расширить семантическое ядро вашего ресурса.

Распределение запросов по страницам

После этого необходимо распределить собранные вами ключевые слова (фразы) на страницах вашего сайта. Распределение проводить намного проще, когда у вас еще нет самих страниц.

Ориентируйтесь, прежде всего, на ключевые слова в поисковых запросах и их частотность. С конкурентностью следует поступить так: главную страницу выделите для одного-двух высококонкурентных запросов.

Для среднеконкурентных или низкоконкурентных запросов, оптимизируйте соответственно страницы разделов и статей.

Если в поисковых запросах присутствует семантическое сходство, просто соберите одинаковые фразы и определите их в одну группу. При составлении ключевых слов для продвижения ресурса всегда используйте не только стандартные инструменты, но и творческий подход.

Сочетая нестандартные и классические способы можно просто и быстро создать семантическое ядро сайта, подобрать наиболее оптимальную стратегию раскрутки и намного быстрее достигнуть успеха!