Как правильно составить семантическое ядро сайта в key collector?

Составление семантического ядра — Key Collector | Заработок в Инетернете

Всем привет, с вами Виктор Хольшин, и речь пойдет о том,  как собирать ключевые  фразы, обрабатывать их и фильтровать. Тема видео и статьи — составление семантического ядра key collector для рекламной кампании Яндекс Директ на поиске.

Правильные настройки

В прошлом видео мы разобрали настройки, которые нужны для правильной работы программы key collector,  чтобы не наступили санкции.

Мы с вами выяснили и разобрали, что для этого нужно создать отдельный аккаунт в Яндексе.  Он специально создается для того, чтобы программа key collector в нем авторизовалась, и проводил свою работу.

Основной ваш аккаунт не трогается. Нельзя работать в основном аккаунте там, где у вас почта и корреспонденция и другие данные. Итак, отдельный аккаунт создан в нем авторизуется программа кей коллектор, но вся работа проводится через прокси-сервера и в отдельных аккаунтах которые прикреплены к этим прокси-серверам.

Где покупать мы тоже уже теперь знаем, и поэтому если наступит бан аккаунта, то это будет не наш аккаунт, не наш айпи-адрес,  потому что свой основной айпи мы исключаем из работы.

Это будет прокси сервер, который мы просто удаляем,  уменьшаем количество потоков и продолжаем дальше работать.  В дальнейшем мы снова покупаем и  действуем более грамотно и осторожно, чтобы никаких санкций со стороны Яндекса не последовало.

Потому что в принципе для Яндекса  важно чтобы работа проходила по правилам, по тем алгоритмам, которые там заложены.

Таким образом, мы настроили программу key collector и приступаем к работе.

Парсинг ключевых запросов

Для того чтобы начать парсинг в кей коллектор, на нам нужно создать проект.  Парсить будем по группам, потому что это удобно для создания релевантных объявлений, создания объявлений по тематическим запросам.

Какие запросы будем парсить?

Есть лэндинг, на который нужно направить целевой трафик тема обучения фотографии. Создадим группу искусство фотографии, и теперь нажимаем на вот эту красную пиктограмму, это пакетный сбор слов из левой колонки yandex wordstat, который находится на сервисе Яндекс Директ.

Жмем на кнопку начать сбор. Создадим для примера три группы и будем с ними работать. Важно понять сам принцип  работы и увидеть возможности программы.

Обработка базы ключевых слов

После завершения парсинга приступаем к обработке этих запросов. В первую очередь нужно удалить неявные дубли, и мы нажимаем на вкладки «данные — анализ неявных дублей».

Key Collector умная машина она настроена на алгоритмы Яндекса и поэтому она все словоформы которая Яндекс воспринимает одинаково (словоформы в рамках одной части речи, а так же слова с предлогами), считает дублями и отмечает к удалению.

Теперь мы приступаем к очистке этих баз. Сейчас перед нами стоит важная и ответственная задача: очистить базу ключевых слов от нецелевых запросов.

Нецелевой запрос направлен на другую целевую аудиторию, у него другой смысл, в нем присутствует как раз то слово, которое придает ему этот смысл, и наша задача — найти эти фразы, выделить эти слова, занести их в список минус-слов, а те фразы, в которых присутствуют эти слова, удалить.

Для начала нам нужно объединить существующие группы, чтобы это было как бы единая группа.  Для этого мы становимся на верхнюю группу, потом зажимаем shift, опускаемся на последнюю группу, кликаем, и таким образом, выделяем.

Далее нажимаем на опцию «включить режим просмотра мульти группы для выделенных групп».  И вот у нас  эти три группы объединились в одну. И в этой мульти группе мы продолжим работу по составлению семантического ядра в key collector.

В следующем уроке мы найдем все нецелевые фразы, выделим минус-слова и поместим их в отдельный файл, а все нецелевые фразы удалим.

Источник: https://mpartnerka.ru/2017/11/14/parsing-slov-key-collector/

Key Collector: как настроить и собрать семантическое ядро

Программа Key Collector — это многофункциональный инструмент, предназначенный для получения данных, необходимых для продвижения сайта. Основной функцией кейколлектора является сбор запросов для семантического ядра. Также она обладает возможностью парсить различные показатели сайта:

  • частотность и конкурентность запросов;
  • ссылочные бюджеты с агрегаторов Rookee, MegaIndex, SeoPult;
  • позиции сайта в поисковой выдаче Яндекса и Гугла;
  • число главных страниц ресурсов в выдаче.

Кейколлектор пользуется огромной популярностью как среди SEO-специалистов, так и среди маркетологов и специалистов по контекстной рекламе. Основные достоинства программы:

  1. Тонкая настройка парсинга;
  2. Экспорт результатов в форматы Экселя;
  3. Многопоточность парсинга благодаря поддержке прокси;
  4. Подсчет стоимости ссылочного продвижения, исходя из данных ссылочных агрегаторов;
  5. Хорошая тех. поддержка;
  6. Подсчет стоимости кампаний контекстной рекламы;
  7. Обилие мануалов и прочей обучающей литературы.

Как настроить

Несмотря на большое количество положительных моментов при работе и обширный функционал, настройка key collector требует особого внимания.

Часто в работе случаются неполадки и их решению посвящены большие ветки на различных тематических форумах. Чтобы избежать наиболее распространенных ошибок, следует правильно настроить кейколлектор.

Заходим в настройку кейколлектора, кликнув по соответствующей иконке.

Настройки парсинга

Главной задачей является правильная настройка парсинга. На вкладке «Общие» обращаем внимание первую графу.

Как показывает опыт пользователей КК лучше всего выставлять «не более 7 слов», так как длинные фразы приводят к сбоям в работе парсера.

Касательно таймаута ожидания, то целесообразно выставить значение из диапазона 30 000-50 000 мс.

В режиме сбора ставим галочку напротив «строк с неполученными данными» во избежание перезаписи данных и для заполнения пустых таблиц.

Далее переходим на вкладку Yandex.Wordstat. Важно понимать насколько обширна ваша тематика. Обычно, значение глубины парсинга или оставляют по умолчанию 0, или выставляют 1.

Если тематика узкоспециализированная, то можно поставить 2, или в редких случаях даже 3 для получения максимального результата. Обратите внимание на настройку обработки частоты запросов.

Здесь все зависит от ваших целей.

Поскольку с разгадыванием русской капчи часто случаются трудности, лучше ставить по-больше величину задержки. Количество потоков выставляется в зависимости от количества прокси. Если прокси отсутствуют, то оставляем значение 1.

Выставляя количество потоков учитывайте использование основного айпишника. Если у вас три прокси и вы ставите галочку на основной ip-адрес, то потоков будет четыре.

Во вкладке Гугл Эдвордс вводим адрес и пароль почты в форме логин:пароль.

Указывать логин следует без @gmail.com.

Здесь также можно выставить глубину парсинга и величину задержки. Известно, что Гугл довольно придирчив к парсерам и все подозрительные мгновенно отправляет в бан. Рекомендуется выставить большие задержки, особенно если парсить с основного IP (10 000-25 000 мс).

Поскольку статистикой Рамблера пользуются довольно редко, то парсинг будет всегда стабильным. Не стоит выставлять большое значение задержки. Что касается парсинга страниц, то оптимальное значение 5. При более высоких цифрах есть шанс спарсить всякий шлак.

Во вкладке Яндекс Директа следует указать аккаунты, через которые будет осуществляться парсинг. Чем больше аккаунтов — тем лучше, так как они могут быстро улететь в бан. Обратите внимание на строку по ограничению количества капч. Потоки выставляются по аналогии с Вордстатом.

Чем чаще высвечивается капча в аккаунте, тем скорее он будет заблокирован.
Рекомендуется в настройках выставить значение не больше 20.

Покупка и подключение прокси

Сервисов, где можно купить прокси для keycollector там много, что приведу разве что host4.biz

Не рекомендую искать бесплатные прокси, так как толку от них сущий нуль.

Для подключения прокси в кейколлекторе необходимо перейти в раздел «Сеть». Здесь нужно выбрать нужный протокол. Остальные настройки выставляете под свои нужды.

Далее, заносим данные прокси через окно «Добавить из буфера». Обратите внимание на форму записи.

Если у вас список проксей находится в url-е, то можно подгрузить и таким способом.

Чтобы проверить работоспособность прокси, необходимо выбрать режим проверки (ограничимся обычным) и отправить запрос либо поисковой системе (Яндекс/Гугл), либо базе статистики (Вордстат). В случае удачной отправки, прокси засветится зеленым цветом.

Хорошим аналогом прокси является использование лимитов Яндекс XML.

Другие настройки

В настройке интерфейса во вкладке «Прочее» можно поставить галочку напротив функции «Не обновлять содержимое таблицы после групповых операций». Вы получите ускорение в работе с большими проектами. В таком случае они будут обновляться не автоматом, а вручную.

Для автоматического распознавания капчи зайдите в раздел «Антикапча» и выберите удобный для вас сервис по разгадыванию. Полученный ключ вставьте в соответствующее поле.

Раздел KEI кейколлектора позволяет занести формулы пользователя для определения показателей конкуренции, которые можно вычислить по данным Яндекса и ссылочных агрегаторов. Формулы моно вбивать в любую строку и в любом порядке. Результаты будут находится в соответствующей колонке. Ради удобства приведу полезные формулы, которые можно просто скопировать в программу.

Аналог Key Collector

Бесплатным аналогом кейколлектора является небезызвестный Slovoeb, в которым скопирован даже дизайн. Младший брат, так сказать. Разница состоит в том, что Словоёб ограничен по функционалу. Возможности парсинга сосредоточены на рунетовских системах, таких как Яндекс и Рамблер.

Однако через Словоеб можно собрать позиции и релевантные страницы сайта в Гугле. Большинство настроек аналогичны с КК. Экспорт файлов в Эксель присутствует.

Что делать, если программа не запускается

Выше приведены примеры настроек и необходимые рекомендации, которые избавят вас от наиболее популярных ошибок в работе с кейколлектором. В любом случае, вы уже будете понимать, что могло перестать работать, отлететь в бан и т.д.

Если у вас возникнут проблемы с самой программой, то есть с софтом, то вам следует обратиться за помощью в техническую поддержку, которая осуществляет связь с пользователями через приложение SupportKC.exe. Если по каким-либо причинам доступ к приложению невозможен, можно написать на мыло myonlinestudio@ya.ru.

Источник: http://znet.ru/instrumenty/keycollector/

Как подбирать и кластеризовать запросы для сайта простым способом

Привет уважаемые читатели seoslim.ru! Сегодня я хочу продолжить тему составления семантического ядра для сайта, но на сей раз внимание уделю кластеризации запросов.

Если вы редко публикуете статьи, то стало быть подбор запросов осуществляете ручным способом, то есть берете ключ, далее смотрите поисковую выдачу, анализируете wordstat.yandex.ru и расширяете семантику с помощью Кей Коллектора или бесплатной программы Словоеб.

Затем на основе полученных запросов пишете оптимизированную статью и так проделываете каждый раз.

Но большая половина вебмастеров вообще не прибегает к написанию статей, ведь для этого существуют копирайтеры, которых полно на биржах: Etxt, Textsale, Миратекст, Адвего, ContentMonster.

Здесь за небольшие деньги всю рутинную работу по созданию контента возьмут на себя другие люди.

От нас потребуется только постоянно давать задания (список запросов под который надо писать пост).

А теперь представьте, что вы решили создать сайт под определенную нишу и вам надо подготовить порядка 100 — 500 статей. Для каждой статьи подобрать релевантные запросы, убрать слова пустышки и те у которых большая конкуренция.

И после того, как все будет сделано останется огромный список запросов (1000 — 30 000, все зависит от СЯ), которые надо отсортировать по группам, дабы они в будущем превратились в полноценные статьи.

Другими словами, надо сделать кластеризацию, где конечным результатом станут сформированные группы подобных запросов для одной страницы сайта.

Большинство старается заниматься группировкой ключей ручным способов и если есть немного навыков работы в Кей Коллекторе, то сей процесс не покажется сложным.

Но я предлагаю в этой статье упростить себе задачу с помощью программы KeyAssort, которая заточена под автоматизацию процесса и самое главное отфильтрует фразы, у которых нет общих URL в SERP.

Такой подход к составлению семантического ядра позволит отказаться от запросов, которые сложно продвинуть в ТОПе поисковиков.

Умная кластеризация работает следующим образом:

  • Берется запрос из списка и для него собираются URL-адреса из выдачи поисковой системы;
  • Запросы между собой сравниваются на наличие общих URL-адресов;
  • Фразы у которых есть совпадения по общим URL попадают в группу.
Читайте также:  В чем заключается суть рерайтинга?

Простой пример, фразы «туры в Таиланде цены» и «отдых в Таиланде цены» сходу и не скажешь стоит ли их включать в одну группу, так как непонятно что конкретно ищет человек, путевку в Таиланд или просто ему интересно узнать об отдыхе.

Но если взглянуть на ТОП-10 Яндекс сразу видно, что по первому ключу в выдаче присутствуют сайты, предлагающие купить тур.

А по второму ключу также есть подобные сайты, предлагающие купить путевки.

В таком случае будет уместно два этих запроса включать в одну группу.

Но чтобы нам каждый раз не смотреть сайты из SERP лучше воспользоваться специальным софтом, который всю рутину по группировке запросов возьмет на себя.

Нам только останется указать в настройках силу группировки, то есть задать минимальное количество общих URL-адресов, которые и будут влиять на объединение запросов в группы.

Именно таким функционалом обладает программа KeyAssort, теперь вы забудете о таком страшном слове «кластеризация», потому что разработчики максимально решили упростить процесс сбора и анализа семантического ядра сайта.

Все желающие могут воспользоваться данным софтом совершенно бесплатно, единственное что потребует оплаты, это функция экспорта данных.

Со стоимостью лицензии KeyAssort ознакомьтесь на этой странице.

Способы составления семантического ядра для сайта

После выбора ниши сайта, следующий этап не менее сложный, так как предстоит составить список всех запросов будущих статей.

В сети описано не мало способов как собирать СЯ, тем более что инструментов для этого предостаточно: системы аналитики, программы, базы.

Настоятельно рекомендую прочитать статью 40 инструментов для работы с семантикой сайта, где каждый сможет выбрать подходящий для своих нужд способ, дабы на выходе получился готовый список ключей, способный стать структурой сайта.

Небольшой пример, как это делаю я …

Например, надо составить структуру сайта на тему устройство и ремонт автомобиля.

1) Идем в Вордстат wordstat.yandex.ru и смотрим на базовую частотность основного ключа, она должна быть не менее 15 000 — 20 000 запросов в месяц.

Конечно же все зависит от ниши, если она узкая, то можно брать и меньшее значение.

2) Если с частотностью все в порядке, можно переходить к сбору самих запросов.

Я для этого предпочитаю анализировать сайты конкурентов, открытые счетчики посещаемости и рейтинги от Mail.ru, LiveInternet, Ucoz.

На анализе конкурентов хочу остановиться подробнее, так как мне больше нравится брать для проектов запросы, которые уже приносят трафик другим сайтам и если оставлять для продвижения запросы с низкой конкуренцией, то так же можно рассчитывать на свою долю переходов из поиска.

Мне приходилось парсить запросы конкурентов с помощью сервисов SpyWords и Serpstat. Но к последнему (бывший Prodvigator) я больше привязался и поэтому пользуюсь его услугами по сей день.

Тем более в Serpstat можно выполнять множество других задача, например, провести аудит сайта и исправить найденные ошибки или определить релевантность отдельной страницы сайта.

Переходим в Серпстат, регистрируемся и оплачиваем тарифный план, чтобы снять ограничения на лимит запросов.

Далее можете сразу вбить в строку поиска анализируемый домен и выбрать поисковую выдачу.

На следующей странице переходим в раздел «Анализ доменов» — «SEO-анализ» — «Позиции» или кликните на таблицу «Поисковые запросы в органическом поиске».

Перед нами появится таблица со всеми запросами анализируемого сайта в каждой из поисковых выдач.

Источник: http://SEOslim.ru/seo/kak-sostavit-semanticheskoe-yadro-sajta-sbor-zaprosov-i-klasterizaciya-klyuchevyx-fraz-v-keyassort.html

Пошаговый алгоритм сбора семантического ядра. Все ли вы применяете, из того, что давно известно?

Семантическим ядром (СЯ) сейчас называют группу запросов, объединенную порядком слов или по смыслу.

Когда нужно семантическое ядро

Семантическое ядро составляют для:

  • Построения правильной навигации по сайту и создания трафиковых категорий
  • Настройки рекламных компаний в Google Adwords и Яндекс.Директ
  • Написания правильных статей на сайт: с ключами и правильной смысловой разбивкой по заголовкам.

В последнем случае составление СЯ особенно актуально. Например, структуру категорий можно подсмотреть у конкурентов, рекламу можно настроить просто спарсив ключи и отминусовав какие-то жесткие слова — у каждого, кто настраивает рекламу, есть общий список минус-слов.

Писать статью, не имея ТЗ для копирайтера — бессмысленно. Он может не разбираться в теме, не понять, чего вы ожидаете и написать отсебятину. Тема не будет раскрыта, статья не будет интересна и у нее будут плохие поведенческие. Смысла в написании такой статьи нет.

Workflow составления семантического ядра

Источники ключевых слов

Где брать ключи — первый вопрос, на который вы должны знать ответ. Их можно спарсить или выгрузить:

  • Key Collector — основной инструмент парсинга, он собирает актуальную информацию из поисковиком и ваших систем аналитики (Метрика, ГуглАналитикс)
  • Сервисы видимости сайта — Мегаиндекс, key.so, SerpStat, RushAnalitics, много других — дают общую картину, какие ключи  дают трафик сайту.
  • Базы MOAB, Пастухова, Букварикс. Первая и вторая платная, причем Пастухова не очень актуальна и там полно мусора.

1. Сбор ключей через Вордстат

Итак, через Вордстат (с использованием плагина Yandex Wordstat Assistant) собираем 10-50 ключей, которые будем парсить через KC (Key Collector). Больше слов сначала соберем — больше НЧ и хвостов получим на выходе.

Сколько изначально ключей парсить — зависит от того, что мы на выходе хотим получить. Если нужно наиболее полную статью — значит, нужно больше хвостов собрать.

2. Парсинг и чистка списка ключей в KeyCollector

Тут все просто — парсим все, до чего можем дотянуться: левая (иногда и правая колонка вордстата), поисковые подсказки, Rooke, Mutagen — к чему только есть доступ. После этого — чистим. Предварительно, не забываем указать регион парсинга.

Если сложно разобраться в Коллекторе — хороший курс выпустил Роман Пятнко. Если влом во всем этом разбираться — можете заказать сбор ядра.

На этапе чистки и кластеризации — основная потеря времени. Однако, это дело можно автоматизировать. Чистку можно ускорить, если использовать советы от Михаила Шакина.

Тут нет причины повторяться, но если заниматься на постоянной основе, то нужно всегда держать под рукой список слов, которые нужно минусовать в любом проекте: все эти 6 букв (когда люди кроссворды разгадывают), www, купить щенка, 2012, 2013 и прочий мусор.

Какие ключи обычно стоит удалять

  1. которые содержат топонимы не вашего региона
  2. явно мусорные на основе анализа групп и неявных дублей
  3. названия крупных магазинов, варианты написания запроса на латинице, а часто почти все запросы, если это не названия брендов
  4. ключи из 8 слов или те, у которых запрашиваемость — 0. Выяснить это можно, если собрать частотность, но — внимание!!! — некоторые запросы могут быть сезонными

3. Кластеризация и группировка запросов

В результате всего этого останутся только 30-40% годных запросов.

Далее их нужно группировать — это можно сделать вручную: полностью, ручками, в экселе — до утра и без обедов и перерывов. Можно еще использовать сервисы по типу Keyword Assistant, но мне больше нравится Кейса, а так можно использовать любой, который понравится.

Можно пойти еще дальше и использовать кластеризацию по топам. За основу группировки запросов берется анализ поисковой выдачи. Тут более подробно, если кому интересно.

Дешевле это делать через Раш-Аналитикс, к примеру. К стати, что касается Раш-аналитикса, то сервис перспективный, хорошо растет. Учитывая, что было год-два назад, много что улучшили.

4. Составление ТЗ копирайтету

Финиш. Тут начинается творческая работа. Обязательно отмечаем, какие в статье должны быть подзаголовки, а если копирайтер опытный, то можно его вообще попросить написать текст с HTML-разметкой. Если нет шаблона ТЗ — свободно гуглится: что-то типа «пример ТЗ копирайтеру». Правим тот шаблон, что нашли и отправляем на копирайтинг.

Источник: https://vernigora.com/get-semantic.html

№1 — Как собрать семантическое ядро блога?

Добрый день! В прошлый раз мы разбирались в том, с чего необходимо начать создание сайта. Если вы смогли для себя ответить на все поставленные в прошлой теме вопросы, то это значит, вы готовы идти дальше и в конечном итоге запустить свой интернет-проект, конечно же, с моей помощью

Источник: http://vysokoff.ru/seo/kak-sozdat-sait/kak-sostavit-semanticheskoe-yadro-saita.html

Сбор семантического ядра для директа

Сбор семантического ядра

  • Ручной сбор семантического ядра
  • Размножение вглубь через key collector

Давайте немного познакомимся. Я Михаил Антонов, сертифицированный специалист по контекстной рекламе с многолетним опытом. Через мои руки, прошли уже более 200 разработанных кампаний в контекстной рекламе, и за плечами взлёты и падения конверсий и продаж сайта, разными случаями. Один из них — это оптимизация семантического ядра. Многие желают рекламироваться по всем ключевым запросам, которые можно найти вообще в интернете, разделяя их на холодные, тёплые и горячие. Как например в бизнес молодости дают кейс, что продают дома по запросу «шашлык»

Источник: https://promoprof.ru/sbor-semanticheskogo-yadra/

Создание семантического ядра с помощью Key Collector

Автор: BloggerMen | Опубликовано 01-08-2011

Рубрика: Продвижение сайтов

Метки: seo-софт, Продвижение по НЧ, Семантическое ядро

Создание семантического ядра – это один из первых и важнейших шагов по продвижению сайта. От его правильности зависит количество/качество трафика и стоимость/эффективность продвижения.

Это прописные истины, который знает каждый SEO-шник. Методы работы с ключевыми словами у каждого свои. К тому же они во многом зависят от способа продвижения.

Если речь идет о сотнях, а у кого-то и тысячах НЧ – это одно, о нескольких ВЧ + СЧ – другое.

Последнее время все больше вебмастеров, впрочем, как и клиентов отдают предпочтение продвижению по НЧ. Это дает возможность снизить бюджеты, особенно в случае с временными ссылками, и получить максимально целевой трафик, который легко конвертируется. Сложность только в создании семантического ядра.

Один из методов я уже описывал здесь, но он достаточно трудоемкий. Если составить ядро для одного сайта, еще куда ни шло. Потратил день-два и закупай не спеша ссылки. А с большим количеством проектов уже сложнее. К тому же данную операцию нужно периодически повторять. Естественно процесс хочется автоматизировать. Что и позволяет сделать Key Collector.

Программа появилась не так уж давно, но успела быстро завоевать признание в среде оптимизаторов. По крайней мере, отзывы о ней самые положительные.

На момент ее появления у меня особо не было необходимости в подобном софте, поэтому покупка не состоялась. Но недавно просто пришлось о ней вспомнить.

Создание семантического ядра для одного сайта у меня затянулось на два дня, по причине огромного количества мусорных запросов. Перелопатив вручную несколько тысяч ключей, пришлось немедленно покупать софт.

На этом бы дело и кончилось, я не сторонник хвастатьсякаждой новой покупкой в блоге. А писать очередную инструкцию, которых и так достаточно, не было смысла. Но через пару дней работы с Key Collector у меня остался всего один вопрос: почему я не сделал этого раньше???

Не могу сказать, что по времени сильно выигрываешь. На составление семантического ядра для одного из моих сайтов потребовалось 2 дня. Но…. Теперь программа работает, а я занимаюсь своими делами. Экономия личного времени колоссальная. А теперь немного практики.

Расписывать в подробностях смысла особого не вижу, это уже и так сделано. Просто покажу на скриншотах как это делаю я. Итак…

Из настроек нам понадобиться указать регион для парсинга поисковой выдачи:

Нужное подчеркнуто красным. Номер своего региона можете поискать . Остальное нас пока не интересует. Теперь нажимаем парсинг статистики LiveInternet, вводим домен (не путать с url), пароль к статистике (желательно гостевой) и нажимаем «Начать парсинг».

В результате вы получите множество поисковых запросов. Их количество зависит от сайта, но минимум пару тысяч должно быть. Естественно среди них много мусора, который и будем отсеивать. Для этого нужно определить частотность каждого. Чтобы получить более точный результат, выбираем вариант с кавычками.

Читайте также:  Закупка ссылок на сайт - нужно ли?

На следующем шаге избавимся от «пустых» запросов, то есть имеющих менее 20 (можете выбрать свой вариант) показов в месяц и слишком популярных – более 1000 показов. Приведенные числа могут корректироваться в зависимости от тематики и самого проекта. Это делается с помощью фильтров.

Вводим критерии отбора

Выделяем отфильтрованные варианты и удаляем. Остальные копируем на вкладку релевантные страницы, указываем url сайта и нажимаем «Определить релевантные страницы…» в Яндекс.

Теперь можно спокойно занимать своими делами. При большом количестве запросов процесс получается достаточно продолжительным. По окончании копируем все на вкладку «Съем позиций» и запускаем «Съем позиций в ПС Яндекс», не забыв указать адрес сайта.

Продолжаем заниматься своими делами…. По завершению остается отфильтровать позиции до 3 и ниже 20-30 (во многом зависит от размеров семантического ядра) по аналогии с частотностью и сохранить оставшуюся базу.

Можно еще провести фильтрацию на стоп слова, но я предпочитаю просмотреть все урлы и руками убрать лишнее. Много времени это не займет, зато будет уверенность, что нет всякого мусора.

Как видим создание семантического ядра не требует огромных затрат личного времени, но позволяет подобрать большое количество ключей для продвижения по НЧ. При их правильном использовании, трафик можно увеличить вдвое или больше.

Сейчас как раз провожу небольшой эксперимент по одному сайту, если результат будет успешным, обязательно напишу в блоге.

Вопросы, дополнений и критику жду в комментариях.

P. S. Если вы решили немного обустроить свое жилище, но не знаете как выбрать остекление балконов, переходите по ссылке. Найдете много интересной информации.

Popularity: 6%<\p>

Источник: http://bloggermen.ru/sozdanie-semanticheskogo-yadra-s-pomoshhyu-key-collector/

Как составить семантическое ядро в Key Collector

Здравствуйте, здравствуйте!

Сегодня у меня в гостях друг и просто хороший человек, который в блогосфере известен под ником Seodjo. После продажи своего старого блога он не ушел из блогосферы, а начинает развивать свой новосозданный блог и обещает радовать нас новыми интересными постами. А сейчас предлагаю вам ознакомиться с его гостевым постом, который называется “Как составить семантическое ядро в Key Collector”.

Всем привет! Сегодня хочу рассказать вам, как я составляю семантическое ядро для продвижения сайтов в поисковых системах. Как я говорил раньше, я потихоньку перехожу на сайты под трафик.

А для это нужно знать какие запросы стоит продвигать, а какие лучше отложить на потом.

Для составления списка ключей, я использую софт под названием Key Collector, узнать подробнее об этой программе можно тут.

Интерфейс программы выглядит следующим образом:

В основном я пользуюсь тремя способами подбора ключей:

1) Ручной –  ввожу необходимые запросы, проверяю их частотность и оставляю только нужные запросы

2) Парсинг со счетчиков ЛИ.ру

3) Парсинг поисковых подсказок

Давайте рассмотрим каждый способ подробнее

1 – Для ручного способа я анализирую сайты конкурентов, смотрю по каким запросам к ним переходят на сайт,  выбираю понравившиеся и добавляю в программу. В основном мне помогает меню “Самое популярное” в сайбдаре. К примеру возьмем несколько запросов с одного сайта:

Начинаем анализировать эти запросы в Yandex.Wordstat:

Зеленым показаны запросы, которые я оставлю, красным, которые я удалю. Как я это определил? В Key Collectore есть такая колонка как KEI- конкуренция по запросу.

Чем больше в нем значение, тем сложнее будет вывести запрос в Топ. Поэтому я стараюсь отбирать только те запросы, KEI которых меньше 10.

Хотя у меня бывало и такое, что запрос с конкуренцией в 300+ я выводил в Топ 3 при самых скромных затратах.

На что еще следует обращать внимание, так это на количество запросов в месяц в колонках Частота и “!”. Частота  — отображает общее количество запросов в месяц по данному ключу. Статистика довольно таки расплывчатая, и может сильно отличаться от реальной. “!” – показывает количество запросов при точно вхождении фразы типа: “!слово1 !слово2! слово3!”.

Как видно на скриншоте, 7 запрос имеет 10317 запросов в месяц, но при точном вхождение ключу получаем всего 35 запросов в месяц. Такие запросы называются пустышками, и от них лучше избавиться, чтобы не переплачивать лишние деньги на продвижение.

2) Если лень собирать запросы самому, можно напарсить их с ЛИ.ру. Для этого переходим по этой ссылке, выбираем нужную тему, и начинаем искать сайты, с которых будем воровать запросы. Для примера возьмем категорию путешествия. Начинаем искать сайты с открытыми счетчиками.

Не советую вам парсить сайты с высокой посещаемостью, потому как они обладают огромным трастом, и им вытащить запросы гораздо легче, нежели молодому сайту. Поэтому начинаем искать те, у которых посещаемость не превышает 500 и меньше хостов в сутки.

Отбираем те, у которых открыта статистика по поисковым фразам. Например вот эта.

Запускаем парсинг:

За пару минут он нашел мне более 3000 запросов, по которым переходят на данный сайт. Я думаю для начального анализа вполне достаточно. Далее запускаем парсинг частотности с Wordstat и отбираем необходимые, низкоконкурентные запросы. Так как для туристических сайтов важным фактором является сезонность, то можно будет проверить на нее оставшиеся запросы.

Собранные мною запросы оказались не сезонными, о чем свидетельствует возрастающий график запросов.

3) Парсинг поисковых подсказок поможет найти все запросы связанные с вашими ключевыми словами. Он позволяет подобрать смежные запросы для увеличение трафика. Например возьмем запрос: раскрутка сайта. Начинаем парсинг, и уже через 5-10 секунд, у нас есть 130 смежных запросов, таких как:

В итоге мы получаем кучу запросов, которыми можно продвигать 1 общую статью. Что бывает очень полезно для сбора низкочастотного трафика.

После того, как мы составили семантическое ядро, мы можем проверить на каких позициях находится наш сайт по данным запросам. Для этого копируем их во вкладку съем позиций, указываем наш сайт и запускаем сбор статистики по Яндексу и Гуглу.

Как мы видим, сайт bdbd.ru по данным запросам находиться на хороших позициях в Гугле, и отсутствует в Яндексе.

Ну что же, огромное спасибо Джонни за столь интересный материал.

После этого поста я окончательно решил, что программа Key Collector имеет сумасшедший функционал, который способен ооочень сильно облегчить работу вебмастера по составлению семантического ядра.

Надеюсь в ближайшее время я стану обладателем данной программы и также напишу пост или инструкцию по работе с какой-то функцией Key Collectora.

Спасибо за внимание. Если вы тоже захотите опубликовать гостевой пост на моем блоге, пишите в аську или на почту, я всегда буду рад вам.

{lang: 'ru'}

Источник: http://bikker.ru/kak-sostavit-semanticheskoe-yadro-v-key-collector

Составление семантического ядра с помощью программы Key Collector

Семантическим ядром сайта называют список ключевых слов, по которым планируется продвигать этот сайт.

В зависимости от типа ресурса и целей продвижения, размер семантического ядра может варьироваться от десятка ключевых фраз до нескольких сотен и иногда тысяч ключевиков.

Чаще всего для коммерческих сайтов малых фирм, предоставляющих какую-либо услугу или продающих товар, оптимизаторы предлагают продвигать сайт по небольшому ядру запросов без учета низкочастотных фраз.

В данной статье рассмотрен пример составления семантического ядра запросов с помощью инструмента Key Collector для сайта, предоставляющего такие услуги, как продажу и монтаж рольставней, нанесение изображений на рольставни и другие. Цель продвижения – целевые посетители с высоко и среднечастотных запросов в Московском регионе.

Итак, перед началом работы необходимо настроить проект. Для этого заходим в настройки, кликая на соответствующую иконку в панели инструментов.

В настройках в первой вкладке указываем страниц 99 (сколько страниц будет парсится из вордстата) и глубину парсинга 2. Это мои стандартные настройки, можете подобрать для себя другие.

Если вам надо парсить низкочастотные слова, то, возможно, понадобятся proxy или “Анти-капча”. Я использую Antigate для того, чтобы выдаваемая при большом количестве запросов капча яндекса распознавалась автоматически.

Далее нам необходимо указать регион. В зависимости от региона будут разные цифры частотностей ключевых фраз, поэтому ориентируемся на свой, в нашем случае на Москву и область.

Проект настроен и готов к работе. Теперь нам необходимо задать основные ключевые фразы для проекта, высокочастотные фразы, чтобы спарсить из вордстата менее частотные. Жмем на иконку “Парсить Yandex.Wordstat”.

И далее вводим ключевое слово (или несколько) и начинаем парсинг. В результате мы получаем таблицу из ключевых слов и частотностей их показа в Яндексе, взятых из статистики Wordstat. Этот список теперь необходимо отредактировать, удалив ненужные или малоэффективные ключевые фразы. Например, выделяем все фразы, не подходящие по смыслу сайта.

Для удобства лучше воспользоваться редактированием списка стоп-слов. Запускаем редактор, кликая на соответствующую иконку.

И далее вводим стоп-слова, то есть те, ключевые фразы с которыми вы хотели бы отфильтровать в своем результирующем списке. Например, если вы продаете рольставни, то запрос “схема рольставней” не подходит и слово “схема” можно занести в список стоп-слов для дальнейшей фильтрации.

После того, как вы ввели все нужные стоп-слова и отметили ключевые фразы с этими словами в таблице, можно их смело удалять, кликая на иконку “удаление отмеченных”.

На этом еще процесс составления семантического ядра не закончен. Уточним частотности ключевых фраз, нас интересует частота показов поисковой выдачи Яндекса по точному вхождению фразы (четвертая колонка). Для уточнения частотностей кликаем лупу в панели инструментов.

Процесс уточнения будет по времени зависеть от количества ключевых слов в таблице. С установкой малых задержек в настройках для парсинга частотностей на 300 ключей у меня уходит минут 6-8.

После того, как все частоты известны, в таблице можно видеть большую разницу для некоторых фраз между общей и точной частотами (второй и четвертой колонками).

Продвижение по таким ключам будет затратно, так как их выбирают многие, а эффекта получится минимум, так как настоящее количество показов поисковой выдачи при точном вхождении фразы намного меньше, чем при неточном.

Необходимо почистить все кеи, удаляя неэффективные ключевые запросы, взяв какой-нибудь критерий. Например, отсортировав таблицу по четвертой колонке и удаляя слова с минимальным значением частот или же используя формулу (KEI). Я использовал следующую простую формулу для выявления неэффективных запросов.

После того, как вы введете формулу в настройках, выбирайте в панели инструментов “KEI – Расчет по имеющимся данным”.

Подсчет происходит почти мгновенно. После этого отсортируйте таблицу по столбцу KEI и вы увидите примено следующую картину.

В этой таблице мы видим все фразы у которых KEI < 1.5. Я считаю эти фразы неэффективными для продвижения, поэтому удаляю их из общего списка.

На этом семантическое ядро почти готово. Можно лишь снова отредактировать KEI, введя формулу подсчета траффика для вашей позиции. После этого пересчитать таблицу и получить наряду с частотностями столбец с прогнозируемым траффиком для своего региона.

Также в программу встроены другие средства для дальнейшего определения бюджета на продвижение сайта по выбраным словам (ядру запросов), определения трафика по агрегаторам (можно сравнивать цифры с рассчитаными нами для трафика). Следует еще обратить внимание на формулу KEI, которая является, по сути, любой формулой, параметрами которой являются данные столбцов, её использование очень удобно для оперирования с семантическим ядром.

Если у вас имеются замечания или предложения, или вы знаете другие удобные инструменты, поделитесь своими мыслями в комментариях.

Источник: https://devaka.ru/articles/yadro-saita-i-keycollector

Как составить семантическое ядро в Key Collector?

Key Collector — одна из самых популярных программ для сбора семантического ядра (о том, что это такое, мы писали в статье «Роль ключевых запросов в продвижении сайта»). С ней вы найдёте все ключевые запросы для своего сайта за полчаса. А дальше можно начинать продвижение: заказывать контент у копирайтеров или настраивать контекстную рекламу.

Читайте также:  О вере в себя, в свое дело

Key Collector предназначен для профессионалов, поэтому его интерфейс довольно сложный и недружелюбный. Слишком много кнопок и настроек. Но не переживайте, сейчас мы поможем вам во всём разобраться.

Шаг 1. Установка

Key Collector — платный сервис, стоит 1700 рублей. Никакой абонентской платы нет — вы покупаете программу один раз и навсегда.

Эта программа может стать отличным дополнением к встроенному сервису «Реклама/продвижение» от 1C-UMI: она поможет собрать ещё больше ключевых запросов для вашего сайта и сделать продвижение более эффективным.

Сперва программу нужно установить. Она работает только на OS Windows, версии для Mac OS нет. Что для этого нужно?

Нажмите «Скачайте и запустите Key Collector»

  • 2. Запустите загруженный файл и следуйте инструкциям мастера установки.
  • 3. Когда установка завершится, запустите саму программу и скопируйте код — HID.

Скопируйте HID

  • 4. Заполните форму заявки на сайте и вставьте в неё свой HID.

Важно указать только имя, еmail, HID и способ оплаты

  • 5. Нажмите «Отправить заявку». Сотрудники Key Collector отправят вам письмо с подробными инструкциями о том, что делать дальше.

Теперь осталось только оплатить сервис — и вам пришлют ключ активации. Скачайте его и укажите программе путь к файлу ключа.

Нажмите на кнопку и укажите путь к файлу

Всё, Key Collector активирован и готов к работе.

Шаг 2. Настройка

*В Key Collector много функций, но сейчас мы будем говорить лишь об основных.

Программа уже готова к работе — вы сможете собрать семантическое ядро и с базовыми настройками. Единственное, что нужно сделать до начала работы — указать свою учётную запись «Яндекса». Она нужна для работы.

Важно: не указывайте свой основной аккаунт. Если что-то пойдёт не так — его могут заблокировать.

Для этого:

  • 1. Сначала создайте отдельную учетную запись специально для Key Collector. Это можно сделать здесь → yandex.ru/registration.
  • 2. Теперь запускайте программу. Нажмите «Файл» → «Настройки».

Откройте настройки программы

  • 3. Откройте раздел «Парсинг» → «Yandex.Direct». Кликните в пустое поле под «Логин Яндекс».

Добавляем новый Яндекс-аккаунт

  • 4. Сюда нужно написать свой логин. Если вы его не помните — это та часть почтового адреса, которая идет до @. В поле «Пароль Яндекс» впишите пароль.

Укажите логин и пароль от учетной записи «Яндекса»

  • 5. Теперь нужно проверить аккаунт и активировать его. Нажмите на зеленую кнопку «Запустить» в этом же окне.

Проверка займёт около 10–20 секунд

  • 6. Когда проверка закончится, можете начинать работу.

Закрывайте настройки — начинаем собирать ядро.

Шаг 3. Сбор слов

Мы будем собирать семантическое ядро на примере — «прокат автомобилей в Самаре». Для начала подумаем, по каким запросам нас могут искать клиенты:

  • прокат авто,
  • прокат автомобилей,
  • аренда авто,
  • машина напрокат,
  • прокат авто Самара.

Если сможете придумать больше запросов — отлично. Например, можно указать марки автомобилей, которые у вас есть:

Важно подобрать фразы, которые характеризуют ваш бизнес. Если вы привозите пиццу на дом, ваш список будет выглядеть так:

  • доставка пиццы,
  • заказать пиццу,
  • пицца Самара,
  • пицца на заказ.

С теорией разобрались — давайте перейдём к практике.

Создайте новый проект.

Нажмите «Новый проект» и укажите, в какой папке сохранить файл

Для начала укажите регион, в котором вы работаете. Нажмите на кнопку внизу окна.

Задаём регион для сервиса «Яндекс.Вордстат»

Найдите в списке свой регион, отметьте его галочкой и нажмите «Сохранить изменения».

У нас прокат авто в Самаре — указываем Самару

То же самое сделайте для остальных сервисов.

Выберите свой регион в остальных сервисах, которые использует Key Collector

Теперь подбирайте слова. Мы будем использовать сервис «Яндекс.Вордстат». Откройте инструмент «Пакетный сбор из левой колонки».

Нажмите на красный логотип «Яндекс.Вордстата»

Сюда нужно добавить все запросы, которые вы придумали. Каждый запрос — с новой строки. Нажмите «Начать сбор», чтобы запустить поиск.

Вы можете записать запросы в txt-файл и загрузить список из него

Чем больше фраз вы укажете — тем больше времени уйдёт на сбор. В нашем случае это заняло около 3 минут. Вот что получилось:

Результат сбора слов в «Яндекс.Вордстате»

Key Collector нашёл 1095 запросов и добавил их в список. Давайте отсортируем их по частотности.

Кликните по столбцу «Базовая частота»

Колонка «Дата добавления» не нужна — только место на экране занимает. Скройте её, чтобы работать было удобнее. Кликните по ней правой кнопкой мыши и нажмите «Скрыть колонку».

В Key Collector много инструментов для сбора фраз, но хватит и одного «Вордстата». Остальные попробуете, когда разберётесь в программе. Продолжайте работу с ядром.

Шаг 4. Удаление дублей

Вы собрали все запросы, которые могут входить в семантическое ядро. Но среди них есть много «мусорных», лишних. Их стоит убрать.

Начнём с неявных дублей. Неявные дубли — это запросы, которые немного отличаются друг от друга, но поисковые системы считают их одинаковыми. Вам не нужно иметь несколько одинаковых запросов в ядре, поэтому найдите и удалите их.

Откройте вкладку «Данные» и выберите инструмент «Анализ неявных дублей».

Запустите анализ дублей

Программа просканирует ваш список на наличие дублей. Если ничего не найдёт, предложит другой способ отбора — без учета словоформ. Вы можете включить этот режим и вручную поставить галочку возле параметра «Не учитывать словоформы при поиске».

Не забудьте нажать на кнопку «Выполнить поиск дублей повторно».

Включите поиск без учета словоформ

Key Collector нашел два дубля: «аренда авто на часы» и «аренда авто на час». Один из них нужно выделить. Вы можете сделать это вручную. Но если дублей много, выделять их вручную долго. Лучше используйте инструмент «Умная отметка» — он автоматически выделит по одной фразе в каждой группе дублей.

Отметьте по одной фразе в каждой группе

Закройте окно, фразы останутся отмеченными. Вы можете просто удалить их. Но обычно сеошники так не делают. В программе есть специальная папка «Корзина», куда складывают ненужные фразы. Мало ли что, вдруг потом пригодятся.

Чтобы перенести отмеченные фразы, вернитесь в раздел «Сбор данных» и нажмите «Перенос фраз в другую группу».

Переносим ненужные фразы в корзину

Выберите группу, в которую хотите перенести фразы. В нашем случае это «Корзина».

Выберите «Корзину»

Поставьте галочки напротив пунктов «Перенос» и «Отмеченных». Нажмите «Ок».

Здесь можно выбрать, что вы хотите — скопировать или перенести

Готово, дубль в корзине. Переходим к следующему пункту очистки ядра от мусора.

Шаг 5. Удаление стоп-слов

Скорее всего, большая часть запросов в списке вам не подходит. Они для другого города или вы не оказываете такие услуги. Поэтому все лишние фразы нужно убрать.

Мы будем убирать лишние фразы с помощью списка стоп-слов. Если добавить в этот список слово — программа проверит семантическое ядро и выделит все фразы, в которых оно встречается. Дальше их можно удалить или перенести в корзину.

Давайте подумаем, какие слова можно исключать для любого типа бизнеса:

  • Фото, фотка, фотография, картинка, иллюстрация, видео — иногда людям нужна картинка того, чем вы занимаетесь, чтобы отправить её друзьям или добавить в презентацию. Это точно не ваши клиенты — смело их отфильтровываем.
  • Бренды конкурентов — если кто-то ищет вашего конкурента, вряд ли он зайдёт на ваш сайт. Убираем.
  • Дёшево, недорого — можно оставить, если низкие цены — ваше реальное преимущество. Если нет — убираем.
  • Бесплатно, скачать, торрент, torrent — как и в случае с картинками, это вообще не наши клиенты.
  • Реферат, википедия, вики, wiki — аналогично, удаляем.

В нашем случае добавим в список марки машин, которых у нас нет, и слово «купить» — мы ничего не продаём. Давайте занесём все это в Key Collector.

Кликните по кнопке «Стоп-слова».

Откройте список стоп-слов

Нажмите значок «Добавить списком».

Кликните по зелёному плюсику

Напишите свой список стоп-слов. Стоп-слово — это необязательно одно слово. Можно указывать целые фразы, которые вам не нужны.

Если указываете бренды — пишите названия и на русском, и на английском. Слова лучше писать без окончаний — стоп-слово «москв» удалит фразы с «Москва», «в Москве», «для Москвы».

У нас получился такой список

Вы добавили список в программу. Теперь нажмите «Отметить фразы в таблице», чтобы выделить весь «мусор».

Отмечаем все фразы, в которых есть стоп-слова

Закрывайте окно стоп-слов, фразы останутся выделенными. Сразу перенесите их в корзину.

Теперь начинается самая сложная и долгая часть составления семантического ядра. Вам нужно просмотреть все собранные фразы и выбрать из них «мусорные». Заодно нужно дополнять список стоп-слов, чтобы облегчить процесс расширения ядра в будущем.

Важно: список стоп-слов также пригодится вам для настройки контекстной рекламы.

Просмотрите список. Когда вы находите ненужную фразу, выделяйте её и нажимайте на значок «Отправить фразу в окно стоп-слов».

Добавьте фразу в список стоп-слов

Выберите, какие слова из фразы нужно добавить в список, и нажмите «Добавить в стоп-слова».

Предлоги и союзы добавлять в стоп-слова не нужно

Просмотрите ядро до самого конца, дополните список стоп-слов, а лишние фразы отправьте в корзину.

Есть ещё один инструмент, который немного облегчит вам задачу. Перейдите во вкладку «Данные» и откройте «Анализ групп».

Откройте окно «Анализ групп»

В этом окне фразы группируются по заданным критериям. Вы можете выделить сразу несколько фраз одним нажатием. По умолчанию стоит группировка по отдельным словам. Все фразы с одинаковыми словами попадают в одну группу — это нам и нужно.

Пройдитесь по этому списку и отметьте ненужные слова. Так вы выберете все фразы, в которых они встречаются. Не забывайте добавлять их в список стоп-слов.

Чёрный квадратик означает, что в этой группе некоторые фразы выделены, а некоторые — нет

Так вы оставите в семантическом ядре только нужные фразы и составите полный список стоп-слов. Переходим к следующему пункту.

Шаг 6. Определение точной частотности

При сборе фраз с помощью «Вордстата» вы получаете базовую частотность. Это неточный показатель, ориентироваться на него не стоит. Давайте подберём точную частотность для нашего семантического ядра.

Для этого мы будем использовать инструмент «Сбор статистики Yandex.Direct».

Откройте окно сбора статистики

Укажите, что хотите заполнять колонки вида «слово» (в кавычках). Кавычки как раз и дают нам точную частотность. Запускаем.

Нажмите «Получить данные»

Как видите, точная частота сильно отличается от базовой. По ней вы и будете определять популярность запросов.

Для работы с семантическим ядром используйте точную частоту

Наше семантическое ядро готово.

Шаг 7. Экспорт

Экспортируйте ядро из Key Collector. Нажмите «Файл» → «Экспорт» и укажите папку, в которую хотите сохранить таблицу с фразами. Формат (CSV или XLSX) можно задать в настройках.

Чтобы сохранить список стоп-слов, откройте окно «Стоп-слова» и нажмите «Сохранить в файл…».

Формат этого списка — TXT.

Повторим ещё раз

Итак, мы собрали семантическое ядро для компании, которая занимается прокатом автомобилей в Самаре. Давайте перечислим последовательность действий:

  • 1. Создать отдельный аккаунт в «Яндексе» и подключить его к Key Collector.
  • 2. Придумать список фраз, которые характеризуют ваш бизнес.
  • 3. Собрать фразы из «Яндекс.Вордстата».
  • 4. Удалить неявные дубли.
  • 5. Создать список стоп-слов, удалить «мусорные фразы».
  • 6. Загрузить точную частотность из «Яндекс.Директа».
  • 7. Экспортировать готовое семантическое ядро и список стоп-слов.

Теперь вы умеете работать с Key Collector и сможете составить семантическое ядро для своего сайта без помощи сеошника.

Источник: https://Umi.ru/blog/kak-sobrat-semanticheskoe-yadro-v-key-collector-rukovodstvo-dlya-teh-kto-dalk-ot-seo/

Ссылка на основную публикацию