Меню
безкоштовно
Головна  /  Поради / Як правильно зібрати семантичне ядро. Складаємо якісне семантичне ядро \u200b\u200bЗбір семантики

Як правильно зібрати семантичне ядро. Складаємо якісне семантичне ядро \u200b\u200bЗбір семантики

Оптимізація і просування сайту завжди починається з збору семантичного ядра сайту і підбору ключових слів за тематикою сайту, в залежності від того наскільки правильно зібрано семантичне ядро, залежить успіх просування і оптимізації сайту.

Ми детально розглянемо як правильно скласти семантичне для сайту, які бувають помилки при підборі запитів, а так само які основні інструменти використовуються для збору семантики.

Семантичне ядро сайту - це згруповані в окремі категорії ключові запити (слова) відповідають тематиці вашого сайту і дозволяють користувачам через пошукову систему (Яндекс або Google) знайти Ваш сайт в інтернеті.

Добре пророблена семантичне ядро \u200b\u200bдозволить кожній сторінці вашого ресурсу відповідати певним запитам користувачів і допоможе Вам ефективно продавати свої продукти і послуги, а так само ви зможете залучити цільову аудиторії на сайт.

ВАЖЛИВО!До складання семантики сайту необхідно підійти дуже відповідально і скрупульозно, тому що вибрані ключові слова, будуть застосовуватися при:

  • внутрішньої оптимізації сайту (перелінковка, мета теги)
  • зовнішньої оптимізації сайту (закупівля посилань)
  • складання рекламних компаній ( контекстна реклама, соціальні мережі)

Уважно читайте статтю і не соромтеся задавати питання в коментарях або писати в соціальних мережах, Я із задоволенням відповім на кожен коментар і питання.

Основні поняття і терміни

Запити (ключові слова) - збираються пошуковою системою (Яндекс або Google) для статистики і використовуються пошуковими системами при Яндекс Директ або Google AdWords.

Для збору семантичного ядра Вам необхідно визначити перелік послуг і товарів які ви хочете просувати, і вибрати з яким саме запитам ваші товари або послуги будуть шукати користувачі і покупці.

Насамперед для складання семантики необхідно виписати всі найважливіші слова характеризують тематику вашого сайту, далі написати імовірно до кожної категорії слів, фрази і словосполучення за якими користувачі можуть шукати Вас в мережі (ваші товари або послуги).

Для більш точного збору ядра запитів необхідно розуміти які види запитів бувають, і які види запитів підійдуть Вашому сайту.

Наприкладви надає послугу з ремонту стільникових телефонів в певному районі. Прагнути до того щоб Ваш сайт був першим за запитом «ремонт смартфона» безглуздо і дуже дорого, так як по даному запиту дуже висока частотність, а й дуже велика конкуренція.

Які види запитів бувають

Найважливіше значення за яким сортують запити Seo оптимізатори це частотність запитів. Є 3 основні категорії запитів:

Високочастотні запити (ВЧ) -найпопулярніші запити в основному складаються з 1 2 слів і характеризують тематику в загальному. Багато оптимізаторів ділять частотність виходячи з цифр і починають ВЧ запити від 3000 - 5000 тисяч запитів на місяць. Я особисто вважаю такий підхід невідповідним, і що характеризується ВЧ запити як запити мають найбільшу популярність в тематиці і характеризують тематику в цілому.

приклад:купити годинник (151 759 запитів в місяць по Москві і Московській області) або замовити сайт (14 019 запитів на місяць по Москві і Московській області).

Середньочастотні запити (СЧ) - запити менш популярні і мають зазвичай від 2-4 слів, а так само носять більш точний характер і спрямованість як за географічним змістом так і практичного. Просування по середньочастотним запитам на мій погляд найбільш ефективне і цільове, дає відмінний результат.

приклад:купити годинник недорого (8 596 запитів в місяць по Москві і Московській області) або замовити сайт дешево (439 запитів в місяць по Москві і Московській області).

Низькочастотні запити (НЧ) - найпопулярніші запити складаються з 4-7 слів і мають точний характер запиту і цілком конкретну місію. Зазвичай просування по низькочастотних запитах, найефективніший і швидке, тут необхідно діяти за принципом, "чим більше, тим краще».

приклад:де можна купити купити годинник недорого (90 запитів в місяць по Москві і Московській області) або де замовити сайт дешево (39 запитів в місяць по Москві і Московській області).

Крім частотності для правильного збору семантичного ядра для нового сайту, так само необхідно розуміти наскільки конкурентний запит. Визначити конкурентність запиту можна дуже просто.

Введіть запит в пошуковий рядок і ви виведіть кількість сторінок в базі пошукача задовольняють запит. Чим вища конкуренція тим складніше потрапити в ТОП-10 за даним словосполученням.

За конкурентності запити бувають:

  • Висококонкурентні (ВК)
  • Среднеконкурентние (СК)
  • Нізкоконкурентним (НК)

Висококконкурентние високочастотні запити (ВЧ ВК) одні з найскладніших для просування (приклад - купити годинник), тому коли ви створюєте семантичне ядро \u200b\u200bдля нового сайту, краще не витрачати час і їх не враховувати.

Етапи складання семантичного ядра

Всю роботу по збору семантичного ядра можна розділить на кілька простих етапів. Перш ніж приступати до створення семантичного ядра, Вам варто створити в excle файл в який ви випишіть всі сторінки Вашого сайту, створивши тим самим структуру семантичного ядра.

Припустимо ви займаєтеся продажем устаткування для відеоспостереження, у Вас велика кількість категорій і підкатегорій на сайті, Вам необхідно виписати повністю все категорій і підкатегорії в файл.

приклад:

Кишеньковий годинник

  • механічний годинник
    - механічні чоловічі годинники
    - механічні жіночий годинник
  • кварцовий годинник
  • електронні годинники

Підлоговий годинник

  • механічні пружинні
  • механічні гирьові

Збираємо всі можливі тематичні запити

Для початку необхідно скласти «скелет» ядра запитів, сторінок вашого сайту, основні категорії товарів і послуг, далі до кожної категорії, ви додаєте підкатегорії і підрозділи.

Ви відкриваєте стандартний інструмент для складання семантики «Яндекс Wordstat» і вводите всі передбачувані ключові слова підходящі для певної категорії в рядок пошуку. Виписуючи в файл все без винятку слова.

Дуже добре працювати з підбором запитів в Wordstat допомагає плагін для браузера Yandex Wordstat Assistant (інструкція додається)

Якщо Ваш сайт має регіональну приналежність виберете регіон вашого сайту. Це допоможе більш точно розуміти як часто користувачі вводять запити вашої тематики, в вашому регіоні. (Всі слова не відносяться до вашого регіону відфільтровує і відкидайте заздалегідь)

Збирайте всі можливі запити пов'язані з вашою тематикою і такими, що відповідають контенту ваших сторінок. Коли ви зібрали всі запити для кожної сторінки, можна приступати до наступного етапу.

Відфільтровує невідповідні і порожні запити

на даному етапі у вас повинен бути великий структурований файл з згрупований за тематичним принципом який зібрано велику кількість ключових слів відповідних тематики Вашого сайту.

Серед відібраних вами ключових запитів Вам необхідно вибрати і видалити певні запити:

  1. Повторювані ключові запити «Купити годинник» і «годинник купити» (залишати варто запит звучить більш натурально).
  2. Ключові слова з помилками або помилками «Купити часcи» або «купити муржскіе годинник».
  3. Ключові запити з брендом або маркою які ви не продаєте «Купити годинник apple» або «купити годинник смарт».
  4. Запити зі згадуванням регіону в якому ви не представлені «Купити годинник в Новосибірську», «купити годинник Спб» (якщо ви працює в певному місті, відразу виключайте дані запити зі списку, залишаючи тільки регіон вашої присутності)
  5. Видаляйте з запитів слова містять назви ваших конкурентів (Рекомендую виділити їх в окремий список і рекламуватися за даними запитам в Яндекс Директ, дані запити будуть коштувати недорого, а ви зможете частково відняти клієнтів у конкурента)
  6. загальні запити інформаційного типу (Скачати, безкоштовно, б / у, самому, огляд, відгуки) в будь-яку тематику люди шукають інструкції або огляди на вибір товару, або шукають як зробити безкоштовно або скачати якийсь контент, так як ваша мета продажу товарів і послуг дані слова варто вилучити.

Після того як ви видалили всі перераховані вище ключові слова та підчистили ваше семантичне ядро, Вам варто ще раз уважно подивитися на весь список і повторити отчистки запитів.

Видаляємо загальні і високо конкурентні ключі

Багато високочастотні і висококонкурентине слова на практиці не приносять прибутку, кошти і час витрачений на їх просування не виправдовуються, тому що не зовсім зрозуміло яку інформацію шукає клієнт вводячи високочастотний запит.

приклад: коли користувач вводить запит «механічний годинник», він хоче дізнатися про те як вони працюють, або дізнатися як їх ремонтую, або зрозуміти котрій годині вважаються механічними. Вам складно це передбачити тому такого роду запити варто видаляти. Найкращий запит для Вас це «купити механічний годинник» або «відремонтувати механічний годинник».

Тому я рекомендую видалити з семантичного ядра самі високочастотні запити. Так ви заощадите час і кошти вкладені в просування сайту. Після того як ви видалите всі загальні ВЧ запити ви можете вважати що ваше семантичне ядро \u200b\u200bготове.

У Вас повинен бути файл зі структурою повторює структуру сайту і до кожної сторінки підібрані слова для просування.

Сервіси для збору семантичного ядра

Як було вже сказано пошукові системи збирають дані запитів для прогнозу бюджету в рекламних сервісах (Яндекс Директ і Google AdWords). Для збору семантичного ядра використовують як платні сервіси і окремі програми, так і безкоштовні сервіси від пошукових систем. Ми коротко розглянемо кожну з них.

Безкоштовні сервіси

Безкоштовні сервіси для збору семантичного ядра є найпопулярнішими і часто використовуваними, у кожної пошукової системи є свій сервіс, але му розглянемо тільки два найпопулярніших.

Яндекс Wordstat - один з найпопулярніших сервісів дозволяють більш точно дізнатися які ключові запити за допомогою внутрішніх пошукача Яндекс, в ньому є можливість подивитися «сезонність певного запиту» і «регіональну прив'язку запиту».

Планувальник ключових слів (Google AdWords) - з підбором слів в Google все набагато цікавіше і на перший погляд складніше ніж в Wordstat, але ви зможете більш детально і розгорнуто отримати інформацію про запит, оцінити конкурентність запиту, а так само відразу отримати купу схожих ключів. Багато хто користується як вордстат так і доповнюють запити планувальником ключових слів.

Словоеб - це дуже цікавий інструмент (окрема програма) яка розповсюджується абсолютно безкоштовно і допомагає створювати семантичні ядра всередині неї. Повністю структурируя каталог і збираючи дані як з Wordstat так і AdWords, гнучка в налаштуваннях і дуже зручна.

Платні сервіси

Платні програм і сервіси дозволяють Вам істотно розширити базу ключових слів, так ка збирають не тільки запити з онлайн сервісів пошукових систем, але і враховують додаткові дані.

KeyCollector - одна з найбільш поширених і популярних програм серед Seo оптимізаторів. Дозволяє більш ефективно проводити отчистки семантичного ядра, і дуже корисна при великих ядрах запитів, так як в цій програмі можна створити складну структуру і не заплутатися. Ліцензія купується 1 раз і ви користуєтеся нею довічно. При постійному використанні програма на 100% виправдовує вкладені кошти.

- онлайн сервіс зі збору ключових слів і складання семантичного ядра, ви платите за підписку з декількома версіями, часто використовується Seo оптимізаторами

Помилки при складанні семантичного ядра

В самому кінці варто розглянути найпопулярніші помилки при складанні сематіческімі ядра:

  • не варто гнатися за високочастотними запитами - якщо ви займаєтеся інтернет комерцією продаєте товари або ставите послуги, для вас важливо бути в топі по транзакційних питань
  • не зловживайте інформаційними запитами -ваша мета не відповісти на питання користувача а продати йому свій товар або послугу
  • багато запитів на одну сторінку - 20 ключів на одну сторінку це занадто багато, якщо у вас є така сторінка, виділіть загальні запити з неї в окрему сторінку і просувайте дві сторінки по 10 запитів.

висновки

Для успішного просування і оптимізації сайту (блогу) необхідно якісно скласти семантичне ядро, якщо Вам самому не хочеться займатися складанням семантичного ядра, я рекомендую звернутися в компанію Семен сильним, і замовити семантику них.

Рекомендуємо подивитися відео «Як зібрати семантичне ядро \u200b\u200bдля сайту самому»

Добрий день друзі.

Напевно ви вже забули смак моїх статей. Попередній матеріал був досить давно, хоча і обіцяв я публікувати статті частіше, ніж зазвичай.

Останнім часом збільшилася кількість роботи. створив новий проект (Інформаційний сайт), займався його версткою, дизайном, збирав семантичне ядро \u200b\u200bі почав публікувати матеріал.

Сьогодні ж буде дуже об'ємний і важливий матеріал для тих, хто веде свій сайт більш 6-7 місяців (в деяких тематиках більше 1 року) має велику кількість статей (в середньому 100) і ще не досяг планки мінімум в 500-1000 відвідувань на добу . Цифри взяті по мінімуму.

Важливість семантичного ядра

У деяких випадках слабке зростання сайту викликаний неправильною технічної оптимізацією сайту. Більше випадків, коли контент неякісний. Але ще більше випадків, коли тексти пишуться взагалі не під запити - матеріали нікому не потрібні. Але є ще і дуже величезна частина людей, яка створює сайт, все правильно оптимізує, пише якісні тексти, але через 5-6 місяців сайт тільки починає набирати перші 20-30 відвідувачів з пошуку. Невеликими темпами через рік це вже 100-200 відвідувачів і цифра в доходах дорівнює нулю.

І хоча, все зроблено правильно, немає ніяких помилок, а тексти часом навіть в рази якісніше конкурентів, але от якось не йде, хоч убий. Починаємо списувати цей косяк на відсутність посилань. Звичайно посилання дають буст в розвитку, але це не найголовніше. І без них можна через 3-4 місяці мати 1000 відвідин на сайті.

Багато хто скаже, що це все базікання і так швидко такі цифри не отримаєш. Але якщо ми подивимося, то не досягаються такі цифри саме на блогах. Інформаційні ж сайти (НЕ блоги), створені для швидкого заробітку і окупності вкладень, приблизно через 3-4 місяці цілком реально виходять на добову відвідуваність в 1000 чоловік, а через рік - 5000-10000. Цифри звичайно залежать від конкурентності ніші, її обсягу і обсягу самого сайту на вказаний термін. Але, якщо взяти нішу з досить невеликий конкуренцією і обсягом в 300-500 матеріалів, то такі цифри за зазначений термін цілком досяжні.

Чому ж саме блоги не досягають таких швидких результатів? Найголовнішою причиною є відсутність семантичного ядра. Через це статті пишуть всього під один якийсь запит і практично завжди під дуже конкурентний, що не дає сторінці вибитися в ТОП за короткі терміни.

На блогах, як правило, статті пишуть за подобою конкурентів. Маємо 2 читаються блогу. Бачимо, що у них відвідуваність пристойна, починаємо аналізувати їх карту сайту і публікувати тексти під ті ж самі запити, які вже переписані сотнями раз і дуже конкурентні. В результаті отримуємо дуже якісний контент на сайті, але в пошуку він себе почуває погано, тому що вимагає великого віку. Б'ємося об голову, чому ж мій контент кращий, але в ТОП не пробиває?

Саме тому я вирішив написати детальний матеріал про семантичне ядро \u200b\u200bсайту, щоб ви могли зібрати собі список запитів і що немало важливо - писали тексти під такі групи ключових слів, які без покупки посилань і всього за 2-3 місяці виходили в ТОП (звичайно, якщо контент якісний).

Матеріал для більшості буде складний, якщо жодного разу не стикалися з цим питанням в його правильному ключі. Але тут головне почати. Як тільки починаєте діяти, все відразу стає ясно.

Зроблю дуже важливе зауваження. Стосується воно тих, хто не готовий вкладатися в якість своїми кровними заробленими монетами і завжди намагається знаходити безкоштовні лазівки. Семантику безкоштовно якісно не збереш і це відомий факт. Тому, в даній статті я описую процес збору семантики максимальної якості. Ніяких безкоштовних способів або лазівок саме в цьому пості не буде! Обов'язково буде новий пост, де розповім про безкоштовні та інші інструменти, за допомогою яких ви зможете зібрати семантику, але не в повному обсязі і без належної якості. Тому, якщо ви не готові вкладатися в основу основ для вашого сайту, тоді цей матеріал вам ні до чого!

Незважаючи на те, що практично кожен блогер пише статтю про се. ядрі, можу з упевненістю сказати, що немає нормальних безкоштовних посібників в інтернеті по даній темі. А якщо і є, то немає такого, яке б в повній картині давало поняття, що ж маємо отримати на виході.

Найчастіше ситуація закінчується тим, що якийсь новачок пише матеріал і розповідає про збір семантичного ядра, як про застосування сервісу для збору статистика пошукових запитів від Яндекс (wordstat.yandex.ru). В кінцевому підсумку необхідно зайти на цей сайт, вбити запити по вашій темі, сервіс видасть список фраз, що входять в ваш вбитий ключ - це і є вся методика.

Але насправді семантичне ядро \u200b\u200bзбирається не так. В описаному вище випадку у вас просто не буде семантичного ядра. Ви отримаєте якісь відірвані запити і всі вони будуть про одне й те ж. Наприклад, візьмемо мою нішу «сайтостроєніє».

Які головні запити можна по ній без роздумів назвати? Ось лише деякі:

  • Як створити сайт;
  • Розкрутка сайту;
  • Створення сайту;
  • Просування сайту і т.д.

Запити виходять про одне й те ж. Сенс їх зводиться лише до 2м поняттям: створення та розкрутка сайту.

Після такої перевірки сервіс wordstat видасть дуже багато пошукових запитів, які входять в головні запити і вони також будуть про одне й те ж. Єдине їх відмінність буде в змінених словоформах (додавання деяких слів і зміна розташування слів в запиті зі зміною закінчень).

Звичайно, певна кількість текстів написати вийде, так як запити можуть бути різні навіть в цьому випадку. наприклад:

  • Як створити сайт wordpress;
  • Як створити сайт joomla;
  • Як створити сайт на безкоштовному хостингу;
  • Як розкрутити сайт безкоштовно;
  • Як розкрутити сайт сервіс і т.д.

Очевидно, що під кожен запит можна виділити окремий матеріал. Але таке складання семантичного ядра сайту не увінчається успіхом, тому що НЕ буде повноти розкриття інформації на сайті в обраній ніші. Весь контент буде лише про 2х темах.

Іноді блогери-початківці описують процес складання семантичного ядра, як аналіз окремих запитів в сервісі аналізу запитів Яндекс Вордстат. Забиваємо якийсь окремий запит, що відноситься ні до теми в цілому, а лише до певної статті (наприклад, як оптимізувати статтю), отримуємо по ньому частотність і ось воно - семантичне ядро \u200b\u200bзбирається. Виходить, що таким чином ми повинні розумово визначити всілякі теми статей і проаналізувати їх.

Обидва вищеописані варіанти неправильні, тому що не дають повного семантичного ядра і змушують постійно повертатися до його складання (другий варіант). До того ж ви не будете мати на руках вектор розвитку сайту і не зможете в першу чергу публікувати матеріали, які і потрібно розміщувати в числі перших.

Що стосується першого варіанту, то купуючи колись курси по розкрутці сайтів, я постійно бачив саме таке пояснення збору ядра запитів для сайту (вбити головні ключ і скопіювати всі запити з сервісу в текстовий документ). В результаті мене постійно мучив питання «А що ж робити з такими запитами?» На думку приходило наступне:

  • Писати багато статей про одне й те ж, але вживаючи різні ключові слова;
  • Всі ці ключі вписувати в поле description до кожного матеріалу;
  • Вписати всі ключі з сем. ядра в загальне поле description до всього ресурсу.

Жодне з цих припущень не було вірним, як в общем-то і сам складене семантичне ядро \u200b\u200bсайту.

На остаточному варіанті збору семантичного ядра ми повинні отримає не просто список запитів в кількості 10000, наприклад, а мати на руках список груп запитів, кожна з яких використовується для окремої статті.

Група може містити від 1 до 20-30 запитів (іноді 50, а то і більше). В такому випадку в тексті ми вживаємо всі ці запити і сторінка в перспективі щодня приноситиме трафік на всі запити, якщо потрапить на 1-3 позиції в пошуку. Крім цього, кожна група повинна мати свою конкуренцію, щоб знати, чи має сенс зараз публікувати по ній текст чи ні. Якщо конкуренція велика, тоді можемо очікувати ефект від сторінки тільки через 1-1,5 роки і з проведенням регулярних робіт по її просуванню (посилання, перелінковка і т.д.). Тому, краще на такі тексти робити упор в найостаннішу чергу, навіть якщо вони самі трафіковий.

Відповіді на можливі запитання

Питання №1. Зрозуміло, що на виході отримуємо групу запитів для написання тексту, а не всього один ключ. Чи не будуть схожі в цьому випадку ключі між собою і чому б під кожен запит чи не написати окремий текст?

Питання №2. Відомо, що кожна сторінка повинна заточуватися лише під один ключевик, а тут ми отримуємо цілу групу та ще в деяких випадках з досить великим вмістом запитів. Як в такому випадку відбувається оптимізація самого тексту, адже якщо ключів, наприклад, 20, тоді вживання хоча б по одному разу кожного в тексті (навіть великого розміру) вже схоже на текст для пошукача, а не для людей.

Відповідь. Якщо взяти приклад запитів з попереднього питання, то заточуватися матеріал насамперед буде саме під самий частотний (1й) запит, так як ми більш за все зацікавлені в його виході на топові позиції. Даний ключевик ми і вважаємо головним у цій групі.

Оптимізація під головну ключову фразу відбувається також, як би це і робилося при написанні тексту лише під один ключ (ключ в заголовку title, вживання потрібної кількості символів в тексті і потрібної кількості раз самого ключа, якщо потрібно).

Що стосується інших ключів, то ми їх також вписуємо, але не сліпо, а на основі аналізу конкурентів, який може показати середнє значення кількості цих ключів в текстах з ТОПу. Може вийти ситуація, що для більшості ключових ви отримаєте нульові значення, а значить в точній входження вони не вимагають вживання.

Таким чином текст пишеться, вживаючи лише головний запит в тексті в прямому. Звичайно інші запити теж можуть бути вжиті, якщо аналіз конкурентів покаже їх наявність в текстах з ТОП. Але це ніяк не 20 ключових слів в тексті в їх точному входження.

Зовсім недавно публікував матеріал під групу з 11 ключів. Начебто багато запитів, але на скріншоті нижче можете бачити, що лише головний самий частотний ключ має вживання точного входження - 6 разів. Решта ж ключові фрази не мають точних входжень, але також і разбавочних (на скріншоті не видно, але в ході аналізу конкурентів це показано). Тобто вони взагалі не вживаються.

(1-ша колонка - частотність, 2а - конкурентність, 3я - кількість показів)

У більшості випадків буде схожа ситуація, коли лише пару ключів потрібно буде вжити в точній входження, а всі інші або сильно розбавляти, або взагалі не вживати навіть в разбавочном входження. Стаття виходить читається і немає натяків на заточку тільки під пошук.

Питання №3. Випливає з відповіді на Питання №2. Якщо інші ключі в групі не потрібно взагалі вживати, то як тоді вони будуть отримувати трафік?

Відповідь. Справа в тому, що за наявністю певних слів в тексті пошукова система може визначити про що текст. Так як в ключових словах є певні окремі слова, що відносяться тільки до цього ключу, то їх і потрібно вживати в тексті певну кількість разів на основі того ж аналізу конкурентів.

Таким чином ключ в точній входження могли скористатися, а ось слова з ключа окремо в тексті присутні будуть і в ранжируванні також братимуть участь. У підсумку за цими запитами текст буде також перебувати в пошуку. Але і кількість окремих слів у цьому випадку в ідеалі потрібно дотримуватися. Допоможуть конкуренти.

На основні питання, які могли загнати вас в ступор, я відповів. Детальніше, як оптимізувати текст під групи запитів, я напишу в одному з наступних матеріалів. Там буде і про аналіз конкурентів і про написання самого тексту під групу ключів.

Ну, а якщо питання ще залишилися, тоді задавайте свої коментарі. На все відповім.

А тепер давайте почнемо складання семантичного ядра сайту.

Дуже важливо. Весь процес, як він є насправді я ніяк не зможу описати в цій статті (доведеться робити цілий вебінар на 2-3 години або міні-курс), тому я постараюся бути коротким, але в той же час інформативним і торкнутися максимальну кількість моментів . Наприклад, я не буду описувати в детальності настройку софта KeyCollector. Все буде урізано, але максимально зрозуміло.

Тепер пройдемося по кожному пункту. Почнемо. Спочатку підготовка.

Що необхідно для збору семантичного ядра?


Перед тим, як скласти семантичне ядро \u200b\u200bсайту, налаштуємо кейколлектор для правильного збору статистики і парсинга запитів.

Налаштування KeyCollector

Увійти в настройки можна, натиснувши на піктограму у верхньому меню софта.

Спочатку то, що стосується парсинга.

Хочу зазначити настройки «Кількість потоків» і «Використовувати основний IP-адреса». Кількість потоків для збору одного невеликого ядра не потрібна велика. Досить 2-4 потоків. Чим більше потоків, тим більше потрібно проксі-серверів. В ідеалі 1 проксі на 1 потік. Але можна і 1 проксі на 2 потоку (так Парс я).

Що стосується другої настройки, то в разі парсинга в 1-2 потоку можна використовувати свій основний ІП адреса. Але тільки, якщо він динамічний, тому що в разі бана статичного ІП ви втратите доступ до пошукової системи Яндекс. Але все ж пріоритет завжди віддається використанню проксі-сервера, так як краще убезпечити себе.

На вкладці налаштувань парсинга Yandex.Direct важливо додати свої акаунти Яндекса. Чим їх буде більше, тим краще. Можете їх зареєструвати самі або купити, як я писав раніше. Я ж їх придбав, так як мені простіше витратити 100 рублів за 30 акаунтів.

Додавання можна виконати з буфера, заздалегідь скопіювавши список акаунтів в потрібному форматі, або завантажити з файлу.

Акаунти потрібно вказувати в форматі «логін: пароль» при цьому в логіні не вказувати сам хост (без @ yandex.ru). Наприклад, «artem_konovalov: jk8ergvgkhtf».

Також, якщо ми використовуємо кілька проксі-серверів, краще закріпити їх за певними акаунтами. Підозріло буде, якщо спочатку запит йде з одного сервера і з одного аккаунта, а при наступному запиті з цього ж акаунта яндекса проксі сервер вже інший.

Поруч з акаунтами є стовпчик «IP проксі». Навпроти кожного аккаунта ми і вписуємо певний проксі. Якщо акаунтів 20, а проксі-серверів 2, тоді буде 10 акаунтів з одним проксі і 10 з іншим. Якщо 30 акаунтів, тоді 15 з один сервером і 15 з іншим. Логіку, думаю, ви зрозуміли.

Якщо використовуємо всього один проксі, то немає сенсу вписувати його до кожного аккаунту.

Про кількість потоків і використання основного ІП адреси я говорив трохи раніше.

Наступна вкладка «Мережа», на якій потрібно внести проксі-сервера, які будуть використовуватися для парсинга.

Вводити проксі потрібно в самому низу вкладки. Можна завантажити їх з буфера в потрібному форматі. Я ж додавав по простому. У кожну колонку рядки я вписував дані про сервер, що даються вам при його покупці.

Далі налаштовуємо параметри експорту. Так як всі запити з їх частотних нам потрібно отримати в файлі на комп'ютері, то необхідно виставити деякі параметри експорту, щоб не було нічого зайвого в таблиці.

У самому низу вкладки (виділив червоним) потрібно вибрати ті дані, які потрібно експортувати в таблицю:

  • фраза;
  • джерело;
  • Частотність «!» ;
  • Краща форма фрази (можна і не ставити).

Залишилося лише налаштувати розгадування антікапчі. Вкладка так і називається - «антікапчі». Вибираємо використовуваний сервіс і вводимо спеціальний ключ, який знаходиться в акаунті сервісу.

Спеціальний ключ для роботи з сервісом надається в листі після реєстрації, але також його можна взяти з самого аккаунта в пункті «Налаштування - налаштування облікового запису».

На цьому налаштування KeyCollector виконані. Не забуваємо після пророблених змін зберегти настройки, натиснувши на велику кнопку внизу «Зберегти зміни».

Коли все зроблено і ми готові до парсингу, можна приступити до розгляду етапів збору семантичного ядра, а потім вже і виконати кожен етап в порядку черги.

Етапи збору семантичного ядра

Отримати якісне і повне семантичне ядро \u200b\u200bнеможливо, використовуючи лише основні запити. Також потрібно аналізувати запити і матеріали конкурентів. Тому весь процес складання ядра складається з декількох етапів, які в свою чергу ще діляться на підетапи.

  1. основа;
  2. Аналіз конкурентів;
  3. Розширення готового списку з етапів 1-2;
  4. Збір кращих словоформ до запитів з етапів 1-3.

Етап 1 - основа

В ході збору ядра на цьому етапі потрібно:

  • Сформувати основний список запитів в ніші;
  • Розширення цих запитів;
  • Чистка.

Етап 2 - конкуренти

В принципі, етап 1 вже дає якийсь обсяг ядра, але не в повній мірі, тому що ми можемо щось упустити. А конкуренти в нашій ніші допоможуть знайти втрачені діри. Ось кроки, необхідні до виконання:

  • Збір конкурентів на основі запитів з етапу 1;
  • Парсинг запитів конкурентів (аналіз карти сайту, відкрита статистика liveinternet, аналіз доменів і конкурентів в SpyWords);
  • Чистка.

Етап 3 - розширення

Багато зупиняються вже на першому етапі. Хтось доходить до 2го, але є ж ще ряд додаткових запитів, які також можуть доповнити семантичне ядро.

  • Об'єднуємо запити з 1-2 етапів;
  • Ми залишаємо 10% самих частотних слів з усього списку, які містять мінімум 2 слова. Важливо, щоб ці 10% були не більше 100 фраз, тому що велика кількість змусить вас сильно закопатися в процес збору, чищення і угруповання. Нам же потрібно зібрати ядро \u200b\u200bв співвідношенні швидкість / якість (мінімальні втрати якості при максимальній швидкості);
  • Виконуємо розширення цих запитів за допомогою сервісу Rookee (все є в KeyCollector);
  • Чистимо.

Етап 4 - збір кращих словоформ

Сервіс Rookee може для більшості запитів визначити їх кращу (правильну) словоформу. Цим також потрібно користуватися. Метою не є визначити то слово, яке більш правильно, а знайти ще деякі запити і їх форми. Таким чином можна підтягнути ще пул запитів і використовувати їх при написанні текстів.

  • Об'єднання запитів з перших 3х етапів;
  • Збір за ним кращих словоформ;
  • Додавання кращих словоформ в список до всіх запитам, об'єднаним з 1-3 етапів;
  • чистка;
  • Експорт готового списку в файл.

Як бачите, все не так вже й швидко, а тим більше не так просто. Це я описав лише нормальний план складання ядра, щоб на виході отримати якісний список ключів і нічого не втратити або втратити по мінімуму.

Тепер я пропоную пройтися по кожному пункту окремо і простудіювати всі від А до Я. Інформації багато, але це того варто, якщо вам потрібно дійсно якісне семантичне ядро \u200b\u200bсайту.

Етап 1 - основа

Спершу ми формуємо список основних запитів ніші. Як правило, це 1-3х немов фрази, які описують певний питання ніші. У приклад пропоную взяти нішу «Медицина», а конкретніше - поднішу серцевих захворювань.

Які основні запити ми можемо виділити? Все я звичайно писати не буду, але парочку приведу.

  • захворювання серця
  • інфаркт;
  • Ішемічна хвороба серця;
  • аритмія;
  • гіпертонія;
  • Порок серця;
  • Стенокардія і т.д.

Простими словами - це загальні назви захворювань. Таких запитів може бути досить багато. Чим більше зможете зробити, тим краще. Але не варто вписувати для галочки. Безглуздо виписувати більш конкретні фрази від загальних, наприклад:

  • аритмія;
  • Аритмія причини;
  • Лікування аритмії;
  • Аритмія симптоми.

Головною є лише перша фраза. Решта немає сенсу вказувати, тому що вони з'являться в списку в ході розширення за допомогою парсинга з лівої колонки Яндекс вордстат.

Для пошуку загальних фраз можна користуватися, як сайтами конкурентів (карта сайту, назви розділів ...), так і досвідом фахівця в цій ніші.


Парсинг займе якийсь час, в залежності від кількості запитів в ніші. Всі запити за замовчуванням поміщаються в нову групу з назвою «Нова група 1», якщо пам'ять не зраджує. Я зазвичай перейменовую групи, щоб розуміти, яка за що відповідає. Меню управління групами знаходиться праворуч від списку запитів.

Функція перейменування знаходиться в контекстному меню при натисканні правої кнопки миші. Це меню знадобиться ще для створення інших груп на другому, третьому і четвертому етапах.

Тому, можете відразу додати ще 3 групи, натиснувши на першу піктограму «+», щоб група створилася в списку відразу продовжити зйомку. Поки в них не потрібно нічого додавати. Нехай просто будуть.

Називав я групи так:

  • Конкуренти - зрозуміло, що в цій групі знаходиться список запитів, який я дособрать у конкурентів;
  • 1-2 - це об'єднаний список запитів з 1го (основного списку запитів) і 2-го (запити конкурентів) етапів, щоб залишити з них всього 10% запитів, які перебувають мінімум з 2х слів і зібрати по ним розширення;
  • 1-3 - об'єднаний список запитів з першого, другого і третього (розширень) етапів. Також в цю групу ми збираємо кращі словоформи, хоча грамотніше було б зібрати їх в нову групу (наприклад, кращі словоформи), а потім після їх чищення вже перенести в групу 1-3.

Після закінчення парсинга з yandex.wordstat ви отримуєте великий список ключових фраз, який, як правило (їли ніша невелика) буде в межах декількох тисяч. Багато з цього є сміттям і запитами-пустушками і доведеться все чистити. Щось відсіємо автоматично за допомогою функціоналу KeyCollector, а щось доведеться лопатити руками і трохи посидіти.

Коли запити все зібрані, потрібно зібрати їх точні частотності. Загальна частотність збирається при парсінгу, а ось точну потрібно збирати окремо.

Для збору статистики за кількістю показів можна користуватися двома функціями:

  1. За допомогою Яндекс Директ - швидко, статистика збирається пачками, але можуть бути встановлені обмеження (наприклад, фрази більше 7ми слів не покатають і з символами теж);
  2. За допомогою аналізу в Яндекс вордстат - дуже повільно, фрази аналізуються по одній, але немає обмежень.

Спочатку зібрати статистику за допомогою Діректа, щоб це було максимально швидко, а для тих фраз, за \u200b\u200bякими з Директом не вийшло визначити статистику, використовуємо вже Вордстат. Як правило, таких фраз залишиться мало і вони дособерутся швидко.

Збір статистика показів за допомогою Яндекс.Директ здійснюються при натисканні на відповідну кнопку і призначення корисних властивостей.

Після натискання на кнопку «Отримати дані» може бути попередження, що Яндекс Директ не включений в налаштуваннях. Вам потрібно буде погодитися на активацію парсинга за допомогою Діректа, щоб почати визначати статистику частотності.

Ви відразу побачите, як пачками в колонку «Частотність! »Почнуть проставляються точні показники показів по кожній фразі.

Процес виконання завдання можна бачити на вкладці «Статистика» в самому низу програми. Коли завдання буде виконано, на вкладці «Журнал подій» ви побачите повідомлення про завершення, а також зникне смуга прогресу на вкладці «Статистика».

Після збору кількості показів за допомогою Яндекс Директ ми перевіряємо, чи є фрази, для яких частотність не зібралася. Для цього сортуємо колонку «Частотність!» (Натискаємо на неї), щоб в верху стали найменші значення або найбільші.

Якщо вгорі будуть всі нулі, тоді все частотності зібрані. Якщо ж будуть порожні клітинки, Тоді для цих фраз покази не визначилися. Теж саме стосується і при сортуванні за спаданням, тільки тоді доведеться дивитися результат в самому низу списку запитів.

Почати збір за допомогою яндекс вордстат також можна, натиснувши на піктограму і вибравши необхідний параметр частотності.


Після вибору типу частотності ви побачите, як поступово почнуть заповняться порожні клітинки.

Важливо: не варто лякатися, якщо після кінця процедури залишаться порожні клітинки. Справа в тому, що порожніми вони будуть в разі їх точної частотності менше 30. Це ми виставили в налаштуваннях парсинга в Keycollector. Ці фрази можна сміливо виділити (також, як і звичайні файли в провіднику Windows) І видалити. Фрази виділяться блакитним кольором, натискаємо праву кнопку мишки і вибираємо «Видалити виділені рядки».

Коли вся статистика зібрана, можна приступити до чищення, яку дуже важливо робити на кожному етапі збору семантичного ядра.

Основне завдання - прибрати фрази не відносять до тематики, прибрати фрази зі стоп-словами і позбутися від занадто низькочастотних запитів.

Останнє в ідеалі не потрібно виконувати, але, якщо ми будемо в ході складання сем. ядра використовувати фрази навіть з мінімальною частотністю в 5 показів на місяць, то це збільшить ядро \u200b\u200bна відсотків 50-60 (а може бути і всі 80%) і змусити нас сильно закопатися. Нам же потрібно отримати максимальну швидкість при мінімальних втратах.

Якщо хочемо отримати максимально повне семантичне ядро \u200b\u200bсайту, але при цьому збирати його близько місяця (є досвід зовсім відсутня), тоді беріть частотності від 4-5 місячних показів. Але краще (якщо новачок) залишати запити, які мають хоча б 30 показів на місяць. Так, ми трохи втратимо, але це ціна за максимальну швидкість. А вже в ході росту проекту можна буде заново отримати ці запити і вже їх використовувати для написання нових матеріалів. І це тільки за умови, що всі сем. ядро вже виписано і немає тем для статей.

Відфільтрувати запити за кількістю їх показів та іншими параметрами дозволяє все той же кейколлектор на повному автоматі. Спочатку я рекомендую зробити саме це, а не видаляти сміттєві фрази і фрази зі стоп-словами, тому що набагато простіше буде це робити, коли загальний обсяг ядра на цьому етапі стане мінімальним. Що простіше, лопатити 10000 фраз або 2000?

Доступ до фільтрів знаходиться на вкладці «Дані», натиснувши на кнопку «Редагувати фільтри».

Я рекомендую спочатку відобразити всі запити з частотністю менше 30 і перенести їх в нову групу, щоб їх не видаляти, так як в майбутньому вони можуть стати в нагоді. Якщо ж ми просто застосуємо фільтр для відображення фраз з частотністю понад 30, то після чергового запуску KeyCollector доведеться заново застосовувати цей же фільтр, так як все скидається. Звичайно, фільтр можна зберегти, але все одно доведеться його застосовувати, постійно повертаючись до вкладці «Дані».

Щоб позбавити себе від цих дій, ми в редакторі фільтрів додаємо умова, щоб відображалися фрази тільки з частотністю менше 30.




В майбутньому вибрати фільтр можна, натиснувши на стрілку біля піктограми дискети.

Отже, після застосування фільтра, в списку запитів залишаться тільки фрази з частотністю менше 30, тобто 29 і нижче. Також відфільтрована колонка виділиться кольором. У прикладі нижче ви будете бачити частотність тільки 30, тому що я показую все це на прикладі вже готове ядра і все почищено. На це не звертайте. У вас все повинно бути так, як я описую в тексті.

Для перенесення потрібно виділити всі фрази в списку. Натискаємо на першу фразу, Гортаємо в самий низ списку, затискаємо клавішу «Shift» і натискаємо один раз на останню фразу. Таким чином виділяється все фрази і послід блакитним фоном.

З'явиться невелике вікно, де необхідно вибрати саме переміщення.

Тепер можна видалити фільтр з колонки частотності, щоб залишилися запити тільки з частотністю 30 і вище.


Певний етап автоматичного чищення ми виконали. Далі доведеться повозитися, видаливши сміттєві фрази.

Спочатку пропоную вказати стоп-слова, щоб видалити всі фрази з їх наявністю. В ідеалі звичайно ж це робиться відразу на етапі парсинга, щоб в список вони і не потрапляли, але це не критично, так як очищення від стоп-слів відбувається в автоматичному режимі за допомогою Кейколлектора.

Основна складність полягає в складанні списку стоп-слів, тому що в кожній тематиці вони різні. Тому, робили б ми чистку від стоп-слів на початку або зараз - не так важливо, тому що варто знайти все стоп-слова, а це справа наживна і не таке вже й швидке.

В інтернеті ви можете знайти загальнотематичні списки, в які входять найпоширеніші слова на кшталт «реферат, безкоштовно, завантажити, п ... вірно, онлайн, картинка і т.д.».

Спочатку пропоную застосувати загальнотематичних список, щоб кількість фраз ще зменшилася. На вкладці «Збір даних» тиснете на кнопку «Стоп-слова» і додаєте їх списком.

У цьому ж вікні тиснемо на кнопку «Відзначити фрази в таблиці», щоб відзначилися всі фрази, що містять введені стоп-слова. Але потрібно, щоб весь список фраз в групі був не зазначено, щоб після натискання на кнопку залишилися відзначені тільки фрази зі стоп-словами. Зняти позначки з усіх фраз дуже просто.


Коли залишаться відмічені тільки фрази зі стоп-словами, ми двох або видаляємо, або переносимо в нову групу. Я в перший раз видалив, але все таки пріоритетною створити групу «З стоп-словами» і перемістити в неї всі зайві фрази.

Після очищення, фраз стало ще менше. Але і це не все, тому що все одно ми щось упустили. Як самі стоп-слова, так і фрази, не відносять до спрямованості нашого сайту. Це можуть бути комерційні запити, під які тексти не напишеш або ж напишеш, але вони не будуть відповідати очікуванням користувача.

Приклади таких запитів можуть бути пов'язані зі словом «купити». Напевно, коли користувач щось шукає з цим словом, то він вже хоче потрапити на сайт, де це продають. Ми ж напишемо текст під таку фразу, але відвідувачеві він потрібен не буде. Тому, такі запити нам не потрібні. Їх ми шукаємо в ручному режимі.

Що залишився список запитів ми не поспішаючи і уважно перегортаємо до самого кінця в пошуках таких фраз і виявлення нових стоп-слів. Якщо виявили якесь слово, що вживається багато разів, то просто додаємо його в уже існуючий список стоп-слів і тиснемо на кнопку «Відзначити фрази в таблиці». В кінці списку, коли по ходу ручної перевірки ми відзначили всі непотрібні запити, видаляємо відмічені фрази і перший етап складання семантичного ядра закінчено.

Отримали певне семантичне ядро. Воно ще не зовсім повне, але вже дозволить написати максимально можливу частину текстів.

Залишилося лише додати до нього ще невелику частину запитів, яку ми могли втратити. У цьому допоможуть наступні етапи.

етап 2 конкуренти

На самому початку ми зібрали список загальних фраз, що відносяться до ніші. У нашому випадку це були:

  • захворювання серця
  • інфаркт;
  • Ішемічна хвороба серця;
  • аритмія;
  • гіпертонія;
  • Порок серця;
  • Стенокардія і т.д.

Всі вони відносяться саме до ніші «Хвороби серця». За цим фразам необхідно в пошуку знайти сайти конкурентів саме по даній темі.

Забиваємо кожну з фраз і шукаємо конкурентів. Важливо, щоб це були не загальнотематичні (в нашому випадку медичні сайти загальної спрямованості, тобто про всі хвороби). Потрібні саме нішеві проекти. У нашому випадку - тільки про серце. Ну може бути ще і про судини, тому що серце пов'язано з судинною системою. Думка, думаю, ви зрозуміли.

Якщо у нас ніша «Рецепти салатів з м'ясом», тоді в перспективі тільки такі сайти і шукати. Якщо їх немає, то намагайтеся знайти сайти тільки про рецепти, а не в загальному про кулінарію, де все про все.

Якщо ж загальнотематичних сайт (загальномедичний, жіночий, про всі види будівництва та ремонту, кулінарія, спорт), тоді доведеться дуже помучитися, як в плані складання самого семантичного ядра, тому що доведеться довго і нудно орати - збирати основний список запитів, довго чекати процесу парсинга, чистити і групувати.

Якщо на 1й, а іноді і навіть на 2й сторінці, не вдається знайти вузькі тематичні сайти конкурентів, тоді спробуйте використовувати не основні запити, які ми сформували перед самим парсинга на 1м етапі, а запити вже з усього списку після парсинга. наприклад:

  • Як лікувати аритмію народними засобами;
  • Симптоми аритмії у жінок і так далі.

Справа в тому, що такі запити (аритмія, хвороби серця, порок серця ...) мають найвищу конкурентність і по ним вибитися в ТОП практично нереально. Тому, на перших позиціях, а може бути і на сторінках, ви цілком реально знайдете тільки загальнотематичні портали про все на увазі їх величезною авторитетності в очах пошукових систем, віку і маси посилань.

Так що цілком розумно використовувати для пошуку конкурентів більш низькочастотні фрази, що складаються з більшої кількості слів.

Потрібно Спарс їх запити. Можна використовувати сервіс SpyWords, але функція аналізу запитів в ньому доступна на платному тарифі, вартість якого досить велика. Тому для одного ядра немає сенсу оновлювати тариф на цьому сервісі. Якщо потрібно зібрати кілька ядер протягом місяця, наприклад 5-10, тоді можна купити аккаунт. Але знову ж таки - тільки при наявності бюджету на тариф PRO.

Також можна використовувати статистику Liveinternet, якщо вона відкрита для перегляду. Дуже часто власники роблять її відкритою для рекламодавців, але закривають розділ «пошукові фрази», а саме він нам і потрібен. Але все ж є сайти, коли цей розділ відкритий для всіх. Дуже рідко, але є.

самим простим способом є банальний перегляд розділів і карти сайту. Іноді ми можемо втратити не тільки якісь загальновідомі фрази ніші, але і специфічні запити. На них може і не так багато матеріалів і під них не створиш окремий розділ, але пару десятків статей вони можуть додати.

Коли ми знайшли ще список нових фраз для збору, запускаємо той же збір пошукових фраз з лівої колонки Яндекс Вордстат, як і на першому етапі. Тільки запускаємо ми його вже, перебуваючи в другій групі «Конкуренти», щоб запити додавалися саме в неї.

  • Після парсинга збираємо точні частотності пошукових фраз;
  • Задаємо фільтр і переміщаємо (видаляємо) запити з частотністю менше 30 в окрему групу;
  • Чистимо від сміття (стоп-слова та запити, що не відносяться до ніші).

Отже, отримали ще невеликий список запитів і семантичне ядро \u200b\u200bстало повнішим.

Етап 3 - розширення

У нас вже є група з назвою «1-2». У неї ми копіюємо фрази з груп «Основний список запитів» і «Конкуренти». Важливо саме скопіювати, а не перемістити, щоб в попередніх групах всі фрази про всяк випадок залишилися. Так буде безпечніше. Для цього у вікні перенесення фраз потрібно вибрати варіант «копіювання».

Отримали всі запити з 1-2 етапів в одній групі. Тепер потрібно залишити в цій групі всього 10% самих частотних запитів від усієї кількості і які містять не менше 2-х слів. Також їх повинно бути не більше 100 штук. Зменшуємо, щоб не закопатися в процес збору ядра на місяць.

Спершу застосовуємо фільтр, в якому поставимо умову, щоб показувалися мінімум 2х немов фрази.


Відзначаємо всі фрази в останньому списку. Натиснувши на колонку «Частотність!», Сортуємо фрази по спадаючій кількості показів, щоб в верху були самі частотні. Далі виділяємо перші 10% з залишився числа запитів, знімаємо з них відмітку (права кнопка миші - зняти позначку з виділених рядків) і видаляємо відмічені фрази, щоб залишилися тільки ці 10%. Не забуваємо, що якщо ваші 10% будуть більше 100 слів, тоді на 100й рядку зупиняємося, більше не потрібно.

Тепер проводимо розширення за допомогою функції кейколлектора. Допоможе в цьому сервіс Rookee.


Параметри збору вказуємо, як на скріншоті нижче.

Сервіс збере всі розширення. Серед нових фраз можуть бути дуже довгі ключі, а також символи, тому не для всіх вийде зібрати частотність через Яндекс Директ. Доведеться потім дособрать статистику за допомогою кнопки від вордстата.

Після отримання статистики прибираємо запити з місячними показами менше 30 і проводимо чистку (стоп-слова, сміття, невідповідні до ніші ключі).

Етап закінчений. Отримали ще список запитів.

Етап 4 - збір кращих словоформ

Як говорив раніше, метою не є визначити таку форму фрази, яка буде більш правильною.

У більшості випадків (виходячи з моєї практики) збір кращих словоформ вкаже на ту ж фразу, що і є в списку запитів. Але, без сумніву, будуть і такі запити, до яких буде вказана нова словоформа, якої ще немає в семантичному ядрі. Це додаткові ключові запити. Цим етапом ми добиваємо ядро \u200b\u200bдо максимальної повноти.

При зборі свого ядра даний етап дав ще 107 додаткових запитів.

Спершу ми копіюємо ключі до групи «1-3» з груп «Основні запити», «Конкуренти» і «1-2». Повинна вийти сума всіх запитів з усіх раніше виконаних етапів. Далі використовуємо сервіс Rookee по тій же кнопці, що і робили розширення. Тільки вибираємо іншу функцію.


Розпочнеться збір. Фрази будуть додаватися в нову колонку «Краща форма фрази».

Краща форма буде визначена не до всіх фразам, так як сервіс Rookee просто не знає все кращі форми. Але ля більшості результат буде позитивним.

Коли процес закінчений, потрібно додати ці фрази до всього списку, щоб вони знаходилися в тій же колонці «Фраза». Для цього виділяєте все фрази в колонці «Краща форма фрази», копіюєте (права кнопка миші - копіювати), далі тиснете на велику зелену кнопку «Додати фрази» і вносите їх.

Переконатися в тому, що фрази з'явилися в загальному списку дуже просто. Так як при подібному додаванні фраз в таблицю відбувається в самий низ, то перегортаємо в самий низ списку і в колонці «Джерело» ми повинні бачити іконку кнопки додавання.

Фрази, додані за допомогою розширень, будуть позначені іконкою руки.

Так як частотність для кращих словоформ не визначена, то потрібно це зробити. Аналогічно попередніх етапів виконуємо збір кількості показів. Не бійтеся, що збір здійснюємо в тій же групі, де знаходяться інші запити. Збір просто продовжиться для тих фраз, які мають порожні клітинки.

Якщо вам буде зручніше, тоді спочатку ви можете додати кращі словоформи не в ту ж групу, де вони і були знайдені, а в нову, щоб там були тільки вони. І вже в ній зібрати статистику, очистити від сміття і так далі. А вже потім залишилися нормальні фрази додати до всього списку.

От і все. Семантичне ядро \u200b\u200bсайту зібрано. Але роботи ще залишилося чимало. Продовжуємо.

Перед наступними діями потрібно вивантажити всі запити з необхідними даними в excel файл на комп'ютер. Параметри експорту ми виставили раніше, тому можна відразу його і зробити. За це відповідає піктограма експорту в головному меню KeyCollector.

Відкривши файл, повинні отримати 4 колонки:

  1. фраза;
  2. джерело;
  3. частотність !;
  4. Краща форма фрази.

Це наше підсумкове семантичне ядро, що містить максимальний чистий і необхідний список запитів для написання майбутніх текстів. У моєму випадку (вузька ніша) вийшло 1848 запитів, що дорівнює приблизно 250-300 матеріалами. Точно сказати не можу - повністю ще на Розгрупувати всі запити.

Для негайного застосування це ще сирий варіант, тому що запити знаходяться в хаотичному порядку. Потрібно ще розкидати їх по групах, щоб в кожній були ключі до однієї статті. Це і є остаточною метою.

Розгруповування семантичного ядра

Цей етап виконується досить швидко, хоча і з деякими складнощами. Допоможе нам сервіс http://kg.ppc-panel.ru/. Є й інші варіанти, але будемо використовувати цей на увазі того, що з ним ми зробимо все в співвідношенні якість / швидкість. Тут потрібна не швидкість, а в першу чергу якість.

Дуже корисною річчю сервісу є запам'ятовування всіх дій в вашому браузері по кукам. Якщо навіть, ви закриєте цю сторінку або браузер в цілому, то все збережеться. Таким чином немає потреби робити все за один раз і боятися, що в один момент може все прірву. Продовжити можна в будь-який час. Головне не чистити куки браузера.

Користування сервісом я покажу на прикладі кількох вигаданих запитів.

Переходимо на сервіс і додаємо всі семантичне ядро \u200b\u200b(всі запити з excel файлу), експортовану раніше. Просто копіюємо всі ключі і вставляємо їх у вікно, як показано на зображенні нижче.

Вони повинні з'явиться в лівій колонці «Ключові слова».

На наявність зафарбованих груп в правій стороні не звертайте уваги. Це групи з мого попереднього ядра.

Дивимося на ліву колонку. Є доданий список запитів і рядок «Пошук / фільтр». Фільтром ми і будемо користуватися.

Технологія дуже проста. Коли ми вводимо частина якогось слова або фрази, то сервіс в режимі реального часу залишає в списку запитів тільки ті, що містять введене слово / фразу в самому запиті.

Більш наочно дивіться нижче.


Я хотів знайти всі запити, які стосуються аритмії. Вводжу слово «Аритмія» і сервіс автоматично залишає в списку запитів тільки ті, що містять введене слово або його частину.

Фрази перемістяться в групу, яка буде називатися однією з ключових фраз цієї групи.

Отримали групу, де лежать усі ключові слова по аритмії. Щоб побачити вміст групи, клікніть на неї. Трохи пізніше ми будемо цю групу ще розбивати на більш дрібні групи, так як з аритмією є дуже багато ключів і всі вони під різні статті.

Таким чином на початковому етапі угруповання потрібно створити великі групи, які об'єднують велику кількість ключових слів з одного питання ніші.

Якщо взяти за приклад ту ж тематику серцевих хвороб, тоді спочатку я буду створювати групу «аритмія», потім «порок серця», потім «інфаркт» і так далі поки не буде груп по кожній з хвороби.

Таких груп, як правило, буде практично стільки ж, скільки і основних фраз ніші, згенерованих на 1м етапі збору ядра. Але в будь-якому випадку, їх повинно бути більше, так як є ще фрази з 2-4го етапів.

Деякі групи можуть містити взагалі 1-2 ключа. Це може бути пов'язано, наприклад з дуже рідкісним захворюванням і про нього ніхто не знає або ніхто не шукає. Тому і запитів немає.

Загалом, коли основні групи створені, необхідно їх розбити на більш дрібні групи, які і будуть використані для написання окремих статей.

Усередині групи навпроти кожної ключової фрази є хрестик, натиснувши на який, фраза видаляється з групи і назад потрапляє в неразгруппірованний список ключових слів.

Таким чином і відбувається подальша угруповання. Покажу на прикладі.

На зображенні ви можете бачити, що є ключові фрази, пов'язані з лікуванням аритмії. Якщо ми хочемо їх визначити в окрему групу для окремої статті, тоді видалити їх з групи.


Вони з'являться в списку лівої колонки.

Якщо в лівій колонці ще присутні фрази, тоді, щоб знайти віддалені ключі з групи, доведеться застосувати фільтр (скористатися пошуком). Якщо ж список повністю знаходиться по групах, тоді там будуть тільки віддалені запити. Ми їх відзначаємо і тиснемо на «Створити групу».


У колонці «Групи» з'явиться ще одна.

Таким чином ми розподіляємо всі ключі за темами і під кожну групу в остаточному підсумку пишеться окрема стаття.

Єдина складність цього процесу полягає в аналізі необхідності разгруппировки деяких ключових слів. Справа в тому, що є ключі, які за своєю суттю різні, але вони не вимагають написання окремих текстів, а пишеться детальний матеріал по багатьох питань.

Це яскраво виражено саме в медичній тематиці. Якщо взяти приклад з аритмією, то немає сенсу робити ключі «аритмія причини» і «аритмія симптоми». Ключі про лікування аритмії ще під питанням.

Впізнається це після аналізу пошукової видачі. Заходимо в пошук Яндекса і вбиваємо аналізований ключ. Якщо бачимо, що в ТОПі знаходяться статті, присвячені тільки симптомів аритмії, тоді даний ключ виділяємо в окрему групу. Але, якщо ж тексти в ТОПі розкривають всі питання (лікування, причини, симптоми, діагностика і так далі), тоді разгруппировка в даному випадку не потрібна. Всі ці теми розкриваємо в рамках однієї статті.

Якщо в Яндексі знаходяться саме такі тексти на верхівці видачі, тоді це знак, що разгруппировки робити не варто.

Теж саме можна привести на прикладі ключової фрази «причини випадіння волосся». Можуть бути підключи «причини випадіння волосся у чоловіків» і «... у жінок». Очевидно, що під кожен ключ можна написати окремий текст, якщо виходити з логіки. Але про що скаже Яндекс?

Забиваємо кожен ключ і дивимося, які ж тексти там присутні. Під кожен ключ там окремі докладні тексти, тоді ключі розгрупування. Якщо ж в ТОПі по обидва запитам знаходяться загальні матеріали по ключу «причини випадіння волосся», всередині якого розкриті питання стосовно жінок і чоловіків, тоді залишаємо ключі в рамках однієї групи і публікуємо один матеріал, де розкриваються теми по всіх ключам.

Це важливо, тому що пошукова система не дарма визначає тексти в ТОП. Якщо на першій сторінці знаходяться виключно докладні тексти з певного питання, тоді велика ймовірність, що розбивши велику тему на підтеми і написавши по кожній матеріал, ви не потрапляєте в ТОП. А так один матеріал має всі шанси отримати хороші позиції по всім запитам і збирати по ним хороший трафік.

У медичних тематиках цього моменту потрібно приділяти багато уваги, що значно ускладнює і уповільнює процес разгруппировки.

У самому низу колонки «Групи» ви побачите кнопки «вивантажити». Тиснемо на неї і отримуємо нову колонку з текстовим полем, що містить всі групи, розділені між собою рядковим відступом.

Якщо не всі ключі знаходяться в групах, то в поле «Вивантаження» прогалин між ними не буде. Вони з'являються тільки при повністю виконаною разгруппировки.

Виділяємо всі слова (комбінація клавіш Ctrl + A), копіюємо їх і вставляємо в новий excel файл.

Ні в якому разі не тиснемо на кнопку "Очистити все", так як віддалиться абсолютно все, що ви зробили.

Етап разгруппировки закінчено. Тепер можна сміливо писати по тексту під кожну групу.

Але, для максимальної ефективності, якщо бюджет вам не дозволяє виписати всі сем. ядро за пару днів, а є лише строго обмежена можливість для регулярної публікації невеликої кількості текстів (10-30 в місяць, наприклад), тоді варто визначити конкуренцію всіх груп. Це важливо, тому що групи з найменшою конкуренцією дають результат в перші 2-3-4 місяці після написання без будь-яких посилань. Достатньо лише написати якісний конкурентноздатний текст і правильно його оптимізувати. Далі за вас все зробить час.

Визначення конкуренції груп

Відразу хочу відзначити, що низько-конкурентний запит або група запитів не означає, що вони є сильно мікро низькочастотними. Вся принадність і є в тому, що досить пристойну кількість запитів, які мають низьку конкуренцію, але при цьому мають високу частотністю, що відразу ж дає вихід такої статті в ТОП і залучення солідного трафіку на один документ.

Наприклад, цілком реальна картина, коли група запитів має конкуренцію 2-5, а частотність близько 300 показів на місяць. Написавши всього 10 таких текстів, після виходу їх в ТОП, ми будемо отримувати 100 відвідувачів щодня мінімум. І це всього 10 текстів. 50 статей - 500 відвідувань і ці цифри взяті і стелі, так як це береться до уваги лише трафік по точним запитам в групі. Але залучатися же трафік буде ще й за іншими хвостів запитів., А не тільки по тим, що знаходяться в групах.

Ось чому так важливо визначити конкуренцію. Іноді ви можете бачити ситуацію, коли на сайті 20-30 текстів, а вже 1000 відвідин. І причому сайт молодий і посилань немає. Тепер ви знаєте, з чим це пов'язано.

Конкуренцію запитів можна визначати через той же KeyCollector абсолютно безкоштовно. Це дуже зручно, але в ідеалі даний варіант не є правильним, так як формула визначення конкурентності постійно змінюється зі зміною алгоритмів пошукових систем.

Краще визначати конкуренцію за допомогою сервісу http://mutagen.ru/. Він платний, але більш максимально наближений до реальних показників.

100 запитів коштують лише 30 рублів. Якщо у вас ядро \u200b\u200bна 2000 запитів, тоді вся перевірка обійдеться в 600 рублів. В добу дається 20 безкоштовних перевірок (тільки тим, хто поповнив баланс на будь-яку суму). Можете кожен день оцінювати по 20 фраз, поки не визначите конкурентність всього ядра. Але це дуже довго і безглуздо.

Тому, я користуюся саме мутагенів і ні маю до нього жодних претензій. Іноді бувають проблеми, пов'язані зі швидкістю обробки, але це не так критично, так як навіть закривши сторінку сервісу, перевірка триває в фоновому режимі.

Сам аналіз зробити дуже просто. Реєструємося на сайті. Поповнюємо баланс будь-яким зручним способом і по головному адресою (mutagen.ru) доступна перевірка. В поле водимо фразу і вона відразу ж починає оцінюватися.

Бачимо, що по перевіряється запитом конкурентність виявилася більш 25. Це дуже високий показник і може дорівнювати будь-якого числа. Сервіс не відображає його реальним, так як це не має сенсу з огляду на те, що такі конкурентні запити практично нереально просунути.

Нормальний рівень конкуренції вважається до 5. Саме такі запити легко просуваються без зайвих рухів тіла. Трохи вищі показники теж цілком прийнятні, але запити зі значеннями більше 5 (наприклад, 6-10) варто використовувати після того, як вже написали тексти під мінімальну конкурентність. Важливий максимально швидкий тексту в ТОП.

Також під час оцінки визначається вартість кліка в Яндекс.Директ. По ній можна оцінити ваш майбутній заробіток. До уваги беремо гарантовані покази, значення яких можемо сміливо ділити на 3. У нашому випадку можна сказати, що один клік по рекламі Яндекс директив нам буде приносити 1 рубль.

Сервіс визначає і кількість показів, але на них ми не дивимося, так як визначаються частотність не бачені "! Запит", а тільки "запит". Показник виходить не точним.

Такий варіант аналізу підійде, якщо ми хочемо проаналізувати окремий запит. Якщо потрібна масова перевірка ключових фраз, тоді на головній сторінці зверху поля введення ключа є спеціальне посилання.


На наступній сторінці створюємо нове завдання і додаємо список ключів з семантичного ядра. Беремо їх з того файлу, де ключі вже розгрупувати.

Якщо на балансі достатньо коштів для аналізу, перевірка відразу почнеться. Тривалість перевірки залежить від кількості ключів і може зайняти деякий час. 2000 фраз я аналізував порядку 1го години, коли вдруге перевірка всього 30 ключів зайняла аж кілька годин.

Відразу після запуску перевірки ви побачите завдання в списку, де буде колонка "Статус". По ній ви і зрозумієте, чи готове завдання чи ні.

Крім цього після виконання завдання ви відразу зможете скачати файл зі списку всіх фраз і рівнем конкуренції для кожної. Фрази будуть все в такому порядку, як вони і були розгрупувати. Єдине, будуть видалені прогалини між групами, але це не страшно, т.к.все буде інтуїтивно зрозуміло, адже кожна група містить ключі на іншу тему.

Крім цього, якщо завдання ще не виповнилося, ви можете зайти всередину самого завдання і подивитися результати конкуренції для вже виконаних запитів. Просто натисніть на назву завдання.

У приклад покажу результат перевірки групи запитів для семантичного ядра. Власне, це та група, під яку писалася ця стаття.

Бачимо, що практично всі запити мають максимальну конкуренцію 25 або ж ближче до неї. Це означає, що по цих запитах, мені або взагалі не бачити перших позицій або ж не бачити їх дуже довго. Такий матеріал б на новому сайті я взагалі не писав.

Зараз же я його опублікував лише для створення якісного контенту на блог. За мету звичайно ставлю вивести в топ, але це вже пізніше. Якщо на першу сторінку хоча б лише по головному запитом мануал і вийде, тоді я вже можу розраховувати не солідний трафік тільки на цю сторінку.

Останнім кроком залишилося створити остаточний файл, на який ми і будемо дивитися в процесі наповнення сайту. Семантичне ядро \u200b\u200bсайту то вже зібрано, але ось управлятися з ним не зовсім зручно поки.

Створення фінального файлу з усіма даними

Нам знову знадобиться KeyCollector, а також останній файл excel, який ми отримали з сервісу mutagen.

Відкриваємо раніше отриманий файл і бачимо приблизно наступне.

З файлу нам будуть потрібні тільки 2 колонки:

  1. ключ;
  2. конкуренція.

Можна просто видалити все інше вміст з цього файлу, щоб залишилися тільки необхідні дані або ж створити зовсім новий файл, Зробити там красиву рядок заголовка з найменуванням колонок, виділивши її, наприклад, зеленим кольором, і в кожну колонку скопіювати відповідні дані.

Далі копіюємо все семантичне ядро \u200b\u200bз цього документа і знову додаємо його в кейколлектор. Буде потрібно заново зібрати частотності. Це потрібно, щоб зібралися частотності в такому порядку, як і розташовані ключові фрази. Раніше ми їх збирали, щоб відсіяти сміття, а зараз для створення фінального файлу. Фрази звичайно ж додаємо в нову групу.

Коли частотності зібрані, ми експортуємо файл з весь стовпчик з частотністю копіюємо в фінальний файл, де будуть 3 колонки:

  1. ключова фраза;
  2. конкурентність;
  3. частотність.

Тепер залишилося трохи посидіти і для кожної групи порахувати:

  • Середній показник частотності групи - важливий не показник кожного ключа, а середній показник групи. Вважається, як звичайне середньоарифметичне (в excel - функція "СРЗНАЧ");
  • Загальну частотність групи поділити на 3, щоб привести можливий трафік до реальних цифр.

Щоб вам не мучитися з освоєнням розрахунків в excel, я підготував для вас файл, куди вам просто в потрібні колонки потрібно внести дані і все буде пораховано на повному автоматі. Кожну групу потрібно розраховувати окремо.

Всередині буде простий приклад розрахунку.

Як бачите, все дуже просто. З фінального файлу просто копіюєте всі фрази групи цілком з усіма показниками і вставляєте в цей файл на місце попередніх фраз з їх даними. І автоматично станеться розрахунок.

Важливо, щоб колонки в фінальному файлі і в моєму були саме в такому порядку. Спочатку фраза, потім частотність, а вже потім тільки конкуренція. Інакше, налічите дурницю.

Далі доведеться трохи посидіти, щоб створити ще один файл або лист (рекомендую) всередині файлу з усіма даними про кожну групу. Цей лист буде містити не всі фрази, а лише головну фразу групи (по ній ми будемо визначати, що за група) і пораховані значення групи з мого файлу. Це свого роду остаточний файл з даними про кожну групу з підрахованими значеннями. На нього я і дивлюся, коли вибирають тексти для публікації.

Вийде все ті ж 3 колонки, тільки без будь-яких підрахунків.

В першу ми вставляємо головну фразу групи. В принципі, можна будь-яку. Вона потрібна лише для того, щоб її скопіювати і через пошук знайти місце розташування всіх ключів групи, які знаходяться на іншому аркуші.

До другої ми копіюємо пораховані значення частотності з мого файлу, а в третю - середнє значення конкуренції групи. Беремо ми ці числа з рядка "Результат".

У підсумку вийде наступне.

Це 1й лист. На другому аркуші знаходиться весь вміст фінального файлу, тобто всі фрази з показниками їх частотності і конкуренції.

Тепер ми дивимося на 1й лист. Вибираємо максимально "рентабельну" групу ключів. Копіюємо фразу з 1й колонки і знаходимо її за допомогою пошуку (Ctrl + F) у другому аркуші, де поруч з нею будуть перебувати інші фрази групи.

От і все. Мануал підійшов до кінця. На перший погляд все дуже складно, але насправді - досить просто. Як уже говорив на самому початку статті - варто лише почати робити. В майбутньому я планую зробити відео-мануал по цій інструкції.

Ну а на цій ноті я закінчую інструкцію.

Всі друзі. Буду якісь побажання, питання - чекаю в коментарях. До зв'язку.

P. S. Рекорд за обсягом контенту. В Word вийшло понад 50 листів дрібним шрифтом. Можна було не статтю публікувати, а створити книгу.

З повагою, Костянтин Хмельов!

Сьогодні будь-який бізнес, представлений в Інтернеті (а таким є, по суті, будь-яка компанія або організація, яка не бажає втрачати свою аудиторію клієнтів з "онлайну") приділяє чималу увагу пошукової оптимізації. Це правильний підхід, який може допомогти істотно скоротити витрати на просування, зменшити рекламні витрати і при настанні належного ефекту створить нове джерело клієнтів для бізнесу. У числі інструментів, за допомогою яких здійснюється просування, знаходиться і складання семантичного ядра. Про те, що це таке і як працює, ми розповімо в даній статті.

Що являє собою "семантика"

Отже, почнемо ми з загального уявлення про те, що являє собою і що означає поняття "зібрати семантику". На різних інтернет-сайтах, присвячених пошукової оптимізації та просування сайтів, описано, що семантичним ядром можна назвати список слів і словосполучень, які здатні повністю описати його тематику, сферу діяльності і спрямованість. Залежно від того, наскільки масштабним є даний проект, він може мати велике (і не дуже) семантичне ядро.

Вважається, що завдання зібрати семантику є ключовою в тому випадку, якщо ви хочете почати просування свого ресурсу в пошукових системах і бажаєте отримувати "живий" пошуковий трафік. Тому немає ніяких сумнівів в тому, що поставитися до цього слід з повною серйозністю і відповідальністю. Найчастіше правильно зібране семантичне ядро \u200b\u200b- це суттєвий внесок в подальшу оптимізацію вашого проекту, в поліпшення його позицій в "пошукових системах" та зростання таких показників, як популярність, відвідуваність і інших.

Семантика в рекламних кампаніях

Насправді складання списку ключових слів, які максимально вдало опишуть ваш проект, важливо не тільки в тому випадку, якщо ви займаєтеся пошуковим просуванням. При роботі з в таких системах, як "Яндекс.Директ" і Google Adwords, Не менш важливо ретельно підбирати ті "ключові слова", які дадуть можливість отримати найбільш зацікавлених клієнтів у вашій ніші.

Для реклами такі тематичні слова (їх підбір) важливі ще й з тієї причини, що з їх допомогою можна знаходити більш доступний трафік з вашої категорії. Наприклад, це актуально в тому випадку, якщо ваші конкуренти працюють лише по дорогим ключовими словами, а ви "обходьте" ці ніші і просувається там, де йде другорядний для вашого проекту трафік, зацікавлений, тим не менш, у вашому проекті.

Як зібрати семантику автоматично?

Насправді сьогодні існують розвинені сервіси, що дозволяють скласти семантичне ядро \u200b\u200bдля вашого проекту за лічені хвилини. Це, зокрема, і проект для автоматичного просування Rookee. Процедура роботи з ним описується в двох словах: вам потрібно зайти на відповідну сторінку системи, де пропонується здійснити збір всіх даних про ключові слова вашого сайту. Далі потрібно ввести адресу ресурсу, що цікавить вас як об'єкт для складання семантичного ядра.

Сервіс в автоматичному режимі аналізує контент вашого проекту, визначає його ключові слова, отримує ті найбільш визначаються фрази і слова, які містить проект. За рахунок цього для вас формується список з тих слів і фраз, які можна назвати "основою" вашого сайту. І, по правді кажучи, зібрати семантику таким чином найпростіше; зробити це може кожен. Більш того, система Rookee, аналізуючи відповідні ключові слова, підкаже вам ще і вартість просування по тому чи іншому ключевику, а також зробить прогноз щодо того, скільки пошукового трафіку можна отримати в тому випадку, якщо буде робитися просування по цих запитах.

ручне складання

Якщо говорити про підбір ключових слів в автоматичному режимі, насправді тут нема про що довго розписувати: ви просто використовуєте напрацювання готового сервісу, що нагадує вам ключові слова на підставі наповнення вашого сайту. Насправді не у всіх випадках результат такого підходу буде влаштовувати вас на всі 100%. Тому рекомендуємо також звернутися і до ручного варіанту. Про те, як зібрати семантику для сторінки своїми руками, ми також розповімо в цій статті. Правда, перед цим потрібно залишити пару приміток. Зокрема, ви повинні розуміти, що займатися ручним збором ключових слів ви будете довше, ніж триває робота з автоматичним сервісом; але при цьому ви зможете виділити для себе більш пріоритетні запити, виходячи не з вартості або ефективності їх просування, а орієнтуючись в першу чергу на специфіку роботи вашої компанії, її вектор і особливості послуг, що надаються.

визначення тематики

Насамперед, кажучи про те, як зібрати семантику для сторінки в ручному режимі, необхідно звернути увагу на тематику компанії, її сферу діяльності. Наведемо простий приклад: якщо ваш сайт представляє фірму з продажу запчастин, - то основою його семантики виступлять, звичайно ж, запити, які мають найбільшу частоту вживання (щось на зразок "автозапчастини для Ford").

Як відзначають експерти по пошуковому просуванню, не варто на даному етапі боятися використовувати високочастотні запити. Багато оптимізаторів помилково вважають, що велика конкуренція спостерігається саме в боротьбі за ці часто вживаються, а значить, і більш перспективні запити. На ділі це не завжди так, оскільки віддача від відвідувача, який прийшов за конкретним запитом на кшталт "купити акумулятор на Ford в Москві" часто буде набагато вище, ніж від людини, що шукає якісь загальні відомості про акумулятор.

Також важливо звернути увагу на якісь специфічні моменти, пов'язані з роботою вашого бізнесу. Наприклад, якщо ваша компанія представлена \u200b\u200bв сфері оптових продажів, семантичне ядро \u200b\u200bмає відображати такі ключові слова, як "оптом", "купити оптом" і так далі. Адже користувач, який побажає придбати ваш товар або послугу в роздрібному варіанті, буде просто нецікавий вам.

Орієнтуємося на відвідувача

Наступним етапом нашої роботи є орієнтація на те, що шукає користувач. Якщо ви хочете знати, як зібрати семантику для сторінки відповідно до того, що шукає відвідувач, потрібно звернутися до ключових запитах, які він робить. Для цього існують такі сервіси, як "Яндекс.Wordstat" і Google Keyword External Tool. Ці проекти служать для вебмайстрів орієнтиром з пошуку інтернет-трафіку і дають можливість виявити цікаві ніші для своїх проектів.

Працюють вони дуже просто: потрібно в відповідну форму "вбити" пошуковий запит, на основі якого ви будете шукати релевантні, більш уточнюючі. Таким чином, тут вам знадобляться ті високочастотні ключові, які були встановлені в попередньому етапі.

фільтрування

Якщо ви хочете зібрати семантику для СЕО, найбільш ефективним для вас підходом буде подальше відсіювання "зайвих" запитів, які виявляться невідповідними для вашого проекту. До таких, зокрема, можна віднести якісь ключові слова, релевантні вашому семантичному ядру з точки зору морфології, але відрізняються за своєю сутністю. Сюди ж повинні увійти і ключові слова, які не будуть належним чином характеризувати ваш проект або будуть робити це неправильно.

Тому, перш ніж зібрати семантику ключових слів, необхідно буде позбутися від невідповідних. Робиться це дуже просто: з усього списку ключових слів, складеного для вашого проекту, потрібно виділити непотрібні або невідповідні сайту і просто їх видалити. У процесі такої фільтрації ви встановите самі відповідні із запитів, на які будете орієнтуватися в подальшому.

Крім смислового аналізу представлених ключових слів, належну увагу також потрібно приділити і фільтрування їх за кількістю запитів.

Зробити це можна за допомогою все тих же Google Keyword Tool і "Яндекс.Wordstat". Забивши запит в форму пошуку, ви отримаєте не тільки додаткові ключові слова, але і дізнаєтеся, скільки разів робиться той чи інший запит протягом місяця. Так ви будете бачити приблизну кількість пошукового трафіку, яке можна отримати через просування по цим ключам. Найбільше на цьому етапі нас цікавить відмова від рідко використовуються, непопулярних і просто низькочастотних запитів, просування по яким буде для нас зайвими витратами.

Розподіл запитів по сторінках

Після того як був отриманий список найбільш підходящих для вашого проекту ключових слів, необхідно зайнятися зіставленням цих запитів зі сторінками вашого сайту, які будуть просуватися по ним. Тут найважливіше - визначити те, яка зі сторінок є максимально релевантної того чи іншого запиту. Причому поправку слід робити і на контрольний вагу, властивий тій чи іншій сторінці. Скажімо, співвідношення приблизно таке: чим більше конкурентний запит, тим більше цитовану сторінку слід вибирати під нього. Це означає, що в роботі з самими конкурентними ми повинні використовувати головну, а під ті, конкуренція в яких менше, цілком підійдуть і сторінки третього рівня вкладеності і так далі.

Аналіз конкурентів

Не забувайте і про те, що ви завжди можете "підглянути", як здійснюється просування сайтів, що знаходяться на "топових" позиціях пошукових систем по вашим ключовим запитам. Однак, перш ніж зібрати семантику конкурентів, необхідно визначитися, які сайти ми можемо віднести до цього списку. Не завжди в нього увійдуть ресурси, що належать вашим конкурентам по бізнесу.

Можливо, з точки зору пошукових систем, ці компанії займаються просуванням по іншим запитам, тому звертати увагу рекомендуємо на таку складову, як морфологія. Просто забийте в пошукову форму запити зі свого семантичного ядра - і ви побачите своїх конкурентів з видачі. Далі потрібно просто зробити їх аналіз: переглянути параметри доменних імен цих сайтів, зібрати семантику. Що це за процедура, і як просто здійснити її за допомогою автоматизованих систем, ми вже описували вище.

Крім усього того, що вже було описано вище, хотілося б також представити кілька загальних порад, які дають досвідчені оптимізатори. Перший - це необхідність займатися комбінацією високо- і низькочастотних запитів. Якщо ви будете орієнтуватися тільки на одну категорію з них, кампанія по просуванню може виявитися провальною. У разі якщо ви виберете тільки "високочастотники", вони не дадуть вам потрібних цілеспрямованих відвідувачів, які шукають щось конкретне. З іншого боку, НЧ-запити не дадуть вам потрібного обсягу відвідуваності.

Ви вже знаєте, як зібрати семантику. Wordstat і Google Keyword Tool вам допоможуть визначити, які слова шукаються разом з вашими ключовими запитами. Однак не варто забувати ще й про асоціативних словах і всі помічені. Ці категорії запитів можуть бути дуже вигідні, якщо використовувати їх в своєму просуванні. Як за першими, так і по другим ми можемо добути певну кількість трафіку; а в разі, якщо запит буде нізкоконкурентним, але цільовим для нас, такий трафік виявиться ще і максимально доступним.

У деяких користувачів часто виникає питання: як зібрати семантику для Google / Yandex? Мається на увазі, що оптимізатори орієнтуються на конкретну пошукову систему, просуваючи свій проект. Насправді такий підхід цілком виправданий, проте істотних відмінностей в ньому немає. Так, кожна з пошукових систем працює зі своїми алгоритмами фільтрації і пошуку контенту, але вгадати, де сайт ранжируватиметься вище, досить складно. Можна знайти лише якісь загальні рекомендації по тому, які слід застосовувати в разі, якщо ви працюєте з тієї чи іншої ПС, але універсальних правил того (тим більше - в перевіреному і загальнодоступному вигляді) немає.

Складання семантики для рекламної кампанії

У вас може виникнути питання про те, як зібрати семантику для "Діректа"? Відповідаємо: в цілому процедура відповідає тій, що була описана вище. Необхідно визначитися: яких запитах релевантний ваш сайт, які сторінки зацікавлять користувача найбільше (і за якими ключовими запитами), просування по яким з ключів буде для вас найбільш вигідним і так далі.

Специфіка того, як зібрати семантику для "Діректа" (або будь-якого іншого рекламного агрегатора) полягає в тому, що вам потрібно категорично відмовлятися від нетематічного трафіку, оскільки вартість кліка набагато вище, ніж у випадку з пошуковою оптимізацією. Для цього використовуються "стоп-слова" (або "мінус-слова"). Щоб зрозуміти, як зібрати семантичне ядро \u200b\u200bз "мінус-словами", потрібні більш глибокі пізнання. В даному випадку мова йде про таких словах, що можуть привести на ваш сайт нецікавий вас трафік. Часто такими можуть бути слова "безкоштовно", наприклад, - в тому випадку, коли мова йде про інтернет-магазині, в якому апріорі не може бути нічого безкоштовного.

Спробуйте скласти семантичне ядро \u200b\u200bдля свого сайту самостійно, і ви переконаєтеся в тому, що тут немає нічого складного.

Головний біль будь-якого професійного сеошника - це зібрати хорошу семантику. Якраз мені прийшов новий проект на просування, і в цьому пості я покажу реальний збір великого семантичного ядра для сайту.

Хоча цей приклад я буду робити на основі інтернет магазину, але сам принцип можна цілком застосовувати для будь-якого типу сайту - корпоративного, сайту послуг, інформаційного проекту.

Як зібрати семантичне ядро \u200b\u200bдля інтернет магазину

Починається все з аналізу клієнтського проекту, сайтів конкурентів і складання первинної структури. Мета цього завдання - зрозуміти, за якими напрямками потрібно збирати семантику.

Я отрісовиваємих первинну структуру в Xmind, у мене вийшла ось така схема.

Тепер починається найцікавіше.

Як зібрати семантичне ядро \u200b\u200bза допомогою кей колектор

Після того, як ядро \u200b\u200bпочищено, я роблю нову ітерацію - закидаю ключі знову на парсинг в wordstat, adwords і підказки, потім знову чищу і виходить готове ядро.

Для даного проекту ітерацію я робити не став, так як проект досить великий і запитів цілком вистачає, щоб забезпечити прогнозовані результати.

Збір семантичного ядра конкурентів

Наступний крок - це зібрати семантику конкурентів за допомогою сайту keys.so. На мій погляд, це просто офігенний сервіс для парсинга чужих запитів, у нього мало сміття і дуже велика база.

Просто знаходжу кілька сайтів конкурентів (3-4 достатньо) по самим жирним запитам, заганяю їх в сервіс, і він видає ВСЕ ключі, за якими вони просуваються.

Потім також заганяю їх в кейколлектор, чищу від різного сміття аналогічно вищеописаному, і виходить відмінне семантичне ядро \u200b\u200bконкурентів плюсом до вже зібраного ядра.

Збір семантики в букварікс

Ще одна програма, яку я використовую в роботі - це bukvarix.com. Відмінна прога, мало сміття, дуже велика база. Єдиний мінус - важить просто до хера. Тільки в стислому вигляді близько 40 Гб, а в розпакованому понад 170.

Також заганяю в неї все слова зі структури.

Результат парсинга аналогічно чищу через кейколлектор. На виході отримую ще одне семантичне ядро.

Тепер заключний момент - потрібно все це скомпонувати (первинний парсинг кейколлектора, конкурентів з key.so і букварікс), почистити від дублів і ось вона - готова семантика для інтернет магазину.

Після збору, але це вже зовсім інша історія.

За часом, в середньому, в моєму що не поспішають темпі таке ядро \u200b\u200bя збираю десь за 2 тижні. Довго це або швидко, не знаю, у мене ось такий темп.

Повторюся, що така схема підійде для будь-якого типу сайту, і для своїх інформаційних проектів я збираю семантику точно таким же способом.

Звичайно, можна швидко вручну зібрати базову семантичне ядро \u200b\u200bдля сайту безкоштовно і онлайн за допомогою того ж сервісу yandex.wordstat.ru, але воно вийде однобоким, дуже маленьким, і у вас просто буде мало можливостей його розширити.

В закладки

Як зібрати правильне семантичне ядро

Якщо ви думаєте, що зібрати правильне ядро \u200b\u200bздатний якийсь сервіс або програма, то ви будете розчаровані. Єдиний сервіс, здатний зібрати правильну семантику, важить близько півтора кілограм і споживає близько 20 ват потужності. Це мозок.

Причому в цьому випадку у мозку є цілком конкретне практичне застосування замість абстрактних формул. У статті я покажу рідко обговорювані етапи процесу збору семантики, які неможливо автоматизувати.

Існує два підходи до збору семантики

Підхід перший (ідеальний):

плюси: в цьому випадку ви отримуєте 100% охоплення - ви взяли всі реальні запити з трафіком по головному запитом «паркани» і вибрали звідти все, що вам потрібно: від елементарного «паркани купити» до неочевидного «установка бетонних парапетів на паркан ціна».

мінуси: пройшло два місяці, а ви тільки закінчили працювати з запитами.

Підхід другий (механічний):

Бізнес-школи, тренери і агентства по контексту довго думали, що з цим робити. З одного боку, дійсно пропрацювати весь масив за запитом «паркани» вони не можуть - це дорого, трудозатратно, людей не вийде навчити цьому самостійно. З іншого боку, гроші учнів і клієнтів теж треба якось забрати.

Так було придумано рішення: беремо запит «паркани», множимо на «ціни», «купити» і «монтаж» - і вперед. Нічого не треба парсити, чистити і збирати, головне - перемножити запити в «скрипте-перемножалке». При цьому виникають проблеми мало кого хвилювали:

  • Все придумують плюс-мінус однакові перемноження, тому запити виду «монтаж парканів» або «паркани купити» моментально «перегріваються».
  • Тисячі якісних запитів виду «паркани з профнастилу в Долгопрудном» взагалі не потраплять в семантичне ядро.

Підхід з перемноження себе повністю вичерпав: настають важкі часи, переможцями вийдуть тільки ті компанії, які зможуть для себе вирішити проблему якісної обробки дійсно великого реального семантичного ядра - від підбору базисів до очищення, кластеризації та створення контенту для сайтів.

Завдання цієї статті - навчити читача не тільки підбирати правильну семантику, а й дотримуватися балансу між трудомісткістю, розміром ядра і особистою ефективністю.

Що таке базис і як шукати запити

Для початку домовимося про термінологію. Базис - це якийсь загальний запит. Якщо повернутися до прикладу вище, ви продаєте будь паркани, значить, «паркани» - головний для вас базис. Якщо ж ви продаєте тільки паркани з профнастилу, то вашим головним базисом буде «паркани з профнастилу».

У той же час за запитом «паркани з профнастилу» - тільки 127 тисяч показів, тобто охоплення стиснувся в десять разів. Порівнянним чином зменшиться і кількість запитів, і трафік на сайт.

Таким чином, можна сказати, що базис - це загальний запит, що описує товар, послугу або щось інше, за рахунок самої своєї формулювання визначає міру охоплення потенційної аудиторії.

  • Описують товар або послугу.
  • Дадуть такий обсяг розширених запитів, який ви можете обробити в прийнятні для себе терміни.

Тепер спробуємо розібратися з проблемою пошуку базисів як таких.

1. Як ви самі називаєте товар або послугу

Якщо ви - підрядник, то запитайте про це у клієнта. Наприклад, замовник каже вам: «Я продаю спортивні покриття в Москві і області». Викиньте з формулювання замовника Москву і область, а також підберіть синоніми.

Базиси в такому випадку будуть такими

Цифри - це дані частотності по Москві і області по WordStat. Неважко помітити, що кожен із запитів при парсінгу WordStat в глибину дасть різну вибірку розширених запитів, і кожна вибірка - це сегмент цільового попиту.

Приклад з синонімами складніше: «невеликий» медіаплан на сотню з гаком базисів з частотністю по Москві для продажу елітної нерухомості:

Висновок: збирати семантику складно. Але сам збір низькочастотних запитів досить простий - є купа сервісів від Key Collector до MOAB та інших. Справа не в сервісі. Справа в тому, що підібрати коректні базиси сервісом неможливо - це можна зробити тільки руками і мозком людини, це найважча і важка операція.

Отже, ми вже згадали визначення товару або послуги «з голови» і привели їх до укороченим формам. Тобто якщо ми продаємо «вантажівки камаз», то пишемо в файл просто - «камаз».

Важливо зрозуміти ключовий принцип - вибірка за запитом «камаз» і за запитом «65115 -камаз» дає різні запити, частково непересічні. Це різні сутності.

Тому не потрібно болісно читати тайтли конкурентів або аналізувати їх в сумнівних сервісах. Розслабтеся, включите фантазію, налийте келих хорошого коньяку і почитайте сайти конкурентів. Ось список артикулів, кожен з яких - окрема вибірка.

3. Сервіси пошукових систем

Приклад: в правій колонці WordStat містяться так звані запити, які користувачі шукали разом із зазначеним. Дивлячись на праву колонку за запитом з прикладу вище, можна побачити запит з входженням слова «самоскид».

Відмінно. Запит «купити камаз самоскид» нам не потрібен, так як він і так потрапить в розширені запити по базису «камаз», а ось запит « самоскид »- це новий сегмент з окремими новими запитами, новим попитом і нової семантикою.

Беремо його в проект. Аналогічним чином аналізуємо і блок «шукали разом з цим» у видачі «Яндекса» і Google.

Google, наприклад, підказує запит «сельхозник»

Ось що можна отримати за нього в WordStat

Перевіримо, що говорить «Яндекс». Навіть якщо припустити, що ви не продаєте нічого, крім «КамАЗів», то ваші зусилля все одно не пропадуть дарма.

Можна взяти запит «тягач» і отримати новий попит на ваші вантажівки і по ньому

В цілому, думаю, принцип зрозумілий: завдання - знайти якомога більше цільових базисів, які виступають ініціаторами, драйверами нових довгих семантичних хвостів.

Звичайно, тут можна дати ще багато порад: подивитися анкор-файл конкурентів, подивитися вивантаження з SpyWords або Serpstat. Все це, звичайно, добре. Вірніше, було б добре, якби не було так сумно. Тому що по суті робота ще навіть не почалася: назбирати кожен може, а спробуйте-но все це очистити, згрупувати і грамотно управляти.

Вищеописаного цілком достатньо, щоб, маючи світлу голову, зібрати семантику на порядок якісніше і краще, ніж у 99% ваших конкурентів.

Як не витратити все життя на збір ключових слів

Багато хто запитує: як грамотно управляти семантикою, як її «різати». Якщо ви продаєте могильні камені з буйволиного роги в Нарьян-Маре, ви навряд чи зіткнетеся з цією проблемою - у вас семантики завжди буде мало. У той же час, в «гарячих» популярних тематиках семантики завжди валом: назви брендів, категорій, моделей, їх синоніми і так далі.

Ми вирішуємо цю проблему за рахунок багаторівневої приоритизации семантики.

1. Пріоритизація семантики до збору запитів

Якщо все одно залишається багато - приберіть і ті розділи, де маржинальність менше 25-30%, там ви теж, швидше за все, багато не заробите - максимум трохи дрібниці в кишеню плюс покажете виробнику більше обороту і виб'єте нові знижки. Заробляти цікаві гроші виходить на товари і послуги з маржею від 30% - не завжди і не скрізь звичайно, але ці цифри я бачив десятки разів на самих різних проектах.

2. Збір базисів і розширеної семантики по ним

Зібрали? Все одно виходить багато? Розставте запити. Ставте 1, 2 або 3 поруч з кожним базисом. Примусьте себе це зробити, ось так:

Я спеціально обмежуюся трьома значеннями - це просто. Якщо у вас буде десять рівнів пріоритету, ви зійдете з розуму, думаючи про те, поставити 6 або 7 конкретному базису, - а так рішення дуже прості і очевидні.

Крім того, це допомагає структурувати свій бізнес для самого себе - поглянути на нього крізь призму попиту і маржинальність: фільтруємо по стовпчику «Пріоритет» і бачимо, що поставили «1» тим базисам, за якими мало попиту.

Значить, треба або активніше працювати з іншими товарними напрямками, знижувати закупівельні ціни, або стимулювати попит - але це вже інша історія.

3. відсікли все непріоритетних і все одно семантики занадто багато

Коли говорять про «різати» семантику, ті, хто з цим попрацював, як правило, мають на увазі видалення низькочастотних запитів з частотністю нижче певної відсічення. У тематичних дискусіях в Facebook і на форумах я регулярно бачу цифри від 5 до 10 (мається на увазі загальна частотність на вимогу).

Тобто навмисно забирається з масиву все, що по частотності менше 10.

Зрозуміло, що так робити можна, якщо у вас все одно дуже багато семантики. Але це завжди питання вибору між поїданням риби і сидінням на незручних для сидіння предметах. Занадто багато приберете - недорахуєтеся якихось мінус-слів, отримаєте більше «брудного» трафіку на запуск, але виграєте в трудомісткості.

Моя думка така: умовна точка балансу тут знаходиться на рівні «прибираємо все, що не має частотності». Це дозволяє викинути приблизно половину масивів, отриманих з різних джерел, в той же час трафік на запуск залишається дуже чистим, з похибкою буквально 1-3% і швидко дочищают.

Що значить «дочищают»

Дзвінки? Теж ні, адже величезний вплив на кількість дзвінків надає сайт: можливо, з кампанією все добре, просто сайт зроблений неправильно.

Швидко перевірити ефективність пошукової кампанії можна в «Яндекс.Метрика». Для цього нам треба через два-три дні після запуску кампанії отримати звіт про фразах, які послужили джерелами переходу. Як знайти цей звіт в «Метриці»:

Кількома на хрестик на всіх угрупованнях, крім «Пошукова фраза», і натискаємо «Застосувати». Ми отримаємо звіт про тих фразах, за якими користувачі побачили наші оголошення, кликнули по ним і перейшли до нас на сайт. Що робити з цим звітом?

Уважно переглянути і виділити нерелевантні фрази, які не належать до вашого бізнесу. На жаргоні їх називають «сміттям». У професійно зроблених кампаніях в перший час після запуску частка «сміття» може становити від 1 до 4%, в кампаніях, зібраних «на коліні», - до 20-40%.

Як ви вже, напевно, зрозуміли, процедуру з додатковим очищенням від сміття варто проводити регулярно - як мінімум, два-три рази на місяць. Чому так часто?

У нас був цікавий приклад з практики. Ми працювали з кампанією, в яку включили для клієнта високомаржінальний запит «чорний дим дизель». Клієнт працював з дизельними двигунами, і такий запит означає, що у клієнта є серйозна проблема з двигуном, і, ймовірно, потреба в кваліфікованих послуги.

Одночасно з цим у вересні 2016 року, коли угруповання російського флоту попрямувала до Сирії, ТАКР «Адмірал Кузнєцов» привернув увагу міжнародних ЗМІ сильним чорним димом з вихлопної труби. Це неминуче спровокувало запити на кшталт «чорний дим дизель адмірал ковалів».

Раніше таких запитів просто не було, тому й не було мінусів формату «-адмірал, -кузнецов». Тому мало того, що наше оголошення здалося за такими запитами, так воно ще й згенерувало безглузді переходи, які не мають для бізнесу ніякої цінності.

Відстежити такі запити оперативно можна тільки в «Метриці»: тому візьміть собі за правило на старті кампанії частіше (пізніше - рідше) перевіряти семантику і додатково мінусувати новий сміття.

Зрозуміло, виникає питання: а що взагалі впливає на кількість сміття. Все просто - статистична достовірність семантики.

На що впливає обсяг семантики

Далеко не завжди люди розуміють, про що говорять, коли обговорюють вплив великого семантичного ядра на ціну кліка, якість кампанії та інше. Сама по собі велика семантика не викликає ні зниження ціни кліка, ні збільшення якості кампанії. На що ж реально впливають сотні і тисячі зібраних НЧ-запитів?

1. Чистота трафіку на запуск кампанії

Чим більше запитів ви зберете - тим більше знайдете мінус-слів. На нескінченно великою вибіркою запитів ви знайдете всі можливі мінус-слова, витративши на це нескінченний період часу.

На практиці варто обмежитися запитами, як я вже говорив, з частотністю від 1 до потрібного регіону - це дасть «сміттєвих» в районі 3-4% при запуску, після чого ви швидко дочиста залишилися сміттєві запити, мінуси, за якими чомусь не потрапили у вибірку.

При цьому варто використовувати і WordStat, і поради пошукових систем, збираючи підказки для кожного запиту, отриманого в WordStat. Використання одного тільки WordStat дасть високу сміттєвих - 10-15% на запуск як мінімум (якщо не більше). Але всі ми розуміємо - чим більше сміття, тим більше витрата коштів, тим менше лидов на одиницю витрати.

2. Релевантність оголошень запитам

реальний трафік, Який буде потрапляти до вас на сайт, приходить здебільшого не по тих запитах, які ви додали в кампанію, а по розширень від них. На один запит, для якого створено кампанію, доводиться як мінімум три-чотири розширених варіанти - це ультра-НЧ, які взагалі ніяк не передбачиш, користувачі генерують їх прямо в момент пошуку.

Тому не настільки важливий сам запит: так багато стало трафіку по ультра-НЧ з частотою переходу в один-два рази на місяць або на рік, що прив'язуватися до конкретного запиту немає сенсу. Важливо зібрати статистично значущу семантику, розбити її на дрібні групи схожих запитів і скласти під них оголошення.

Більше семантика - більше груп, більше точність відповідностей і нижче ціна кампаній на пошуку. У конкретній групі схожих ультра-НЧ, з яких сформується оголошення, може бути п'ять-десять запитів - а якщо ви вивудити з «Метрики» фрази з цього оголошенню через півроку, отримаєте список на 30-40 фраз як мінімум.

Повторюся: семантика - не панацея від усього і не божество. Семантика впливає на багато: на чистоту трафіку, на релевантність оголошень запитам - але не на все. Не має сенсу збирати величезні вибірки «нулевок» в надії отримати трафік дешевше - цього не буде.

Семантика впливає:

Ось ті фактори, про які вам варто пам'ятати в першу чергу. Втім, спробуємо підсумувати підсумки в двох словах.

коротко

  1. Зберіть базисні запити - загальні фрази, що описують ваші товари і послуги.
  2. Перевірте, чи всі синоніми та переформулювання ви зібрали: в допомогу вам WordStat і блок «схожі запити» в SERP.
  3. Зберіть розширення за отриманими запитами: WordStat, пошукові підказки, база MOAB - все йде в справу.
  4. Складіть табличку, де поруч з кожним базисом буде вказана його частотність і кількість розширених запитів.
  5. Якщо запитів занадто багато, і ви не встигаєте їх обробити - виконайте пріоритизації базисів в залежності від маржі, частотності і кількості запитів.
  6. Остаточний семантичний план сформований. Тепер справа за очищенням і кластеризацией семантики.