2020-12-09 17:38:49
2 полезных макроса для тех кто работает с сервисами по анализу ключей конкурентов: Кейс.со, Серпстат и другим + несколько лайфхаков по работе с семантикой
При работе с семантикой конкурентов часто бывает необходимость вытянуть ключи по определенной категории и быстро прикинуть на какой трафик по тому или иному кластеру/странице можно рассчитывать. В сервисах такого функционала нет, поэтому запилил макрос, который решает эти проблемы.
Скачать его можно по ссылке - > https://drive.google.com/file/d/1zz356he8Gtf_GK3KqKXpMYMfcVYxGlJD/
Принцип работы:
1. Выгружаем через сервис анализа конкурентов по интересующему нас домену или доменам видимость по всем фразам в ТОП-10 - https://prnt.sc/vz127p. Для рунета я обычно, использую keys.so. Самая большая база ключей + много доп. фичей для аналитики. По промокоду ramiras - 20% скидка. Если используем несколько доменов, то объединяем списки. Далее переносим на лист “Семантика” макроса 3 столбца - фразы, страницы к которым они относятся и заковыченную частотность с восклицательным знаком - https://prnt.sc/vz2auj
2. На лист “Урлы для отбора” переносим урлы по которым нужно получить данные - https://prnt.sc/vz2cph. Важно при работе с Keys.so! Он часто дает выгрузку по урлам с http , поэтому перед запуском нужно сделать поиск замену с http на https по листу “Семантика”, если домены, которые мы анализируем на https.
Как получить урлы для конкретной категории, которые мы будем использовать?
При сборе семантики для интернет-магазина или сайта услуг - один из эффективных методов работы - найти узкотематичного лидера/лидеров с хорошей структурой по параметрам ассортимент/возраст/ссылочное похожим на нас и составить по ним первичную структуру по которой мы уже будем собирать маркеры и парсить Вордстат/Подсказки.
Для этой цели я использую макрос, который вытягивает урлы из Excel. То есть просто выделяем и копируем бренды и теги конкурентов из браузера в эксель https://prnt.sc/vz2ehy, запускаем макрос (Вид-Макросы-Вытащить) и получаем по нашей структуре привязку к урлам лидеров https://prnt.sc/vyyvgo.
А если спарсить по этим урлам заголовки h1 через Screaming Frog и объединить их с важным коммерческим словом в тематике, например “купить”, то у нас получатся готовые маркеры для кластеризации по маркерам.
Поясню для тех кто не в теме. При обычной Hard-группировке вершинами кластеров становятся наиболее частотные запросы и в одну группу с ними попадают все фразы, которые имеют с ними и между собой N-общих урлов. Где N - порог группировки. При таком раскладе после группировки кластеры идут в хаотичном порядке и много времени уходит на поиск нужных групп. При кластерной - вершинами являются маркеры, привязанные к структуре, поэтому в результате у нас все кластеры идут точно по нашей структуре, что сильно упрощает работу при группировке ядра.
3. Возвращаясь к нашей теме - урлы мы получили, копируем их на лист “Урлы для отбора”. https://prnt.sc/vz15ca
Переходим на лист “Результат” и нажимаем кнопку “Сформировать результат”
В итоге мы получаем:
1) Запросы только по выбранным нами урлам в той же последовательности, что мы подавали на вход - это облегчает подбор маркеров для парсинга Вордстат по структуре.
2) Данные по общей частотности всех запросов по урлу - https://prnt.sc/vz15w9. Что дает представление о перспективах по трафику по каждому кластеру. Понятно, что для понимания числа переходов на страницу нашего сайта нужно знать какой процент трафика забирают на себя сервисы Яндекса, агрегаторы и контекст. Такая метрика реализована в приватной версии моего кластеризатора (контекст правда не считает), но для общей прикидки по кластеру или для работы с информационкой этих данных будет вполне достаточно.
3.2K views14:38