Нечасто можно встретить страницу, которая занимает верхнюю позицию по ключевому слову, которое так высоко ценится, но не занимает одновременно различные верхние позиции по ключевым словам с одинаковым рейтингом. Как оптимизаторы поисковых систем, мы стремимся создать контент, ориентированный на конкретный запрос, который также привлекает похожие термины по этому ключевому слову. Чтобы найти эти коррелирующие ключевые слова, нам часто приходится очищать раздел «Люди также ищут» в поисковой выдаче или использовать инструменты исследования ключевых слов сторонней платформы. Но эти подходы ограничены по объему, им не хватает масштабируемости и могут потребовать гораздо большего от этих данных. Вместо этого мы можем использовать Python, чтобы дать нам более оптимизированное решение.

Идея этого сценария возникла в разговоре между двумя моими бывшими коллегами, в который я случайно подслушал. Обсуждая запросы, связанные с «тестами на СДВГ», мы стремились интерпретировать истинное намерение пользователя при поиске и выяснить, какими другими способами пользователи пытались понять симптомы СДВГ. Пользователь может выполнить поиск по запросу «Тест на СДВГ», чтобы узнать, есть ли у него СДВГ. Опять же, поиск «викторины по СДВГ» можно рассматривать как поиск ваших знаний о СДВГ, если вы хотите поставить диагноз кому-то другому или если вы пытаетесь получить больше информации о СДВГ, не имея его у себя. Как мы можем различать запросы, чтобы понять их релевантность, и как мы можем количественно оценить эти знания, чтобы ускорить как исследование ключевых слов, так и сбор информации по ключевым словам? Я воспринял этот разговор больше как вызов и решил попробовать.

Для этого мы будем стремиться имитировать интерпретацию ключевого слова Google и то, как они соединяют несколько запросов с одним результатом. Вводя основной термин, мы будем собирать лучшие результаты, мы будем собирать ключевые слова с высоким рейтингом, связанные со списками SERP, искать лучшие результаты листинга, связанные с ЭТИМИ результатами, а затем количественно оценивать релевантность по сравнению с исходным первым вводом. Другими словами, давайте создадим паутину, состоящую из первичного термина и других связанных терминов, чтобы увидеть, какие другие релевантные запросы Google связывает с нашим поиском.

Начиная

Для этого мы будем использовать SEMRush API (я большой бесплатный сторонник). Обратите внимание, что с этим сценарием использование кредита API может варьироваться в зависимости от исходного ключевого слова ввода. В функции были включены меры предосторожности для ограничения использования кредита, но я видел, что этот сценарий потребляет много (МНОЖЕСТВО) кредитов API для более интенсивных проектов.

Начнем с импорта необходимых библиотек и функций.

  • build_seo_urls (): позволяет нам пинговать SEMRush API и возвращать 10 лучших результатов по ключевому слову.
  • parse_response (): парсер для извлечения данных из вызова SEMRush API.
  • url_org (): проверяет SEMRush API, чтобы получить каждое ключевое слово в позициях 1–10 для данного URL.
  • secondary_later (): проходит через наш процесс сбора ключевых слов по нашему набору URL, найденному с помощью url_org ().
  • third_layer_setup (): берет второй этап и сравнивает его с основными результатами, вычисляя релевантность семантически похожих ключевых слов с помощью оценки встречаемости.

Запуск сценария

Вам нужно будет добавить свой ключ API SEMRush в переменную api_key и установить ключ «базы данных» в build_seo_urls для любого рынка, на котором вы хотите искать.

Ядро скрипта составляет около 15 строк, в которых каждая функция будет выполняться в стиле паука. Когда вы запустите сценарий, введите начальное ключевое слово через ввод, чтобы начать. После запуска скрипт сообщит вам, сколько семантически похожих ключевых слов он может найти и экспортировать файл в CSV с соответствующим объемом поиска и оценкой встречаемости от 1 до 10. Ваш начальный запрос всегда будет иметь 10 баллов (10 из 10 URL-адресов). ранжируйте ваш исходный вклад, потому что ... вы знаете ... с этого мы и начали). Оттуда он будет выставлять вам оценку, используя то же понятие.

Эмпирическое правило, которое я использовал в этом скрипте, заключается в том, что любое ключевое слово с оценкой встречаемости выше 7 очень актуально для вашего источника. 6–3 предоставляют большие возможности для добавления контента или новые области исследования. 2–1 дают вам хорошее представление о том, какие другие релевантные поисковые запросы находятся в общем пространстве вашего исходного запроса.

Заключение

Есть много вариантов использования этого скрипта, которые выходят за рамки традиционных исследований SEO. От ускоренного исследования ключевых слов (что часто требуется для новых бизнес-инициатив, исследования ключевых слов в масштабе предприятия и исследования новых для вас запросов), формирования идей контента, измерения настроений потребителей по определенному подмножеству поисков и сбора данных для обучения моделей кластеризации, мир твоя устрица! Полный сценарий можно найти на моем GitHub!

Думаете о более автоматизированных способах исследования ключевых слов? Прочтите мою статью об автоматизации исследования ключевых слов с помощью API или свяжитесь со мной через мой LinkedIn или Twitter!