Когда Google не будет отличать ввод данных от роботов от человеческих.

С тех пор, как я изучил SEO в веб-агентстве, я всегда находился между двумя распространенными стратегиями. Либо оптимизируйте мой контент для конечных пользователей с помощью подлинного контента, созданного людьми. Или оптимизируйте его для Google с помощью технических ярлыков и созданного контента.

Для Google дебаты всегда были прямыми: человеческий вклад - это все, поэтому в соответствии с их рекомендациями вам лучше самостоятельно создавать надежный, точный и актуальный контент.

Тем не менее, по мере развития технологий машинного обучения генерируемый контент может распространяться в Интернете, не имея возможности отличить его от человеческого контента. Так почему же мы должны уделять первоочередное внимание работе человека, если роботы могут собирать и обрабатывать надежную информацию в кратчайшие сроки?

На самом деле трудно сказать, поскольку вопрос принадлежит Google и его стратегии. Но мы все еще можем представить, что автоматически сгенерированный контент может означать для будущего SEO и для вашего сайта.

Google Quest Against Spamming Robots

На протяжении всей своей истории Google боролась с пользователями, манипулирующими их алгоритмами в своих интересах.

Вначале поиск Google основывался на алгоритме Page Rank, который определял качество сайта на основе относительного качества сайтов, которые на него указывают. Что интересно, такие вычисления ранжируют домены в соответствии с доверием, которое им дают другие сайты. Это затрудняет манипулирование алгоритмом без ведома всех.

Однако по мере появления все большего числа специалистов по SEO пользователи нашли способы противодействовать системе. Посредством спама всех сайтов с обратными ссылками, указывающими на них (например, в разделах комментариев), было легко повысить их рейтинг. То, что мы могли бы назвать первыми методами автоматизации, уже распространило ссылки по всей сети.

Это также относится к семантическому контенту, который бот Google тщательно анализирует. Чтобы установить релевантность страницы, они исследовали наличие на странице слов, связанных с основным рассматриваемым ключевым словом. Владельцы умных веб-сайтов воспользовались этим, чтобы заполнить свою страницу ключевыми словами, чтобы наполнить их семантически и повысить рейтинг.

Google, который нелегко обмануть, узнал об этих нечеловеческих действиях и в конце 2003 года запустил свое первое крупное обновление алгоритма. Он взял на себя ответственность за наказание сайтов, которые использовали подобный метод наполнения ключевыми словами.

Но этого недостаточно. Итак, Google запустил еще большее обновление, Google Panda. На этот раз он был нацелен на домены, которые росли на ферме ссылок, дублированном контенте и нерелевантных ссылках, и стал известен своим разрушительным воздействием на профессию SEO.

Этими двумя обновлениями Google послал четкий сигнал: создание контента должно быть уникальным, спонтанным, достоверным и аутентичным. Google будет защищать «человеческую» сторону Интернета, а именно доверительные отношения, доверие и надежность с пользователем и «спонтанность содержания» авторов.

Но что, если эти человеческие ценности могут быть воспроизведены роботами?

Google AI на службе «человеческого» Интернета

Google безжалостно изгоняет «роботов» из того, что люди создают и продвигают в качестве контента. Тем не менее, как это ни парадоксально, лучший способ сделать это - обновить свои технологии, чтобы улучшить результаты поиска.

Google много вложил в развитие обучающейся машины, чтобы принести пользу своим алгоритмам. После обновления Hummingbird 2013 года алгоритм постепенно улучшался, чтобы понимать намерения пользователей. Анализируя концепции, лежащие в основе запросов, он смог понять смысл более длинных и сложных запросов.

Обновление Rank Brain 2015 пошло дальше, внедрив Deep Learning в поисковую систему. Этот самообучающийся алгоритм может понимать и предсказывать новые запросы от пользователей Интернета (поскольку 15% запросов каждый день являются новыми, поэтому это третий фактор после содержания и сетевых ссылок).

Например, он может понять сложный вопрос, такой как «Сколько лет маленькому зеленому парню-джедаю?» (Который часто показывает: «Йоде 900 лет»), но также и каждый первый запрос.

Он обучается доставлять пользователям точные результаты поиска и на основе взаимодействия с пользователем (частота кликов, время чтения) узнает об релевантности этих результатов.

В результате теперь Google может точно знать, удовлетворяет ли ваш контент пользователя или нет, не полагаясь на обратные ссылки и семантический контент. Он полностью ценит информацию и ценность вашего контента. Тем не менее, определяет ли это конец автоматической работы?

Угроза создания контента на основе искусственного интеллекта

Дело в том, что обучающая машина также распространяется на создание и генерацию контента. Приложения на основе машинного обучения полагаются на интеллект, который учится писать на основе онлайн-данных. Просто дайте им несколько ключевых слов, и они создадут уникальный контент, используя найденную информацию.

Например, статьи с обзором игр для Малой бейсбольной лиги генерируются на основе данных, полученных в режиме реального времени на сайте, и это, по общему признанию, довольно потрясающе. В сентябре 2020 года Guardian разрешила роботу написать эссе о своем предназначении в качестве искусственного интеллекта, это довольно интересно и забавно, просто посмотрите.

Что касается имеющихся в продаже приложений, таких как, например, Article Generator, Article Forge или WordAI, то результат пока не очень убедительный. Алгоритмам по-прежнему не хватает актуальности, структуры и глобального семантического понимания. Но нет сомнений в том, что эти технологии будут развиваться до такой степени, что они станут неотличимыми для пользователя и особенно для Google.

Должен ли Google тогда подвергать сомнению свою политику в отношении человеческого контента? Возможно, однажды Google признает растущую мощь автоматизации контента. Некоторые статьи, созданные ИИ, даже кажутся более читабельными, поскольку они лишены жаргона журналистов и блоггеров. Это причина для Google изменить свою ориентированную на человека перспективу (и они, возможно, уже сделали шаг в этом направлении).

Что дальше для SEO и вашего веб-сайта?

Каковы текущие последствия этих новых технологий для вашего контента? На данный момент влияние незначительно, но оно заставляет вас пересмотреть суть вашей стратегии создания контента.

Подлинность по-прежнему остается лучшей современной картой, если всегда помнить о ценности, которую может получить от нее средний пользователь.

С одной стороны, машинное обучение ускорит битву на вашем рынке и подпитывает создание контента конкурентами. Вам обязательно стоит подумать об этом, чтобы сэкономить время и повысить свою продуктивность.

С другой стороны, искусственный интеллект еще не может заменить создание новостных статей, глубоких и ценных, и пока он интересен только для более избыточных типов контента SEO (например, сводок матчей, новостных статей).

Вам решать, как сэкономить время за счет автоматизации и обеспечить подлинность человеческого контента. То, что может остаться в качестве маркетингового подхода, - это человеческая причина и намерение, стоящее за ним.