2019 год стал шагом вперед в эволюции маркетинговых технологий. Аналитики данных были рады передать скриптам ручные операции. Машины взяли на себя такую ​​скучную деятельность, как импорт затрат и унификация данных. Теперь аналитикам может быть намного интереснее приобретать новые обязательные навыки, такие как программирование на Python, или делать что-то, что машины не могут сделать - пытаясь спрогнозировать тенденции в аналитике на следующий год.

Аналитики в 2020 году будут поддерживать и развивать такие важные части своей работы, как самообслуживание, внимание к конфиденциальности данных, хранилища данных и устройство машинного обучения. Кроме того, нашего внимания и описания в этой статье требуют совершенно новые тенденции.

1. Культура самообслуживания в аналитике

Благодаря распространению технологии обработки естественного языка вы можете задавать свои вопросы непосредственно системе аналитики в интерфейсе, такой как Google Insights в Google Analytics. Пользователи могли ввести запрос в интерфейс и получить ссылку на отчет. В этом случае отдел бизнес-аналитики должен уделять больше внимания анализу данных и темам глубокой аналитики.

Данные становятся ближе к пользователям, интерфейсы заменяют знание языков программирования, таких как SQL.

2. Data Engineers как часть системы аналитики

Инфраструктура аналитики становится все более сложной. Прогрессивные компании вкладывают средства в аналитические экосистемы вместе с базами данных. Отдельная роль в компании отведена инженеру по данным: они перенимают лучшие практики баз данных для создания стабильной аналитической инфраструктуры. Аналитикам не следует заботиться об источниках данных, и они могут сосредоточиться на анализе данных. Часто инженеры по обработке данных создают программные инструменты, которые помогают аналитикам и специалистам по обработке данных работать более эффективно (например, написание внутреннего пакета инструментов R или Python).

3. Облачные решения для бизнес-аналитики

Для решения аналитических задач не требуется собственное хранилище данных. Решения облачных хранилищ для аналитических нужд становятся все более популярными. Комбинация данных из разных источников открывает возможность не отставать от вашего клиента от первого взаимодействия до транзакции. Доступные решения доступны в Google Cloud, Amazon Warehouse Solution (AWS), Salesforce Cloud и Oracle Cloud. Для Google Analytics 360 интеграция с Google Cloud и Google BigQuery происходит буквально в один клик. Облачные решения позволяют строить модели машинного обучения с использованием хорошо известных языков SQL или Python. Расчет результатов можно использовать для обнаружения мошенничества в режиме реального времени, оценки пользователей и персонализации контента, а также для расширенного расчета рентабельности инвестиций.

4. Персонализированные данные пользователей становится сложнее обрабатывать.

Закон о GDPR в ЕС усложняет механизм обмена пользовательскими данными между компаниями. Пользователи должны знать об использовании личной информации. Задача состоит в том, чтобы удалить пользовательские данные, если модель машинного обучения их уже использовала.

С другой стороны, это возможность для небольших компаний придерживаться высоких стандартов. Облачные сервисы - это спасение для предприятий, которые хотят защищать конфиденциальные данные и делиться ими без негативных последствий.

5. Интерпретируемый ИИ

Модели машинного обучения начинают развертываться для улучшения процесса принятия решений. Кстати, на ранних этапах внедрения модели должны получить доверие со стороны бизнеса. Для таких строго регулируемых областей, как финансы, военная промышленность и медицина, прозрачность решения может быть даже важнее затрат.

Самые продвинутые модели часто представлены черными ящиками, что для бизнеса необъяснимо. Модель могла показывать эффективные результаты, но, к сожалению, трудно объяснить, почему было принято решение. Например, в банковском отделении клиенты хотят понять свой кредитный рейтинг и точку зрения банка. Будущее создаваемых моделей заключается в выражении интерпретируемости на основе входных данных ИИ.

6. Изменено отслеживание на основе файлов cookie.

Браузеры стали препятствовать отслеживанию аналитики и рекламных систем. В феврале 2019 года последняя версия Intelligence Tracking Prevention 2.1 для браузера Safari удаляет файлы cookie через 7 дней, что вызывает сомнения относительно традиционной реализации отслеживания. Также самый популярный браузер Chrome подтвердил удаление файлов cookie с соответствующими настройками.

Рекламные службы должны искать новые методы аутентификации. Например, это могут быть следы из социальных сетей или аккаунтов. С новым регламентом GDPR может быть сложно идентифицировать человека и объединить все взаимодействия с пользователем в одной системе.

7. Визуализации становятся проще.

Информация в графиках с большей вероятностью будет восприниматься лучше, чем в табличном формате. Основная причина, по которой инструменты визуализации становятся популярными, - это интеграция между базами данных и программным обеспечением для визуализации. Соединители автоматически импортируют данные из источника в средство визуализации. Если вы только начинаете свое путешествие, там могут быть готовые галереи с интерактивными шаблонами, которые можно применить к данным. Известные платформы продвигают собственные решения, такие как Tableau, Data Studio и Power BI. Количество коннекторов данных увеличивается и позволяет объединять данные из разных источников в одном месте. Может быть сложно хорошо подготовить данные и сделать их четкими и бесшумными.

Резюме

Сделав обзор тенденций, мы можем сделать следующие выводы:

  • Экосистема аналитики получила автономию и стала независимым государством с отделами, ответственными за поддержку и развитие систем;
  • Благодаря прогрессу самообслуживания аналитики данные стали ближе к конечным пользователям;
  • Алгоритмы машинного обучения стали способны предсказывать будущие поведенческие модели пользовательских сегментов.
  • Восприятие данных должно соответствовать более строгим правовым нормам, действующим с 2019 года. Инфраструктура данных должна быть адаптирована к непрерывным изменениям.