Введение

Одним из ключевых аспектов Open RAN является естественное внедрение интеллектуальных функций в RAN. С этой целью искусственный интеллект (ИИ)/машинное обучение (МО) играет решающую роль в этом процессе. Вот некоторые из целей AI/ML в сетях радиодоступа: уменьшение объема ручных операций по обработке больших объемов данных для диагностики проблем и принятия решений или прогнозирования будущего для принятия упреждающих действий, что позволяет сэкономить время и деньги. Алгоритмы на основе AI/ML могут использоваться, например, в приложениях сетевой безопасности для обнаружения аномалий, прогнозирования использования радиоресурсов, прогнозирования отказов оборудования, прогнозирования параметров в целях энергосбережения или обнаружения конфликтов между приложениями xApp. Это с самого начала решается в рамках О-РАН АЛЬЯНС.

В этом посте мы обсуждаем общую структуру машинного обучения в O-RAN, затрагивая архитектурные аспекты, связанные с Open RAN.

Примечание. Если вас интересует концепция Open RAN, прочтите этот пост. Если вас интересуют подробности об архитектуре, узлах и интерфейсах O-RAN, вот соответствующий пост.

Платформа машинного обучения в архитектуре O-RAN

На рис. 1 ниже показана упрощенная структура ML и общая процедура работы структуры ML в пределах O-RAN.

Данные собираются через интерфейсы O-RAN (такие как O1, E2 или A1) почти со всех объектов O-RAN, включая O-RU, O-DU, O-CU, ближние и не- RT RIC, но также может исходить от UE, базовой сети (CN) или функций приложений (AF). Собранные данные могут быть, например, регулярными измерениями производительности (PM), статистикой или дополнительной информацией (EI).

Эти данные используются функциями обучения и вывода машинного обучения:

  • Учебный хост ML (MTH) — это сетевая функция, на которой размещается онлайн- и офлайн-обучение модели (обычно для этой цели используется RIC без RT, но в некоторых сценариях также RIC с ближним RT).
  • Узел вывода машинного обучения (MIH) – это также сетевая функция, на которой размещается модель машинного обучения в режиме логического вывода, включая выполнение модели и онлайн-обучение (здесь можно использовать RIC без или почти в реальном времени).

Хост логического вывода предоставляет выходные данные Актору (т. е. объекту, на котором размещено решение с поддержкой машинного обучения. В этом случае это может быть O-DU, O-CU, Non/Near-RT). РИЦ). Актер использует результаты ML Inference для оптимизации производительности RAN. На основании решения выполняется действие над субъектом (т. е. сущностью или функцией, настроенной, контролируемой или получающей информацию в результате действия).

После выполнения действия субъекты предоставляют обратную связь, которая служит источником данных для следующей итерации. Важным аспектом всей структуры является то, что любую модель машинного обучения необходимо обучить и протестировать перед развертыванием в сети (т. е. полностью необученная модель не будет развернута в сети).

На основе выходных данных модели машинного обучения решение с помощью машинного обучения (т. е. решение, которое обращается к конкретному варианту использования с использованием алгоритмов машинного обучения во время работы) информирует Актера о необходимости необходимые действия по отношению к Субъекту. К ним могут относиться изменения CM (Управление конфигурацией) в O1, управление политиками в A1 или действия или политики управления в E2, в зависимости от расположения узла логического вывода машинного обучения и субъекта.

Обучение машинного обучения и логические выводы могут размещаться в различных объектах архитектуры O-RAN, где ключевыми элементами являются RIC без RT и RIC в ближнем RT, в плоскости управления и домене RAN соответственно. Они определены в [O-RAN-ML] как сценарии развертывания, например. Вариант 1 (рис. 2а) МТГ и MIH в RIC без РТ, Вариант 2 (рис. 2b) MTH в RIC без RT и MIH в RIC в ближней РТ, Вариант 3 (рис. 2c) MTH вне RIC без RT RIC, но часть SMO, MIH в Non-RT RIC.

Типы алгоритмов машинного обучения и расположение субъектов в архитектуре O-RAN

Алгоритмы ML в основном делятся на три основные группы:

  • Обучение с учителем (SL) — использует помеченные наборы данных либо для прогнозирования заданного количества на основе входных данных (например, нагрузки трафика в зависимости от дневного времени), либо для классификации. , т. е. присвоение входным данным соответствующей метки (например, классификация загруженности трафика на низкую, среднюю, высокую);
  • Неконтролируемое обучение (UL) — работает с немаркированными наборами данных для обнаружения скрытых шаблонов, большинство из них представляют собой алгоритмы кластеризации, которые можно использовать, например, для анализа покрытия сети на основе отчетов RSRP;
  • Обучение с подкреплением (RL) — следует концепции обучения агента действиям посредством взаимодействия с окружающей средой, например, тестируются различные политики управления трафиком в различных условиях нагрузки трафика, чтобы изучить агента, который должен быть выбранным.

Расположение компонентов модели машинного обучения, то есть обучения машинного обучения и вывода машинного обучения для варианта использования, в основном зависит от компромисса между задержкой связи, связанной с вариантом 1, и вычислительными возможностями RIC Near-RT — Вариант 2 и рассматриваемый контур управления (RIC без RT, RIC в ближнем RT и RT). Кроме того, следует учитывать доступность и количество данных, доступных через различные интерфейсы O-RAN.

В приведенной ниже таблице представлена ​​сводка того, как различные алгоритмы ML могут быть развернуты в архитектуре O-RAN (она основана на входных данных из [O-RAN-ML]).

Примечание. Если вы заинтересованы в разработке вариантов использования O-RAN и подробностях управления трафиком, ознакомьтесь с этой записью в блоге.

Модели машинного обучения в вариантах использования O-RAN

Существуют различные типы приложений в рамках оптимизации RAN и прогнозирования значений. Некоторые типы алгоритмов ML больше подходят для решения одной такой проблемы в этой области, а другие подходят для других. Это сопоставление анализируется в O-RAN ALLIANCE с точки зрения конкретных вариантов использования, таких как оптимизация QoE, управление трафиком, управление трафиком на основе QoE или управление передачей обслуживания V2X (подробное определение варианта использования можно найти в [O-RAN-UC] ).

Принимая во внимание типы алгоритмов машинного обучения и их предполагаемое размещение в архитектуре O-RAN, в приведенной ниже таблице представлены примеры вариантов использования, проанализированные в O-RAN ALLIANCE, а также соответствующие типы алгоритмов машинного обучения, варианты развертывания, а также входные и выходные данные с описание функционала.

Пример реализации жизненного цикла модели ML

Давайте теперь посмотрим на пример реализации жизненного цикла модели ML в архитектуре O-RAN [O-RAN-ML]. На рисунке 3 ниже представлен общий обзор типичных шагов приложений сценариев использования на основе AI/ML в архитектуре O-RAN с учетом моделей обучения с учителем/обучения без учителя.

Во-первых, разработчик моделей машинного обучения использует среду конструктора для создания исходной модели машинного обучения. Исходная модель отправляется на обучающие хосты для обучения. В этом примере соответствующие наборы данных собираются из RIC Near-RT, O-CU и O-DU в озеро данных (т. е. централизованное хранилище для хранения и обработки больших объемов данных). структурированных и неструктурированных данных) и передается на хосты обучения машинному обучению. Важно, чтобы первая фаза обучения проводилась в автономном режиме (на основе кэшированной даты и, например, точного сетевого симулятора), даже при рассмотрении подхода RL.

После успешного автономного обучения и обширных тестов обученная модель загружается в каталог конструктора машинного обучения, таким образом составляется окончательная модель машинного обучения.

Затем модель машинного обучения публикуется в RIC без RT вместе с соответствующей лицензией и метаданными. В этом примере RIC без RT создает контейнерное приложение ML, содержащее необходимые артефакты модели.

После этого RIC Non-RT развертывает приложение ML в RIC Near-RT, O-DU и O-CU с использованием интерфейса O1. Политики для моделей машинного обучения также задаются с помощью интерфейса A1.

Наконец, данные PM (измерение производительности) отправляются обратно на обучающие хосты ML из RIC Near-RT, O-DU и O-CU для повторного обучения.

Краткое содержание

Искусственный интеллект определенно играет важную роль в сетях Open RAN. Использование алгоритмов на основе машинного обучения и решений с поддержкой машинного обучения позволяет сократить объем ручного труда, прогнозировать будущее поведение путем наблюдения за тенденциями (например, прогнозировать низкое использование ресурсов для отключения ячеек в целях энергосбережения), обнаруживать аномалии (например, обнаруживать сетевые атаки), или повышение эффективности системы (например, эффективное использование радиоресурсов). O-RAN ALLIANCE изначально встраивает AI/ML в работу по стандартизации с нуля. Это включает в себя: создание специальной структуры AI/ML и определение соответствующих объектов и процедур для нее; встраивание функциональных блоков, связанных с AI/ML, в интеллектуальные контроллеры RAN; определение элементов интерфейса A1, предназначенных для предоставления моделей ML и информации о обогащении; определение конкретных вариантов использования, в которых будут использоваться решения на основе AI / ML и т. д. Стандартные документы охватывают несколько вариантов фактического обучения модели ML и развертывания логических выводов, при этом RIC без RT и RIC с ближним к реальному времени играют важную роль.

Если вас интересует ИИ для безопасности O-RAN, ознакомьтесь с этой записью в блоге: ИИ для безопасности O-RAN — RIMEDO Labs.

Если вас интересуют решения с поддержкой машинного обучения, разработанные нашей командой:

Рекомендации

[O-RAN-ML] O-RAN WG2, «Описание и требования к рабочему процессу AI/ML», O-RAN.WG2.AIML-v01.03

[O-RAN-UC] O-RAN WG1, «Подробная спецификация вариантов использования O-RAN», O-RAN.WG1.Use-Cases-Detailed-Specification-v09.00

Подтверждение

Большое спасибо Marcin Hoffmann и Pawel Kryszkiewicz за их ценные комментарии и предложения по улучшению этого поста.

Первоначально опубликовано на https://rimedolabs.com 2 января 2023 г.