Мы находимся на заре развития приложений искусственного интеллекта. Задачи обработки в алгоритмах ИИ в этих приложениях выполняются либо в облачной инфраструктуре, либо на устройстве. Помимо облачного подхода, в настоящее время в тренде подход, основанный на использовании устройства, благодаря повышенной конфиденциальности, низкой задержке, повышенной надежности и многим другим преимуществам.

К 2022 году 80 процентов отгружаемых смартфонов будут иметь возможности искусственного интеллекта на устройстве, по сравнению с 10 процентами в 2017 году - Gartner

Что такое логический вывод на устройстве?

Логический вывод на устройстве - это процесс прогнозирования с использованием обученной модели, которая будет работать на устройстве. Вывод на устройстве становится все более популярным из-за его меньшей задержки и большей конфиденциальности по сравнению с облачной парадигмой. Однако выполнение таких ресурсоемких задач на небольших устройствах может быть сложнее из-за недостаточной вычислительной мощности и энергопотребления.

Что такое обучение на устройстве?

Ответ в вопросе! 😂 Обучение модели на устройстве. Опять же, как и вывод на устройстве, основные проблемы использования обучения на устройстве - это ограничение вычислительной мощности на таких устройствах и потребление энергии. Но обучение на устройстве дает больше преимуществ. Ваша модель может учиться на пользовательских данных. Поскольку модель работает на устройстве, она может легко узнать поведение пользователя. Кроме того, его можно персонализировать для этого пользователя. Поскольку обучение происходит на устройстве, нет необходимости выгружать эти данные в облако. Таким образом, это гарантирует конфиденциальность данных. Кроме того, нет необходимости размещать сервер для обучения вашей модели, что также экономит ваши деньги.

В этой статье я указываю на некоторые полезные и популярные ресурсы для новичков, связанные с искусственным интеллектом на устройстве, которые я нашел в Интернете. Я буду обновлять эту статью. Прокомментируйте, если вы знаете, что информация отсутствует, чтобы я мог обновить этот список. 😁

Мобильные приложения, которые проводят обучение / вывод на мобильных устройствах

Вот несколько популярных мобильных приложений / функций, которые выполняют вывод и обучение на вашем мобильном устройстве.

01) Функция Привет, Siri - Вы можете узнать, как работает Привет, Siri, в этой статье.
02) Функция Сейчас играет на телефоне Pixel, которая определяет музыку, которая играет вокруг вас - вы можете найти исследовательский документ, связанный с этим исследованием, здесь
03) Технология Face ID на iPhone - чтобы узнать, как она работает, обратитесь к этой статье
04) Приложение Фото на устройствах Apple обрабатывает ваши изображения, распознает лица и места на устройстве - Справка

Фреймворки

Tensorflow Lite - Tensorflow Lite - это платформа глубокого обучения с открытым исходным кодом, которая поддерживает вывод данных на устройстве. Обучение на устройстве в настоящее время не поддерживается TensorFlow Lite. Чтобы использовать Tensorflow Lite в своем приложении, сначала вам нужно преобразовать модель Tensorflow в сжатый плоский буфер с помощью TensorFlow Lite Converter. Будет создан файл .tflite. После этого вы можете загрузить его в мобильное или встроенное устройство и запустить модель на устройстве с помощью интерпретатора TensorFlow Lite.
PyTorch Mobile - в настоящее время PyTorch Mobile находится в стадии бета-тестирования. В отличие от Tensorflow Lite, ему не нужно преобразовывать существующую модель машинного обучения в промежуточный формат файла.
ML Kit от Googl e - ML Kit - это мобильный SDK, который в настоящее время находится в стадии бета-версии.
Вы можете присоединиться к программе раннего доступа ML Kit, используя эту ссылку.
Core ML от Apple - одна из замечательных функций Core ML - вы можете конвертировать модели из других библиотек машинного обучения, таких как TensorFlow и PyTorch, в Core ML с помощью конвертеров Core ML.
Встроенная обучающая библиотека (ELL) от Microsoft - EEL в основном разработан для платформ с ограниченными ресурсами и небольших одноплатных компьютеров, таких как Raspberry Pi.
ML Kit от Huawei - ML Kit предоставляет API как на устройстве, так и в облаке. < br /> Samsung Neural SDK - Samsung Neural SDK предоставляет API, позволяющие разработчикам легко развертывать на устройстве предварительно обученные или настраиваемые нейронные сети. Он предназначен для работы только на устройствах Samsung.

Процессоры, поддерживающие искусственный интеллект на устройстве

Samsung Exynos
Qualcomm Snapdragon

До сих пор в этой статье я обсуждал краткое введение в логический вывод и обучение на устройстве, а также некоторые популярные примеры. Я буду здесь снова, когда узнаю что-то новое. 🤗