MLToolkit (набор инструментов машинного обучения): -

-ML Kit — это мобильный SDK, в котором реализованы возможности машинного обучения Google.

-Опыт работы с приложениями для Android и iOS в мощном, но простом в использовании пакете.

-Для начала не нужно иметь глубоких знаний о нейронных сетях или оптимизации моделей.

-ML Kit поставляется с набором готовых к использованию API для обычных мобильных приложений: распознавание текста.

-Также обнаружение лиц, идентификация ориентиров, сканирование штрих-кодов и маркировка изображений.

-Выбор API-интерфейсов ML Kit для работы на устройстве или в облаке.

-Наши API на устройстве могут быстро обрабатывать ваши данные и работать даже при отсутствии подключения к сети.

- С другой стороны, наши облачные API используют возможности машинного обучения Google Cloud Platform.

-Технология, обеспечивающая еще более высокий уровень точности.

Термины, используемые в ML Kit

1. Нейронные сети: -

- Android Neural Networks API (NNAPI) — это Android C API, предназначенный для выполнения вычислительных

-Интенсивные операции для машинного обучения на мобильных устройствах.

-NNAPI предназначен для обеспечения базового уровня функциональности для высокоуровневых сред машинного обучения.

(например, TensorFlow Lite, Caffe2 или другие), которые создают и обучают нейронные сети.

2. ТензорФлоу: -

-TF Classify открывает вашу камеру и классифицирует все объекты, которые вы ей показываете. Действительно сногсшибательная вещь

-Это работает полностью в автономном режиме? — ? Вам не нужно подключение к Интернету. Мне было очень весело с этим.

- Он распечатывает классификацию объекта вместе с уровнем достоверности (1,000 для абсолютной достоверности, 0,000 для нулевой достоверности).

- Когда ваш объект заполняет большую часть изображения, он часто работает довольно хорошо.

Как это работает?

-ML Kit позволяет легко применять методы машинного обучения в ваших приложениях, используя технологии машинного обучения Google,

-Например, Google Cloud Vision API, TensorFlow Lite и Android Neural Networks API вместе в одном SDK.

-Нужна ли вам мощность облачной обработки,

-возможности оптимизированных для мобильных устройств моделей в режиме реального времени,

-или гибкость пользовательских моделей TensorFlow Lite,

-ML Kit делает это возможным всего несколькими строками кода.

Облако функций на устройстве

1. Распознавание текста Доступно Доступно

2. Распознавание лиц нет данных нет данных

3. Сканирование штрих-кода НП НП

4. Маркировка изображений Доступно Доступно

5. Распознавание ориентиров Доступно Доступно

6. Вывод пользовательской модели нет данных нет данных

1. Распознавание текста

зависимости {

// …

реализация ‘com.google.firebase:firebase-ml-vision:15.0.0’

}

-Откройте API Cloud Vision в библиотеке API Cloud Console.

-Убедитесь, что ваш проект Firebase выбран в меню в верхней части страницы.

-Если API еще не включен, нажмите «Включить».

-Если вы хотите использовать облачную модель и не обновили свой проект до плана Blaze,

-сделайте это в консоли Firebase. Только проекты уровня Blaze могут использовать API Cloud Vision.

-Если вы хотите использовать облачную модель, также включите Cloud Vision API:

-1. Запустите детектор текста

-Чтобы распознавать текст на изображении, создайте объект FirebaseVisionImage либо из растрового изображения,

-средства массовой информации. Изображение, байтовый буфер, байтовый массив или файл на устройстве. Затем передайте объект FirebaseVisionImage методуdetectInImage FirebaseVisionTextDetector.

-Создайте объект FirebaseVisionImage из вашего изображения.

-Чтобы создать объект FirebaseVisionImage из объекта Bitmap:

-FirebaseVisionImage image = FirebaseVisionImage.fromBitmap (растровое изображение);

Ссылки:-

- Пожалуйста, смотрите документ для более подробной информации: -

https://firebase.google.com/docs/ml-kit/android