MLToolkit (набор инструментов машинного обучения): -
-ML Kit — это мобильный SDK, в котором реализованы возможности машинного обучения Google.
-Опыт работы с приложениями для Android и iOS в мощном, но простом в использовании пакете.
-Для начала не нужно иметь глубоких знаний о нейронных сетях или оптимизации моделей.
-ML Kit поставляется с набором готовых к использованию API для обычных мобильных приложений: распознавание текста.
-Также обнаружение лиц, идентификация ориентиров, сканирование штрих-кодов и маркировка изображений.
-Выбор API-интерфейсов ML Kit для работы на устройстве или в облаке.
-Наши API на устройстве могут быстро обрабатывать ваши данные и работать даже при отсутствии подключения к сети.
- С другой стороны, наши облачные API используют возможности машинного обучения Google Cloud Platform.
-Технология, обеспечивающая еще более высокий уровень точности.
Термины, используемые в ML Kit
1. Нейронные сети: -
- Android Neural Networks API (NNAPI) — это Android C API, предназначенный для выполнения вычислительных
-Интенсивные операции для машинного обучения на мобильных устройствах.
-NNAPI предназначен для обеспечения базового уровня функциональности для высокоуровневых сред машинного обучения.
(например, TensorFlow Lite, Caffe2 или другие), которые создают и обучают нейронные сети.
2. ТензорФлоу: -
-TF Classify открывает вашу камеру и классифицирует все объекты, которые вы ей показываете. Действительно сногсшибательная вещь
-Это работает полностью в автономном режиме? — ? Вам не нужно подключение к Интернету. Мне было очень весело с этим.
- Он распечатывает классификацию объекта вместе с уровнем достоверности (1,000 для абсолютной достоверности, 0,000 для нулевой достоверности).
- Когда ваш объект заполняет большую часть изображения, он часто работает довольно хорошо.
Как это работает?
-ML Kit позволяет легко применять методы машинного обучения в ваших приложениях, используя технологии машинного обучения Google,
-Например, Google Cloud Vision API, TensorFlow Lite и Android Neural Networks API вместе в одном SDK.
-Нужна ли вам мощность облачной обработки,
-возможности оптимизированных для мобильных устройств моделей в режиме реального времени,
-или гибкость пользовательских моделей TensorFlow Lite,
-ML Kit делает это возможным всего несколькими строками кода.
Облако функций на устройстве
1. Распознавание текста Доступно Доступно
2. Распознавание лиц нет данных нет данных
3. Сканирование штрих-кода НП НП
4. Маркировка изображений Доступно Доступно
5. Распознавание ориентиров Доступно Доступно
6. Вывод пользовательской модели нет данных нет данных
1. Распознавание текста
зависимости {
// …
реализация ‘com.google.firebase:firebase-ml-vision:15.0.0’
}
-Откройте API Cloud Vision в библиотеке API Cloud Console.
-Убедитесь, что ваш проект Firebase выбран в меню в верхней части страницы.
-Если API еще не включен, нажмите «Включить».
-Если вы хотите использовать облачную модель и не обновили свой проект до плана Blaze,
-сделайте это в консоли Firebase. Только проекты уровня Blaze могут использовать API Cloud Vision.
-Если вы хотите использовать облачную модель, также включите Cloud Vision API:
-1. Запустите детектор текста
-Чтобы распознавать текст на изображении, создайте объект FirebaseVisionImage либо из растрового изображения,
-средства массовой информации. Изображение, байтовый буфер, байтовый массив или файл на устройстве. Затем передайте объект FirebaseVisionImage методуdetectInImage FirebaseVisionTextDetector.
-Создайте объект FirebaseVisionImage из вашего изображения.
-Чтобы создать объект FirebaseVisionImage из объекта Bitmap:
-FirebaseVisionImage image = FirebaseVisionImage.fromBitmap (растровое изображение);
Ссылки:-
- Пожалуйста, смотрите документ для более подробной информации: -