Несколько месяцев назад Amazon представила свое новое предложение AI. Это небольшая коллекция API высокого уровня, включая распознавание и классификацию изображений, машинное обучение, преобразование текста в речь и диалоговые интерфейсы, такие как Alexa (хотя последний все еще находится в частной бета-версии). Эти API-интерфейсы предоставляют разработчикам простой и высокоуровневый способ начать интеграцию функций искусственного интеллекта, не тратя месяцы на попытки реализовать свои собственные или попытаться интегрировать сложные пакеты, такие как Tensorflow, в свое приложение.

Больше всего мне было интересно опробовать API распознавания изображений (Amazon Rekognition), чтобы узнать, может ли он распознавать коллег по сотрудникам на основе их снимков в голову. У Amazon есть онлайн-документация, но нет полных примеров Rekognition специально для Node.js, и чтобы выяснить, как загружать локальные изображения, потребовалось немного покопаться. Я загрузил свой пример проекта на Github, в котором есть код для получения папки изображений, их индексации в коллекцию AWS Recognition, а затем очень простую конечную точку API и тестовую форму для загрузки изображений на конечную точку. Не стесняйтесь использовать его как базу для собственных экспериментов.

Как работает поиск по лицам с AWS, вы должны сначала создать коллекцию, в которой будет храниться группа лиц, по которым вы хотите выполнить поиск. Затем каждое лицо должно быть проиндексировано в этой коллекции. Я включил код, который загрузит папку с изображениями и проиндексирует их в выбранную вами коллекцию.

Предполагая, что вы следовали инструкциям в README, вы должны увидеть такую ​​форму:

Если вы посещаете страницу индекса на мобильном телефоне, у нее есть правильный атрибут HTML5, позволяющий сделать снимок с помощью камеры (accept = ”image / *; capture = camera”). После того, как вы нажмете "Отправить", вы увидите что-то вроде этого:

(переформатирован для удобства чтения)

ExternalImageId должен соответствовать имени изображения, которое мы изначально проиндексировали. Я тестировал его примерно с 10 людьми здесь, в офисе, и он оказался правильным на 90% из них. По одному человеку это не дало никаких результатов (вероятно, потому, что на снимке в голову на нем не было очков). Вероятно, было бы более точно, если бы я проиндексировал несколько изображений каждого человека, а не только одну, поэтому мы не можем считать это отличным тестом, а только подтверждением концепции.

У нас есть много забавных идей о том, что мы можем делать с помощью этой технологии теперь, когда у нас есть основы работы, например, проигрывать чью-то личную музыкальную тему, когда они входят, или узнавать клиентов и направлять их в нужный конференц-зал и т. Д.

Узнайте больше о лабораторных проектах Арчера на нашем сайте! Еще раз, код этого проекта доступен здесь.