Автор: Intelegain Team Опубликовано: 21 мая 2018 г.

На ежегодной конференции разработчиков Google I/O в этом году было объявлено о смещении акцента на новые области деятельности организации — искусственный интеллект, машинное обучение и дополненная реальность. Одной из текущих тем, лежащих в основе большинства ключевых докладов Google, было использование ИИ и его подмножества машинного обучения для управления большинством своих продуктов.

Вот основные анонсы конференции.

Камера для направления — Google Maps представляет систему визуального позиционирования (VPS)

Google знает о проблемах, с которыми приходится сталкиваться при поиске направления в незнакомой местности, даже если у вас есть доступ к GPS. Вице-президент Google Апарна Ченнапрагада объявила об одной из лучших функций — обновленной версии системы визуального позиционирования (VPS) в навигации Google Maps.

Для людей, которые заблудились, вам больше не нужно задаваться вопросом, идете ли вы в том же направлении, что и синяя точка на вашем GPS, вместо этого вы можете использовать свою камеру, чтобы смотреть на окружающие и простые направления поворота налево, направо или прямо будет очевиден для вас.

Вам просто нужно поднять телефон, включить камеру, и объектив определит место, где вы стоите, и сравнит его с базой данных Google изображений Street View в этом регионе. Как только система обнаружит ваше местоположение, на экране появится стрелка, которая подскажет, нужно ли вам идти вправо или влево.

Дополнительные дополнения к Картам Google включают вкладку «Для вас», которая показывает близлежащие достопримечательности, сопровождая функцию «Ваше совпадение», которая пытается адаптировать рекомендации. Одним из его предполагаемых применений является обмен списками с друзьями вместо того, чтобы называть имена по памяти.

Помощник на основе Google Duplex с искусственным интеллектом может планировать ваши встречи

Компания объявила, что Assistant скоро сможет назначать встречи / бронировать от вашего имени, даже если их нельзя забронировать онлайн. Помощник работает на основе технологии Google Duplex, которая скоро будет запущена в качестве эксперимента.

Google Duplex может вести естественные разговоры и выполнять практические задачи по телефону. Благодаря улучшениям в обработке естественного языка и достижениям в области глубокого обучения, Google Duplex может вести разговоры, подобные человеческим, а также речевые нарушения, такие как «ммм» или «хм».

В сбивающей с толку, но потрясающей демонстрации генеральный директор Google Сундар Пичаи продемонстрировал возможности Google Assistant, продемонстрировав факт, что Google Assistant может реалистично разговаривать с реальными людьми с помощью автоматических голосовых вызовов.

Как работает Google Duplex?

В основе Google Duplex лежит RNN или рекуррентная нейронная сеть. Он был построен с использованием TensorFlow Extended. Чтобы сделать голос помощника похожим на человеческий, создатели используют комбинацию механизма преобразования текста в речь и синтеза механизма TTS для изменения тона машины.

Неровности человеческой речи, подобные упомянутым выше, добавлены, чтобы сделать ее более правдоподобной. Машины могут даже понять, когда давать медленный ответ, а когда отвечать быстро, используя модели с низкой достоверностью или более быстрые приближения. Разработчики использовали контролируемое обучение в режиме реального времени для обучения системы в новых областях — например, когда учитель инструктирует ученика по предмету на различных примерах.

Android P фокусируется на искусственном интеллекте и цифровом благополучии

Цифровое благополучие

Инициативы Google 2018 включают борьбу с телефонной зависимостью пользователей. Для этого компания ввела панель инструментов, которая будет указывать, как часто вы используете приложения, какие уведомления вы получаете и как часто вы разблокируете свой телефон. Пользователи получат разбивку любого приложения, а разработчики могут напрямую ссылаться на специальный раздел этой информационной страницы приложения.

Таймер приложенияпомогает пользователям ограничивать время, которое они проводят в приложении каждый день, с помощью Подталкивания, которое сообщит пользователям, что они приближаются к установленному лимиту времени. Когда срок истекает, значок приложения становится серым до конца дня. Тем временем Wind Down поможет пользователям заснуть с помощью таких функций, как отображение экрана в сером цвете, побуждающее пользователей прекратить использование устройства.

Адаптивная батарея и адаптивная яркость

Google использует технологию ИИ многими интересными способами, одним из которых является Адаптивная батарея. Искусственный интеллект лежит в основе операционной системы, и Google работает с DeepMind над питанием приложений, которые, как знает Android P, вы активно используете, при этом все время перенаправляя фоновые процессы на ядра с низким энергопотреблением.

В то же время функция Адаптивная яркость отслеживает ручные привычки пользователей и регулирует яркость в зависимости от различных условий и постепенно учится на этом. Конечная цель состоит в том, что пользователю не придется вручную что-то менять.

Навигация на основе жестов

Следующая большая вещь, о которой объявил Google, связана с лаунчером Android. Обновленный модуль запуска разработан на основе системы навигации на основе жестов. Когда вы проведете пальцем вверх по нижней части экрана, вы увидите самые последние использовавшиеся приложения в верхней части экрана, которая теперь представляет собой карусель.

Как в этом реализован искусственный интеллект — ну, в верхней части карусели предложения, которые вы видите, основаны на изучении ваших привычек использования. Google назвал это App Actions — в этом случае система использует машинное обучение — подмножество ИИ, чтобы изучить ваши привычки, а затем выяснить, что и где разместить.

Google Объектив

Компания также анонсировала новую бета-версию Google Lens. Если у вас есть несколько выбранных устройств Android, которые получают Google Lens в своих родных приложениях камеры, вы сможете получить доступ к этой функции, просто зайдя в камеру и выбрав значок, расположенный в правом нижнем углу.

Нажатие на значок активирует функцию Google Lens и позволит вам направить камеру смартфона на объекты или достопримечательности, чтобы получить дополнительную информацию о них. Google Lens также получает искатель в реальном времени, который исследует то, что захватывает ваша камера, еще до того, как вы нажмете на дисплей. Инструмент будет обрабатывать пиксели с помощью машинного обучения, чтобы предоставить более подробную информацию и создать более релевантные поисковые теги.

Поскольку Google Lens интегрировал в него искусственный интеллект, инструмент предоставляет пользователям общую картину их окружения. Он также может предоставлять контекстные предложения для объектов в окружающей среде. Например, сканирование соседней кофейни может показать вам меню, цены, время работы указанного кафе. Это также может помочь вам скопировать и сохранить текст из книги на телефон.

[Нажмите, чтобы продолжить чтение…]