Компании, разрабатывающие системы искусственного интеллекта и машинного обучения, должны признать, что они не безупречны, и оставаться обучаемыми с помощью человеческого вмешательства.

SC Stuart

На прошлой неделе я столкнулся с мощью и ограничениями ИИ, когда заказал Lyft отвезти меня домой. Новый водитель подъехал к обочине, но забыл сказать «мозгу» Lyft, что я был в машине. Мы поехали, и водительская система вскоре загудела.

«Тебя здесь нет», - смущенно сказал водитель. «Мне назначили нового пассажира».

Поскольку я всегда заказываю экологически чистую линию Lyft Line вместе с двумя другими пассажирами, меня это не особо беспокоило. Пока я не посмотрел на свой телефон, который сказал, что меня на самом деле нет в машине. Водитель извинился, но сказал, что ничего не может сделать. «Я должен следовать по маршруту, намеченному для этого нового пассажира».

В ярости я вышел из Lyft, когда в него вошел другой ошеломленный пассажир.

Вот тут и стало интересно (ИМХО). Я немедленно оспорил штраф в 5 долларов от Lyft за «неготовность к Lyft Line» и заказал другого водителя. Тогда я мог почти «увидеть», как система Lyft прошла через свои «мыслительные процессы» искусственного интеллекта для оценки рисков при ведении моего дела.

Во-первых, он будет рассматривать мою историю как райдера (отлично: всегда вовремя, без проблем с кредитом при оплате). Затем (я полагаю) он установил мою «оценку», посмотрев, сколько поездок я совершил (частота) вместе с полученным доходом. Это даст ему базовую «модель» (мое участие в сервисе Lyft) и уникальный «балл» оценки рисков для решения любых проблем в моей учетной записи.

Процесс рассмотрения жалоб обрабатывался ИИ довольно гладко - до тех пор, пока я не оспорил кредит и не выбрал вариант, позволяющий взять на себя ответственность за человека. Все закончилось хорошо. У них был доступ к той же «оценке», что и у ИИ, поэтому не было никаких задержек, поскольку представитель ознакомил меня с моими данными. Но это потому, что Lyft встроила в свою систему, основанную на искусственном интеллекте, «человека в контуре».

Урок для меня (и, надеюсь, для вас тоже) заключается в том, что компании, разрабатывающие системы, основанные на искусственном интеллекте и машинном обучении, должны признать, что они не безупречны и остаются «обучаемыми» с помощью человеческого вмешательства.

Алгоритмы принимают жизненные решения

Почему это важно? Эти алгоритмы все чаще определяют, какое лечение и условия мы получим в дальнейшей жизни, от кредитоспособности до полисов страхования здоровья, автомобиля и жизни.

Недавно я был на нескольких симпозиумах «Лучше жить с помощью алгоритмов», но немногие выходят за рамки «предвзятость - это плохо» и «что-то нужно делать». Проще говоря, нам нужна возможность обучать ИИ, но как?

Я позвонил доктору Джейсону Марсу, профессору информатики в Мичиганском университете. В настоящее время он находится в отпуске в качестве директора университетской лаборатории Clarity Lab и является соучредителем и генеральным директором Clinc, стартапа с разговорным искусственным интеллектом для финансовой индустрии.

«Одна из величайших проблем в наш век искусственного интеллекта - дать возможность массам использовать и обучать типы моделей машинного обучения, которые используют только ведущие мировые эксперты в области компьютерных наук», - сказал д-р Марс. «В Clinc мы изобрели платформу нового класса для решения именно этой проблемы».

Платформа Клинка, известная как Spotlight, может обучать и переобучать лучшие модели искусственного интеллекта на планете, не имея опыта в области компьютерных наук или искусственного интеллекта, - сказал доктор Марс.

По сути, Клинк создал интерфейсный инструмент, замаскированный под диалогового ИИ-бота. Благодаря обработке естественного языка он может позволить клиентам исследовать и изменять то, что известно об их финансовых структурах.

«Это серьезная научная проблема», но достижения в этой области означают, что «пользователи могут создавать новые возможности в управлении и наблюдении за своими финансовыми счетами и структурами расходов», - сказал он.

Наблюдая за мышлением ИИ

В январе я сидел в подвале Калифорнийского университета в Лос-Анджелесе и видел, как ИИ под названием TEVI« думает ». Было замечательно получить представление об искусственном мозге, поскольку он экстраполировал смысл из входных данных человеческого уровня. Поэтому я вернулся к создателю TEVI, Рэю Кристиану, основателю и генеральному директору Textpert, и спросил его, как они тренируют TEVI.

«Модели искусственного интеллекта подвержены дрейфу концепций», - пояснил Кристиан. «Это означает, что модель необходимо переобучить, чтобы учесть новые данные, которые« отошли »от того, что изначально обучало модель. Каждый раз, когда модели искусственного интеллекта, в том числе TEVI, переобучаются, можно утверждать, что пользователи повторно откалибровали модель ».

Однако, как он указал: «Заглянуть в черный ящик ИИ, чтобы увидеть его обоснование, - более сложная задача. Передовые исследования экспериментируют с маскированием определенных слоев нейронной сети, чтобы изолировать переменные и понять, как модель воспринимает определенные особенности. Но может пройти некоторое время, прежде чем мы полностью поймем, что происходит за кулисами ».

Изменение методов машинного обучения

Также в UCLA есть Dr. Мирьюнг Ким , доцент информатики и эксперт в области разработки программного обеспечения, который предположил, что« современные технологии искусственного интеллекта (AI) и машинного обучения (ML) недостаточно демократизированы.

«Создание сложных систем искусственного интеллекта и машинного обучения требует глубоких знаний в области информатики и обширных навыков программирования для работы с различными методами машинного мышления и обучения на довольно низком уровне абстракции», - сказала она. «Это также требует обширных исследований методом проб и ошибок для выбора модели, очистки данных, выбора функций и настройки параметров».

По ее мнению, исследовательское сообщество в области информатики должно переосмыслить инструменты разработки программного обеспечения, такие как инструменты отладки, тестирования и проверки для сложных систем на основе AI и ML.

По словам Dr. Рана эль Калиуби , основатель и генеральный директор Affectiva, построение эффективного и качественного ИИ начинается и заканчивается тщательно продуманным сбором данных.

«Вы начинаете с изучения конкретных вариантов использования ИИ, который разрабатываете, а затем сосредотачиваетесь на сборе больших объемов реальных данных, которые являются репрезентативными для этих вариантов использования. Это очень важно для того, чтобы алгоритмы работали точно в реальном мире », - сказала она.

«Например, при создании детектора сонливости водителя нужно много примеров того, как люди становятся сонными за рулем. Мы не думаем, что этично - лишать сна людей и отправлять их по шоссе. Вместо этого мы собираем большие объемы данных о вождении «в дикой природе», чтобы найти естественные проявления сонливости. После развертывания ИИ важно, чтобы данные возвращались в НИОКР в непрерывном цикле обратной связи, чтобы вы могли проверить и, при необходимости, переобучить свои модели ».

Подробнее: Эта компания хочет, чтобы ваши гаджеты распознавали эмоции »

Первоначально опубликовано на www.pcmag.com.