Понимание и улучшение ИИ - это больше о критическом мышлении, чем о найме специалистов по данным.

Собаки Boston Dynamics стали чем-то вроде внутренней шутки здесь: каждый раз, когда мы хотим предположить, что идея, проект или новая технология могут иметь тревожные долгосрочные последствия, в разговоре всплывают собачьи роботы. . Во многом это связано с их несколько сюрреалистическим, сверхъестественным видом долины, чем-то достаточно знакомым, чтобы быть узнаваемым, но достаточно чуждым, чтобы заставить вас чувствовать себя некомфортно (просто спросите авторов в Black Mirror). Но на самом деле это всего лишь полезное обозначение опасений по поводу потенциальных непредвиденных последствий разработок искусственного интеллекта и машинного обучения.

В более широком смысле, я думаю, что у нас неправильное представление об ИИ, с необоснованными предположениями и, откровенно говоря, предположениями, которые, по-видимому, повсюду. СМИ цепляются за публичные предупреждения о рисках ИИ от Стивена Хокинга или Илона Маска, и общественность предполагает, что до Скайнета всего несколько лет. Другие предполагают, что системы искусственного интеллекта немного похожи на мистику - на самом деле технический критик Yahoo Finance буквально назвал платформу искусственного интеллекта Google« волшебством », заставляя людей полагать, что ИИ - это решение человеческих потребностей и легкость будущего.

Скучная середина

Конечно, этот манихейский подход к чрезвычайно сложному предмету никому не приносит никакой пользы. Хотя платформы искусственного интеллекта предоставляют множество возможностей изменить то, как мы живем и ведем свой бизнес, они все еще остаются на стадии становления, и у них есть множество проблем, над которыми нужно работать. Именно по этой причине крупнейшие технологические компании направили сотни, даже тысячи сотрудников и специалистов по обработке данных, чтобы помочь перевести системы искусственного интеллекта из просто интересных в практические полезные. И хотя, безусловно, верно, что некоторые из этих платформ уже работают и приносят пользу, многие другие либо сгорели, либо все еще нуждаются в огромной доработке. Для каждого Google Assistant, назначающего встречу для стрижки, есть другая платформа Google AI, которая не может пройти тест по математике на втором курсе.

Большая часть проблемы общественного восприятия - это неправильное понимание того, что такое ИИ. По сути, искусственный интеллект - это инструмент сортировки, платформа для принятия решений, которая может анализировать закономерности в необработанных данных и приходить (надеюсь) к правильному выводу о том, как шаблон будет применяться в данном случае. Процесс включает в себя использование значительного количества обучающих данных - эффективных неструктурированных данных, которые алгоритм может анализировать на предмет закономерностей - по мере того, как платформа ИИ просматривает больше обучающих данных и становится более сложной, она улучшает ее способность понимать закономерности. Это одна из причин, по которой компании, которые вкладывают значительные средства в ИИ, также являются ненасытными потребителями данных о нас: чем больше обучающих данных имеет алгоритм, тем лучше он будет определять закономерности.

Даже вооружившись этим базовым пониманием того, что такое ИИ, вы можете начать развенчивать мифы о том, что делает ИИ. Нет, это не Скайнет, думающий сам о том, что он хочет делать. По крайней мере, пока что. Мы сделали несколько скачков в способностях обработки и, откровенно говоря, в навыках человеческого программирования, прежде чем мы дойдем до этой точки, потому что ИИ по-прежнему требует, чтобы люди создавали алгоритмы, писали код и управляли вводом. И хотя способность распознавать закономерности является мощным инструментом - по сути, это важный компонент мышления людей, познание - это гораздо больше, чем простое распознавание образов.

Итак, хотя мы можем говорить о компьютерах, мечтающих и создании удивительных произведений искусства, мы на самом деле говорим, что мы создали системы, способные определять закономерности таким образом, чтобы они можно более или менее описать нам. Вот почему компьютеру снятся гантели с прикрепленными к ним руками: закономерность состоит в том, что в его тренировочных данных каждое изображение, которое система ИИ видела, содержит руку, поднимающую вес. ИИ не знает, что эти руки не являются частью гантели, но тогда люди не узнают вещей, пока мы не узнаем их с помощью инструкций или опыта - всему этому нужно как-то учить.

Золотое сечение

Таким образом, если свести к минимуму суть ИИ, речь идет о распознавании образов, полученных на основе обучающих данных. Хорошие данные означают лучшее распознавание образов и предсказание результата, хотя не обязательно понимание того, что «означает результат». Это важное различие: информация не обязательно означает значение, а результаты не обязательно являются мудростью. Для этого требуется человеческий фактор, под которым я подразумеваю настоящего человека, действующего в качестве надзора или проверяющего.

Развертывание ИИ требует понимания его ограничений и возможностей. Рассмотрим его использование в правительстве, что является одной из областей, где и скептики, и сторонники призывают к наиболее тщательному расследованию. Некоторые эксперты, такие как Хелен Магреттс из Оксфордского института Интернета, выступают за более широкое использование ИИ в государственных службах для улучшения доступа, сокращения отходов и сокращения потерь времени. Однако она предупреждает, что любое использование ИИ должно быть отзывчивым, эффективным и справедливым. Учитывая широту и конфиденциальность данных, которыми обладают правительства, это очень хороший совет. Бездумное применение алгоритмического управления - короткий путь к безответственному, непрозрачному правительству.

Фактически, модель подотчетности имеет решающее значение для ИИ в целом, поэтому большая часть нынешних дискуссий об ИИ сосредоточена на закодированных человеческих слабостях. Некоторые из возможностей, которые может открыть ИИ, невероятны - все, от прогнозного моделирования для предотвращения пожаров и обрушения зданий до раннего предупреждения о потребностях здоровья, чтобы сделать песто вкуснее. Но не осознавая, что те же самые системы могут подорвать автономию, свободу и человеческое самовыражение, мы рискуем подчинить ценности, которые нам нужны и которые используем для определения себя, в пользу целесообразности, которую мы просто предпочитаем.

Все дело в балансе. Правильное мышление и правильные действия в контексте ИИ означают взвешивание ценностных предложений перспективных технологий с потенциальными рисками. Это также означает оценку того, как эти ценностные предложения на самом деле приносят пользу пользователям (включая бизнес), в отличие от волшебной палочки о том, что могут сделать ИИ и машинное обучение. И, что самое главное, требует критического мышления. Человеческое кодирование предвзятости в ИИ - серьезная, постоянная проблема, особенно когда это неосознанная предвзятость, потому что, знаете ли, она бессознательная. Истинная мера сбалансированного подхода к ИИ - это то, насколько критически вы исследуете используемые данные, разрабатываемые алгоритмы и значение, которое вы придаете выходным данным. ИИ обладает огромным потенциалом как инструмент, но он будет эффективен только в том случае, если мы бросим вызов самим себе и нашим предположениям при его использовании.

Первоначально опубликовано на сайте wardpllc.com 10 апреля 2019 г.

📝 Прочтите этот рассказ позже в Журнале.

🗞 Просыпайтесь каждое воскресенье утром и слышите самые интересные истории, мнения и новости недели, ожидающие в вашем почтовом ящике: Получите заслуживающий внимания информационный бюллетень›