Алгоритмы среди нас - влияние машинного обучения на общество (NIPS 2015, день 4)

Сегодня мы провели большую часть утра, подружившись с корпоративными спонсорами, включая Google, Panasonic и Apple, и догнали нашего друга Алонсо Мартинеса из Pixar. Мы говорили об обучении машин эмоциям и о более широких философских последствиях, связанных с появлением машинного обучения. Алонсо показал нам недавние видеоролики о созданном им очаровательном эмоциональном роботе: Мире.

Перекусив, мы мысленно подготовились к шестичасовому симпозиуму. Учитывая наш интерес к промышленным приложениям машинного интеллекта, мы решили посетить симпозиумы, посвященные влиянию машинного обучения на общество: «Алгоритмы среди нас». Два других симпозиума были больше сфокусированы на исследованиях: один был посвящен мозгу и абстракции, а другой - потенциальным новым подходам к воспроизведению человеческого интеллекта в инженерных системах.

Некоторые из наиболее важных идейных лидеров в области машинного обучения присутствовали на симпозиумах «Алгоритмы среди нас», в том числе Ян ЛеКун из Facebook и Эндрю Нг из Baidu. Цели симпозиумов были изложены в начале сессии: (1) определение проблем, связанных с достижениями в области машинного обучения, (2) определение того, какие исследования должны стать приоритетными в данной области, (3) обсуждение того, какие юридические и правительственные необходимо внедрить политику и, наконец, (4) определить, какие стратегии следует придерживаться сообществу НИОКР в области искусственного интеллекта, чтобы максимизировать преимущества ИИ и минимизировать социальные риски.

Первой обсуждаемой проблемой была этика. Вступительный докладчик сослался на недавнее Открытое письмо Стивена Хокинга, Илона Маска и Стюарта Рассела по искусственному интеллекту. Он объяснил, что такой страх полезен только в долгосрочной перспективе. Позже в ходе сессии это мнение было подтверждено рядом лидеров мнений по машинному обучению. Что касается более короткого срока, он перечислил ряд важных соображений, включая конфиденциальность, повсеместное видеонаблюдение, безопасность и рынки труда. Среди других конкретных проблем, которые он упомянул, были проблемы, возникающие из-за ошибок в программном обеспечении, кибератак, смешанной автономии (автопилот, когда человек должен время от времени брать на себя управление - как это разрешить?), Непонимание компьютером инструкций пользователя (откуда машина узнает, что такое подходящее поведение?).

Затем мы услышали от экономиста Слоуна из Массачусетского технологического института Эрика Бриньолфссона, который рассказал об истории технологического развития, чтобы поместить ИИ в более широкий контекст. Он объяснил, что за последние десять лет были созданы огромные богатства, но также наблюдается растущее неравенство в богатстве: «мы находимся в разгаре великой трансформации экономики». Предупредив о риске того, что богатые станут еще богаче и миллионы останутся позади в рамках ограничений нашей текущей экономической и социальной инфраструктуры, он представил новую инициативу Массачусетского технологического института, заинтересованную в переосмыслении экономики и общества, чтобы идти в ногу с достижениями в области машинного интеллекта. Он закончил свою презентацию, указав, что «технология - это инструмент, все зависит от того, что мы делаем с этим инструментом. Инструмент не хорош или плох, нам решать, что с ним делать ».

Третья презентация была сделана Яном Керром из Оттавского университета о машинном обучении и праве. Он задал важные вопросы, в том числе «как довести алгоритм до суда?» Он также представил печально известную проблему туннеля: учитывая, что вы (да, вы) перевозитесь в автономном транспортном средстве по туннелю и что в конце туннеля появляется ребенок (вы видите это только в самую последнюю минуту) - вы а) продолжить свой курс и убить ребенка? или б) свернуть в стену туннеля и убить себя? Связанные с этим соображения включают: кто должен принимать решение A или B: вы, производитель автономных транспортных средств, полиция, правительство? Наконец, если мы будем жить в мире автономных автомобилей, будет ли несправедливо предполагать, что в нашей среде будет достаточно датчиков, собирающих данные, чтобы автономное транспортное средство было заранее уведомлено о приближающемся ребенке и, таким образом, могло избегать столкновений в любой форме?

Затем была собрана группа для обсуждения ряда вопросов, поднятых в трех наводящих на размышления презентациях. Самый интересный разговор развернулся вокруг вопроса о том, как мы, люди, можем довести алгоритм до конца в судебном разбирательстве. Один из участников дискуссии утверждал, что во многих случаях будет очень сложно пройти этот процесс, потому что большинство алгоритмов защищены - это коммерческая тайна. Другой участник дискуссии предположил, что можно было бы реально привлечь экспертов по прокси. Затем кто-то объяснил, что на самом деле для человека может быть очень проблематично объяснить недостатки алгоритма. Во многих случаях код непонятен даже разработчикам алгоритма. Одно из предложений по решению этой очевидной проблемы состояло в том, чтобы передать примеры в алгоритм, чтобы понять, как он работает. Не было явного консенсуса относительно того, кого следует привлечь к суду, если решение машинного интеллекта приведет к судебному разбирательству.

Один из основных вопросов, поднятых в следующей панельной дискуссии, касался относительной полезности концепций искусственного интеллекта человеческого уровня и общего искусственного интеллекта. Эндрю Нг, видимо раздраженный, сравнил достижение ИИ человеческого уровня с колонизацией Альфы Сантори: «Я обращаюсь к людям, которые говорят, что знают, где мы будем через 20 лет». В ответ на это Ян Лекун объяснил, что колонизация Альфы Сантори потребует нарушения законов физики, в то время как достижение ИИ человеческого уровня - нет. Однако Нг и ЛеКун во многом согласились: они оба высказали свое мнение о том, что следующим большим прорывом в машинном обучении станет обучение без учителя. Однако они сосредоточили свое внимание на двух довольно разных проблемах: проблеме злого ИИ в случае ЛеКуна, в то время как Нг подробно говорил о проблеме безработицы.

ЛеКан объяснил, что искусственный интеллект и человеческий интеллект будут сильно отличаться друг от друга, и что нам, людям, трудно понять это, потому что человеческий интеллект - это все, что мы знаем. Например, машинам не присуще желание делать друг другу плохие вещи (по сравнению с людьми). Нг, проведя еще одно сравнение с космическим путешествием, вернул наше внимание к более короткому термину: «беспокоиться о злых роботах-убийцах ИИ - все равно, что беспокоиться о перенаселенности на Марсе». Он предложил идею отрицательного подоходного налога - правительства выплачивают деньги людям, потерявшим работу. В ответ на эту дискуссию представитель Google DeepMind напомнил нам, что популярные СМИ в основном ничего не знают о будущем ИИ и что политикам, экономистам и философам необходимо начать вносить значимый вклад в это обсуждение.

Симпозиумы завершились составлением нескольких списков, в которых излагаются шаги, которые еще необходимо предпринять, чтобы приблизиться к ИИ. Они включены сюда.

Некоторые оставшиеся проблемы, чтобы сделать ИИ умным:

- трансферное обучение

- концептуальное обучение

- гибкое рассуждение с изученными концепциями

- долгосрочное иерархическое планирование

- чтение

Некоторые оставшиеся проблемы, чтобы сделать влияние ИИ положительным:

- проблема управления

- динамика технических гонок

- политическая и общественная поддержка

- этика и искусственный разум

- вопросы распространения

- действие в мире с множеством суперинтеллектов

Какие исследования стоит начать сегодня:

- Надежное обучение: хорошо выступайте в условиях, сильно отличающихся от среды обучения

- интерпретируемость / прозрачность: понять причины прогнозов или решений агента

- безопасность: защитите нас или агента от атаки злонамеренного агента и ненадлежащих агентов полиции

- проверка: убедиться, что реализация соответствует ее спецификации.

- ценности: какие ценности мы хотим, чтобы у искусственных агентов были, и как мы можем добиться надежной реализации этих ценностей?

- контроль: обеспечить человеческий контроль над агентом

- эмпатия / теория разума: предвидеть человеческие эмоциональные реакции

Это знаменует конец нашей серии дневников о конференции NIPS 2015. Не стесняйтесь обращаться с любыми вопросами, касающимися докладчиков и / или постеров, представленных на конференции в этом году, и мы сделаем все возможное, чтобы предоставить вам соответствующую информацию.

Фото- и видеоконтент: Boston Globe, Алонсо Мартинес