В настоящее время у меня на компьютере открыто три окна: эта веб-страница, терминал и Рик и Морти, играющие в фоновом режиме.

Я очень люблю Рика и Морти (спасибо Кайлу за то, что познакомил меня с ним). Технологическая индустрия иногда очень серьезно относится к себе, и этому телешоу удается поднять настроение. Один из моих любимых фрагментов — это эпизод из второго сезона — Рик и Морти хотят, чтобы Саммер осталась в машине, пока они едут и кое о чем позаботятся. Рик продолжает инструктировать машину держать лето в безопасности. Затем параметры сохранить лето в безопасности продолжают нарушать все условности в попытке достичь этой единственной цели. Посмотрите клип, и вы поймете, о чем я говорю. Короткая сцена — почти синопсис фильма Космическая одиссея — придерживаясь этих трех правил (в таком порядке)… 1. не навреди людям, 2. слушайся людей, 3. береги себя. Отданные в руки несознательных существ, эти параметры, кажется, не работают в мире сознательных.

Давайте начнем с того, что мы ВСЕ очень хорошо знакомы с глубоким обучением. ДА — ВЫ — у вас большой опыт глубокого обучения. Вот несколько конкретных примеров из повседневной жизни… Google позволяет нам находить алгоритмы, основанные на информации, Netflix рекомендует шоу и фильмы на основе того, что вам нравилось в прошлом, а Amazon предлагает продукты на основе того, что в настоящее время находится в вашей корзине. Все это примеры машинного обучения или, точнее, глубокого обучения. Сейчас многие из нас очарованы идеей глубокого обучения. Будь то увеличение тела или мечта о собственной машине с автоматическим управлением, у всех нас есть идеи о том, как глубокое обучение может улучшить нашу жизнь — сделать нас более продуктивными и в то же время облегчить нашу жизнь.

На прошлой неделе Луи Монье и Грегори Ренар провели семинар по глубокому обучению в Holberton School. Они охватили все, от этики глубокого обучения до практических проектов, позволяющих нам увидеть, как происходит машинное обучение из первых рук. В самом конце мы поговорили о некоторых этических последствиях глубокого обучения, как хороших, так и плохих. Упоминалась возможность улучшения ухода за пожилыми людьми или людьми с ограниченными возможностями, но мы постоянно возвращались к этому вопросу… что произойдет, когда глубокому обучению придется принимать моральные решения?

Приведу конкретный пример. Примерно через пятнадцать лет, когда самоуправляемые автомобили стали нормой (и да, на данный момент это неизбежно), что происходит, когда автомобиль оказывается в ситуации, когда ему необходимо принять моральное решение? Допустим, машина едет по оживленному городскому переулку, и вдруг из ниоткуда перед машиной бежит маленький ребенок, гоняющийся за мячиком. Автомобиль не успевает совершить полную остановку, не причинив вреда ребенку. Справа от машины цементный барьер, а слева кто-то на велосипеде. Автомобиль должен решить, как реагировать на ситуацию. Если он едет прямо, то травмируется ребенок, если идет вправо, то травмируется пассажир, а если идет влево, то травмируется велосипедист. Как это должно происходить? Теперь, это может быть гипотетическая ситуация — может быть, немного нереальная… но развеселите меня. Как запрограммировать машину, чтобы она приняла такое решение? Кто-то может возразить, ну, люди постоянно оказываются в подобных ситуациях, и нам всегда приходится принимать такие моральные решения каждый день. Если бы самоуправляемых автомобилей не существовало, водителем был бы пассажир, и ему пришлось бы принимать это решение за долю секунды — навредить ребенку, навредить велосипедисту, навредить себе. Моральные решения принимаются каждым из нас каждый божий день. Большой вопрос: «Как вы программируете мораль»? Это не новый вопрос, и обсуждение будет в обозримом будущем. Интеграция глубокого обучения в нашу жизнь неизбежна, но она ставит перед нами очень сложные вопросы. Приготовьте свои мыслительные шапки, потому что нам предстоит несколько трудных разговоров.

(Грег начинает нашу беседу у камина)

Если вы отстаете в своем А.И. СМИ — смотрите их, чтобы не пропустить

  • Рик и Морти (почти любой эпизод)
  • Космическая одиссея (один из самых классических примеров глубокого обучения)
  • Терминатор (глубокое обучение пошло не так)
  • Эврика — (сезон 1, серия 2 — следующие шаги в домашней автоматизации — или интернет вещей)
  • Ее (но будьте готовы к депрессии из-за будущего наших отношений с технологиями)
  • Трансцендентность (Джонни Депп загружает свой мозг в компьютер — можно ли взять человеческий разум и перенести его на другой объект)
  • Ex machina (кому мы можем доверять, людям… или технологиям)

Первоначально опубликовано на codechickblog.com 7 февраля 2016 г.