Ему нравится компьютерное зрение, потому что результаты математических вычислений можно увидеть глазами.

В его мире автономии BMW — и, возможно, во всех наших — автономное вождение — это «следующая большая вещь» в прикладном машинном обучении.

«Алгоритмы НАСТОЛЬКО сложны, математически мы вряд ли сможем их объяснить… становимся более продвинутыми, возьмите распознавание лиц в FB — уже лучше, чем люди!» Ирония в том, что чем ближе мы приближаем компьютерное зрение к нашему, тем меньше мы его понимаем.

«В настоящее время компьютеры помогают нам принимать решения. Четкая траектория для них состоит в том, чтобы принимать больше решений самостоятельно».

Я спрашиваю: «Мы сейчас встраиваем мораль в наш кодекс? Пишется ли моральный кодекс (буквально)?»

Николай делает паузу, не зная, как обработать мой вопрос.

«Если вы все работаете над тем, чтобы МО принимало решения без нас, то не должны ли мы начать проект «морального кодекса» или что-то в этом роде СЕЙЧАС?!»
Ведь это же Human101.

«Однако это просто ввод и вывод».
«Не так ли?»

Факт все еще окутан неопределенностью, приведет ли МО когда-нибудь к общему ИИ, но я менее уверен, потому что марковское свойство звучит чертовски похоже на человеческую память (и идентичность…) для меня.

Беспокоит ли то, что люди, создающие модели машинного обучения, даже не задумываются о моральном кодексе?

После моего разговора с Николаем я был вдохновлен на создание ироничной страницы по сбору средств, которая на самом деле в значительной степени является статьей. Я надеюсь, вам понравится играть с этой идеей так же, как и мне, и, что более важно, вы начнете понимать, что, возможно, эта идея не должна быть просто шуткой…



Контент GoFundMe вставлен ниже.

Привет, я человек.

Я почти уверен, что вы тоже человек. Не уверен, просто почти уверен.

В будущем я буду менее уверен. (Это вы, мистер Тьюринг?)

Но это нормально. Компьютеры помогали нам принимать решения почти обо всем в течение приличного количества времени. Возможно, наконец, пришло время им самим принимать больше решений.

Google продемонстрировал свое решение AutoML в декабре 2017 года, первый реальный пример кода машинного обучения, написанного кодом машинного обучения (наученным ловить рыбу).

Я целыми днями разговариваю с экспертами по машинному обучению и с удивлением обнаруживаю, что мораль — это то, что почти не влияет на информатику. Меня привлекло машинное обучение из психологии — увлечение принятием решений человеком, так что у меня совершенно другой взгляд на машинное обучение, чем у людей «на инструменты».

В недавнем разговоре о машинном обучении с инженером он сказал, что «четкая траектория состоит в том, чтобы компьютеры принимали больше решений самостоятельно».

Я спросил, учитывая, что мораль — это Человек 101, проводилась ли какая-либо работа над моральным кодексом — буквально кодексом, который представляет, что значит быть человеком, принимающим моральные решения, который затем (в идеале) будет руководить любым нечеловеческим лицом, принимающим решения.

Он не смог обработать мой вопрос.

Я не знаю, может быть, это только я: я думаю, что нам нужен мозговой центр, посвященный прагматическому «моральному кодексу». Так, на всякий случай. Чтобы увидеть, возможно ли это вообще.

Любые собранные средства будут использованы для создания такого аналитического центра. Я вижу, что это происходит примерно так:

1. Я организую первоначальный аналитический центр, набирая лидеров мнений из разных областей и координируя их подход к одному вопросу: как мы подходим к созданию морального кодекса?

1.1 Возможен ли моральный кодекс? Если да, то как это может выглядеть? Если нет, то какие шаги мы должны предпринять, чтобы обеспечить нравственность машинного принятия решений?

2. Я буду вести веб-сайт, который документирует это путешествие, например, пути размышлений и точки разногласий. Я буду дополнительно организовывать взаимодействие с сообществом и СМИ, приглашая общественность и т. д.

3. Следуя изложенному подходу, я опубликую часть работы «Моральный кодекс», в которой изложены выводы группы и сообщества. Эта часть работы будет доступна для публики, возможно, для продажи.

3.1. Любой доход, полученный аналитическим центром, будет реинвестирован в аналитический центр и использоваться как для а) создания бренда «Морального кодекса» (15–25%), так и для инвестирования в проект «Моральный кодекс».

3.2. Список всех организаций, которые внесли свой вклад или помогли мозговому центру, будет опубликован, «Моральный кодекс» создаст фирменный товарный знак (например, знак Fairtrade), который эти организации могут использовать в своих рекламных материалах (т. е. «мы работаем над нравственное будущее» {logo}). Идея состоит в том, чтобы использовать бренд для дальнейшего стимулирования интереса и участия в проекте — возможно, для привлечения корпоративных пожертвований в проект (компаниям, которые могут извлечь выгоду из машинного обучения, будет предложено принять участие в рамках должной осмотрительности).

4. Будет намечено будущее проекта (резервирование или текущее видение), и будет организован следующий раунд финансирования. Это позволит финансировать постоянное обслуживание проекта «Моральный кодекс» и текущие усилия аналитического центра.

5. Идеальный результат в долгосрочной перспективе — буквально иметь часть кода, которая обеспечивает принятие моральных решений, или чтобы организация была активным лоббистом в обеспечении морали в приложениях машинного обучения.

Наконец, я не знаю, будет ли такой проект успешным. Не знаю, будет ли вообще прогресс. Черт возьми, может быть, это настолько неоправданно, что «компьютер говорит нет» будет окончательным ответом. В том то и дело, что никто не знает.

Проблема во времени. Как мы воспринимаем время. Количество времени между любыми двумя состояниями прогресса (то есть разница между точками 1 и 2, а затем между точками 2 и 3) сократится настолько резко, что общий ИИ может буквально за одну ночь превратиться из невозможного в неотложную глобальную проблему.

Я искренне надеюсь, что нам никогда не понадобится моральный кодекс; но я также знаю, что если моральный кодекс спасет нас, то, по логике, мы должны начать его применять до того, как поймем, что он нам нужен. И это должно быть то, с чем мы все согласны.

Давайте начнем разговор.