На поверхностном уровне муравейник и человеческий мозг концептуально похожи. Кажется, что каждый из них обладает «коллективными» способностями, которые возникают из составляющих их отдельных элементов. Как и Вольтрон, примитивные элементы, из которых они состоят, не разделяют возможностей суперорганизма. Например, человеческий мозг рождает сознание (может быть, плохой пример), а отдельный нейрон в человеческом мозгу, скорее всего, нет.

Быстрое визуальное сравнение рисунков 1 и 2 ниже показывает, что мозг, нейроны, муравьи и муравейники могут быть смоделированы с использованием аналогичного набора взаимосвязей. Хотя интуитивно это кажется редуктивным; можно легко представить себе отдельный набор отношений, которые не были так четко выстроены. Я назвал одну такую ​​связь, связь. Нейроны физически связаны со своими соседями, а муравьи - нет. Нейрон передает данные посредством электрических импульсов, в то время как муравей использует процессы восприятия, такие как феромоны, зрительное восприятие и т. Д. [1] Связь между муравьями кажется более слабой, чем связь между нейронами.

Я считаю справедливым характеризовать эту аналогию как глубокое сходство, потому что между отношениями существует взаимосвязь, которую можно суммировать как целое больше, чем сумма частей. Например, мозг и муравейник действуют сообща для выполнения сложных задач, в то время как отдельные муравьи и нейроны относительно просты по сравнению. Это не фрактальные отношения, в которых мозг и муравейники состоят из меньшего мозга и муравейников (хотя у муравьев действительно есть индивидуальный мозг). [2] Скорее, это атомарные примитивы, составляющие большее целое.

Идя еще дальше, можно с уверенностью сказать, что это семантическое сходство, потому что существует концептуальное отображение между целевой проблемой и исходным случаем. При оценке с использованием отношений, представленных на рисунках 1 и 2, наблюдается явное концептуальное сходство. Возможно, есть и структурное сходство, учитывая, насколько выровнены отношения. Но мне кажется очевидным, что нет прагматического сходства за пределами базового уровня иерархии потребностей Маслоу (такие вещи, как еда, жилье и т. Д.). Можно предположить, что люди (и их мозг) обычно имеют другие и более сложные мотивы и цели, чем муравейники. Важной движущей силой этого различия является воплощение, которое является хорошим переходом к философским ограничениям этой аналогии.

Человеческие нейроны воплощены в мозге, который, в свою очередь, заключен в человеческие тела. В отличие от муравьев, наши нейроны не собираются маршировать и пожирать крошки Чито на полу.

Пользовательский интерфейс ИИ, часть II: непостижимость в нейронных сетях с глубоким обучением с подкреплением

Документ 1 - «Прозрачность и объяснение в нейронных сетях с глубоким обучением с подкреплением» (Ияр и др., 2018). Я выбрал этот документ, потому что считаю прозрачность фундаментальным аспектом UX систем AI / ML. Как практикующий UX-дизайнер, я заинтересован в этом предмете, потому что он имеет прямое отношение к тому, как пользователи воспринимают технологии на базе искусственного интеллекта. Мотивация авторов к решению этой проблемы заключается в том, что NN непрозрачны, что отрицательно влияет на объяснимость, отладку и сертификацию.

Авторы используют определение прозрачности агента, установленное Ченом и др .; «Прозрачность агента - это качество интерфейса (например, визуального, лингвистического), связанное с его способностями, позволяющими операторам понять намерения, производительность, планы на будущее и процесс рассуждений интеллектуального агента». (Чен и др., 2014). Интересно отметить, что авторы (и, предположительно, Чен и др.) Не раскрывают деталей того, что это на самом деле означает. Подробнее об этом позже. Авторы далее заявляют, что «разработка методов, позволяющих автономным агентам быть прозрачными, является очень сложной задачей, потому что простота прозрачности, по-видимому, обратно пропорциональна сложности агентов». (Айер и др., 2018).

Для этого авторы предлагают своего рода визуализацию пространства решений модели, называемую «картой значимости объекта» (далее OSM). По сути, это визуализация объектов модели, представляющих интерес в любой момент. Тестовое пространство - это аркадная игра Ms Pacman. Агент играет Pacman против игрового движка, используя основные элементы управления вверх, вниз, влево и вправо.

Система была оценена на 40 людях подопытных с использованием задачи сопоставления и задачи прогнозирования. Задача сопоставления включает в себя просмотр двух видеороликов, на которых агент играет в Pacman, а затем сопоставление OSM с выбором агента в видеоролике. Задача прогнозирования просит испытуемых предсказать следующий шаг агентов с помощью OSM.

Результаты задачи сопоставления показывают точность 60%. Для задачи прогнозирования не было существенной разницы между контрольной группой и испытуемыми, использующими OSM.

Выводы исследования не поддаются соглашению или несогласию или этической двусмысленности. [3] Однако мне кажется довольно очевидным, что просто просить испытуемых сопоставить или предсказать действия агента без контекста обречено. потерпеть неудачу. Авторы отмечают, что ... соблазнительно интерпретировать действия [агентов] в человеческих терминах поиска файлов cookie и избегания призраков ... однако [агент] не знает правил игры и просто научился максимизировать свое вознаграждение. (там же). Другими словами, оценка агента с использованием наших базовых знаний о Pacman неэффективна без понимания того, как структурирована стратегия вознаграждения агентов. Или, другими словами, если наши знания о задаче и пространстве точно не соответствуют тому, как реализован агент, будет очень сложно точно оценить агента. Возможно, это указывает на директиву по дизайну, предполагающую, что прозрачность должна быть связана с человеческой когнитивной архитектурой, особенно в ситуациях, когда агент принимает странные или противоречащие интуиции решения. Один из методов из UX, который можно использовать для оценки этого, - это AB-тестирование. Тестирование между участниками, сравнивающее системы с когнитивной архитектурой, например, с контрольной группой.

Еще одна интересная идея, которую подняла для меня эта статья, была связь времени с прозрачностью. Агенты часто принимают решения с интервалами, слишком быстрыми для восприятия людьми, не говоря уже о разумной оценке (подумайте об автономных автомобилях). Похоже, что идея операционной прозрачности [4] ограничивается системами, управляемыми человеком за контуром. В таких системах крайне важно реализовать агента с базой знаний, системой планирования и структурой вознаграждения, которые соответствуют человеческим. В будущих исследованиях в этой области может быть найден вариант использования, в котором решения агентов намеренно замедляются по сравнению с системой, которая не оптимизирована для возможностей обработки информации человеком. [5]

UX искусственного интеллекта, часть III: категорический императив Канта

Вторая статья - «Формализация второй формулировки категорического императива Канта» (Bentzen, et. Al., 2018). Я выбрал эту статью, потому что меня интересуют образцовые концепции программирования, особенно те, которые связаны с философскими исследованиями. Эта статья показалась мне особенно подходящей, потому что она касается не только этого, но и использования логики для кодирования этических решений в приложениях машинного обучения.

Эта статья представляет «… формализацию и вычислительную реализацию второй формулировки категорического императива Канта». (там же). То есть: «Действуйте так, чтобы относиться к человечеству… не просто как к средству для достижения цели, но всегда одновременно как к цели». (Кант, 1785). Авторы предупреждают, что эта работа не предназначена для строгой или точной интерпретации Канта, а для исследования того, как вторая формулировка может быть использована для информирования этики машинного обучения.

Конкретным примером этого может быть; Боб покупает Алисе цветы, чтобы произвести впечатление на Сьюзен. Согласно категорическому императиву, это аморально, потому что Боб рассматривает Алису как средство для достижения цели (произвести впечатление на Сьюзен). Более нравственного рендеринга можно добиться, если Боб покупает Алисе цветы, чтобы сделать Алису счастливой. Сочувствие Сьюзен к Алисе (и предположительно положительное отношение к Бобу) было бы вторичным следствием действий Боба. [6]

Авторы начинают с серии определений кантовской причинной связи, призванных заложить основу для их вычислительной реализации. Во-первых, они определяют кортеж для переменных для действий, фоновых переменных, последствий и агентов. Затем они используют модальную логику для создания взаимосвязей и интерпретаций, которые могут быть выведены из результирующих комбинаций с использованием структурных булевых уравнений (т.е. конъюнкция, дизъюнкция, отрицание, импликация и т. Д.). Они применяются к примерам категорического императива «строгий долг» и «широкий долг». Дарить цветы - пример строгой обязанности; Достаточно незамысловатая моральная «дилемма» с кантианской точки зрения. С точки зрения вычислений (по оценке авторов) работать с широкими обязанностями труднее. Примером этого является халатность в отношении того, чтобы не помочь нуждающемуся. Например, Боб идет у пруда, в котором тонет Алиса. Боб не нарушает категорический императив, не спасая Алису, потому что он не использует ее как средство. Кант расширяет категорический императив, включив в него помощь другим, насколько это возможно; своего рода утилитарное расширение.

Это реализовано с использованием HERA, библиотеки проверки моделей на Python для моделей причинных агентств. [7] Цель HERA состоит в том, чтобы предоставить теоретически обоснованный и практически применимый инструмент машинной этики, основанный на логике, для реализации в искусственных агентах. , например, роботы-компаньоны, обладающие моральными качествами… (Bentzen, et. al., 2018). По сути, это инструмент для оценки правильности логических уравнений, установленных ранее в статье. HERA была реализована в предыдущей работе авторов и в этом контексте в значительной степени является запоздалой, поскольку тяжелая работа была сделана при определении логических уравнений для категориального императива.

Опять же, эта статья не позволяет соглашаться или не соглашаться с ее результатами. Моральные сомнения - это на самом деле согласие или несогласие с Кантом. Я считаю категорический императив несколько редукционистским. Я думаю, что это ставит многие весьма неоднозначные ситуации в довольно жесткие рамки. На ум приходят сложные проблемы биоэтики, позитивных действий и других современных ситуаций, о которых Кант, вероятно, и не подозревал. Это можно сравнить с более сложной версией проблемы с тележкой, но с большей степенью последствий, действия, причинно-следственной связи и действия. Хотя эти ситуации могут быть проанализированы профессиональным специалистом по этике или агентом KBAI, моя интуиция подсказывает, что существует компромисс между кантианской ортодоксальностью и полезностью или относительностью.

Возможной мерой стоимости в этом случае может быть восприятие «справедливости». То есть соответствие человека тому, что в культурном и социальном плане считается справедливым. В исследовании можно оценить все более детальный набор ситуаций, сравнивая ответы агентов с воспринимаемой справедливостью. Интересно, что этот вопрос связывает как статью 1, так и статью 2; на представления о справедливости могут влиять соответствующие и / или прозрачные объяснения поведения агентов.

использованная литература

3. Бенцен, М., Линднер, Ф. (2018). Формализация второй формулировки категорического императива Канта. В Proceedings of AAAI 2018. -Ethics & Society. Новый Орлеан, США.

4. Айер, Р., Ли, Ю., Ли, Х., Льюис, М., Сундар, Р., Сикара, К. (2018). Прозрачность и объяснение в нейронных сетях с глубоким обучением с подкреплением. В Proceedings of AAAI 2018. -Ethics & Society. Новый Орлеан, США.

[1] Опять же, это мое наивное понимание поведения, биологии и физиологии мозга и муравьев.

[2] Это поднимает солипсистский вопрос о том, похож ли мозг муравья на муравейник. Может быть, поэтому в подсказке указан человеческий мозг.

[3] Невозможно подтвердить результаты исследования без воспроизведения исследования. Нет никакого обмана, дискомфорта или другого этически сомнительного обращения с испытуемыми.

[4] Под этим я подразумеваю, что человек когнитивно способен оценивать решение во время работы агентов (то есть в реальном времени).

[5] Возможный пример этого - намеренная вставка ums, uhs и других пауз в диалоговых интерфейсах с использованием преобразования текста в речь. Это не обязательно, но они сглаживают разговор и, вероятно, улучшают принятие продукта.

[6] Интересно, что это тоже более утилитарный взгляд на категорический императив. (т. е. максимизация положительных последствий действия агентов). Но это явно выходит за рамки данного эссе.

[7] Агент гибридного этического мышления.