Ода этичному ИИ: будь круче

Я новичок в области науки о данных, но я сделал все возможное, чтобы погрузиться в соответствующие материалы от подкастов до технических документов. Когда я построил свой первый алгоритм прогнозирования (знаю… очень впечатляющий), я начал думать о последствиях такой способности. Что, если данные, которые я ввел, были неверными? Что, если я неосознанно включу необъективные параметры? Это не было большой проблемой, так как я знал, какие данные я ему подаю, веса переменных и мог точно видеть, как был сделан прогноз.

Но что, если я не смогу? А если бы это был черный ящик?

Я заметил, что внутренне к этике часто относятся с пренебрежением — она корявая и не позволяет двигаться быстро, тем не менее ломать вещи. Я понимаю нерешительность. Мы настроены на результат — никто не хочет, чтобы его сдерживала бюрократия. Но, отталкивая любой внутренний прогресс в сторону объяснимости, мы рискуем приветствовать большее внешнее регулирование.

От рядовых активистов до AI Now Нью-Йоркского университета общественность призывает к социально этичному ИИ. Неприятие общественностью может привести к полному запрету на использование ОД/ИИ как в коммерческом, так и в государственном секторе.

И это проблема (очевидно). Нам нужна эта технология сейчас больше, чем когда-либо; создать лучший мир среди нынешних кризисов. Мы знаем потенциал для прогресса в науке о данных и смежных областях. Если мы хотим реализовать это будущее, которое мы все держим внутри, нам нужно будет предпринять шаги сейчас, чтобы решить проблемы, пока поле еще не достигло половой зрелости. Давайте посмотрим на несколько мест, с которых мы можем начать.

Разнообразие

Да, я знаю. DEI (разнообразие, справедливость и инклюзивность) является актуальной темой на сайте. Но это потому, что это актуально. И иногда прямое обращение к этому вызывает угрызения совести, потому что мы видим, в чем мы ошибаемся.

График выше взят из поста 2018 года на KDnuggets. И я буду честен, как гетеросексуальный белый мужчина со Среднего Запада, этот график немного ранит мое сердце. Должно. Это означает, что еще многое предстоит сделать.

Айко Бетеа, коуч по лидерству и консультант по акциям, проходит через B.S. когда она говорит: Перестаньте требовать бизнес-обоснования для инвестиций в разнообразие, справедливость и инклюзивность. Просто сделай это." (Настоятельно рекомендую прочитать ее пост на Medium «здесь.)

И важно просто сделать это не только для финансового успеха компаний, но и конкретно для этических проблем, которые существуют в ML/AI. Посмотрим правде в глаза, везде есть предвзятость. В наших данных, в нашем коде и в нашем надзоре. И когда у вас нет команды, представляющей различный опыт и отличающиеся способы мышления, будет сложно увидеть все проблемы. Это напоминает мне притчу Дэвида Фостера Уоллеса:

Вот эти две молодые рыбки плывут, и они случайно встречают рыбу постарше, плывущую в противоположном направлении, которая кивает им и говорит: «Доброе утро, мальчики. Как вода? И две молодые рыбки немного плавают, а затем, в конце концов, одна из них смотрит на другую и говорит: «Что, черт возьми, вода?»

Расширение перспектив в области науки о данных улучшит охват и угол зрения вопросов, касающихся нашей работы. С увеличением разнообразия мы будем не только лучше подготовлены к решению этических вопросов, но и будем иметь более качественные результаты.

Совместная работа

Впервые я услышал об Одри Тан в истории о том, как Тайвань взломал COVID-19 с помощью программ мониторинга с открытым исходным кодом. Они создали платформу общественного чата, которая вознаграждает сотрудничество и общение и обезоруживает троллей юмором, а не кормит их огнем. Святое дерьмо. Они буквально открыли исходный код своего правительства. Какая невероятно мощная модель, которую могло бы использовать сообщество специалистов по данным, чтобы собрать представителей общественности за стол переговоров неразрушающим образом. Сотрудничество с общественностью важно для получения поддержки от всех заинтересованных сторон. Это также повышает доверие к алгоритмам, поскольку люди чувствуют, что они внесли свой вклад в их разработку. Повышение доверия может только повысить эффективность инструментов ML/AI.

Дополнительная возможность сотрудничества — с другими компаниями, занимающимися искусственным интеллектом. Движение ML/AI с открытым исходным кодом до сих пор было довольно успешным, и такие компании, как OpenAI, лидировали. Хотя мы сделали все возможное, чтобы поделиться кодом, мы могли бы добиться большего успеха в создании единых правил этики для всех компаний. До сих пор многие из этических заявлений были бумажными тиграми, поскольку им не хватало действенности и правоприменения. Это восходит к сотрудничеству с процессами сертификации для обеспечения подотчетности. Кроме того, если у компаний есть общие принципы этики ML/AI, они заинтересованы в том, чтобы держать друг друга под контролем. Рекомендации по этике для разных компаний могут показаться не очень привлекательными, но они важны для будущего принятия ОД/ИИ обществом.

Объяснимость

С появлением нейронных сетей алгоритмические черные ящики стали последней модой. Поскольку эти модели, как правило, самообучаются в дикой природе, не всегда понятно, как они принимают решения. И если вы не уверены в мыслительном процессе вашей модели, отладка будет проблемой, когда и в случае сбоя. Отсутствие объяснимости не только снижает производительность, но и поднимает множество этических проблем.

Когда вы не знаете, как принимаются решения, вы не можете быть уверены, что алгоритм не использует предвзятый выбор. И, к сожалению, предвзятость существует. Предвзятость была хорошо задокументирована в последнее время, когда сторожевые псы бьют тревогу. Проблема усугубляется предвзятостью данных (например, фотографий пушистых кошек больше, чем безволосых). Есть вещи, которые мы можем делать, например, как ни странно, использовать собратьев по ИИ для интерпретации наших нейронных сетей. И, честно говоря, некоторые концепции объяснимости пролетают прямо над моей головой. Но я знаю, что над этим работают умные люди — если у вас есть хорошие статьи, пожалуйста, прокомментируйте их ниже!

Разум, который длится

Преимущество ML/AI огромно, и мы могли бы лучше делиться ими. Но чтобы радоваться добру, нам нужно сначала пересечь реку этики. Мы только вредим себе, не опережая дискуссию, особенно в отношении соответствующих предубеждений, таких как раса и пол. Если мы не отреагируем быстро на нынешние протесты, мы ограничим нашу способность реализовать большие достижения, которые возможны.

С другой стороны, обращение к этике имеет решающее значение для морали нашего будущего общества. ИИ является отражением его данных. Данные являются отражением общества. Как и в истории, ею руководят победители. Если мы не будем осторожны, победители могут продолжать побеждать, особенно если мы объединим их силу с искусственным интеллектом. Но польза истории в том, что она может не повторять ошибок наших предков. Это мудрость. Извлекая уроки из истории, мы можем освободиться от нашего прошлого и создать желаемое будущее.