Проблема ИИ в доверии?

Раскрываем глубокий и дешевый секрет нейронных сетей

Возможно, самой важной новостью об искусственном интеллекте на прошлой неделе стала еще одна крупная победа для астрофизики и академической республики Кембридж, штат Массачусетс. Генри В. Лин и Макс Тегмарк объяснили, почему нейронные сети настолько эффективны при отмыкании почти всех замков, которые мы пытались открыть. Объяснитель Лина на Quora продолжает эту метафору волшебными ключами. Резюме в MIT Tech Review формулирует проблему, не прибегая к магии (к сожалению): Нет математической причины, по которой сети, организованные в слои, должны быть такими хорошими. Лин и Тегмарк показали конструктивно, что полиномы можно аппроксимировать с произвольной точностью с помощью нейронной сети фиксированного размера. Это контрастирует с рядом более старых работ, которые показывают, что если вы позволяете размеру вашей нейронной сети расти до бесконечности, вы можете аппроксимировать все, что захотите.

Но мы по-прежнему верим в черные ящики

Что касается прикладной стороны искусственного интеллекта и алгоритмического принятия решений, Джон Мэттисон из Kaiser Permanente утверждал, что самым важным вопросом 21 века будет: чьему черному ящику вы доверяете? На этой неделе Тим О’Рейли ответил четырьмя критериями оценки того, каким алгоритмам можно доверять.

Я скептически отношусь к тому, что предположение о выборе применимо к алгоритмическому принятию решений. Потребители и пользователи платформ часто слишком мало знают о том, как работают алгоритмы. Даже когда они знают об одной платформе, они могут не знать о конкурирующих платформах, что запрещает любые логические сравнения. Кроме того, когда конкретное дерево решений оказалось прибыльным, оно, как правило, применяется во всей отрасли. Может оказаться невозможным выбрать платформу, которая избегает популярной стратегии принятия конкретных решений, если таковой в настоящее время не существует. Хотели бы вы читать новости, подготовленные новостной службой, на которую не влияет рейтинг кликов? Пожалуйста, дайте мне знать, когда вы найдете один.

Подсчет статистики по рейтингу колледжей

В отрывке из своей новой книги Кэти О’Нил объясняет, как формулы (читай: алгоритмы), определяющие рейтинги колледжей, привели колледжи и родителей к подтасовке статистики. Бакнелл и Эмори повозились с представленными ими результатами SAT. Одна группа богатых родителей дала консультанту более 25 000 долларов, чтобы их ребенок поступил в Нью-Йоркский университет. Конечно, можно предположить, что черные ящики приведут к информационной асимметрии и попыткам спекуляции а-ля акерлофовских продавцов подержанных автомобилей.

Боты Википедии сражаются в сизифовых культурных войнах

Внимательно изучив соревнование между ботами, Милена Цветкова и др. найти, что Even Good Bots Fight использует данные Википедии, чтобы показать, что боты обслуживания Википедии постоянно добавляют и удаляют правки друг друга. Более того, как и люди, боты Википедии демонстрируют культурные различия. Как отмечает Педро Доминго в своих 10 мифах о машинном обучении, не все алгоритмы обучения начинаются с чистого листа; некоторые используют данные для уточнения уже существующей совокупности знаний. И вот как мы получаем ботов, неустанно ведущих тихие редакционные культурные войны в Википедии.