«Этический алгоритм», новая книга ученых-компьютерщиков Майкла Кернса и Аарона Рота, описывает социальные проблемы автоматизации и предлагает новый подход к созданию алгоритмов с учетом социальных аспектов.

Это отрывок из книги Майкла Кирнса и Аарона Рота из Школы инженерии и прикладных наук Этический алгоритм: наука о разработке алгоритмов с учетом социальных аспектов, опубликованной издательством Oxford University Press.

В декабре 2018 года газета New York Times получила коммерческий набор данных, содержащий информацию о местоположении, полученную из телефонных приложений, номинальной целью которых является предоставление приземленных вещей, таких как отчеты о погоде и рекомендации ресторанов. Такие наборы данных содержат точные местоположения сотен миллионов людей, каждый из которых обновляется сотни раз в день. Коммерческих покупателей таких данных, как правило, интересует сводная информация, но данные записываются отдельными телефонами. Это внешне анонимно, без прикрепленных имен, но анонимность не так велика, как вы можете обещать, записывая каждое движение человека.

По этим данным New York Times удалось установить личность 46-летней учительницы математики по имени Лиза Магрин. Она была единственным человеком, который ежедневно ездил из своего дома в северной части штата Нью-Йорк в среднюю школу, где она работает, в 14 милях от нее. И как только чья-то личность раскрыта таким образом, можно узнать о них гораздо больше. The Times отследила данные Лизы до организации Weight Watchers, до кабинета дерматолога и до дома ее бывшего парня. Всего пару десятилетий назад для такого уровня навязчивой слежки потребовался бы частный детектив или государственное агентство. Теперь это просто побочный продукт широко доступных коммерческих наборов данных.

По мере распространения сбора и анализа данных проблемой стала не только конфиденциальность: алгоритмы не просто анализируют данные, которые мы генерируем при каждом нашем движении, они также активно используются для принятия решений, влияющих на нашу жизнь. Когда вы подаете заявку на кредитную карту, ваша заявка никогда не может быть рассмотрена человеком. Вместо этого алгоритм, извлекающий данные о вас из множества разных источников, может автоматически одобрить или отклонить ваш запрос.

Во многих штатах алгоритмы, основанные на так называемом машинном обучении, также используются для принятия решений об освобождении под залог, условно-досрочном освобождении и вынесении приговора по уголовному делу. Все это поднимает вопросы не только конфиденциальности, но и справедливости, а также ряда других основных социальных ценностей, включая безопасность, прозрачность, подотчетность и даже мораль.

Если мы собираемся и дальше генерировать и использовать огромные наборы данных для автоматизации важных решений, нам придется серьезно подумать над некоторыми весомыми темами. К ним относятся ограничения на использование данных и алгоритмов, а также соответствующие законы, правила и организации, которые будут определять и обеспечивать соблюдение этих ограничений. Но мы также должны серьезно подумать о решении проблем с научной точки зрения — о том, что может означать кодирование этических принципов непосредственно в разработке алгоритмов, которые все больше вплетаются в нашу повседневную жизнь.

Вы можете извиниться за некоторый скептицизм в отношении придания морального характера алгоритму. Алгоритм, в конце концов, всего лишь человеческий артефакт или инструмент, как и молоток, и кому может прийти в голову мысль об этическом молотке? Конечно, молоток можно использовать неэтично — например, как орудие насилия, — но нельзя сказать, что это вина молотка. Все этические аспекты использования или неправильного использования молота можно отнести к человеку, который им владеет.

Но алгоритмы — особенно те, которые используют машинное обучение, — другие. Они отличаются как тем, что мы предоставляем им значительную свободу действий для принятия решений без вмешательства человека, так и тем, что они часто настолько сложны и непрозрачны, что даже их разработчики не могут предугадать, как они поведут себя во многих ситуациях.

В отличие от молотка, обычно не так просто обвинить в конкретном проступке алгоритма непосредственно человека, который его разработал или внедрил. Есть много случаев, когда алгоритмы пропускают конфиденциальную личную информацию или дискриминируют ту или иную демографическую группу. Но как именно эти вещи происходят? Являются ли нарушения неприкосновенности частной жизни и справедливости результатом некомпетентных разработчиков программного обеспечения или, что еще хуже, работы злонамеренных программистов, преднамеренно кодирующих расизм и лазейки в свои программы?

Ответ — решительное нет, но настоящие причины неправильного поведения алгоритмов, возможно, даже более тревожны, чем человеческая некомпетентность или должностные преступления, с которыми мы, по крайней мере, лучше знакомы и у которых есть некоторые механизмы для устранения. Самые влиятельные алгоритмы общества, от поиска Google и ленты новостей Facebook до алгоритмов кредитного скоринга и оценки риска для здоровья, как правило, разрабатываются высококвалифицированными инженерами, которые тщательно применяют хорошо понятные принципы проектирования. Проблемы на самом деле лежат в этих самых принципах, особенно в машинном обучении.

Продолжить чтение этого отрывка изЭтического алгоритмав Penn Today.