Несмотря на заголовки, искусственный интеллект не панацея от болезней общества. Во многом это на самом деле часть проблемы.

Искусственный интеллект — это не футуристическая антиутопия. Когда мы слышим «ИИ», мы часто думаем о научной фантастике: свирепом Терминаторе Арнольда Шварцнеггера, механических повелителях из Матрицы или жалком мальчике-роботе из откровенно названного ИИ Спилберга. >.

Но ИИ — это не далекая реальность, и в большинстве случаев он совсем не похож на робота. ИИ во многом с нами здесь и сейчас, и он уже определяет нашу жизнь способами, о которых мы даже не подозреваем.

ИИ имеет множество различных названий и приложений, включая машинное обучение, автоматизированное принятие решений, алгоритмы, компьютерное зрение и распознавание лиц. И это уже задает тон во многих сферах повседневной жизни, от того, кто получает социальные пособия, до того, какие области подвергаются наибольшему контролю.

ИИ используется государствами, государственными органами и частными компаниями, чтобы профилировать нас и принимать решения о нашей кредитной оценке, должны ли мы получать скидки по счетам или можем ли мы совершить мошенничество. Проходя через ИИ, люди сводятся к вероятностям, полученным от систем, которые взяли на себя и во многих случаях распространили предвзятость своих создателей-людей.

Существует прекрасное представление о технологиях, которое иллюстрируется ранними утопическими представлениями об Интернете: свободной и открытой сети, которая обеспечит неограниченный доступ к знаниям для всех, которая сделает мир плоским и искоренит неравенство невиданным ранее способом. .

…многие смотрят на ИИ как на спасителя, который может предложить беспристрастные, непредвзятые суждения о мире, которые мы, люди с недостатками, никогда не могли бы

Точно так же многие смотрят на ИИ как на спасителя, который может предлагать беспристрастные, непредвзятые суждения о мире, чего никогда не могли сделать мы, люди с недостатками, пронизанные предрассудками и предположениями.

Но это всего лишь фантазии. Невозможно просто отвязать нынешние системы ИИ от запутанной паутины неравенства и несправедливости общества, и ИИ в конечном итоге стал основной частью проблемы, а не решением.

Вся инфраструктура ИИ принадлежит немногим и недоступна для многих. Доктор Седа Гюрсес, адъюнкт-профессор факультета технологий, политики и менеджмента Технического университета Делфта, объясняет, насколько разработки в области ИИ зависят от технологических гигантов, обладающих монополией на оборудование, необходимое для совершения прорывов и осуществления изменений.

«Если вы используете одну и ту же инфраструктуру, созданную Amazon и Google… для проведения исследований, в какой-то момент становится непонятно, что вы делаете», — говорит доктор Гюрсес.

«Вы просто предлагаете этим компаниям способы улучшить свой продукт, или вы действительно делаете что-то, что будет служить обществу? И какие социальные нормы и предположения, заложенные в этих инфраструктурах, вы затем подтверждаете и воспроизводите в мире?»

«Вы просто предлагаете этим компаниям способы улучшить свой продукт, или вы действительно делаете что-то, что будет служить обществу?»

Воздействие этого на окружающую среду также далеко не нейтральное — в конце концов, материалы, необходимые для работы таких мощных машин, должны откуда-то поступать. Многие утверждают, что добыча сырья, необходимого для питания этих технологических гигантов, в значительной степени зависит от угнетения и эксплуатации более бедных стран и людей, которые там живут.

Вариантов, независимых от этих всемогущих глобальных акторов, к сожалению, не хватает.

«Даже правительство США не строит собственный центр обработки данных, а покупает вычислительные ресурсы у Google, Microsoft и Amazon», — объясняет доктор Гюрсес.

Затем возникает проблема подотчетности, вызванная сложностью этих инфраструктурных систем. Точно так же, как часто невозможно привлечь отдельных лиц к ответственности за нарушения прав человека и грубую несправедливость в длинных транснациональных цепочках поставок, то же самое верно и для ИИ.

«Инфраструктура организована таким образом, что никто не чувствует ответственности за детали. Но когда они собираются вместе, они действительно могут навредить людям», — говорит доктор Гюрсес.

Как часто невозможно привлечь отдельных лиц к ответственности за нарушения прав человека и вопиющую несправедливость в длинных транснациональных цепочках поставок, то же самое верно и для ИИ.

«Когда человек принимает решение в учреждении, вы можете посмотреть ему в лицо и сказать, что это несправедливо. Вы можете пойти в их учреждение и пожаловаться», — объясняет она. Но столкнувшись с огромными вычислительными мощностями, все не так просто. Когда что-то неизбежно идет не так, ответственность, возможно, не останавливается на том, кто развернул технологию.

«Кого они собираются привлечь к ответственности?» — спрашивает доктор Гюрсес. «Это компания в Японии? Это человек, который первым скачал набор данных без согласия? Это тот, кто никогда не принимал во внимание никакие показатели, кроме точности, и поэтому справедливость была за окном?»

Кроме того, когда дело доходит до машинного обучения, также очень сложно понять, как и почему было принято решение: такова природа системы, которая обучается сама по себе. Это серьезное препятствие для прозрачности, поскольку становится все сложнее оспаривать решения, с которыми мы не согласны, или привлекать отдельных лиц к ответственности за ошибку.

К длинному списку несправедливостей добавляется тот факт, что длительная и обременительная задача обучения многих алгоритмов ИИ часто выполняется низкооплачиваемыми работниками. Во многих случаях низкооплачиваемые работники также должны подвергать себя воздействию тревожного или насильственного контента, чтобы натренировать алгоритмы модерации контента или разжигания ненависти.

В условиях эксплуатации у этих людей часто есть миллисекунды, чтобы определить потенциально проблемный контент. Неизбежно, они заканчивают тем, что делают ошибки или кодируют свои собственные предубеждения.

Устранение предубеждений, таких как пол или раса, — это не просто удаление или передача более чистых данных машинам. Невозможно выделить неравенства, которые плотно вплетены в ткань нашего общества, и то же самое верно для алгоритмов. Даже когда «раса» или «пол» не упоминаются явно, определенные ярлыки могут действовать как прокси для этих социальных категорий, и предвзятость в конечном итоге воспроизводится точно так же.

Инструмент не учили явно различать по половому признаку, а просто узнали, что слово «женщины» ассоциируется с менее качественными резюме.

Возьмем, к примеру, инструмент для подбора персонала Amazon, который был выброшен из-за гендерной предвзятости. Инструмент не учили явно различать по половому признаку, а просто сами узнали, что слово женщины ассоциируется с менее качественными резюме.

Несправедливость ИИ — это не просто то, что написано в коде. Проблема власти вездесуща: текущая инфраструктура дает крупным игрокам огромные рычаги влияния на более мелких, у которых мало сил, чтобы бросить вызов тому, что делается. Такова реальность ИИ в мире, где большие технологии обладают огромной инфраструктурной властью, а государства и другие субъекты все чаще обращаются к технологиям для усиления контроля над населением.

«Компьютерная наука может предлагать абстрактные решения проблем, абстрагируясь от сложности мира», — говорит доктор Гюрсес. «Это присуще информатике как области или методу».

Признание социального воздействия компьютеров часто отсутствует в процессе, который по своей природе направлен на решение отдельной проблемы. Но поскольку место ИИ в нашем обществе увеличивается, этот пробел просто необходимо заполнить.

Признание социального воздействия компьютеров часто отсутствует в процессе, который по своей природе направлен на решение отдельной проблемы.

«Мы надеемся, что они [инфраструктуры ИИ] также улучшат жизнь людей», — говорит доктор Гюрсес. «Я не хочу пренебрегать его способностью перенастраивать и, возможно, иногда даже расширять наши возможности».

«Но есть более широкая картина вещей, которые необходимо изменить», — говорит она. «…чтобы технологии использовались таким образом, чтобы мы могли сказать: о, это не очень несправедливое использование, это заботливое использование, и использование, которое служит сообществам и обществам для продвижения вперед в жизни».