Однажды у нас могут появиться алгоритмы, которые будут более ответственными с этической точки зрения, чем мы. Они могут иметь возможность работать с огромными наборами данных и отфильтровывать все обучающие данные, которые могут привести к неэтичным последствиям в других алгоритмах. Пока не настанет этот день, что можно сделать, чтобы свести к минимуму опасность того, что алгоритмы, обученные машинному обучению, имитируют наш фанатизм?

Внедрение алгоритмов машинного обучения часто приводит к неэтичным последствиям. Два фундаментальных элемента машинного обучения в сочетании друг с другом становятся серьезными проблемами и приводят к ужасающим историям компаний и правительств, которые неосознанно создают расистские, сексистские и аморальные технологии.

Программы, разработанные компаниями, находящимися на переднем крае исследований в области ИИ, привели к ряду ошибок, которые странно выглядят как темные предрассудки человечества:« программа распознавания образов Google пометила лица нескольких чернокожих как горилл; рекламная программа LinkedIn показала предпочтение мужским именам при поиске, а чат-бот Microsoft по имени Tay провел день, изучая Twitter, и начал распространять антисемитские сообщения ».

"Хранитель"

Также было доказано, что программы машинного обучения демонстрируют предвзятость в отношении чернокожих заключенных и связанных женщин с низкооплачиваемой работой. Реклама, основанная на алгоритмах, предлагала улучшения домашней безопасности тем, кто часто набирает имена, которые чаще всего даются цветным людям.

Два элемента, которые создают проблему

Вот первая проблема с машинным обучением: оно выдает себя за людей. Вся его цель - обрабатывать данные таким образом, чтобы алгоритм, разработанный на основе данных, мог выполнять некоторые функции, которые могут выполнять люди, такие как распознавание лиц или перевод с одного языка на другой, или обнаружение закономерностей и группирование данных по общим элементам. Тем не менее, данные, которые представляют людей, естественно, также отражают человеческие предубеждения и фанатизм.

Вторая проблема машинного обучения: оно генерирует алгоритмы, которые слишком сложны для понимания людьми. Основная идея состоит в том, что человеческий мозг смехотворно сложен, а функции человеческого мозга, такие как распознавание или принятие решений, находятся под влиянием множества факторов, и большинство из этих сложностей и влияний находятся за пределами нашей способности распознать и понять. Иногда вы видите кого-то на расстоянии и сразу узнаете, кто они, даже если вы не можете озвучить то, что видите, что заставило вас узнать их. Каждый из нас не знает, сколько мы знаем. До машинного обучения мы не могли писать алгоритмы, которые конкурировали бы с нашим мозгом, потому что мы не могли отражать необычные возможности нашего мозга в алгоритмах, поскольку мы не могли понять все, что происходит в наших головах. Машинное обучение устраняет эту проблему, поскольку оно генерирует алгоритмы, обучаясь на миллионах примеров, как это делают люди. Но это означает, что разрабатываемые алгоритмы так же необъяснимы для нас, как и наш мозг.

В сочетании эти два элемента образуют алгоритмы, которые действуют фанатично. Алгоритмы разрабатываются на основе наборов данных, которые обычно содержат от миллионов до сотен миллионов единиц информации о людях и представляют всех этих людей, а зачастую и их самые тонкие или бессознательные, фанатичные убеждения. А алгоритмы настолько сложны, что, как правило, невозможно упредить или выявить потенциальные аморальные последствия. Поэтому пагубные последствия должны проявиться, а затем быть обнаружены и сообщены, прежде чем можно будет предпринять корректирующие действия. Любой ответ является реакционным после того, как был нанесен какой-то ущерб.

Новые ожидания от компаний в отношении ответственных действий

Широкое освещение в СМИ ошибочных алгоритмов привело к ожиданиям, что компании будут действовать более ответственно. Некоторые организации пытались дать возможность обычным пользователям их продуктов быть сторожевыми псами, которым поручено сообщать о дискриминационном поведении. Другие диверсифицировали свои команды разработчиков в надежде, что большее количество женщин, цветных людей и тому подобное приведет к лучшему отбору наборов данных, поскольку более вероятно, что люди, страдающие фанатизмом, заметят тот же фанатизм в наборах. Таким образом, женщины определенно более склонны обнаруживать сексистские тенденции в данных, которые используются для обучения и создания алгоритмов, чем мужчины.

Джефф Нитшке - старший преподаватель факультета компьютерных наук Кейптаунского университета. Он согласен с тем, что «сокращение наборов данных, вероятно, является ключевым способом» смягчения вредных последствий алгоритмов, обученных на основе данных. Имея миллионы и миллионы частей данных, неразумно ожидать, что команда людей сможет проверять целые наборы и удалять все фанатичные части данных. Но в один прекрасный день мы, возможно, сможем использовать для этого алгоритм машинного обучения.

Будущее решение может заключаться в алгоритмах, обученных морали

Джефф цитирует исследования, проведенные ведущими лабораториями разработки по всему миру, в ходе которых выясняется, можем ли мы разрабатывать алгоритмы, которые «учатся быть этичными». По словам Джеффа: «Мы с вами выросли в определенной среде. Мы усвоили нашу этику за годы взаимодействия, и идея состоит в том, что алгоритм машинного обучения будет делать это, но делать это гораздо быстрее, поскольку он получает миллионы входных данных каждую секунду. Он обладает огромной мощностью сенсорной обработки. Он научился бы этому модельному типу этического поведения, постоянно сталкиваясь с тем, что этично, а что нет, в соответствии с нашими собственными стандартами. Затем, когда поступают новые данные, (алгоритм) классифицирует их как хороший пример для обучения или плохой пример для обучения », в зависимости от того, содержит ли он фанатичные предубеждения. Таким образом, алгоритмы, которые могут различать этически приемлемые данные и неэтичные данные, могут однажды использоваться для фильтрации данных, прежде чем они будут использоваться для обучения алгоритмов, которые имеют другие цели.

Это исследование настолько захватывающее, потому что оно может удалить деструктивные элементы из алгоритмов до того, как они окажут вредное воздействие, и устранит необходимость в реакционных попытках лечения алгоритмов после того, как они уже причинили вред. По иронии судьбы одним из будущих решений проблемы алгоритмов машинного обучения может стать больше алгоритмов машинного обучения.

Понравились наши идеи? Посетите наш сайт и будьте в курсе всех новостей Q Division в Twitter и LinkedIn.