В последнее время я замечаю растущую моральную панику по поводу того, как цифровые инструменты меняют наше восприятие реальности и негативно влияют на общество, политику и другие сферы реальной жизни.

Он бывает разных форм и форм: Facebook и его алгоритм прославления фейковых новостей, Google помечает чернокожих как горилл, наш пузырь восприятия, управляемый социальными сетями, повсеместные утечки обнаженных фотографий или все более пугающий риск. хакерских атак на примере ботнета Mirai.

Кажется, что Интернет становится все более пугающим местом, и некоторые из этих гадостей проникают в нашу повседневную жизнь. Но виноваты ли в этом крупные корпорации или новые технологии? Или это мы формируем и определяем технологию уродливым образом?

И что еще более важно: Если виноваты мы - не правительство, не корпорации или технологии, а мы сами; как мы должны сделать все правильно?

Но сначала позвольте мне рассказать о некоторых злых, злых интернет-роботах.

История злого, злого интернет-робота

В марте 2016 года Microsoft выпустила Tay, искусственный интеллект, предназначенный для развития «понимания разговора» посредством взаимодействия с реальными пользователями Twitter. Менее чем за 24 часа Tay стал полным нацистом, и его создателям пришлось отключить его.

Тай превратился из люди супер крутые в полный нацист за ‹24 часа, и меня совсем не беспокоит будущее ИИ pic.twitter.com/xuGi1u9S1A

— Джерри (@geraldmellor) 24 марта 2016 г.

Это не помешало Microsoft дать Тэю второй шанс после того, как они отфильтровали большую часть оскорбительных материалов, которые бот узнал от других пользователей Twitter. Это тоже не пошло на пользу.

Сексистско-расистский бот Microsoft в Твиттере @TayandYou ВЕРНУЛСЯ в прекрасной форме pic.twitter.com/nbc69x3LEd

— Джош Батлер (@JoshButler) 30 марта 2016 г.

В тот день Microsoft узнала то, что любой, кто смотрел Парк Юрского периода, знал с самого начала: жизнь, э-э, находит выход. В данном случае это означает, что если вы бросите бота на такую ​​платформу, как Twitter, в которой вы открыты для любого взаимодействия сотен миллионов пользователей, победит наименьший общий знаменатель.

Нет никакого способа отфильтровать бесконечные средства, которые человеческий интеллект может найти, чтобы облажаться с вашим ботом. Если достаточно людей хотят облажаться, считайте, что облажались. Жизнь находит выход.

Машинное обучение — это не зло. Но у него есть проблемы.

Пример Тэя иллюстрирует самую большую проблему с искусственным интеллектом, большими данными и машинным обучением. И это даже не имеет ничего общего с ИИ или машинным обучением: это очень человеческая проблема. Проблема в том, что предположения, с которыми работают эти системы, часто неточны: в них выбрасываются ошибочные данные или они разработаны с ошибочной логикой.

Вторая проблема заключается в том, что мы предполагаем, что машины, обладающие гораздо большими возможностями для анализа и обработки данных, чем люди, будут лучше людей делать правильный выбор. Таким образом, мы научились полагаться на их результаты, не подвергая их сомнению, не понимая, что они так же ошибочны, как и наши; иногда теми же способами.

Короче говоря, проблему искусственного интеллекта и больших данных можно резюмировать следующим образом: мусорные данные на входе… мусорные данные на выходе.

Мы начинаем замечать понятную озабоченность по поводу инструментов, используемых для управления учреждениями по всему миру. От ИИ, судящих конкурсы красоты с уклоном в сторону небелых людей, до программного обеспечения для оценки рисков, используемого в судебных процессах в США с потенциальным уклоном против афроамериканцев.

Темнокожие обвиняемые по-прежнему на 77% чаще считались подверженными более высокому риску совершения в будущем насильственных преступлений и на 45% чаще прогнозировались совершение будущих преступлений любого рода.

ПроПублика

Это не означает, что ИИ или машинное обучение сами по себе несовершенны, но они повторяют проблемы, которые присутствуют в нашем обществе в целом.

Когда люди начали жаловаться на расизм изображений Google, проблему прекрасно объяснил Антуан Аллен в серии видеороликов на своем канале YouTube:

‹ширина iframe=”853” высота=”480” src=”https://www.youtube.com/embed/m5JPwh44VRE”’ frameborder=”0’ allowfullscreen›‹/iframe›

Короче говоря, Google не является злом, выбирая оскорбительные изображения для представления меньшинств. Google — это всего лишь цифровое окно того, как общество рассматривает и представляет эти меньшинства.

Как я делаю интернет злым?

Эта разглагольствованная статья была вдохновлена ​​статьей о продовольственных талонах в журнале Jacobin Magazine. Журнал Jacobin Magazine — это издание, пропагандирующее социальную справедливость с непримиримым левым подходом к новостям и политике.

Вот почему меня удивило, что они использовали эту картинку для иллюстрации своей статьи о продовольственных талонах.

В данном случае автор рисует красочную картину того, почему стигматизация получателей талонов на питание на основе аргумента NYT неверна с научной точки зрения. Но с другой стороны, это включает в себя предвзятость — со стороны автора или специалиста, ответственного за добавление избранного изображения — при выборе изображения: латиноамериканские / латиноамериканские меньшинства с большей вероятностью будут использовать продовольственные талоны.

Важно отметить, что этот вопрос не ограничивается расой, религией или полом; и это требует комплексного подхода к пониманию того, как взгляды и практика общества увековечиваются через культуру.

То, что мы делаем в сети каждый день, оказывает неизгладимое влияние на то, как ИИ понимает мир. Простые действия, такие как ссылка на другую страницу, нажатие на ссылку или воспроизведение видео в нашей ленте Facebook, могут иметь непреднамеренные последствия. Каждый из нас должен знать, хотим ли мы решить эту проблему и как, но знать об этой проблеме всегда хорошо.

Что я могу сделать, чтобы интернет не стал злом?

Во-первых, как мы видели в начале статьи, жизнь всегда находит выход. Алгоритмы будут совершенствоваться, искусственный интеллект улучшаться, а область будет стремительно развиваться; но наши культурные практики и представления будут проникать в цифровой мир, независимо от того, насколько изощренными будут фильтры, которые мы добавляем.

Итак, дело за нами. Вы сможете добиться большего, если вы академик, работаете в СМИ или имеете большую аудиторию, но любой может помочь сделать Интернет лучше.

Не забывайте о своих личных предубеждениях. Если вы разработчик или исследователь, работающий с ИИ, имейте в виду, что ваши предположения могут быть предвзятыми. Это не значит, что вы зло; просто ваша среда и контекст не применимы к большинству людей в мире. И это нормально.

Если вы предоставляете набор данных для алгоритма машинного обучения, постарайтесь быть как можно более честным с точки зрения представления и, если у вас есть сомнения, обратитесь за профессиональной помощью к консультантам по расе, гендеру или культуре.

Внимательно относитесь к тому, что вы нажимаете. Алгоритмы Google, Youtube или Facebook учатся на поведении пользователей, чтобы сделать наиболее успешный контент более заметным. Нажав на статью в новостной ленте, результат поиска или просмотр всей рекламы/видео на Youtube или Facebook, алгоритмы узнают, что результат важен.

Обычно это работает, но в некоторых случаях вы определяете контент, который необходимо содержать; будь то фейковые новости, разжигание ненависти или прямой троллинг. В этих случаях его лучше игнорировать, каким бы кликбейтным или оскорбительным он ни был.

Если вас серьезно беспокоит конкретный контент и вы считаете, что вам нужно что-то с этим делать, то публикация этого контента только придаст ему больше огласки. Большинство платформ позволяют его осудить (для этого есть руководства), и вы, вероятно, сможете сплотить людей вокруг себя, чтобы сделать то же самое.

Многие алгоритмы учитывают негативную обратную связь, и в какой-то момент это может вызвать ручную проверку. В этом сила в количестве. Это особенно важно в тех случаях, когда конкретные результаты могут спровоцировать агрессивную реакцию или предназначены для распространения ненависти.

Внимательно относитесь к словам, которые вы используете в Интернете: Кластеризация слов – это тактика, используемая поисковыми системами и другим программным обеспечением, пытающимся понять взаимосвязь между словами. Когда два слова появляются в одном предложении или рядом друг с другом, эти ИИ сделают вывод: между ними есть связь.

Вот почему часто лучше обращаться к людям по именам или как к людям и стараться избегать таких деталей, как пол, раса или психологическая история, если они не имеют отношения к истории.

Внимательно относитесь к тому, что вы ищете: Google и другие поисковые системы используют ваши запросы для автозаполнения.

Внимательно относитесь к изображениям, которые вы используете в Интернете: если вы загрузите изображение латиноамериканской семьи, чтобы проиллюстрировать статью о продовольственных талонах, вполне вероятно, что Google проведет параллелизм. Та же проблема возникла бы, если бы было выбрано изображение любого другого меньшинства, включая белых.

Использование иллюстраций, значков или более концептуальных изображений может быть хорошим способом избежать этой проблемы. Например, изображение еды, супермаркета или тележки для покупок в этом случае сработало бы точно так же. Кроме того, иллюстрации и значки позволят вам использовать SVG, что улучшит время загрузки вашего сайта.

Не кормите тролля. Это старое правило, но оно по-прежнему верно. Facebook или Twitter будут придавать большее значение комментариям с большим количеством ответов и взаимодействия.

В любом онлайн-разговоре вы найдете много оскорбительной/разжигающей ненависти речи. Даже если вы чувствуете необходимость ответить, старайтесь избегать этого: так как это только сделает комментарий более актуальным, а в худшем случае заставит вас спорить с ботом. Некоторые стратегии утверждают, что борьба с троллями может быть эффективной, но с алгоритмической точки зрения игнорирование, голосование против них или жалоба на них будут работать лучше.

Осторожно с подключенными устройствами: вы должны знать об опасностях, которые подключенные устройства представляют для Интернета. Вирусы, подобные Mirai, могут заражать целые армии этих устройств и использовать их для организации DDoS-атак, ставя под угрозу доступ в Интернет для миллионов людей.

Важно понимать, что для этого пока нет простого решения, поэтому будет полезно, если вы дважды подумаете, действительно ли вам нужно подключенное устройство. Если он вам действительно нужен, старайтесь полагаться на известные бренды с хорошей историей безопасности, поэтому, если есть какие-либо вирусы, поражающие их устройства, они смогут их исправить.

Дешевое, недорогое подключенное устройство — это всегда «нет-нет».

Обучение в реальной жизни. Это может показаться утопией, но я хотел бы закончить статью на позитивной ноте.

Когда проблема заключается в том, что некоторые из самых уродливых аспектов общества используют онлайн-мир в качестве платформы, попытка обратиться к этим ужасным реалиям и противостоять им также является решением. Да, это кажется невозможным, но за последние 100 лет западные общества прошли через процесс деколонизации, женщины получили доступ к рабочему месту и право голоса в большинстве стран западного мира и изгнали самые уродливые элементы сегрегации.

Мы сталкиваемся с серьезными проблемами, но удвоение усилий, направленных на то, чтобы сделать мир лучше, также сделает лучше Интернет, поскольку он является отражением наших собственных неудач как общества и культуры. В данный момент все может выглядеть не очень хорошо, но помните: «дуга моральной вселенной длинна, но она склоняется к справедливости».

В данный момент все может выглядеть не очень хорошо, но помните: «дуга моральной вселенной длинна, но она склоняется к справедливости».

Первоначально опубликовано в We Are Visionists.