Отправка: Семинар по искусственному интеллекту Белого дома и Нью-Йоркского университета #AINow

На прошлой неделе в Нью-Йоркском университете состоялся заключительный семинар из серии, спонсируемой Белым домом о преобразующем потенциале искусственного интеллекта. Вместо того чтобы сосредотачиваться на технических битах и ​​байтах, расписание, организованное Нью-Йоркским университетом, было сосредоточено на краткосрочных социальных и экономических последствиях автоматизации, массового сбора данных и новой аналитики. Это приводит непосредственно к крайнему сроку подачи Белым домом 22 июля его Запроса информации о Подготовке к будущему искусственного интеллекта.

Хотя мы часто фантазируем о последствиях грядущего апокалипсиса роботов, сегодня это просто не проблема. Сегодня нам необходимо сосредоточиться на краткосрочном воздействии более интеллектуальных систем автоматизации на трудовые и социальные структуры. Это именно то, что отлично справились с ведущими семинара Кейт Кроуфорд (Microsoft Research и NYU) и Мередит Уитакер (Google Open Research).

Вот мои основные моменты и выводы:

Они забрали наши рабочие места! / У нас недостаточно ИИ

Джейсон Фурман, председатель Совета экономических консультантов Белого дома, изложил общий тезис мероприятия. ИИ способствует обнаружению мошенничества, поиску в Интернете, обработке медицинских изображений, роботам и процедурам уголовного правосудия; однако история показывает нам, что инновации вызывают усиление неравенства. Например, согласно исследованию Совета, 83 процента рабочих мест, зарабатывающих менее 20 долларов в час, окажутся под давлением автоматизации, по сравнению с 31 процентом рабочих мест, зарабатывающих от 20 до 40 долларов в час, и 4 процентами рабочих мест, зарабатывающих более 40 долларов в час. .

Традиционный аргумент о том, что нам не нужно беспокоиться о том, что роботы заберут нашу работу, по-прежнему оставляет нас с беспокойством о том, что единственная причина, по которой у нас все еще будет наша работа, заключается в том, что мы готовы выполнять ее за более низкую заработную плату. — Джейсон Фурман, председатель Совета экономических консультантов Белого дома

Беспокоит не то, что люди вдруг станут безработными; вместо этого сам процесс текучести кадров, при котором работники вытесняются в поисках новой работы, может привести к тому, что большая часть населения не будет работать в течение десятилетий. В какой-то момент наступит равновесие — но насколько болезненным будет этот процесс?

Фурман предлагает бежать вперед, чтобы управлять изменениями, а не уклоняться от них. Было много дискуссий об Универсальном базовом доходе (УБД) как о средстве смягчения надвигающихся беспорядков. UBI в мире ИИ, говорит Фурман, — это политика, ошибочно основанная на том, что рабочие остаются безработными как есть. Вместо этого основное внимание следует уделять развитию навыков, обучению и помощи в поиске работы, чтобы люди могли найти работу, которая решает проблемы, возникающие в связи с искусственным интеллектом/автоматизацией. Другими словами, БОД только замаскировал бы основную проблему, надеясь на лучшее и создавая социальные препятствия.

Если оставить в стороне последствия автоматизации труда, Фурман больше всего беспокоится об ИИ, что "у нас не будет достаточно ИИ" и что мы потеряем важные достижения/приложения. Чтобы исправить это, он выступает за дополнительное внимание к фундаментальным исследованиям (увеличение государственного финансирования исследований «семенной кукурузы»), развитию рабочей силы (переподготовке, финансированию университетских исследований и иммиграции), сильная>конкуренция (стартапы стимулируют инновации, но монополии данных могут ограничивать доступ), конфиденциальность (прозрачность для потребителей и потенциальное ограничение определенных видов коммерческого использования) и кибербезопасность (кража и утечка данных).

Нью-Йорк прекрасен / Предвзятость машин реальна

Я вырос в Нью-Йорке; тут конечно классно. Заместитель мэра Алисия Глен подала удивительный соус в пиках, чтобы подчеркнуть, что не только 1/3 стартапов в Бруклине управляется женщинами, Нью-Йорк также является местом, где технологии сталкиваются со многими другими секторами — финансами, маркетингом, инфраструктурой — создание уникальной горячей зоны для развития потенциала ИИ.

В лучшем случае искусственный интеллект может быть инструментом справедливости. Но он также может отражать или усиливать предубеждения разработчиков и пользователей. — Заместитель мэра Алисия Глен, отдел жилищного строительства и экономического развития, город Нью-Йорк

Машинное обучение и автоматизация формируют рынки и учреждения города. Они перетекают в инструменты скрининга для трудоустройства, потребительских возможностей, системы уголовного правосудия и того, как городские власти количественно оценивают, вовлекают и обслуживают свое население. В частности, заместитель мэра подчеркнул фактический и потенциальный риск разрозненного воздействия ИИ, существующего в таком разнообразном городе, как Нью-Йорк, и поставил под сомнение то, как ИИ может использоваться регулирующими органами в качестве «корректора» человеческой предвзятости.

Неравенство, вызванное технологиями, всегда связано с одним и тем же: расой, полом, местом проживания, иммиграцией, семейным положением, религией. Список удручающе стабилен. — Женевьева Белл, старший научный сотрудник, вице-президент по корпоративной стратегии, Intel Corp.

У регулирующих органов есть большой потенциал для использования новых типов алгоритмов для выявления, расследования и судебного преследования коммерческого и государственного поведения, которое носит дискриминационный характер. На этом фронте предстоит пройти долгий путь.

Человеческие предубеждения существуют, и необходима разнообразная рабочая сила квалифицированных разработчиков ИИ, чтобы противодействовать бессознательным предубеждениям и слепым пятнам в программировании и тестировании (см. мой пост Ответственность за корпоративные данные). Джулия Ангвин из Pro Publica довела эту мысль до сведения в своем 5-минутном Lightning Talk, дав обзор своего эмпирического анализа программного обеспечения, используемого для определения вероятности рецидива в судебных разбирательствах. После невероятного изучения судебных протоколов и огромного количества снимков экрана ее команда пришла к выводу, что алгоритм был дискриминационным в расовом отношении и удивительно ненадежным в прогнозировании насильственных преступлений.

День, когда мой компьютер был расистским / Это не так

Латанья Суини, профессор Гарвардского университета, директор dataprivacylab.org и бывший главный технолог Федеральной торговой комиссии, с 90-х годов занимается рисками повторной идентификации и деанонимизации наборов данных. Еще в 2000 году она опубликовала влиятельный документ, демонстрирующий, как деидентифицированные медицинские данные пациента могут быть повторно идентифицированы с использованием данных регистрации избирателей через общие поля (индекс, дата рождения, пол).

Суини также поделился ярким анекдотом и исследованием о поиске в Google. Сидя с коллегой в поисках ссылки на одну из своих газет, она искала свое собственное имя и обнаружила, что — хотя у нее нет криминального прошлого — ей показывали объявления об арестах, связанных с ее именем. Ее расследование пришло к выводу, что больший процент объявлений со словом арест в тексте объявления появлялся для имен, идентифицирующих чернокожих, чем для имен, идентифицирующих белых, при поиске на Reuters.com и Google.com. Представьте, что ваш будущий работодатель ищет ваше имя только для того, чтобы быть засыпанным объявлениями о судимости (даже несмотря на то, что никто с вашим именем никогда не был арестован).

(Слишком упрощенный) фоновый процесс для этих объявлений заключается в том, что рекламодатель (в данном случае Instant Checkmate) отправляет шаблон (ключевые слова, объявления, ставки), а «алгоритм Google» делает свое волшебство (т. е. секретный соус, основанный на система взвешивания и ставок для максимизации ценности кликов). Неясно, где произошло создание предвзятости, но ясно, что показ рекламы был дискриминационным. Это может быть шаблон, предоставленный рекламодателем, система взвешивания, на которую повлияло взаимодействие общества с алгоритмом Google, или что-то в самом алгоритме Google. Суини также поделилась, что предложила систему, чтобы попытаться избавиться от предвзятости, которую она обнаружила в Google AdWords/AdSense, но она не была принята.

Я хочу свою мыслящую машину. Я хочу получить каждую каплю пользы, которую мы сможем выжать, но с контролем и защитой. — Летания Суини

Правда: технологии развиваются быстро, а политика медленно. Чтобы компенсировать это несоответствие, Суини предлагает «Оценку риска предвзятости» и инвестиции в технологии, способные выявлять предвзятость. Она не объясняет, как будет функционировать или внедряться оценка риска предвзятости; тем не менее, легко представить, что это тесно связывает человеческий монитор с машиной. К счастью, Суини решил проблему и заверил аудиторию, что «компьютеры не зло, но они должны гармонировать с обществом».

Справедливость по дизайну

Чтобы обеспечить справедливость ИИ, нужно обеспечить справедливость по замыслу — Эд Фелтен, заместитель директора по технологиям США, Белый дом

«Справедливость по замыслу» — отличная фраза. Без тщательного проектирования, применения и надзора ИИ — да и любой аналитический инструмент — можно использовать для нанесения вреда уязвимым группам населения и усиления существующего неравенства. Как упомянул Фельтен в своем выступлении, справедливость должна быть целью дизайна с самого начала, и ее нельзя просто прикрутить. Как и в случае с безопасностью, это либо часть первоначального дизайна, либо она будет неэффективной.

Чтобы ИИ был успешным, нужно не просто разговаривать друг с другом инженерами и учеными-компьютерщиками, это на самом деле разговор, который включает в себя политику, регулирование, дизайн, право, искусство, психологию, социологию, экономику и философию. — Женевьев Белл

Однако справедливость — очень расплывчатое слово. Он представляет идеи прозрачности, социальной внимательности, разнообразия и понимания воздействия (преднамеренного или нет). Она сложная, междисциплинарная и развивающаяся. Лучше согласовывать стимулы с основами Корпоративной ответственности за данные, которые включают справедливость и равноправие.

Хайп вокруг ИИ

Я совершенно поражен тем, насколько велик интерес к ИИ в наши дни. — Янн ЛеКанн, директор по исследованиям искусственного интеллекта в Facebook

Янн ЛеКанн, директор по исследованиям искусственного интеллекта в Facebook, поделился некоторыми отрезвляющими мыслями: ИИ получает беспрецедентные заголовки, однако пик исследований и шумихи в области искусственного интеллекта уже прошел в прошлом и угас. Разница на этот раз заключается в явном экономическом эффекте и в том, что целые компании построены на технологии и идее. Его беспокоит (сильно перефразируя) то, что общественные ожидания в отношении перспектив ИИ слишком высоки и что технология может стать козлом отпущения за некоторые негативные социальные последствия, связанные с ее внедрением.

Его опасения оправданы. Несмотря на достижения в области автономных автомобилей, аналитики больших данных, идентификации изображений и обработки естественного языка, до реального или общего искусственного интеллекта еще далеко. Машин со здравым смыслом и близко нет. Мы должны быть осторожны, чтобы понять, что технологии ближайшего будущего будут реализовывать методы обучения с учителем, которые зависят от данных и аннотаций, поступающих к ним. Если в автоматизированном процессе возникает дискриминационный результат, виновата не машина, а мы.

Чтобы обсудить машинное обучение, здравый смысл и машинную этику, ознакомьтесь с моим недавним постом Tesla: Rise of Machine Ethics (à la carte).

Да, у вас могут быть потрясающие технические панели, заполненные женщинами и меньшинствами

Тот факт, что 3 из 4 человек на этой сцене — женщины, говорящие об ИИ, — это необычно… и грустно, что вы все аплодируете. — Женевьев Белл

По моим подсчетам, среди примерно 30 участников панели было не менее 16 женщин-участников/модераторов и 10 представителей меньшинств. Примечательно, что все эти люди являются суперзвездами в своих областях. Следовательно: неверно говорить, что не хватает разнообразных рок-звезд, чтобы заполнить список технических событий. Вам просто нужно проектировать на результат.

#BlackLivesMatter / Общество нашего будущего

Семинар проходил на следующий день после убийства полицией Филандо Кастилья и Элтона Стерлинга. Когда аудитория семинара вышла в парк Вашингтон-сквер в Гринвич-Виллидж, нас встретила приближающаяся масса молодых, очень разных и мирных протестующих #BlackLivesMatter, марширующих по площади. Подходящее, своевременное и зловещее напоминание о том, что человеческие предубеждения имеют ужасные и смертельные последствия для населения, семьи и жизни отдельных людей. Для нашего будущего общества искусственного интеллекта это означает борьбу за понимание справедливости по замыслу и создание структур, которые признают влияние человеческих недостатков.

  • Смотрите The Lightning Talks здесь
  • Посмотреть Публичный мастер-класс здесь