Не остались ли мы позади, учитывая стремительный рост потрясений и неопределенности вокруг ИИ? Этот блог — противоядие от непрекращающихся новостей и хандры об ИИ, в которых говорится о ценных человеческих факторах, которых ИИ не может коснуться. Мы рассмотрим, где у ИИ нет шансов, поговорим о том, почему интеллект переоценивают, и покажем, что наши сверхспособности не просто помогают нам выживать, но и помогают нам процветать.

Ошибаться было свойственно человеку

Искусственный интеллект — самая глубокая технология, над которой сегодня работает человечество, — Сундар Пичаи, генеральный директор Google & Alphabet.

ИИ — это великолепно расплывчатый тег, связанный с такими терминами, как машинное обучение, нейронные сети и глубокое обучение. Что бы вы ни понимали, нельзя отрицать, что прорыв происходит в каждой отрасли, от искусства до науки, политики и образования.

Искусственный общий интеллект, или ОИИ, — это термин, данный ИИ, который может рассуждать, формировать моральный комплекс и, в конечном итоге, развивать самоощущение вне нашего контроля. Это святой Грааль для некоторых, а на самом деле многих, кто работает в этой области. Для других это означает конец творчества, оригинального мышления и демократического процесса. Так какое же место занимают люди в этом, казалось бы, неизбежном переходе?

Поверь мне, я человек

Подумайте об этих сценариях и задайте себе следующие вопросы:

· Пожилой член семьи, страдающий сопутствующими заболеваниями, попадает в дом престарелых. Вы бы доверили роботу-врачу выписывать лекарства и план лечения для их немедленного и долгосрочного ухода?

· Поисково-спасательные работы начинаются в зоне землетрясения после толчка, который привел к обрушению зданий, в том числе жилых домов, офисов и школ, а также нарушению работы транспорта и инженерных коммуникаций. Могут ли модели ИИ принимать решения в режиме реального времени, которые могут иметь решающее значение для жизни и смерти? Кто должен нести ответственность за результаты таких моделей?

· Терапевтическая среда, в которой комитеты по этике в прошлом использовались для предоставления рекомендаций относительно принятия медицинских решений, таких как положение курильщиков в списках ожидания на трансплантацию или доступ пациентов с клиническим ожирением к услугам по лечению бесплодия. Считаете ли вы, что системы ИИ могут понимать и давать рекомендации в отношении клинических результатов И этических соображений? Где лежит ответственность, когда «компьютер говорит нет»?

Доверие, ответственность, эмоциональный интеллект. Чем меньше чего-то есть, тем больше оно ценится. Этим столпам человеческой природы невозможно научить растущее число больших языковых моделей (LLM), возникающих вокруг нас. Эти качества или «сверхспособности» отличают нас и наши взаимодействия от результатов генеративного ИИ.

Вышеуказанные сценарии включают принятие решений или неструктурированные среды. Люди подходят к этим ситуациям, опираясь на годы, а иногда и десятилетия опыта. Мы учитываем контекст, профессиональную практику, обязанность заботиться и, возможно, самое главное, взаимодействие и сотрудничество с другими людьми.

Врач считает качество жизни пациентов, что-то личное и трудно поддающееся количественной оценке, в результате любых медицинских вмешательств. Аварийно-спасательные службы должны уравновесить моральную дилемму риска спасения, когда это представляет угрозу для жизни спасателя. Терапевты используют свои навыки, чтобы понять и объяснить эмоции пациента по поводу опыта и составить план лечения, разработанный с учетом конкретных потребностей и возможностей пациента в центре. Может ли машина действительно делать все это и пользоваться нашим доверием и доверием учреждений, от имени которых она действует?

Интеллект переоценен

Официально, LLM умнее нас.

Ну и что? Мы частично обмануты нашим собственным восприятием ИИ и нашим беспокойством о будущих неизвестных неизвестных.

Если вы смотрели Игру в имитацию, вы знаете, что идея о том, могут ли цифровые системы «думать» как люди, существует уже более 70 лет. С появлением должным образом обученных LLM, таких как OpenAI GPT-4, средства массовой информации, политики и общественные комментаторы проявили исключительный интерес к возможным возможностям и рискам, которые представляют эти инструменты. И это несмотря на то, что первая версия GPT (Generative Pre-trained Transformer) была выпущена почти 5 лет назад, в июне 2018 года.

Это просто не имеет смысла

Этому хорошо задокументированному ИИ часто не хватает элементарного здравого смысла и понимания.

Если вы запросите GPT-4 с помощью «У меня есть 12-литровый кувшин и 6-литровый кувшин. Хочу отмерить 6 литров. Как мне это сделать?», вы получаете многоэтапный набор инструкций, включающий оба кувшина и много налива между ними. Йеджин Чой, стипендиат программы MacArthur в Вашингтонском университете, считает обучение LLM в здравом смысле «практически невыполнимой задачей». Здравый смысл подобен темной материи интеллекта; 5% языка — это видимый текст, а 95% языка — это невысказанное понимание того, как устроен мир.

Ник Бостром, философ из Оксфордского университета, предположил, что ИИ, которому поручено максимизировать количество скрепок, будет рассматривать людей как угрозу (учитывая, что мы используем скрепки) и работать над тем, чтобы уничтожить нас для достижения своей цели. Понятно, что делать это просто нет смысла.

Мозги, а не мускулы

Забавный факт: мозг работает на мощности 30 Вт. GPT-3 требовал 355 лет однопроцессорного вычислительного времени и потреблял 284 000 кВтч, что в 10 раз больше, чем GPT-2. Какой-то дисбаланс, да?

Существующие системы искусственного интеллекта требуют колоссального количества энергии для обучения и еще более непостижимых объемов данных, которыми можно полакомиться во время обучения. Но, как говорится, ты то, что ты ешь.

Люди всю жизнь наслаждаются уникальными размышлениями, самоанализом и взаимодействием с реальным миром, пока мы проверяем наши теории, бросаем вызов своим мировоззрениям и развиваем собственное ощущение себя в рамках наших социальных систем. Текущие модели ИИ поглощают огромное количество предвзятых, неточных и неполных наборов данных, пронизанных нашими собственными несовершенствами и предрассудками. Затем они должным образом выбрасывают дико фальшивые новости, тревожно дискриминационные прогнозы и информацию, которая временами просто неверна.

Наша способность критически оценивать информацию, а не принимать ее за истину и ставить под сомнение источник, откуда она поступает, поистине сверхмощна.

Итак, поскольку «ИИ» и «вымирание человечества» все чаще используются в одном предложении, стоит помнить следующее:

«Каждый новый шаг к ИИ вместо того, чтобы производить что-то, что, по общему мнению, является настоящим интеллектом, просто показывает, чем настоящий интеллект не является», — Дуглас Хофштадтер.

Мы надеемся, что эти идеи натолкнут вас на размышления о вашем бизнесе. Если у вас есть какие-либо вопросы или вам требуется помощь в понимании или интеграции технологий искусственного интеллекта в вашу организацию, не стесняйтесь обращаться к нашей команде в лондонском AIE: [email protected]