Пару лет назад я наткнулся на отличное выступление на TED главного специалиста по обработке и анализу данных Meta (ранее Facebook) Яна ЛеКуна о Глубоком обучении, нейронных сетях и будущем ИИ. Янн подробно говорит о страхе перед тем, что ИИ уничтожит человечество, и если это проистекает из человеческой склонности оценивать каждую ситуацию через призму человеческих эмоций, т. е. применяем ли мы человеческие эмоции гнева, ревности, соперничества, радости? успех и страх неудачи и т. д. для ИИ, поскольку наша сфера сознания ограничена нашими эмоциями?

Недавно я читал замечательную книгу Энни Мерфи Пол Расширенный разум: сила мышления вне мозга. Основное внимание в этой книге уделяется тому, как обучение или мышление не ограничивается центральным органом нашего тела, мозгом и смесью нейронов и синапсов. Энни выделяет некоторые критические факторы, влияющие на процесс человеческого мышления за пределами мозга (отсюда и расширенный разум):

  1. Мышление с помощью наших жестов, движений и чувств
  2. Думая о естественных и застроенных пространствах
  3. Мысли с экспертами и коллегами

Читая эту книгу, я вспомнил выступление Янна на TED и, в частности, мысль о применении человеческого «умвельта» сознания (мира, переживаемого конкретным организмом) к машинам — насколько уместно и осуществимо это.

С большой властью приходит большая ответственность

Эта древняя поговорка очень актуальна, когда речь идет о том, насколько разрушительным может быть ИИ, если его не использовать конструктивно. Давайте возьмем пример Deepfake, видео и изображений, созданных искусственным интеллектом. Это может привести к хаосу, если хакеры поместят какое-либо чувствительное, религиозное или конфиденциальное сообщение на (поддельное) видео с политиком или влиятельной персоной. Дипфейк считается самой большой угрозой для демократии». Исследование, проведенное в прошлом году, показало увеличение количества дипфейков на 47% по сравнению с предыдущим годом. Проблема обнаружения дипфейков, проведенная Meta (Facebook) в 2020 году, пришла к выводу, что лучшая доступная модель машинного обучения может обнаруживать дипфейки с точностью всего 65%. Распространение дипфейков в ближайшие годы еще больше усугубит эту ситуацию. Однако эта проблема создана не ИИ, а с помощью человека. Люди (хакеры) безответственно используют эту технологию в своих интересах. Модель генерирует дипфейки, потому что люди предоставляют ей неэтичные данные.

Еще один страх, связанный с ИИ, — это потеря рабочих мест из-за автоматизации. Согласно исследованию McKinsey, автоматизация вытеснит около 15 процентов мировой рабочей силы, или около 400 миллионов работников в период 2016–2030 годов. Тем не менее, исследование также предсказывает, что новые рабочие места будут созданы из-за роста доходов, увеличения расходов на здравоохранение и инвестиций в инфраструктуру, энергетику, технологии и т. д. Следовательно, уволенной рабочей силе необходимо будет инвестировать в переквалификацию, чтобы компенсировать спрос и развиваться на новом рабочем месте. Описание работы будет меняться быстрее, поскольку частичная автоматизация станет обычным явлением в трудоемких отраслях.

Будет ли ИИ разрушительным сам по себе?

Некоторые опасения по поводу ИИ что, если актуальны. Стюарт Рассел, ведущий ученый-компьютерщик, задает уместный вопрос в своей книге Совместимость с человеком: ИИ и проблема управления

«Можно задать вопрос ведущим фигурам в области ИИ: «А что, если вы добьетесь успеха?» Целью этой области всегда было создание искусственного интеллекта человеческого или сверхчеловеческого уровня, но мало или совсем не задумывались о том, что произойдет, если мы это сделаем».

Но вопросы, которые я хочу обсудить в следующей статье, более фундаментальны, чем те, что были указаны выше. Я публикую несколько фактов о процессе человеческого мышления, обучения и познания, а затем сравниваю их с тем, как учится ИИ. Чтобы ИИ стал разрушительным сам по себе и захватил людей, ему сначала необходимо достичь основных принципов человеческого интеллекта: сенсорное восприятие, эмоциональный интеллект, креативность, социальная активность и т. д. В серии из двух частей я рассмотрю следующие 4 области. и как это контрастирует с ИИ.

  • Как эмоциональный интеллект и эволюционное преимущество имеют решающее значение для человеческого познания
  • Как модель обучения мозга основана на воплощенном познании, а не только на данных
  • Почему возможности мозга как универсальной вычислительной машины не имеют себе равных
  • Какие ограничения накладывает умвельт каждого организма и как его экстраполировать на ИИ

1. Эмоциональный интеллект и эволюционное преимущество имеют решающее значение для человеческого познания.

Один из самых знаменитых интеллектуалов и историков нашего времени Юваль Ной Харари цитирует в своей основополагающей книге Sapiens:

«Вы никогда не сможете убедить обезьяну дать вам банан, пообещав ей неограниченное количество бананов после смерти в обезьяньем раю».

Но мы, homo sapiens, связаны такими общими мифами или верованиями, эмоциями и общей идентичностью. Наша способность объединяться в сообщество и разделять общие представления о культуре, религии, боге, дьяволе, рае и аде, дружбе, врагах, семьях и т. д. отличает нас от других животных. Наши чувства безопасности, дружбы, соперничества, ревности, контроля и т. д. уходят своими корнями в саванну, где наши предки пытались сблизиться и выжить как сообщество. Наши эмоции являются неотъемлемой частью того, кто мы есть, и играют важную роль в принятии решений на подсознательном уровне. Они отражают значение информации для нас. Например. Запах свежеиспеченных кексов вызывает другую эмоциональную реакцию, в отличие от неприятного запаха рвоты.

Алгоритмы ИИ обучаются на основе данных, которые мы предоставляем. В случае обучения с учителем мы учим машину распознавать закономерности. В случае неконтролируемого, машина начинает идентифицировать шаблон самостоятельно. Случай обучения с подкреплением немного отличается, когда алгоритм обучается на основе обратной связи. В любом случае, сфера принятия решений основывается исключительно на данных, и здесь нет чувства эмоций (однако в алгоритм вносится предвзятость из-за предвзятости лежащих в основе данных). Как ИИ, лишенный эмоций, мог бы развивать чувства и принимать решительные решения, не имея представления о том, «что он чувствовал, когда делал это в последний раз»?

2. Модель обучения мозга основана на воплощенном познании.

Известный нейробиолог и технолог Дэвид Иглман цитирует в своей книге Мозг — история о тебе:

«Ты становишься тем, кто ты есть, не из-за того, что растет в твоем мозгу, а из-за того, что удаляется!»

Да, Вы прочли это правильно! Количество клеток головного мозга одинаково у взрослых и детей. К 2 годам у ребенка более 100 триллионов синапсов (связей между нейронами), что в два раза больше, чем у ребенка. синапсов у взрослых. По мере роста 50% из них будут обрезаны или сокращены. Когда синапсы не используются, они ослабевают, и связи теряются, как неиспользуемые тропинки в лесу. Ребенок развивается и учится на основе сигналов, мимики и обратной связи со своим окружением, семьей и сообществом. Пути, которые она изучает, остаются, а неиспользуемые обрезаются.

Теперь сравните это с тем, как ИИ учится. Принцип обучения путем сокращения просто не имеет смысла в случае нейронных сетей. С каждой эпохой связи в искусственной нейронной сети усиливаются; с добавлением большего значения в процесс обучения, например. в случае распознавания лиц контуры лица начинают становиться более четкими — от круглой формы лица до выделения носа и щек.

Во-вторых, как подчеркивает Энн Мерфи Пол в своей книге Расширенный разум, человеческое обучение не ограничивается только мозгом, но представляет собой опыт воплощенного познания. Т.е. как наше мышление расширяется нашими телами (жесты, движения), пространством вокруг нас (естественным и искусственным), а также нашим взаимодействием с другими (сообществом, семьей, сверстниками, друзьями, учителями, экспертами и т. д.) Как ИИ когда-либо получит преимущество этого воплощенного познания, если оно зависит исключительно от данных.

Можем ли мы создать фермы ботов ИИ, где они смогут учиться друг у друга? Может быть, мы можем. Дисциплина многозадачного обучения в глубоких нейронных сетях берет мотивацию из того, как дети учатся, и включает ее в серию параллельных задач с помощью моделей и обмена параметрами между ними. Еще одна дисциплина генеративного состязательного обучения — это когда пара моделей генератора и дискриминатора обучает друг друга.

Однако остается фундаментальный вопрос: как ИИ превзойдет преимущество, дарованное нам эволюцией?

3. Мозг — это вычислительная машина общего назначения.

В своей недавней книге Livewired Дэвид Иглмен представляет очень интересную концепцию мозга как универсальной вычислительной машины. Он обсуждает, что области мозга заботятся только о решении проблем, независимо от сенсорного канала, по которому поступает информация. Попадание фотона на сетчатку, волны сжатия воздуха в ушах, ощущение давления на кожу — все это преобразуется в единую валюту электрического сигнала на уровне нейронов. Пока эти входящие сигналы представляют что-то о внешнем мире, мозг научится их интерпретировать. Например. Он выясняет, как извлекать форму объекта из входящих сигналов независимо от пути, по которому он движется, будь то глаза или кожа.

Человеческий мозг — это живое оборудование (термин, придуманный Иглманом), а не программное обеспечение. Он учится, интерпретирует, определяет шаблоны, создает корреляции на основе любого типа входных данных, которые он получает по любому каналу. Компания Иглмана Neosensory развивает эту идею и создает такие устройства, как носимые жилеты или браслеты, которые помогают глухим людям слышать звуки с помощью концепции сенсорного замещения. т.е. преобразовать звуковые волны в серию вибраций на коже с помощью жилета или бандажа. Мозг полностью глухого человека начинает учиться интерпретировать эти сигналы и понимать их значение! Обратитесь к этому потрясающему выступлению Дэвида Иглмана на TED, чтобы понять, насколько гениальна эта концепция!

Возвращаясь к теме ИИ, мы все еще очень далеки от AGI, искусственного общего интеллекта. По словам Родни Брукса, робототехника из Массачусетского технологического института и соучредителя iRobot, AGI не появится до 2300 года! Тем не менее, предпринимаются крошечные шаги в направлении того, чтобы сделать машинное обучение более похожим на человека. Обучение с нулевым выстрелом — это один из таких методов, который позволяет модели распознавать то, чего она раньше не видела. Когда недостаточно данных для каждой возможной классификации, нулевые или однократные (или малократные) методы обучения пытаются классифицировать объекты на основе сходства объектов, предшествующих знаний или изучения ограничений и структуры набора данных.

Тем не менее, фундаментальный вопрос все еще остается — даже если ИИ разовьет способность обрабатывать данные любого типа и учиться на них, ему все равно будет не хватать эмоциональной обратной связи от сенсорного восприятия, способности «чувствовать» от корреляции чувств и самое главное, всплеск дофамина после успешного освоения навыка!

4. Умвельт каждого организма имеет свои ограничения

Теперь давайте поговорим о более фундаментальной и сложной проблеме сознания. Один из самых увлекательных и наводящих на размышления подкастов на эту тему, который я когда-либо встречал, — On Consciousness with Annaka Harris by Rob Reid (After ON podcast). И Роб, и Аннака углубляются в тему того, что значит иметь сознание? Каким образом определенные комбинации материи в мозгу обладают сознанием?

Они обсуждают некоторые интересные теории. Например. у растений нет мозга или нервной системы, но они реагируют на звук и свет. Так они в сознании? Роб ссылается на интересное исследование, проведенное Сюзанной Симар, в котором объясняется, как растения общаются друг с другом посредством обмена минералами, отправки сигналов о ядовитых веществах и т. д. Аннака ссылается на заявления некоторых ученых о том, что даже транзисторы обладают сознанием, но это совсем другое. от человеческого сознания их умвельт ограничен только включением и выключением.

Поэтому, если мы применим ту же теорию к ИИ, у него также может быть умвельт или область сознания, которая отличается от человеческого сознания. Сможем ли мы когда-нибудь понять его или научить его чувствовать или воспринимать, как люди? Попробуйте представить себе другой цвет за пределами спектра RGB, и вы поймете этот аргумент. Или попробуйте объяснить фиолетовый цвет дальтонику с дефицитом красно-зеленого цвета. Вы должны испытать цвет, чтобы понять, что это такое. Каким бы развитым ни был наш мозг, наше восприятие все равно ограничено нашим умвельтом. То же самое может относиться и к будущему ОИИ — его способности к восприятию могут быть ограничены его сознанием области, которое построено вокруг потоков данных и искусственной обратной связи от окружения за вычетом эмоционального интеллекта.

Приводя все вышеперечисленные аргументы, я не хочу принижать значение каких-либо исследований в области искусственных нейронных сетей или прогресса в направлении ОИИ. Меня всегда очень интересовала эта область, и я некоторое время работал в ней. Фактически, мой путь к пониманию того, как работает человеческий мозг, проистекает из стремления понять основы искусственных нейронных сетей еще в 2018 году. В процессе я углубился в области нейронов и синапсов, интеллекта, сенсорного замещения, робототехники и т. д. ... и наткнулся на замечательные работы ведущих интеллектуалов и ученых, таких как доктор Дэвид Иглман, Рэй Керзвелл, Роб Рид, Эндрю Хуберман, Стюарт Рассел и так далее.

Пожалуйста, прокомментируйте, если у вас есть аналогичные или контраргументы, или есть ресурсы, которые могут пролить больше света на эту тему, или даже просто покритиковать эту статью; все комментарии приветствуются!

*Благодарность. Искренняя благодарность Bhushan Garware, эксперту по искусственному интеллекту, за рецензирование этой статьи и предоставление ценных отзывов и рекомендаций для включения!