Подготовили: Том Хенгл (OpenGeoHub), Давиде Консоли (OpenGeoHub), Марина Багич (FER), Лука Брокка (CNR) и Мартин Херольд (GFZ)

Технология искусственного интеллекта (ИИ), с запуском ChatGPT (самого быстрорастущего приложения за всю историю) и подобных OpenAI, сейчас стала ажиотажем: новый технологический скачок человечества, но потенциально это ящик Пандоры для манипулирования информацией и ее неправильного использования. Вскоре ИИ может заменить тысячи рабочих мест и произвести революцию в том, как мы путешествуем (беспилотные автомобили), покупаем товары, выполняем административную/офисную работу, общаемся с компьютерами (и людьми), а также в том, как правительства ведут войны и контролируют людей. ИИ вызывает у многих людей энтузиазм, но еще больше нервирует. Мы рассматриваем потенциалы и опасности технологий искусственного интеллекта; как это также может помочь нам в чрезвычайно важных вещах, таких как решение климатического кризиса и лучший мониторинг и сохранение природных ресурсов. Ссылки и ссылки обширны и, надеюсь, побудят вас прочитать больше по этой теме.

ИИ против машинного обучения

Перестаньте называть все искусственным интеллектом. (Майкл И. Джордан)

Интеллект – это способность системы учиться, принимать и принимать решения, которые помогают решать проблемы и находить оптимальные решения, особенно на "неизведанных территориях": чем сложнее и нестандартнее проблемы, тем выше интеллект. Для биологических существ интеллект, в принципе, является навыком выживания и частью более сложной системы, которая также включает чувства, память, инстинкты, эмоции, сознание и т. д. Искусственный интеллект (ИИ) – это синтетический интеллект (искусственный интеллект). интеллект компьютеров»), который был разработан и реализован людьми.

Большинство ИИ в современном мире по сути представляют собой программные решения (компьютерные программы), которые сочетаются с платформами высокопроизводительных вычислений и большими обучающими данными/большими пулами данных. Искусственный интеллект в принципе невозможен без машинного обучения (ML) и программирования высокого уровня. Итак, система ИИ состоит из: (1) программного обеспечения/функций/правил, (2) аппаратного обеспечения, то есть компьютеров, датчиков и сенсорных сетей, (3) данных обучения, то есть знаний, (4) команды, поддерживающей и модерирующей систему.

Термин ИИ, возможно, был несколько преувеличен, поскольку теперь каждый, кто использует базовое машинное обучение, может поверить, что они также разрабатывают технологию искусственного интеллекта. Правильнее было бы сказать, что ИИ — это (единственная) технология, обладающая возможностями автоматизированной системы принятия решений, т. е. способная решать задачи человеческого уровня без вмешательства человека. Примерами оперативного ИИ являются: беспилотные автомобили, оперативные чат-боты (ChatGPT, Siri, Alexa и т. д.), мастера по шахматам, цифровой доктор Google, автоматическое открывание дверей на основе распознавания лиц и т. д. типичные примеры ИИ. К типичным (по сложности) этапам ИИ относятся:

  1. Системы ИИ, основанные на правилах: искусственный интеллект низшего уровня подразумевает, что решения принимаются на основе заранее запрограммированных правил, а это означает, что все решения в основном детерминированы, и система не способна ориентироваться и принимать решения вне правил ( примеры: робот-пылесос);
  2. Системы искусственного интеллекта с учетом и сохранением контекста: способны адаптироваться к конкретным ситуациям и учиться на опыте, например. взаимодействие с пользователем, чтобы он мог даже принимать персонализированные решения (примеры: Siri, Google Assistant, Alexa и т. д.);
  3. Специализированные системы ИИ: текущее стандартное состояние ИИ; это означает, что в основном система использует все доступные данные для обучения алгоритма, и решения иногда непредсказуемы, но система обычно работает лучше, чем обычный человек, но только в узкой области работы (примеры: AlphaGo, ChatGPT);
  4. Системы искусственного интеллекта для мышления и рассуждения: эти системы будут имитировать функционирование и рассуждение человеческого мозга, будут зависеть от сложных сенсорных систем и сложных систем памяти и должны обладать способностью приспосабливаться и адаптироваться к сложным проблемам, даже внешнему. проблемы с коробкой (примеры: беспилотный автомобиль Tesla, ChatGPT ›3, но в принципе все еще находится на экспериментальной стадии);
  5. Общий искусственный интеллект: в отличие от систем ИИ узкого или специализированного мастерства, AGI будет способен решать любые проблемы и адаптироваться к новым условиям и, скорее всего, потребует самосознания (примеров пока нет);
  6. Искусственный сверхинтеллект: этот интеллект не только превзойдет человеческий интеллект, но, скорее всего, ни один живой человек не сможет полностью следовать его рассуждениям и решениям, то есть он начнет превосходить нашу собственную способность понимания (примеров пока нет). существовать);

Итак, подведем итог: ИИ основан на мощном машинном обучении, но обычно он на порядок сложнее и требует гораздо более сложного программирования, чем машинное обучение. Мы можем попытаться определить третий этап ИИ в 2023 году, используя следующие три ключевых аспекта:

  • Он работоспособен, т. е. не требует вмешательства человека и обычно превосходит людей: ИИ — это система, которая может заменить человеческий труд в эксплуатационных условиях, т. е. беспилотный автомобиль, который будет иметь (в среднем) более низкую шанс неудачи или несчастного случая, чем у среднего человека. АльфаГо играет с людьми в компьютерные игры от начала и до конца без вмешательства разработчиков AlphaGo.
  • Он является полным и актуальным, т. е. основан на использовании всех доступных данных и, следовательно, представляет собой новейшую сводку человеческих знаний по теме: например, Deep Blue, AlphaGO и т. д. используют все возможные зарегистрированные шахматные данные. игры в истории человечества для обучения алгоритмов.
  • За некоторым инструментом/проектом искусственного интеллекта стоит команда разработчиков + плант.е. существует проект системы, программа развития и план на будущее.

Это определение может показаться несколько строгим, но мы предлагаем его здесь как практическое решение, позволяющее избежать слишком частого неправильного использования термина ИИ. Быть экспертом в области машинного обучения вместо того, чтобы иметь собственный искусственный интеллект, — это все равно настоящее достижение!

ИИ против человеческого интеллекта

В обозримом будущем компьютеры не смогут сравниться с людьми в их способности абстрактно рассуждать о ситуациях реального мира… Нам необходимо понять, что разумное поведение крупномасштабных систем во многом возникает из взаимодействий между агентами. как от разведки отдельных агентов. (Майкл И. Джордан)

Второй по величине миф об ИИ заключается в том, что он уже думает сам за себя. Поскольку мы постепенно разрабатываем все более сложные системы искусственного интеллекта, которые могут заменить все больше и больше человеческих процессов, можем ли мы также ожидать, что вскоре мы сможем создавать синтетические сознательные интеллектуальные сущности (SCIE)? Это также называется «Общий искусственный интеллект», т. е. способность компьютерной системы пытаться решить ЛЮБЫЕ сложные проблемы, включая те, которые требуют готовые решения. Для Роджера Пенроуза интеллект без осознания (сознания) и понимания является поверхностным и служит лишь некоторым ограниченным конкретным целям. Системы решения проблем и автоматизированные решения в принципе являются вычислительными. Используя большое количество обучающих данных, можно запрограммировать программу, способную победить всех людей в шахматах или подобных играх со строгими правилами. Но сознание и/или более глубокое самосознание скорее всего, не являются вычислительными, и в принципе мы до сих пор очень мало знаем о нем. Разумно предположить, что нынешние компьютеры/технологии не смогут соответствовать способности людей рассуждать, развивать личность и осознавать себя (не говоря уже о том, чтобы проявлять сочувствие или ставить экзистенциальные вопросы) в ближайшем будущем. Например, известно, что машинное обучение плохо работает за пределами обучающих данных, используемых для построения деревьев решений. Фактически, во многих исследованиях было показано, что машинное обучение может работать даже хуже, чем некоторые простые модели, основанные на простых предположениях, что указывает на то, что современные технологии машинного обучения (например, случайный лес, нейронные сети, алгоритмы повышения градиента) могут никогда не дать результатов. нам полезные решения для готовых проблем. Машинное обучение определенно не является волшебством. Однако Альберт Эйнштейн, проводящий мысленные эксперименты и, как следствие, выводящий в своей голове теорию относительности из кусочков информации, определенно максимально близок к магии.

Но сегодня появляются все более реалистичные чат-боты, которые имитируют человеческое поведение, что приводит к Тесту Тьюринга (Википедия: Тест Тьюринга — это проверка способности машины демонстрировать разумное поведение, эквивалентное или неотличим от человеческого), теперь постоянно проходило. Самым известным примером, вероятно, является то, что инженер Google Блейк Лемуан обнародовал свои опасения, что языковая модель LaMDA разумна. Но мы знаем со 100% уверенностью, что НИ ОДИН из сегодняшних чат-ботов/систем искусственного интеллекта в мире не обладает сознанием, хотя может показаться, что они обладают самосознанием, то есть проходят тест Тьюринга. Если сегодня машина проходит тест Тьюринга, то это потому, что она действительно представляет собой превосходную симуляцию, но по-прежнему остается всего лишь поведенческим зомби. Любой поведенческий зомби в конечном итоге не пройдет тест Тьюринга, если вы знаете, как проверить его эмпатию, индивидуальность, страхи и тому подобное. Зомби есть зомби, и даже если он производит самое сильное впечатление, его можно отключить или не слишком серьезно относиться к его мнению: хотя мощь моделей ИИ выглядит ошеломляющей, для компьютерных ученых эта технология в настоящее время находится в зачаточном состоянии, и есть много возможностей для улучшений из-за многочисленных ограничений, например. Большие языковые модели (LLM) могут генерировать результаты, которые являются предвзятыми или не имеют смысла из-за данных, на которых они учились, или сложной природы человеческого языка. Более того, эти LLM часто сталкиваются с трудностями в понимании тонкого контекста, что приводит к ошибкам в их ответах и ​​интерпретациях.

Так когда же нам ожидать первые SCIE? Скорее всего, не в обозримом будущем. Многие ученые-компьютерщики, вероятно, сильно недооценивают сложность биологического интеллекта. У нас, людей, около 100 миллиардов нейронов в мозгу соединены в сложную сеть, которая сформировалась в результате >2 миллиардов лет биологической эволюции. Все это очень большие цифры, и поэтому нам не следует недооценивать сложность сознания или думать, что мы все еще можем достичь ее с помощью еще большего количества серверов. Вдобавок ко всему, даже если нам удастся имитировать наномасштабные системы нейронных сетей, способные понимать и фантазировать, этому SCIE, вероятно, также придется пройти персональную эволюцию, то есть получить наставничество, учиться на ошибках и даже пройти через цифровое половое созревание.

В основе современных систем искусственного интеллекта лежит умножение матриц, лежащее в основе знаменитой архитектуры-трансформера (из статьи Васвани и др. «Внимание — это все, что вам нужно»). Например, языковую модель можно рассматривать как математическую функцию, которая очень хорошо выдает следующее слово с учетом некоторого контекста или входных данных. Благодаря этим математическим операциям LLM действует как механизм рассуждения, но требует очень больших вычислительных затрат, поскольку он обучался на огромных объемах данных, что приводит к огромному количеству параметров. Например, GPT-3 (Generative Pre-trained Transformer 3) имеет 175 миллиардов параметров и был обучен на 570 гигабайтах текста, а GPT 4 оценивается более чем в триллион, где мы можем представить эти параметры как нейроны в нашем мозгу. Подводя итог, у OpenAI в настоящее время нет решения для управления потенциально сверхразумным ИИ и предотвращения его выхода из-под контроля. Их существующие методы, такие как согласование на основе обратной связи с человеком, не будут надежно работать с гораздо более умным ИИ, что требует новых прорывов для обеспечения контроля. Но когда мы изменим способ программирования программного обеспечения для самообучения и узнаем больше о том, как работает мозг, мы могли бы в конечном итоге развить способность имитировать некоторые системы и создавать SCIE. Поскольку они глубоко укоренены в нашем человеческом опыте и прошлом, их можно считать синтетическими людьми и потенциально они могут стать более продвинутой версией людей, то есть следующим шагом в эволюции. Будем надеяться, что он будет более решительным, более самодостаточным и более энергоэффективным, чем нынешняя биологическая версия.

Цифровые люди

«Возможно, эволюция интеллекта станет гораздо более ответственной, чем когда-либо станут люди (и, будем надеяться, направит нас в позитивном направлении)» (Брайан Митчелл)

Природа — наш лучший учитель: создавая ИИ, мы имитируем биологические системы. В каком-то смысле ИИ — это наша попытка создать искусственные мыслящие сущности, которые потенциально могли бы превзойти нас в эволюции. Но насколько хорошо мы вообще понимаем живые существа и человеческий интеллект? В настоящее время мы понимаем, что Жизнь в первую очередь связана с нуклеиновыми кислотами, то есть молекулами, обладающими способностью к самовоспроизведению. Можно сказать, что Жизнью, по сути, управляют три основные круговые самовоспроизводящиеся силы:

  • Самоконсервация за счет самокопирования ДНК;
  • Свободное перемещение и обмен с окружающей средой / метаболизм, т.е. запас энергии и вещества, необходимых для самокопирования;
  • Самосохранение посредством механизмов защиты, таких как клеточные мембраны, иммунная система, сенсорные системы предупреждения и тому подобное;

Эти три основных принципа являются общими для всех живых организмов, от самых простых до самых сложных. Одним из весьма сложных механизмов защиты и навигации в живых организмах является система объединенных в сеть нервных клеток, которая в конечном итоге приводит к тому, что мы называем мозгом. Биологические существа, у которых в конечном итоге появляется такой сложный мозг, который использует этот мозг не только для простой навигации по простым процессам, т. е. которые, кажется, осознают себя и стремятся учиться, мы считаем разумными существами с застенчивым сознанием. Однако тема сознания является предметом многих споров. Тем не менее, мы считаем, что наш вид (+ несколько других видов) обладает сознанием и способен мыслить, осознавать и решать нестандартные проблемы. Нам просто кажется, что мы знаем, что мы сознательны, даже если мы еще не знаем, как доказать или измерить сознание.

Цель самосознательных разумных сущностей также основывается на самосохранении и запасе энергии и материи (включая информацию), перечисленных выше, но также несет в себе ряд дополнительных целей более высокого уровня (из статьи Смысл жизни в Википедии):

  • Найти и реализовать свой потенциал и идеалы,
  • Чтобы развиваться или достичь биологического совершенства,
  • Чтобы искать мудрости и знаний,
  • Любить, чувствовать, наслаждаться жизнью,
  • Быть социально принятым и ценимым / жить с другими существами в гармонии,
  • Иметь власть.

Таким образом, в будущем только та система AGI, которая соответствует всем вышеперечисленным критериям, может считаться SCIE. Это не просто тест Тьюринга! Различные группы сейчас рассматривают возможность формализовать тесты на сознание, которые, конечно же, должны быть точными, воспроизводимыми и объективными. Здесь также важно подчеркнуть, что нам, людям, удалось достичь более высокого уровня культуры только благодаря нашей социальной способности делиться и передавать знания из поколения в поколение, а не как отдельные существа. Если бы мы не открыли способы хранить и сохранять информацию, а также передавать знания и культуру как обществу, мы могли бы уже быть вымершим видом (именно это и произошло с некоторыми гоминидами, такими как неандертальцы).

Таким образом, разумно ожидать, что SCIE также будет зависеть от социального интеллекта федерации систем, и также вероятно ожидать, что будет некоторый естественный отбор, когда многие эксперименты и технологии, возможно, потерпят неудачу и будут заменены. Не говоря уже о том, что технологии искусственного интеллекта могут внедриться и смешаться с нашими биологическими системами, так что станет невозможно провести границу между ними. Эта идея слияния технологии и биологии является одним из наиболее значительных предсказаний Рэя Курцвейла о наиболее вероятном будущем; также признан Джеймсом Лавлоком в его книге Новасен: грядущая эпоха гиперинтеллекта.

Суть в том, что сознание — это не просто создание все более крупных суперкомпьютеров, обрабатывающих все большие объемы цифровых данных. То, что делает нас, людей, способными мыслить нестандартно и разгадывать удивительные загадки, — это не только наш IQ/возможности мозга, но также наш социальный IQ, культурное наследие, мотивация, инстинкты, страсть и характер (как показано на рисунке). выше). Мы — продукт миллиардов лет биологической эволюции с триллионами итераций проб и ошибок и, возможно, с множеством счастливых шансов. Может быть, имитировать человеческий мозг и наш социальный и эмоциональный интеллект на порядок сложнее, чем сейчас фантазируют большинство ученых-компьютерщиков? Возможно, мы никогда не добьемся этого с помощью ИИ.

ИИ и поддерживающие технологии в 2023 году

Технология искусственного интеллекта, конечно, не является независимой изолированной технологией: она развивается параллельно и/или в синергии с другими аналогичными революционными технологиями. Фактически, никто не может полностью превзойти технологию ИИ без совместной эволюции всех других информационных технологий, которые используют и/или расширяют технологию ИИ. Вот некоторые передовые технологические разработки, связанные с технологией искусственного интеллекта:

  • Робототехника: роботы — это механические/синтетические устройства, которые можно запрограммировать на выполнение работы, перемещение и навигацию в пространстве, а также замену людей в качестве рабочей силы. Робототехника в сочетании с миниатюризацией и 3D-печатью особенно интересна, поскольку мы можем напечатать миллионы микродронов, которые помогут нам перемещать массивные и сложные куски материалов или живых существ.
  • Нанотехнологии и наноботы, то есть миниатюризация: нанотехнологии – это последний рубеж робототехники. Вероятно, до появления нанороботов, печатающих сложнейшие инструменты, нам еще предстоит пройти десятилетия, но миниатюризация просто неизбежна и, вероятно, приведет к более высокой энергоэффективности, более высокой точности, а также позволит нам взламывать жизнь структуры на уровне клеток.
  • Интернет вещей (IoT): множество устройств + датчиков, подключенных напрямую в сложные сети и беспрепятственно обменивающихся информацией даже без вмешательства человека. Этот большой имитирует сложные биологические сети, включая колонии муравьев и тому подобное.
  • Сверхскоростной Интернет: особенно благодаря технологии оптоволоконного кабеля мы находимся на пороге экспоненциального увеличения пропускной способности и скорости передачи, что позволяет нам передавать еще больше данных по всему миру.
  • Блокчейн и алгоритмы шифрования. Хотя технология блокчейна кажется несколько специфичной, она также является революционной технологией, поскольку помогает снижать риски безопасности, устранять мошенничество и повышать прозрачность.
  • Квантовые вычисления: даже пока еще довольно экспериментальные, квантовые компьютеры могут выполнять некоторые вычисления экспоненциально быстрее, чем любой современный классический компьютер. Это произведет революцию в технологии искусственного интеллекта, особенно в той части машинного обучения, которая требует большого количества вычислений.
  • Лазерная технология: используется сегодня во многих областях, в том числе для измерения расстояний и сканирования, для передачи информации, 3D-печати и в общей промышленности.
  • Технология LiDAR: инструменты обнаружения света и определения дальности (LiDAR) могут использоваться для создания цифровых трехмерных представлений объектов, областей и т.п. Это важный сенсорный компонент беспилотного автомобиля или роботов, но он уже находится над нашими головами, то есть НАСА ICESat.
  • Дистанционное зондирование / Наблюдение Земли (EO) / гиперспектральная визуализация: современные датчики позволяют нам видеть за пределами видимого света, за пределами пассивных датчиков. Уже существует несколько миссий по получению гиперспектральных изображений, проводимых ЕКА (например, ENMAP, CHIME) и НАСА, которые создают сотни диапазонов, способных обнаруживать типы материалов на поверхности Земли, биологические виды и тому подобное, непосредственно из космоса. . Представление о процессах на поверхности Земли становится все более прозрачным.

Технология искусственного интеллекта становится особенно важной для разработки сложных машин, поскольку в ближайшем будущем некоторые системы можно будет использовать только с использованием технологий искусственного интеллекта. Например, можно построить дрон, которым сможет управлять второй пилот-человек, но при этом иметь миллионы микродронов, которые должны совместно перемещаться по территории и выполнять сложные задачи практически в реальном времени и требуют постоянной корректировки. , скорее всего, будет возможно только с использованием технологий искусственного интеллекта и суперкомпьютеров. Аналогичным образом, по мере того, как мы собираем все большие и большие объемы или все более сложные данные (гиперспектральные изображения Земли, гиперзвуковые показания активности на морском дне и тому подобное), мы становимся все более зависимыми от обработки, фильтрации и обобщения таких данных системой искусственного интеллекта, извлечения знаний. и поддержка решений.

Эволюция ИИ от МО к AGI, кажется, идет медленно, но на самом деле нас может удивить синергия различных технологических прорывов. Представьте себе прорыв в понимании того, как работает человеческий мозг (на основе клеточной биологии, клеточной физики, сложных системных наук) в сочетании с нанотехнологиями, сверхбыстрыми сетями и квантовыми вычислениями, и все это произойдет в течение следующих 10 с лишним лет. Такие параллельные прорывы и синергия между нашими навыками разработки программного обеспечения, компьютерными навыками и навыками имитации жизни могли бы ускорить эволюцию ОИИ на порядок, но это не то, что происходит автоматически или без гениев-новаторов, способных соединить все точки. «пророчество Рэя Курцвейла о сингулярности», то есть машина, просыпающаяся и оставляющая позади всех стандартных людей версии 1.0 к 2045 году (или ранее), все еще может сбыться.

Важность качества обучающих данных в ИИ

В любой системе машинного обучения, помимо используемого алгоритма, мощность и качество системы напрямую связаны с качеством, доступностью и прозрачностью обучающих данных. В последние годы ИИ подвергается особой критике за пропаганду дискриминации и различных видов культурных предубеждений. Одним из примеров является использование ИИ для найма новых сотрудников, где для принятия решений использовались исторические данные и который, очевидно, пришел к выводу, что некоторые расы и инвалидность не помогают увеличить прибыль. В этих результатах мы должны винить не ИИ, а, возможно, команды разработчиков ИИ, которые допустили такие предвзятости, используя предвзятые данные обучения. Это известная проблема не только для ИИ, но и для любого статистического тестирования в целом, за исключением того, что с помощью ИИ мы можем распространять такие проблемы на порядок величины.

Мы рекомендуем следующие практические правила организации обучающих данных, которые помогут создать более надежные недискриминационные модели:

  1. Данные обучения должны основываться (насколько это возможно) на вероятностной/несмещенной выборке (а не на слепой загрузке ML большими наборами данных от одного производителя данных), а также должны представлять интересующую временную область. В идеале результаты обучения должны быть документированы с использованием принципов Открытой науки, при этом как входные данные, модели (программное обеспечение), так и выходные результаты должны быть доступны в виде открытых исходных кодов/открытых данных и предпочтительно в некоммерческих репозиториях, например Zenodo.org или аналогичный сайт, позволяющий любому воспроизвести и/или изучить результаты.
  2. Данные обучения должны быть достаточно большими и репрезентативными для целевых групп населения и географических регионов. Если в данных есть серьезные пробелы, то, вероятно, лучше собрать новые данные, чтобы уменьшить пробелы, чем заставлять алгоритмы корректировать решения.
  3. Части данных, которые явно предвзяты или противоречат местным и/или международным конвенциям (права человека и т.п.), не должны использоваться для обучения алгоритмов, применяемых к человеческим популяциям. Особое внимание необходимо уделять всем возможным культурным предубеждениям. Это означает, что такие специалисты, как антропологи, психологи, политологи, социологи и им подобные, должны быть включены в команды, где отбираются обучающие данные для ОД.
  4. Ученые, работающие с данными, должны проявлять особую осторожность, чтобы необработанные, оригинальные измерения и наблюдения не смешивались с манипулируемыми, заполненными пробелами и/или сгенерированными ИИ данными, поскольку они потенциально могут привести к артефактам и предвзятости. Ученые из Райс и Стэнфордского университета обнаружили, что контент, генерируемый ИИ, в конечном итоге ухудшает качество данных в самопоглощающемся цикле: без достаточного количества свежих реальных данных в каждом поколении аутофагического цикла будущие генеративные модели обречены их качество (точность) или разнообразие (напоминаемость) постепенно снижаются. Мы называем это состояние модельным расстройством аутофагии (MAD).
  5. Важные метаданные данных обучения должны быть подробно задокументированы, чтобы можно было избежать неправильной интерпретации и неправильного использования.

С одной стороны, пугает то, как много технологические гиганты знают о нас (даже хранят нашу самую конфиденциальную информацию!), с другой стороны, мы все еще можем помочь улучшить данные обучения для различных ОД, и это может помочь повысить качество жизни. каждого. Вы также можете внести свой вклад в улучшение ИИ, предоставляя данные, особенно наземные наблюдения и измерения, а также помогая в крупных проектах моделирования с помощью гражданской науки и подобных инфраструктур. OpenAI, помимо других входных данных, в значительной степени основан на использовании данных Википедии («Без Википедии генеративный ИИ не существовал бы»), которые по сути представляют собой данные гражданской науки, доступные в виде открытых данных в рамках Лицензия CC-BY-SA. Когда дело доходит до данных об окружающей среде, вы можете установить на свой телефон и использовать приложение iNaturalist, чтобы определять виды растений прямо по фотографиям, использовать Geo-wiki apps для отслеживания изменений растительного покрова, отслеживать биомассу деревьев, беря простые фотографии с вашего телефона, внесите свой вклад в OpenStreetMap, чтобы помочь лучше открыть карту мира. Такие данные могут помочь улучшить модели прогнозирования, что затем приведет к более точным решениям и меньшему риску. Если ваши данные зарегистрированы как открытые данные, они могут быть использованы кем угодно в мире, включая МСП, для создания новых инноваций и продуктов.

Опасности технологии искусственного интеллекта (по сравнению с побочными эффектами)

Многие справедливо признают, что технологию искусственного интеллекта можно сравнить с изобретением ядерной бомбы. Скорость развития технологий искусственного интеллекта также пугает, поскольку оказывается, что различные группы в мире сейчас экспериментируют с инструментами, которые мы даже до конца не понимаем. Самыми большими угрозами ИИ в современном мире являются (отсортированные):

  1. Использование технологий искусственного интеллекта для массового манипулирования. Глубокие фейки нового поколения, то есть полностью манипулируемые изображения, видео, новости, разговоры, необнаружимые современными технологиями и которые можно использовать в качестве оружия информационной войны — для манипулирования большими массами и даже настройки людей против самих себя. Не сомневайтесь, что любое значимое разведывательное агентство/секретная служба в мире уже тестирует использование технологии искусственного интеллекта для информационных войн, кибератак и тому подобного.
  2. ИИ будет становиться все более мощным в мониторинге и анализе людей. Детекторы лжи 20-го века вскоре могут быть заменены суперуспешными системами искусственного интеллекта, которые не допускают ни анонимности, ни скрытых сообщений или мнений. Если все это попадет в руки тоталитарных правительств и/или будет основано на существенно искаженных данных обучения, это может иметь огромные последствия.
  3. Полностью автоматизированные машины-убийцы (созданные военными или террористическими организациями), которые производятся в огромных количествах и в конечном итоге могут скрыть все следы/не оставлять свидетелей (как так точно показано в Эпизоде ​​«Черного зеркала Металлхед») ). У них не будет сочувствия, и они особенно опасны, поскольку в конечном итоге свидетелей вообще не останется, и мы даже не сможем представить себе весь ужас.
  4. Неконтролируемые эксперименты с ИИ, приводящие к масштабным катастрофам, которые уже невозможно остановить. ИИ может полностью разрушить Интернет, вывести из строя системы безопасности банков, создать мощные химические токсины, которые станут супероружием, и отправить нас обратно в каменный век.
  5. Парадоксально, но ИИ может снизить наш собственный интеллект, поскольку мы в значительной степени заменим необходимость учиться и практиковать собственный мозг. Чтобы понять математику, психологию или любую подобную развитую научную область, требуется интенсивное чтение и тренировка, как это было 50 лет назад (компьютеры немного помогают, но >90% — это все еще старое доброе простое чтение, понимание, запоминание и практика), но если мы пройдем всю работу по программам, мы можем по факту снизить собственный интеллект (как в фильме Идиократия).
  6. Если мировое неравенство богатства продолжит увеличиваться, это, к сожалению, означает, что стоимость человеческого труда значительно снизится, поскольку те, кто владеет большей частью капитала и платит зарплату, будут нанимать человеческий персонал только в том случае, если он по-прежнему дешевле роботов. + ИИ. Поскольку технологии становятся все дешевле и дешевле, вскоре после этого большие массы людей станут полностью безработными. Это на порядок страшнее, чем любой будущий продовольственный кризис, поскольку мы можем закончить с миллиардами людей, которые на самом деле не нужны ни одному рынку. Опять же, в этом мрачном прогнозе следует винить не технологии искусственного интеллекта, а политические системы, увековечивающие неравенство и бесконечный рост богатства.

Важно подчеркнуть, что угрозы ИИ не следует смешивать с негативными последствиями ИИ. Например, исследования показывают, что ИИ заменит и оставит без работы большое количество населения, особенно женщин: почти 80% женских рабочих мест могут быть потеряны в ближайшие 10 с лишним лет, что вернет нас практически в 19 век. Конечно, несправедливо обвинять некоторых разработчиков программного обеспечения и инженеров-электриков в росте безработицы и гендерного неравенства. Алан Финкель: Призывы технологических лидеров к перерыву в разработке ИИ не являются ответом. Правила, которые затрагивают только благонамеренных и добросовестных разработчиков и пользователей ИИ, не являются ответом. Мы считаем, что решение проблемы повышения благосостояния, безопасности и равенства граждан находится в политической эволюции общества, особенно с помощью программ базового дохода, гендерного равенства и программ женщины в STEM. Решение проблемы того, что ИИ отнимает 80% рабочих мест для женщин, определенно не должно заключаться в сжигании серверов или аресте разработчиков ИИ.

Как технологии искусственного интеллекта могут помочь нам в борьбе с климатическим кризисом?

Я на самом деле в восторге от ИИ в этом отношении, хотя и делаю вывод: да, я понимаю, что есть и риски, и люди боятся ИИ. Но на самом деле я думаю, что этот момент времени, который мы можем иметь в ближайшие 50 лет, весьма интересен, чтобы по-настоящему решить некоторые действительно долгосрочные проблемы человечества, например, в области здравоохранения. Прогресс, достигнутый в лечении рака, поскольку мы можем в масштабе моделировать молекулы, генетику и тому подобное, становится огромным. Это действительно интересно. Так что, если мы сможем продержаться какое-то время, и некоторые проблемы, которые сегодня кажутся совершенно неразрешимыми, такие как изменение климата, могут оказаться на самом деле не такими уж сложными. (Джимми Уэйлс)

Вызванная деятельностью человека деградация экосистем и связанные с этим изменения климата являются одними из крупнейших проблем человечества. На данный момент исследователи широко раскрыли свои возможности для использования МО/ИИ, надеясь, что технологии ИИ могут помочь нам решить многие проблемы климатического кризиса. Вот несколько ключевых обзорных статей, в которых обобщаются возможности использования технологий искусственного интеллекта:

  • Агилар-Ласкано, Калифорния, Эспиноза-Куриэль, И.Е., Риос-Мартинес, Х.А., Мадера-Рамирес, Ф.А., и Перес-Эспиноза, Х. (2023). Объединение данных датчиков на основе машинного обучения для мониторинга животных: обзор объема. Датчики, 23(12), 5732. https://doi.org/10.3390/s23125732
  • Чен, Л., Чен, З., Чжан, Ю., Лю, Ю., Осман, А.И., Фаргали, М.,… и Яп, П.С. (2023). Решения в области изменения климата на основе искусственного интеллекта: обзор. Письма по химии окружающей среды, 1–33. https://doi.org/10.1007/s10311-023-01617-y
  • Изабель Д.А. и Вестерлунд М. (2022). Обзор и классификация возможностей искусственного интеллекта в охране дикой природы, океана и суши. Устойчивое развитие, 14(4), 1979. https://doi.org/10.3390/su14041979
  • Томас, Л.Б., Масторидес, С.М., Вишванадхан, Н.А., Джейки, К.Э., и Борковски, А.А. (2021). Искусственный интеллект: обзор текущих и будущих применений в медицине. Федеральный практикующий врач, 38(11), 527. https://doi.org/10.12788%2Ffp.0174
  • Туя, Д., Шиндлер, К., Демир, Б., Кэмпс-Вальс, Г., Чжу, X.X., Кочупиллай, М.,… и Шнайдер, Р. (2023). Искусственный интеллект для улучшения наблюдения за Землей: перспективы. Препринт arXiv arXiv:2305.08413. https://doi.org/10.48550/arXiv.2305.08413

Очевидно, что конкретные применения и энтузиазм по поводу использования технологии искусственного интеллекта для мониторинга окружающей среды, оптимизации систем транспорта и производства продуктов питания, а также предотвращения стихийных бедствий широко распространены. ИИ может помочь нам «спасти планету»; К следующим ключевым областям, где ИИ используется для оперативной работы, относятся, например:

  • Автономные и подключенные электромобили,
  • Распределенные энергетические сети, оптимизированные с использованием искусственного интеллекта,
  • Умное сельское хозяйство и продовольственные системы,
  • Прогноз погоды и климата следующего поколения,
  • Умные системы реагирования на стихийные бедствия,
  • Интеллектуальные, подключенные и пригодные для жизни города, созданные с помощью искусственного интеллекта.
  • Прозрачная цифровая Земля,
  • Обучение с подкреплением для прорывов в науках о Земле,
  • Системы мониторинга климатических аномалий,
  • Системы мониторинга углеродного следа,
  • Автоматизированный мониторинг изменений в землепользовании и состоянии почвы,
  • Системы генерации новых экологически чистых идей,
  • Автоматизированные системы оповещения об экологической опасности,

Упомянем лишь некоторые известные примеры. Подводя итог, можно отметить некоторые очень интересные потенциальные разработки в области технологий искусственного интеллекта, особенно в борьбе с климатическим кризисом и защите биоразнообразия:

  • Технологии искусственного интеллекта в сочетании с микродронами (представьте себе огромное количество, например, миллионы и миллионы дронов) можно использовать для ускорения проектов по озеленению, особенно для помощи в посадке лесных пород, борьбе с пожарами и стихийными бедствиями, а также похожий. Такие микродроны будут одновременно сетью датчиков, помогающих нам контролировать природные ландшафты, и инструментами для достижения самых сложных и отдаленных территорий. Мы могли бы буквально ожидать озеленения Сахары, то есть геоинженерии мировых экосистем. Как только количество микродронов станет огромным и объем данных начнет превышать возможности обработки наших полуавтоматических систем, только технология искусственного интеллекта сможет оптимизировать такие большие системы и принимать решения.
  • Некоторые исследователи сегодня предполагают, что ключом к секвестрации CO2 сегодня может быть массовое морское земледелие, железное удобрение и вертикальные фермы, охватывающие большие части океанов. Для управления такими удаленными и подводными фермами нам снова понадобится большая масса дронов-подводных лодок, сети датчиков живых данных и тому подобное, что потребует мощного автоматизированного ИИ для отслеживания таких мегаферм.
  • Технология искусственного интеллекта в целом позволяет ускорить моделирование и прогнозирование, особенно будущих состояний окружающей среды, то есть может помочь нам сделать прогнозирование очень точным. Это имеет решающее значение для минимизации рисков для граждан и помощи в спасении миллионов жизней, включая здоровье экосистем. Например, по всему Европейскому Союзу несколько проектных групп сейчас работают над разработкой систем цифрового двойника Земли, которые в значительной степени основаны на использовании технологии искусственного интеллекта в сочетании с высокопроизводительными вычислениями.
  • Технология искусственного интеллекта также может оказаться чрезвычайно полезной для образования новых поколений и преодоления разрыва в знаниях. В принципе, образование по-прежнему доступно только богатым, поскольку авторские права принадлежат крупным издательским корпорациям. Следующее поколение виртуальных учителей на базе искусственного интеллекта может помочь в обучении масс и сократить разрыв в знаниях на порядок. Один год обучения в Стэнфорде или Гарварде стоит от 50 000 до 75 000 долларов США только за плату за обучение. Учителя ИИ могли бы демократизировать образование и принести высшие классы в массы. Возможно, наивно думать, что такие образовательные центры могут быть бесплатными (отсюда и модель Википедии), но, безусловно, было бы в сотни раз более рентабельно создавать образовательные центры по искусственному интеллекту, чем платить зарплату всему персоналу Гарварда. Университет или что-то подобное. Кроме того, советники с искусственным интеллектом, работающие на мобильном телефоне (или с помощью наушников, т. е. голоса в ухе), виртуальные ботаники, экологи, ландшафтные дизайнеры может использоваться сельским/отдаленным населением, коренными народами и т.п. для обучения и лучшего понимания взаимодействия земли, климата и жизни.
  • Технология искусственного интеллекта поможет уменьшить проблему информационного разрыва, то есть разрыва между богатством имеющихся у нас данных и нашей способностью извлекать из них полезную информацию. Особенно для систем EO, которые теперь ежедневно генерируют терабайты изображений или сканируют поверхность Земли. Наша способность визуально интерпретировать данные линейно растет и вероятно, уже исчерпана. ИИ может помочь найти скрытые закономерности и связи, возможно, в петабайтах данных и, возможно, в режиме, близком к реальному. Представьте себе цифровых врачей на базе искусственного интеллекта, но не только для людей, но и для здоровья экосистем, здоровья почвы, здоровья групп видов, быстро обнаруживающих проблемы и предупреждающих землепользователей. Такую потерю биоразнообразия и деградацию земель можно предотвратить только с помощью хорошей диагностики.

В целом, хорошо с энтузиазмом относиться к технологиям, особенно к их потенциалу для геоинженерии, охраны природы и повышения качества жизни, включая глобальный ВВП. Наличие энергоэффективных роботов должно сократить или уменьшить человеческий труд (особенно повторяющийся труд, который не помогает нам развиваться социально или интеллектуально), должно приблизить нас всех к обществам с базовым доходом, где каждый сосредоточен в первую очередь на своем собственном эмоциональном и интеллектуальном росте. Надеемся, что это также даст нам больше времени, чтобы научить наших детей культуре восстановления и развить в первую очередь культуру творчества, а не сегодняшнюю культуру потребления.

Необходимы срочные действия для предотвращения негативных последствий технологий искусственного интеллекта

Искусственный интеллект взломал операционную систему человеческой цивилизации… необходимо положить конец внедрению инструментов ИИ в общественную сферу (Юваль Ноа Харари)

Когда была создана и использована в качестве военного оружия первая атомная бомба (что, к сожалению, привело к гибели сотен тысяч ни в чем не повинных мирных жителей), всем учёным, принимавшим участие в разработке этого оружия, стало ясно, что им необходимо реагировать и дистанцироваться. от использования технологий, основанных на их исследованиях. Альберт Эйнштейн специально сказал после бомбардировок Хиросимы и Нагасаки: «Пришло время, когда человек должен отказаться от войны. Решать международные проблемы, прибегая к войне, уже нерационально». Аналогичным образом, что касается ИИ, его ключевые умы и новаторы должны активизироваться и подумать обо всех вещах, которые могут пойти не так, и дать однозначные сообщения о том, как эту технологию следует использовать правильно и как избежать любых злоупотреблений и рисков.

Мы считаем, что следующие пять действий должны быть на переднем крае адаптации ИИ в повседневной жизни и защиты от возможных трагических, апокалиптических последствий:

  1. Новое законодательство, защищающее граждан от массовых манипуляций со стороны ИИ, необходимо как можно скорее. Люди имеют право знать, имеют ли они дело или общаются с ИИ, используется ли их контент неправомерно и каковы их гражданские права во время этого процесса. В ЕС уже действует GDPR, направленный на защиту наших данных и конфиденциальности. Теперь нам также необходима срочная защита от любых результатов, генерируемых ИИ, включая Меры укрепления доверия. Минимум заключается в том, что любой человек в мире имеет право знать, общается ли он/она с реальным человеком или с чат-ботом; если произведение искусства, книга, визуализация, музыка или видео, которые вас интересуют, были созданы реальным человеком или компьютером, и если контент представляет собой ремикс из нескольких источников, то следует соблюдать оригинальные лицензии (например, CC-BY- SA используется большей частью контента Википедии). Европейская комиссия и Европейский парламент разрабатывают так называемый «Закон об искусственном интеллекте» — свод законов, призванных срочно решить основные проблемы и избежать ошибок, которые мы допустили из-за задержек с GDPR. Zoom и многие другие крупные технологические компании теперь безжалостно добывают наши видео, текст, то есть контент, который мы производим, даже не подозревая об этом. Это необходимо регулировать на самом высоком уровне, а не просто посредством каких-то микроскопических условий использования.
  2. Технологии искусственного интеллекта (вместе с ядерным оружием и аналогичными видами оружия массового убийства) должны быть полностью запрещены с целью убийства гражданских лиц и разработки биологического оружия или чего-то подобного. Как только некоторые военные разработают роботов-убийц и начнут использовать их для уничтожения огромных групп людей, эти группы/военные организации следует считать врагами человеческой цивилизации, то есть человечества в целом, и это должно регулироваться ООН и аналогичными международными конвенциями. . Поскольку технологии развиваются быстро, мы также должны быстро реагировать: как только некоторые военные разработают эффективных роботов-убийц, пройдет всего несколько лет, прежде чем они создадут роботов, которые смогут истребить всех людей на планете.
  3. Политики должны преимущественно продвигать, финансировать и субсидировать использование решений с открытым исходным кодом для технологий искусственного интеллекта, особенно для поддержки интерпретируемого машинного обучения, воспроизводимых исследований и децентрализованного использования технологий. Прозрачность ИИ на порядок важнее, чем прибыль, которую крупные корпорации могут получить сами. Концентрация мощных технологий черного ящика в руках небольшого числа частных корпораций несет в себе серьезные риски для общества с точки зрения монополизации и неправильного использования. Очень популярный ChatGPT — продукт компании OpenAI. Но загвоздка в том, что ни одна технология OpenAI не имеет открытого исходного кода, и трудно утверждать, что компания открыта в каком-либо более широком смысле. В качестве альтернативы так называемому "OpenAI", "инициатива с открытым исходным кодом" в настоящее время создает основу для "Open Source AI"; Hugging Face, Creative Commons и другие призывают к большей поддержке разработки различных моделей искусственного интеллекта с открытым исходным кодом. Такие инициативы с по-настоящему открытым исходным кодом, возможно, являются нашим лучшим способом сохранить ИИ прозрачным, открыто обсуждаемым, тщательно изучаемым и, следовательно, демократичным.
  4. Однако не следует обвинять, запрещать или ограничивать ИИ из-за некоторых побочных эффектов использования ИИ и роботизации. Должно быть четкое различие между причиной и следствием, то есть орудием и преступлением. Не следует напрямую обвинять технологию искусственного интеллекта в усилении гендерного неравенства, потере рабочих мест и/или автоматизации труда. Во всяком случае, ИИ помогает выявить (фальшивые) системы гендерного равенства и скрытую институционализированную дискриминацию. Параллельно с разработкой технологии искусственного интеллекта нам также необходимо разобраться с важнейшими культурными и организационными причинами неравенства и помочь обществам перейти к рабочим местам с меньшим количеством ручного труда, системам базового дохода, справедливой торговле, полностью предоставляя всем равные возможности и не оставляя ни одного. позади.
  5. В дополнение к законодательству об ИИ для защиты людей, нам нужно начать думать наперед и уже сейчас начать готовить законодательство и рекомендации о том, как создать этичный ИИ и как защитить будущие SCIE. Да, будущий HAL 9000 также должен иметь свои собственные права (как любой самосознательный объект, проходящий тест Тьюринга самого высокого уровня!), и никаким другим объектам не должно быть разрешено наносить им ущерб или контролировать их вне решения суда или чего-то подобного.

Недавно, чтобы минимизировать социальный ущерб и обеспечить совместимость систем управления ИИ, Сингапур начал разрабатывать Систему и набор инструментов для тестирования управления ИИ, которые позволяют отраслям продемонстрировать внедрение ответственного ИИ. Их структура основана на следующих шести принципах:

  1. Прозрачность: обеспечение документирования всех процессов и осведомленности потребителей об использовании и качестве систем искусственного интеллекта.
  2. Объясняемость, т.е. повторяемость/воспроизводимость: обеспечение того, чтобы работа/результаты ИИ были объяснимы, точны и последовательны. Здесь критически важным вопросом является доступность и прозрачность обучающих данных.
  3. Безопасность + надежность: обеспечение надежности систем искусственного интеллекта и отсутствия причинения вреда.
  4. Справедливость: обеспечение справедливого использования пользовательских данных, предотвращение любой возможной дискриминации и соблюдение правил и прав потребителей.
  5. Подотчетность: обеспечение человеческой подотчетности и контроля.

Еще одна важная вещь в технологии искусственного интеллекта — это ее углеродный след. Хотя системы искусственного интеллекта могут помочь в борьбе с изменением климата, следует отметить, что сегодняшние системы искусственного интеллекта вносят значительный вклад в выбросы углекислого газа, особенно когда центры обработки данных полагаются на ископаемое топливо для производства электроэнергии. Поскольку модели ИИ продолжают расти, необходимо изучить способы смягчения их негативного воздействия на окружающую среду, чтобы проложить устойчивый путь вперед. Кроме того, оборудование, поддерживающее эти модели, имеет ограниченный срок службы, что приводит к образованию электронных отходов. Чтобы решить эти проблемы, усилия должны быть сосредоточены на энергоэффективных алгоритмах и оборудовании, переходе на возобновляемые источники энергии для центров обработки данных, использовании методов сжатия моделей и продвижении ответственных методов искусственного интеллекта, которые отдают приоритет устойчивому развитию.

В ближайшие годы мы можем ожидать, что стандартизированные рекомендации и инструменты для использования ИИ станут еще более важными, особенно для того, чтобы помочь уменьшить любую предвзятость в обучающих данных и создать возможности для открытых сообществ разработчиков, которые будут следить за тем, чтобы технология использовалась для глобального блага. Ключевым моментом для реализации таких принципов является наличие эффективных и простых в использовании инструментов, которые могут автоматически тестировать и подтверждать безопасность, использование контента, воспроизводимость любого ИИ и т. д.

Как вы можете начать использовать технологии искусственного интеллекта в своей работе уже сегодня?

«Пойми это, контролируй это, не бойся этого. Развитие ИИ неизбежно, как во благо, так и во зло. Пусть добро восторжествует». (Джон Макфарлейн)

Некоторые практические шаги по отслеживанию и пониманию развития технологии искусственного интеллекта:

  1. Протестируйте использование ChatGPT в своей сфере. Пройдите некоторые онлайн-курсы, например. https://www.deeplearning.ai/. Будьте критичны и попытайтесь понять, где и почему это не получается. Вот пример проф. Алекс Бреннинг проверяет, понимает ли ChatGPT географию.
  2. Подпишитесь и следите за такими движениями и программами, как AI act, этический AI и AI4good. Научитесь понимать, что такое поведенческий зомби и как ИИ можно использовать неправильно. Работайте над повышением своего социального и эмоционального IQ, чтобы вы могли пройти высший уровень Тьюринга и тесты сознания. Как ни парадоксально, но ИИ расширяется, но в этом дивном новом мире вам понадобится больше вашего собственного IQ, особенно эмоционального и социального IQ!
  3. Изучите компьютерную и информационную науку 21-го века, особенно в области программного обеспечения с открытым исходным кодом: научитесь использовать децентрализованные решения с открытым исходным кодом, чтобы вы всегда могли быть независимыми от монополий больших технологий и систем, контролируемых государством. Переключитесь на использование Linux, Firefox, NextCloud, Zenodo, Mastodon и подобных подлинных решений с открытым исходным кодом для хранения, обмена и организации ваших данных.
  4. Всегда проверяйте свои права человека и клиента. Защитите свой собственный контент от использования без вашего ведома, одобрения и без соблюдения вашей лицензии на данные.

Помимо этого, вы также можете рассмотреть возможность внесения вклада в создание лучших моделей ИИ, которые используются для общественного блага: вносите данные в крупные проекты открытых данных, либо регистрируя свои собственные данные и прикрепляя открытую лицензию, либо участвуя в редактировании, фильтрации и тестировании данных; если вы разрабатываете код, присоединяйтесь к открытым сообществам разработчиков и вносите свой вклад с помощью языков программирования с открытым исходным кодом, таких как R, python, Julia и подобных.

Итоговые баллы

Разум Вселенной социален (Марк Аврелий)

Подводя итог, можно сказать, что четыре самых больших мифа, связанных с ИИ, требуют особого внимания: (1) использование термина ИИ, вероятно, было чрезмерно разрекламировано, и нам также следует рассмотреть возможность использования этого термина для операционных автоматизированных систем принятия решений (тогда лучше использовать термин «Машинное обучение» для всех операций обучения и прогнозирования); (2) Siri, Alexa, ChatGPT и подобные им — потрясающие разработки, но это всего лишь поведенческие зомби — эти системы не имеют характера и не обладают самосознанием, какими бы убедительными они ни казались; мы даже не приблизились к созданию Синтетических Сознательных Интеллектуальных Существ (SCIE), поэтому любой страх перед технологией AGI «пробуждающей и истребляющей нас», вероятно, нерационален; (3) Технологию ИИ не следует винить в проблемах неравенства и дискриминации во многих обществах, поскольку они не являются ее причиной. (4) Самой большой угрозой технологии ИИ сегодня, вероятно, являются массовые манипуляции и ее использование для информационных войн, а не ИИ, захватывающий нашу рабочие места.

Несмотря на то, что технологии быстро развиваются, всем еще предстоит много работы, чтобы помочь создавать различные компоненты и обучать все более точные автоматизированные системы, которые могут помочь заменить все повторяющиеся задачи, большинство рутинных задач, и помочь людям вместо этого сосредоточиться на эмоциональном и интеллектуальном росте. заставлять их часами ездить на работу в оживленных мегаполисах, чтобы выполнить работу, которую уже сегодня можно эффективно заменить машинами.

Точно так же мы, вероятно, до сих пор сильно недооцениваем сложность живых существ, экосистемных сетей и самоорганизующихся обществ. Возможно, нам удалось взломать машинное обучение, и это мощная технология, но жизнь, биоразнообразие, сознание и биологические сети, вероятно, более сложны (и более волшебны), чем мы думаем! Нам нужно поддерживать будущих ученых в изучении биологии, эволюции, экологии, биогеохимии и тому подобного, с той же страстью, которую мы создаем в области компьютерных наук и создаем крутых роботов. Решение для создания более точных и более самодостаточных автоматизированных систем принятия решений заключается как в превосходных компьютерных науках, так и в превосходных знаниях биологии, экологии, экологических сетей и науки о системе Земли.

Технологии искусственного интеллекта, микророботы, Интернет вещей, сверхскоростной Интернет и тому подобное могут помочь значительно улучшить здоровье и благополучие человека. В частности, эти технологии могли бы помочь нам в борьбе с климатическим кризисом, осуществить геоинженерию, чтобы массово озеленить планету и уменьшить опустынивание и потерю биоразнообразия. Технология искусственного интеллекта также может буквально спасти наши жизни. от какого-то астероида, упавшего с неба. Но у нас еще нет всех решений по борьбе с изменением климата и деградацией окружающей среды, а некоторых решений мы, возможно, не сможем достичь в обозримом будущем (они могут появиться через 50 лет), поэтому нам, вероятно, необходимо предпринять ВСЕ возможные действия в нашем сила для борьбы с климатическим кризисом:

  1. Значительно сократить выбросы ПГ пропорционально источникам выбросов в кратчайшие сроки,
  2. Сократить выбросы углекислого газа для всех граждан, не оставив никого голодным или недостаточно развитым,
  3. Защитите биоразнообразие с помощью значительно более строгих санкций и более надежных систем мониторинга и предупреждения.
  4. Быстро внедрять инновации и разрабатывать технологии (включая искусственный интеллект) для озеленения планеты, восстановления земель и геоинженерии, включая промышленное связывание CO2,
  5. Обучите новое поколение молодежи понимать, что счастье – это не только ВВП, ценить и понимать восстановление земель так же, как они любят и понимают компьютерные игры, Instagram и тому подобное.

Как выразился Сами Доргам: ИИ — это преобразующая технология, которая изменит человеческое общество так, как мы пока не можем себе представить. Это также обеспечит неожиданные решения некоторых аспектов климатического кризиса и будет полезно для достижения наших целей по нулевому сокращению выбросов. Однако оно может сыграть лишь вспомогательную роль в общей картине сокращения наших выбросов: восстановление природы и естественных поглотителей углерода, а также максимально быстрое внедрение возобновляемых источников энергии — это, в конечном итоге, деньги, которые останутся на нашей стороне.

Если вы хотите предпринять конкретные действия в отношении развития технологии искусственного интеллекта, вот несколько заключительных советов:

  1. Учитывайте все этические вопросы использования технологий ИИ. Проверьте свои моральные дилеммы, используя https://www.moralmachine.net/ или что-то подобное. Учтите, что моральные дилеммы и этика могут быть очень сложными и также определяются культурой. Голосуйте за политические партии, которые признают право граждан знать, общаются ли они с ИИ, и которые нацелены на правительства, которые поддерживают версии технологии ИИ с открытым исходным кодом.
  2. Учтите, что использование ИИ для массовых манипуляций и массовых убийств, а также разработка биологического оружия должны быть запрещены и санкционированы за рубежом, в том числе посредством конвенций ООН и тому подобного.
  3. Укажите своим детям/коллегам нужную литературу — заставьте их читать и изучаться в области искусственного интеллекта и других новых технологий, прежде чем они останутся позади. Начните читать о Новацене и Сингулярности; посмотрите документальный фильм AlphaGo, Рассуждение Юваля Харари об искусственном интеллекте, Вдохновляем молодежь на инновации!

Пожалуйста, укажите:

Хенгль Т., Консоли Д., Багич М., Брокка Л. и Херольд М. (2023). Технология искусственного интеллекта: что это такое, а что нет, и как она может (потенциально) помочь нам решить климатический кризис (версия 0.1). Фонд OpenGeoHub. Опубликовано на сайте MLearning.ai; https://doi.org/10.5281/zenodo.8300534

OpenGeoHub и партнеры активно работают над использованием машинного обучения высокого уровня для картирования динамики окружающей среды (так называемое пространственно-временное машинное обучение) с использованием методов объединения данных и ансамбля в рамках наших проектов Global Pasture Watch и Global Pasture Watch. Киберинфраструктура Open-Earth-Monitor. Мы также активно работаем над разработкой автоматизированной диагностики состояния почвы и чат-ботов для поддержки землепользователей и агрономов на местах в рамках нашего проекта AI4SoilHealth. Подпишитесь на нашу информационную рассылку и общайтесь с нами через наши открытые семинары и дискуссионные форумы.

ПИСАТЕЛЬ на MLearning.ai / Премьерное AI-видео / AI art Copyright