История ИИ

AI. Когда вы думаете об этом, вы представляете, как смотрите в зеркало и улыбаетесь себе, за исключением того, что эта голограмма говорит на техническом жаргоне и планирует на тысячи шагов больше, чем любой человек может когда-либо надеяться сделать. По сути, конечная миссия ИИ, или искусственного интеллекта, заключается в создании машин, способных думать и вести себя как люди. За исключением случаев, когда люди скованы физическими и умственными ограничениями, ИИ безграничен.

Вы не поверите, но идея искусственного интеллекта всегда была запечатлена в подсознании человека. В давние времена в кругах философов ходили мифы о человеческих достижениях, которые изменили бы то, что значит быть человеком. «Что отличает нас от зверей?» был вопросом, который не давал покоя нашей психике с момента зачатия. В 1700-х годах идея машин, обладающих человеческими способностями, стала заметной в кругах богатых европейских мыслителей по мере ускорения промышленной революции.

Перенесемся в прошлое, после Второй мировой войны, кульминации всех самых инновационных технологических достижений 20-го века, нанесших ущерб 85 миллионам жертв, и поколение интеллектуалов осознало, насколько мощными могут быть машины. Алан Тьюринг был одним из молодых британских эрудитов, который впервые ознакомил широкую публику с искусственным интеллектом. Он спросил, почему машины не могут принимать решения независимо, основываясь на логике и разуме, как люди. Вы можете прочитать его статью 1950 года, в которой резюмируется его предложение здесь. Многие эксперты по искусственному интеллекту считают это формальным сценарием, закрепляющим концепцию в камне.

Несмотря на гениальность Тьюринга, компьютеры должны были сначала развить свои способности каменного века, чтобы запустить революцию в области искусственного интеллекта. В 1940-х годах компьютеры не могли хранить команды; они могли просто казнить их. Мало того, что они были очень медленными, аренда компьютера стоила около 200 000 долларов в месяц! Таким образом, чтобы воплотить идеи в жизнь, защитникам нужна была прочная поддержка со стороны хорошо обеспеченного учреждения, а также твердое доказательство концепции.

В 1955 году доказательство концепции расцвело в так называемой первой в мире программе искусственного интеллекта Logic Theorist. Изобретенный Гербертом Саймоном, Клиффом Шоу и Алленом Ньюэллом, он обладал способностью имитировать умственные способности человека путем доказательства математических теорем. Он был представлен на печально известной конференции Дартмутского летнего исследовательского проекта по искусственному интеллекту в 1956 году. Несмотря на то, что конференция боролась с организационной структурой, ее влияние нельзя недооценивать, поскольку она задала тон исследованиям в области искусственного интеллекта на следующие два десятилетия.

Возможности

Вы можете думать про себя: Но это так далеко в будущем. Как это, возможно, влияет на меня прямо сейчас? Осознаёте вы это или нет, но ИИ нас окружает. Помните приложение под названием Grammarly, которое вы используете для проверки орфографии всякий раз, когда сочинение приближается к сроку? Это приложение использует NLP или форму искусственного интеллекта, которая используется для анализа и интерпретации языка, называемого обработкой естественного языка. Поскольку грамматика по своей сути содержит так много шаблонов, компьютер легко может быстро изучить, используя предоставленные образцы обучающих данных, и настроить себя так, чтобы улучшить его в следующий раз, когда он встретит повторяющиеся предложения.

Но ждать. Что, черт возьми, это тренировочные данные? По сути, это набор данных, которые используются, чтобы помочь ИИ учиться и реагировать на различные ситуации. Таким образом, используя приведенный выше пример, программист будет обучать свой алгоритм, используя различные случаи, когда в эссе встречаются повторяющиеся предложения. Затем, когда технология действительно запущена в мир, она сможет с легкостью справиться с этими надоедливыми бесконечными предложениями!

В этот момент вы, вероятно, качаете головой и спрашиваете себя: Зачем исправлять глупое предложение? Но ждать! Всякий раз, когда пользователи Discord интегрируют ботов в групповые серверы, искусственный интеллект подключается каждый раз. Понимаете, бот Discord - это ИИ, который может выполнять любое количество полезных автоматизированных задач, улучшающих взаимодействие с пользователем. В задачи входят модерирование контента, приветствие новых участников и запрет нарушителей правил. Если во время игры в League of Legends вам нужны какие-то мелодии, чтобы поднять адреналин у всех, боты тоже могут это сделать. Они помогают администраторам управлять сервером, а пользователям - перемещаться по нему. Есть такая классная штука под названием Dank Memer, с помощью которой можно зажарить любого случайного человека. Но все таки.

Я уверен, что мы все можем смотреть на милые мемы во время сильного стресса. Так что же происходит, когда вы сталкиваетесь с очаровательной фотографией кавалер-спаниеля Кинг Чарльз и чешете в затылке, спрашивая себя: Что это за порода« дож ?» Это настоящая проблема, не правда ли?

Не волнуйтесь, компьютерное зрение здесь, чтобы помочь! Это подмножество глубокого обучения, или использования компьютером обширной иерархии уровней для самостоятельного изучения сложных функций, а не получения конкретных инструкций от программистов. Глубокое обучение - это то, что делает ИИ поистине безграничным, поскольку алгоритм может изучать вещи, естественно сравнимые с человеком. В рамках глубокого обучения компьютерное зрение обрабатывает изображение с помощью специализированных алгоритмов, которые считывают особенности изображения и определяют, что они представляют, чтобы сформировать более широкую картину того, что представляет собой изображение. Поэтому после того, как Google Фото просканирует изображение выше, он сможет определить, что собака порода - кинг чарльз кавалер-спаниель.

Итак, мы узнали об ИИ. Но как насчет машинного обучения, этого термина, который в основном имеет то же значение? Хороший вопрос. Таким образом, искусственный интеллект - это более общая категория устройств, действующих умно, включая маневрирование беспилотного автомобиля или автоматическую торговлю акциями. Он включает в себя машинное обучение, более конкретный термин, когда устройства принимают решения сами по себе. Машинное обучение стремительно выросло из-за двух факторов: того, что было бы легче программировать задачи, если бы компьютеры могли думать самостоятельно, и простоты доступа к данным в Интернете. Он присутствует во многих системах, которые мы используем сегодня, ускоряя культовую шахматную игру, в которой компьютер выигрывал у лучшего шахматиста в мире.

Итак, вы хотите сыграть в игру?

Позвольте мне рассказать вам историю. Гарри Каспаров был обычным парнем, любившим шахматы. Он также оказался лучшим игроком в мире в 1999 году. В то время IBM тестировала возможности своего суперкомпьютера Deep Blue. Они хотели знать, сможет ли он победить человека в шахматы. Поэтому они отправили Deep Blue на битву с Гарри. За произошедшей битвой наблюдали программисты, шахматисты, ученые и целая группа возбужденных граждан, которые с нетерпением ждали исхода с надеждой и скептицизмом в сердцах. Каспаров приложил все усилия, чтобы сформулировать грандиозную стратегию против компьютера. Однако бесстрастная эффективность Deep Blue оказалась преимуществом. После долгой и упорной игры Deep Blue вышел на первое место. Эпическая битва открыла новую эру - началась эпоха человека против машины!

Изучая прошлые отношения между людьми и машинами, становится ясно, что теперь они отличаются от того, что было раньше. В древние времена такие инструменты, как повозки с лошадьми и повозками, использовались для буксировки тяжелых грузов, так что людям не приходилось это делать. Жизнь была жестокой, когда росли люди, когда было мало лекарств, продовольственной безопасности и удобства. Люди довольствовались тем, что у них было. Затем, когда произошла промышленная революция, люди оказались в новой эре, когда машина больше не работала в тандеме с рабочим - они конкурировали с ней. Благодаря более мощным возможностям и высокой эффективности фабрики начали заменять традиционные кустарные промыслы. Больше всего этот эффект почувствовали те, кто находился внизу, у которых просто не было ресурсов, чтобы конкурировать с компаниями, которые могли бы производить больше продукции по более низкой цене. В современную эпоху феномен технологий, нарушающих Великий общественный порядок, проявляется в таких монополиях, как Google и Amazon, которые доминируют в Интернете и в сфере доставки.

Каждый день возникают новые вопросы о влиянии технологий на нашу жизнь в будущем. Тем временем компьютеры смогли быстро освоить сложные игры благодаря новым захватывающим достижениям. Показательный пример: когда программа AlphaGo Google DeepMind победила действующего чемпиона мира Ли Седола в китайской игре Go в 2016 году. Некоторые могут восхищаться огромным потенциалом, который нас ждет. Однако ИИ - это не только развлечения и игры. Существуют реальные риски, которые создают мощные технологии, несмотря на то, что они приносят ощутимые выгоды человечеству. Видения программно-усиленной голографической брони могут появиться у вас в голове, как костюм прямо из видеоигры, но я уверяю вас, что эти опасности действительно присутствуют в нашем мире сегодня. Среди опасностей - взлом сетей кибербезопасности. ИИ способен выполнять функции распознавания голоса или изображения, которые сегодня служат краеугольным камнем многих процессов обеспечения конфиденциальности. Поскольку программные модели, управляемые ИИ, могут так быстро адаптироваться, они представляют угрозу для идентификационной информации миллиардов людей по всему миру. Хакеры могут даже кодировать программы, которые позволяют не обнаруживать утечки данных, оказывая разрушительное воздействие на людей, чьи данные они крадут.

Проблемы конфиденциальности

В июле 2020 года Twitter оказался одной из крупнейших корпораций, пострадавших от утечки данных, поскольку сообщения, наполненные мошенничеством, отправлялись из влиятельных аккаунтов прямо отдельным пользователям. Компания также была предметом вопросов по поводу соблюдения конфиденциальности данных. Утверждается, что его алгоритмы предвзято относятся к точкам зрения, против которых в прошлом выступала компания, многочисленными лицами, которым запрещен доступ к сервису. Хотя остается вопрос, были ли эти запреты оправданными или нет, дело в том, что не только Twitter нарушает свободы. Такие крупные технологии, как Google, Amazon и Apple, собирают данные о вас каждый день.

Есть причина, по которой технологические компании предоставляют вам все свои услуги бесплатно. Каждый день, когда вы публикуете воспоминания через Facebook, заказываете пакет на Amazon или выполняете поиск в Интернете на Apple, ваши данные собираются тайно. Данные объединяются для создания профилей персонажей о вас на основе замеченных предпочтений. Рекламодатели используют данные, собранные платформами, в обмен на их оплату. По сути, те объявления Amazon для косплея, которые вы видите при просмотре веб-страниц, не являются жутким совпадением. Они здесь, потому что за вами следят.

Хотите доказательств? С 2010 года доход от рекламы Facebook вырос на 3600%, хотя их пользовательская база увеличилась всего на 310%. Компания, которая получила самый большой доход от рекламы в 2019 году, была Facebook, с поразительной прибылью в 27 долларов на пользователя. Однако Google немного впереди, заработав 67 долларов на пользователя в том году. Статистика неоспорима. Они сообщают о положении дел с конфиденциальностью в нашем мире прямо сейчас.

Если вы все еще задаетесь вопросом, почему это является проблемой, то это потому, что вы, скорее всего, не подвергались действительному наблюдению. Проще говоря, мы живем в преимущественно вестернизированном обществе, мифы которого крутятся в фильмах-антиутопиях. К сожалению, эти системы переходят в Соединенные Штаты, и очень быстро, поскольку наше правительство скупает базы данных частного сектора для перехвата сообщений.

Как пояснил обозреватель Harvard Law Review Нил М. Ричардс, существует две основные угрозы, связанные с технологическим надзором. Если за вами все время наблюдает центральный авторитет - например, ваш отец, учитель или директор - осмелились бы вы высказаться противоположного мнения? Ответ: маловероятно. Чтобы развить по-настоящему честное, искреннее видение мира, нам, людям, нужно побыть в одиночестве, чтобы подумать и поразмыслить над своим опытом. Во-вторых, динамика наблюдения способствует крайне неравной динамике власти между наблюдающим и наблюдаемым. Люди, за которыми ведется наблюдение, подвергаются риску дискриминации, принуждения и выборочного принуждения - всех токсичных действий, которые обидчик применяет к своей жертве. В других странах людей часто преследуют или шантажируют просто за то, что они выражают мнение, отличное от существующего.

Хотя мы не находимся на таком экстремальном уровне, централизованный путь, по которому мы идем, неизбежно даст одной группе значительный контроль над большинством людей. Теперь я буду честен. Я не думаю, что то, как мы наладили обмен информацией, будет гарантировать личную безопасность в будущем.

Преодоление разрыва

Я вижу 3 основных проблемы, которые присутствуют в нашем нынешнем доверии огромным корпорациям, - это жадность, предвзятость и контроль. Позволь мне объяснить. Руководители крупных корпораций не заинтересованы в том, чтобы заботиться о наилучших интересах потребителя, кроме как поддерживать бесперебойную работу операционной системы. Они хотят зарабатывать деньги, что является основной целью бизнеса. Таким образом, они не откажутся от практики продажи данных своих клиентов - ваших данных - в ближайшее время. Он будет отправлен неизвестным организациям: возможно, иностранным правительствам или, возможно, даже другим многонациональным технологическим компаниям. Никто не может сказать, что именно произойдет с вашей личной информацией. Возможно, он будет собран официальным лицом в Казахстане или использован компанией, продающей серверное оборудование в Канзасе. В любом случае ваши данные были отправлены этим организациям без вашего разрешения. Это все равно, что сказать: «Я никому не скажу, кто я», а затем все пожертвовать Google.

Во-вторых, технологические компании имеют виртуальную монополию на алгоритмы, определяющие контент, который зрители социальных сетей видят каждый день. Их централизованный характер напрямую противоречит естественному пути, которым мы, люди, учимся и развиваем мнения по действительно важным вопросам. Когда вы просматриваете сообщения, вы видите контент, рекомендованный вам на основе ваших вкусов. К сожалению, реальный мир обслуживает не только вас. Существует множество идей, некоторые из которых могут противоречить личным интересам. Однако они все еще существуют и могут принести вам реальную пользу для вашего восприятия истины. По словам великого предпринимателя в области финансов Рэя Далио, «поскольку трудно увидеть себя объективно, вам нужно полагаться на мнение других и все доказательства». Его принцип - очень реальная истина, которая до сих пор применима к современному миру. Алгоритмы подсознательно представляют предвзятый исходный материал, что привело к появлению группировок людей, которые разделились во мнениях больше, чем когда-либо прежде. Алгоритмы косвенно вызвали настоящий разлад, который в настоящее время преследует наше общество, и их необходимо улучшить, если мы хотим иметь хоть какой-то шанс на достижение мира IRL.

И последнее, но не менее важное - это беспрецедентная ложь, которая распространяется как лесной пожар под влиянием вышеупомянутых алгоритмов. Очень сложно проверить, что реально, а что нет. Ежедневно миллиарды пользователей Интернета натыкаются на контент, который был опубликован кем-то другим, но не всегда соответствует действительности. Контент постоянно перерабатывается. Вы когда-нибудь спрашивали, как теории заговора стали настолько популярными? Это потому, что пользователь видит одно сообщение об этом, с интересом нажимает на него и просматривает море рекомендуемых сообщений на ту же неточную тему. И там, где есть предел эмоциям, которые вы можете вежливо выражать другим людям, Интернет полон гнева, унижения и негодования в любой момент. В результате вы будете получать больше отрицательного контента, чем положительного, в течение времени, проведенного в сети, чувствуя большее отчаяние, чем вы того заслуживаете, после выключения экранов.

Принимая во внимание огромную ответственность, которую возьмут на себя привратники ИИ, необходимо, чтобы был способ сохранить его власть в руках всех, а не только одной сущности. В противном случае последствия будут катастрофическими. Принимая во внимание прошлые зверства, проистекающие из человеческой природы и усиленные плавным совершенством технологий, решения, которые мы выбираем в будущем, либо создадут, либо разрушат наш порядок как вида. Тем более, что, оказавшись перед выбором, большинство людей будут защищать себя, вместо того, чтобы высовывать шею изо всех сил. Многие знают это качество как самосохранение.

Самосохранение - это не хорошее или плохое положение само по себе, это просто выражение нашей потребности в выживании. Но это становится проблемой, когда у вас есть центральная власть, контролирующая все. Кто будет достаточно храбрым, чтобы высказаться и привлечь к ответственности эту власть? Скорее всего, почти никто. Уже видите угрозу? Центральная власть сможет злоупотреблять своей властью любыми доступными средствами. Они могут украсть вашу работу, семью и даже право на свободу передвижения, и это сойдет с рук. Возможность того, что это произойдет в самом ближайшем будущем, с использованием технологии, которая обладает огромными возможностями для нашего коллективного существования, не представляет хорошего будущего для человечества.

Поэтому нам нужна система, которая предотвращает централизацию власти в руках нескольких избранных, но при этом обеспечивает те же функции, которые так нравятся пользователям. Таким образом, децентрализация - это то, что нам нужно для сохранения собственного достоинства как личности. Децентрализация - единственный способ, которым мы сможем свободно выражать свое мнение как личности, сохраняя при этом прозрачность, открытость и творческий подход, которые так ценятся в Интернете. В конце концов, мы не знаем, как это будет выглядеть в будущем. Он может быть построен на такой экзотической основе, как квантовое машинное обучение или инфраструктура блокчейна. В любом случае ясно одно. Нам нужна группа решительных, целеустремленных людей, которые отстаивают свои ценности и готовы действовать для построения более свободного и справедливого общества.

Демократизированный ИИ

Чтобы продвигать общественные ценности, которые склоняются к демократизации ИИ, нам нужны правила, устанавливающие четкие границы того, что можно и что нельзя. Основным препятствием на пути к достижению нашей цели являются устаревшие действующие законы и законодательство, не обеспечивающие реальной основы для регулирования. Существующие либо разрешительные, либо совершенно неэффективные. Возьмем, к примеру, Закон о конфиденциальности электронных коммуникаций. Первоначально он был принят в 1986 году и дал правительству США разрешение на просмотр цифровых сообщений, а также GPS-слежение через сотовые телефоны. Существует также Закон о защите конфиденциальности детей в Интернете, принятый в 2000 году, чтобы определить, подходит ли веб-сайт для лиц младше 13 лет. Тот факт, что американские законы о конфиденциальности в основном действуют от двух до четырех десятилетий, должен вызывать беспокойство у любого гражданина. В конце концов, с экспоненциальной скоростью, с которой развиваются технологии, как может законодательство не отставать от очевидной потребности в безопасности? Обязательно нужно будет принять новые законы.

Поскольку человечество вступило в такую ​​новую сферу, нам сначала нужно посмотреть, что такое ИИ, чтобы сформировать законы, которые имеют смысл. В большинстве проектов искусственного интеллекта сегодня есть модель и большой набор данных, используемых для обучения модели, на которые не обращают внимания специалисты по данным, которые следят за развитием модели и вносят соответствующие изменения для повышения ее точности. Центральная группа управляет каждым этапом процесса. Но в действительности создание ценности для поставщиков не обязательно коррелирует с созданием ценности для потребителей. Фактически, централизованная структура фактически тормозит прогресс до такой степени, что потребители получают меньшую ценность, как вы можете видеть на графике ниже.

Это потому, что, когда людям предоставляется среда, в которой они могут свободно сотрудничать, процветает обмен идеями. Открытая система работает прямо противоположно лидерству сверху вниз. Вместо этого тестирование и оптимизация алгоритма будут объединены между несколькими участниками. Однако открытая система также означает, что обмен идеями не обязательно будет соответствовать статус-кво. В конечном итоге демократизированная среда может даже представлять угрозу статус-кво.

Решения

Прежде чем мы немедленно решим перейти от централизованного ИИ к децентрализованному ИИ, мы должны сначала задать себе несколько вопросов, в основном касающихся конфиденциальности, влияния, экономики и прозрачности.

  1. Конфиденциальность: могут ли группы обучать модель с использованием наборов данных, не раскрывая данные публично?
  2. Влияние: могут ли группы влиять на поведение модели, имеющей численное значение?
  3. Экономика: можно ли вознаградить людей, не занимающихся исследованием данных, за их вклад в знания и возможности модели?
  4. Прозрачность: может ли поведение модели быть доступным для всех сторон без централизации?

Я оставлю это на ваше усмотрение, чтобы вы задавались вопросом, на что будет похоже будущее. Но эти ключевые вопросы очень важны, потому что они определяют то, как принимаются законы в сфере технологий. Более того, децентрализация может быть включена в каждый из них. Конфиденциальность способствует гомоморфному шифрованию, когда определенные типы вычислений выполняются с шифрованным текстом, который дает результат, который также находится в шифрованном тексте. Гомоморфное шифрование представляет собой огромное преимущество в том, что одна сторона может комбинировать зашифрованные числа вместе, а другая сторона может расшифровать их, при этом ни одна из сторон не может определить значение чисел. Бац! Ваш пароль теперь навсегда запрещен для просмотра Google. Гомоморфное шифрование может даже позволить участникам анонимно вносить вклад в наборы данных, тем самым снижая вероятность того, что окончательный алгоритм ИИ будет дискриминировать меньшинства или людей, которые не говорят по-английски в качестве своего первого языка.

Блокчейн - моя страсть! Это многообещающая основа децентрализованной экономики, управляемой машинами. Принцип работы блокчейна в основном соответствует принципам настоящего децентрализованного приложения ИИ. В двух словах, это база данных, в которой блоки данных связаны друг с другом. Когда информация пересылается от одной стороны к другой, обычно обе стороны должны достичь взаимного консенсуса или согласия относительно того, что происходит. В противном случае ситуация станет неорганизованной, и данные могут быть неправильно обработаны. Блокчейн устраняет потенциальные проблемы с помощью своей системы смарт-контрактов или компьютерных протоколов, предназначенных для выполнения после выполнения условий покупателя или продавца. Как только информация отправляется отправителем, она проверяется смарт-контрактом, а затем добавляется в реестр или в прошлую запись всех предыдущих транзакций в этой цепочке блоков. Блокчейны обычно ассоциируются с криптовалютой, но в последнее время они используются на развивающемся рынке Dapps. Dapps - это крупный прорыв, поскольку они полностью децентрализованы. Поскольку блокчейн используется для множества различных целей с инфраструктурой и безопасностью, необходимыми для обеспечения надежного взаимодействия, это может стать следующим большим шагом, который приведет к прорыву на рынке децентрализованного ИИ.

Теперь вы можете подумать: «Все это звучит супер-круто, но почему меня должно волновать, есть ли вероятность того, что результаты ИИ в любом случае будут предвзятыми?» Хороший вопрос, вот что решает федеративное обучение. Федеративное обучение - это система, которая позволяет ИИ работать на широко распространенных платформах, таких как мобильные системы или системы Интернета вещей. Он был основан исследовательскими лабораториями Google. Первоначальная идея заключалась в том, что общая модель будет обучаться на центральном сервере через федерацию участвующих устройств. Таким образом, каждое из устройств сможет вносить данные в модель, сохраняя при этом данные на центральном сервере. Это надежная альтернатива простому запуску инфраструктуры ИИ из централизованной модели.

Децентрализация не может решить всех проблем с ИИ. Фактически, это может привести к еще большему количеству загадок. Независимо от проблем, которые неизбежно возникнут, стоит создать систему, в которой ценится голос каждого. Пришло время заложить основу для системы, которая гарантирует большее равенство - не только для нас, но и для будущих поколений, которые унаследуют этот мир после того, как мы уйдем.