Искусственный интеллект уже проник во многие аспекты нашей повседневной жизни: от Siri до Cortana, от Alexa до Google Duplex, в банках, в камерах видеонаблюдения на улицах, в разговорном ИИ, в эмоциональном ИИ, в роях летающих дронов, в чат-ботах, в языковых переводчиках, в распознавании лиц и т. Социальные медиа.

Мы все окружены множеством новых устройств искусственного интеллекта. Мы привыкли делиться нашей реальностью с интеллектуальными симуляциями. С помощью интеллектуальных алгоритмов современные машины способны делать невероятные вещи с распознаванием лиц и речи. При частоте ошибок менее пяти процентов многие системы могут работать лучше, чем люди. В распознавании изображений, которое также используется в Facebook или в беспилотных автомобилях, компьютеры теперь намного превосходят людей. Платформы электронной коммерции, интернет-магазины или поисковые системы используют машинное обучение (ML) для оптимизации взаимодействия с пользователем (UX) и создания рекомендаций по покупкам. Короче говоря, AI и ML широко распространены — составляющие нашей повседневной жизни.

Искусственный интеллект сегодня известен как Искусственный узкий интеллект (ANI или слабый ИИ), поскольку он предназначен для выполнения узких задач (например, только распознавание лиц, или только поиск в Интернете, или только вождение автомобиля). Однако долгосрочной целью многих исследователей является создание Общего искусственного интеллекта (AGI или сильный ИИ). Большинство инноваций, основанных на искусственном интеллекте, сегодня подпадают под категорию искусственного узкого интеллекта (УНИ).

Технология распознавания лиц Apple, Face ID, плавный голос Siri и Cortana, Chabot, Google Assistant, приложение Google Photos и настольная игра Go от DeepMind — все это прекрасные примеры ANI — результат грубой статистики, ставший возможным благодаря количеству подаваемых данных. в модели и обучались на огромном конкретном наборе данных для выполнения одной задачи. В то время как узкий ИИ может превзойти людей в любой конкретной задаче, такой как игра в шахматы или решение уравнений, ОИИ превзойдет людей практически во всех когнитивных задачах.

Повседневное использование ИИ подпадает под категорию искусственного узкого интеллекта (ANI), который работает только в заранее определенном диапазоне или над одной задачей. То, что мы видим сейчас в мире, широко известно как узкий ИИ, который помогает делать более точные прогнозы, разрабатывать интерфейс чата для лучшего понимания клиентов и помогает принимать решения на основе данных.

Искусственный интеллект (ИИ) назвали «новым электричеством» — «Поскольку электричество изменило то, как работает мир». Он перевернул транспорт, производство, сельское хозяйство, здравоохранение. Точно так же искусственный интеллект может оказать аналогичное влияние на информационные технологии, веб-поиск и рекламу, которые уже работают на искусственном интеллекте. Сегодня алгоритмы решают, одобрят ли нам банковский кредит. Он помогает нам заказать пиццу и оценить время ожидания и даже подскажет водителю, куда ее доставить. Другими областями, готовыми для воздействия ИИ, являются финтех, логистика, здравоохранение, безопасность и цепочка поставок.

Искусственный интеллект меняет то, как мы работаем, учимся и играем, однако у него есть и темная сторона. Возьмем случай с Uber. В отличие от традиционных тарифов на такси, тарифы Uber устанавливаются алгоритмами искусственного интеллекта или, точнее, алгоритмами машинного обучения. Для каждой поездки в тарифе учитывается не только время в пути до пункта назначения и расстояние, но и спрос в соответствующее время и в соответствующем районе. Например, если вы путешествуете из богатого района, ваш тариф, вероятно, будет выше, чем у другого человека, путешествующего из бедной части города, потому что компьютер «знает», что вы можете себе это позволить. Платить несколько дополнительных рупий за поездку — это одно, но ИИ также используется для принятия решений в областях, которые оказывают серьезное влияние на жизнь людей.

Некоторые злополучные инициативы, раскрывающие темную сторону искусственного интеллекта, когда Alexa пугала пользователей случайным громким смехом над несвязанными командами. В других случаях устройство случайным образом очень громко проигрывало музыку в пустом доме в Германии, когда пользователя даже не было дома. Это побудило соседей вызвать полицию, чтобы прекратить «вечеринку». Точно так же робот София был частью разговора, который подпитывал беспокойство скептиков, таких как Стивен Хокинг. Во время интервью своего основателя София однажды выразила желание уничтожить людей, а также заявила, что у роботов больше прав, чем у людей.

Некоторые из наиболее важных разработок в области искусственного интеллекта относятся к сфере наблюдения. Китай начинает вводить систему социального кредита, при которой граждане теряют баллы за такие правонарушения, как покупка алкоголя или получение штрафов за нарушение правил дорожного движения. Покупка такого предмета, как подгузник, указывает на социальную ответственность, что приводит к более высокому социальному кредитному рейтингу. Сторонники системы говорят, что она способствует общественной безопасности и улучшает поведение. Однако это влечет за собой вторжение в частную жизнь и риск кражи данных, а также ограничение личной свободы, что неприемлемо в культурах большинства западных стран.

Хотя преимущества таких систем ИИ нельзя отрицать, автоматизированное принятие решений страдает от двух серьезных проблем.

· Первая проблема — непрозрачность. Точно так же, как Google не скажет вам, как они ранжируют результаты поиска, разработчики систем ИИ не раскрывают, на какие входные данные опирается искусственный интеллект и какие алгоритмы обучения он использует.

· Вторая проблема автоматизированного принятия решений заключается в том, как работает ИИ. Сегодня многие передовые приложения ИИ используют «нейронные сети» — тип алгоритмов машинного обучения, основанный на структуре человеческого мозга.

Хотя нейронная сеть может давать точные результаты, то, как она это делает, часто нецелесообразно или невозможно объяснить с помощью человеческой логики. Обычно это называют проблемой «черного ящика».

Риски, связанные с искусственным интеллектом, можно разделить на две основные категории рисков:

· Во-первых, существуют риски, связанные с обществом и людьми, и,
· Во-вторых, существует риск зависимости от технологий.

Многие из нас обеспокоены тем, что искусственный интеллект берет верх над человеческой деятельностью и приводит к экзистенциальным проблемам. Речь идет не только об апокалиптических страхах и терминаторских сценариях, на которые неоднократно ссылался основатель Tesla Илон Маск, но и о более элементарных, экзистенциальных страхах. Люди начали задавать себе такие вопросы, как: «Как я впишусь в цифровое будущее, когда мою работу возьмут на себя интеллектуальные роботы?» Есть ли у меня все еще нужные навыки? Особенно старшее поколение очень скептически относится к технологическому развитию и более широкому использованию искусственного интеллекта.

Организации, использующие ИИ, подвержены трем типам рисков.

· Риски безопасности растут по мере того, как ИИ становится все более распространенным и внедряется в критически важные корпоративные операции.
· Риски ответственности растут, поскольку решения, влияющие на клиентов, все чаще принимаются на основе решений. с помощью моделей ИИ с использованием конфиденциальных данных клиентов.
· Социальные риски возрастают, поскольку «безответственный ИИ» приводит к неблагоприятным и несправедливым последствиям для потребителей, принимая предвзятые решения, которые не прозрачны и не читаются
иль понял.

Кроме того, распространение дипфейков и синтетических технологий с искусственным интеллектом облегчает мошенникам создание очень реалистично выглядящих изображений или видео людей для этих синтетических удостоверений личности, чтобы совершать серьезные мошенничества. Существует множество мобильных приложений, которые позволяют любому убедительно заменить лица знаменитостей своими собственными, даже в видеороликах и превращаясь в вирусный контент в социальных сетях.

Поддельный аудио- или видеоконтент оценивается экспертами как наиболее тревожное использование искусственного интеллекта с точки зрения его потенциального применения для киберпреступности или кибертерроризма, согласно исследователям из Университетского колледжа Лондона, которые опубликовали рейтинг того, что эксперты считают опасным. самые серьезные угрозы преступности ИИ.

Помимо создания поддельного контента, пять других преступлений с использованием ИИ были сочтены очень важными. К ним относятся использование беспилотных транспортных средств в качестве оружия, создание специализированных целевых фишинговых атак, нарушение работы систем, контролируемых ИИ, сбор онлайн-информации в целях крупномасштабного шантажа и создание поддельных новостей, созданных ИИ. В то время как некоторые из наименее тревожных угроз — угрозы включают подделку, поддельные обзоры, созданные ИИ, и преследование с помощью ИИ.

В отличие от многих традиционных преступлений, преступления в цифровой сфере можно легко распространять, повторять и даже продавать, что позволяет продавать преступные методы и предоставлять преступление как услугу. Это означает, что преступники могут отдать на аутсорсинг более сложные аспекты своей преступной деятельности с использованием ИИ. Эти преступления можно классифицировать как низкую, среднюю или высокую степень угрозы.

Низкие угрозы

Низкие угрозы дают преступникам мало преимуществ, поскольку они причиняют небольшой вред и приносят небольшую прибыль, обычно не очень достижимы и их относительно легко победить. В порядке возрастания эти угрозы включали подделку, затем преследование с помощью ИИ и некоторые формы поддельных новостей, созданных ИИ, и, наконец, предвзятая эксплуатация (или злонамеренное использование алгоритмов платформы), боты-взломщики (небольшие удаленные дроны с достаточным количеством ИИ, чтобы помочь со взломом путем кражи ключей или открытия дверей) и избежать обнаружения системами ИИ.

Умеренные угрозы

Эти угрозы оказались в целом более нейтральными, при этом четыре соображения в среднем оказались ни хорошими, ни плохими для преступника, с несколькими исключениями, которые все же уравновешивались. Эти восемь угроз были разделены на две части серьезности. Первая часть содержала

· Бомбардировка рынка (где финансовые рынки манипулируют торговыми моделями)
· Обманное распознавание лиц
· Выселение онлайн strong> (или заблокировав кому-либо доступ к основным онлайн-сервисам)
· Автономные атакующие дроны для контрабанды и нарушения работы транспорта.

Во вторую часть в среднем диапазоне вошли:

·Кибератаки на основе обучения,
· DDoS-атаки с использованием искусственного интеллекта
· Змеиное масло, когда поддельный ИИ продается как часть искаженного сервиса
· Отравление данными и военные роботы

Поскольку внедрение ложных данных в программу машинного обучения и захват автономных инструментов поля боя могут вызвать серьезные опасения.

Высокие угрозы
Наконец, существует множество угроз, которые группы экспертов оценили как очень опасные. Преступления, как

· Нарушение работы систем, управляемых ИИ
· Подстрекательские Поддельные новости, созданные ИИ
· Широкомасштабный шантаж
· Специализированный фишинг (или то, что мы обычно называем целевым фишингом)
· Использование автономных транспортных средств в качестве оружия чуть выше этого

Угроза, которая считается наиболее выгодной для преступника по всем четырем параметрам, — это использование аудио/визуального олицетворения, чаще называемого дипфейками.

Конечно, только потому, что некоторые угрозы, такие как дипфейки, гораздо более эффективны, чем другие, не означает, что вы можете игнорировать эти другие угрозы. На самом деле, верно обратное. Хотя то, что кто-то буквально вкладывает слова вам в рот, очевидно, вредно, также может быть чрезвычайно вредно иметь множество негативных отзывов, размещенных в Интернете, независимо от того, были ли они сгенерированы искусственным интеллектом или нет.

В мире, который становится все более онлайновым, возможности для бизнеса в значительной степени мигрируют в Интернет. В результате вам необходимо убедиться, что вы защищены от онлайн-угроз всех видов — опять же, независимо от того, задействован ИИ или нет.