В последние годы произошли значительные улучшения в области ИИ, подкрепленные несколькими технологическими достижениями. В ближайшие годы они продолжат предпринимать более масштабные шаги, добившись еще большего прогресса и значительного прогресса.

Когда это происходит, мы также создаем (неосознанно) различные риски для нашей социально-экономической структуры, цивилизации в целом и, в некоторой степени, для человечества. Риски на уровне видов еще не очевидны; однако два других риска, социально-экономический и цивилизационный, достаточно значительны, чтобы их можно было игнорировать. С точки зрения бизнеса несколько рисков могут негативно сказаться на бизнес-показателях.

А пока давайте поговорим об общих рисках исхода, которые могут оказать существенное влияние на важные социальные, гражданские и деловые аспекты.

Одна из вещей, которую мы не рассматриваем, — это модульные усовершенствования, которые вскоре могут многократно увеличить этот риск. Если у вас есть опыт разработки модулей, таких как программирование или использование каких-либо строительных блоков, это будет более очевидно.

Создание первых нескольких строительных блоков требует много времени и усилий. Однако по мере того, как мы строим эти блоки, следующая сборка становится более простой, удобной и быстрой. И в кратчайшие сроки общая сборка становится намного быстрее и проще.

С разработками ИИ дело обстоит так же. К настоящему времени разработано и находится в стадии разработки несколько важных строительных блоков. Когда мы соединим их вместе, возможности ИИ многократно возрастут, что должно стать для нас более серьезной проблемой.

Более важная часть касается рисков, о которых мы еще не подумали. Если бы вы спросили людей в 18 веке, каковы значительные риски для цивилизации, они бы не сказали ядерное оружие или оружие; для них это было надуманно. Мы, вероятно, находимся в той же ситуации, что и они, и мы не знаем, чего мы не знаем, классический пример гипокогниции. [1]

Есть несколько рисков, которые несет с собой этот крестовый поход ИИ. Возможно, мы не сможем избежать их всех, но мы можем понять их, чтобы справиться с ними.

В настоящее время многие ИИ-решения — чистый хлам.

Наш чрезмерный энтузиазм по поводу новых технологий каким-то образом совпал с нашими ожиданиями в отношении качества. Настолько, что мы почти перестали требовать правильных качественных решений. Мы так любим эту новизну, что игнорируем недостатки новых технологий.

Он поощряет некачественные решения день ото дня, в результате чего куча ненужных решений растет быстрее, чем когда-либо. Тревожной частью этого является то, что создание некачественных решений также не может понять эту проблему.

Разве мы не должны бросать вызов мусорным решениям ИИ?

Простое стремление к большему количеству технологических решений, не обращая внимания на качество этих решений, добавляет много мусора в поле. Находясь на рынке, этот мусор легко вызывает разочарование и, в свою очередь, усиливает сопротивление здоровому принятию.

Подход «количество против качества» также поощряет коррупцию за счет клиента. Некачественные решения проталкиваются клиентам в глотку, используя их невежество и желание поддаться страху упустить выгоду (также называемое FOMO). Это особенно верно для нескольких технологий, проходящих цикл ажиотажа; ИИ — один из них.

Проблема с этими некачественными решениями заключается в том, что недостатки некачественных технологий не проявляются, пока не становится слишком поздно! Во многих случаях ущерб уже нанесен и может быть необратимым.

В отличие от многих других технологий, где что-то работает или не работает, в решениях ИИ существует значительная серая зона, которая может менять оттенки с течением времени. Более того, если мы не знаем, в каком направлении двигаться, мы создаем мусор. Этот мусор, по сути, означает, что кто-то где-то потратил много денег на создание и развитие этих решений. Это также указывает на то, что несколько клиентов, возможно, пострадали или имели негативный опыт, благодаря ненужным решениям.

Нам нужно ставить под сомнение качество каждого решения и импровизировать наш подход к новым технологиям в целом, включая ИИ.

Вы когда-нибудь видели систему сбалансированных показателей для ИИ?

Отсутствие сбалансированной системы показателей страдало отделы продаж в течение нескольких десятилетий и породило множество хищнических и обманных методов продаж. Это произошло потому, что одной из целей отдела продаж было максимизировать объемы продаж. Однако в нем часто отсутствовали некоторые мелкие детали и не указывались приемлемые методы продажи для достижения этих целей.

Раздоры, гонки или противоречивые цели часто являются причиной трений между различными командами и людьми. С ИИ на картинке вопрос масштаба. То есть решения на основе ИИ известны своей эффективностью и эффективностью на массовом уровне. Поэтому несовпадение наших целей с целями машины может быть опасным. Команду людей исправить легче; сделать это с безудержной машиной может быть очень сложной и трудной задачей.

Если вы скомандуете своей автономной машине: «Отвезите меня в больницу как можно быстрее», это может привести к ужасным последствиям. Ваша машина может быстро доставить вас в больницу, как вы и просили, но может оставить за собой след из нескольких аварий. Если вы не укажете, что необходимо соблюдать правила дорожного движения, что никто не должен причинять вреда людям, что он не должен совершать опасных поворотов, и некоторых других основ здравого смысла, ваша машина в конечном итоге превратится в 2-тонный вооруженный металлический блок.

Достижение уровня согласования с человеческим здравым смыслом довольно сложно для компьютеризированной системы. Без какого-либо сбалансированного подхода, такого как система показателей, это может быть недостижимо.

Несогласованные или запутанные и смешанные цели ИИ будут серьезной проблемой в будущем, поскольку ИИ будет чрезвычайно хорош в достижении своих целей, но эти цели могут не соответствовать тому, чего мы действительно хотели.

Знаешь «как», но не «почему»? У нас есть проблемы

Решения ИИ, как правило, отлично подходят для выполнения любой поставленной задачи эффективно, действенно и в постоянном масштабе. Однако знание того, как выполнить конкретную задачу, иногда не единственное, что нужно знать. Понимание того, почему цель работы не менее важна, поскольку это может дать ценный контекст самой задачи. Понимание этого контекста полезно не только для выполнения задачи, но и для импровизации по мере необходимости и обеспечения охвата всех соответствующих основ.

Технология — это ответ на вопрос «как» стратегии, но без правильных «почему» и «что» она может принести больше вреда, чем пользы.

Один из источников предвзятости в решениях ИИ — неспособность понять «почему».

Например, если ваша страховая компания сообщает вам, что вы не подлежите страхованию, потому что так говорит система. И система говорит так, потому что у нее есть данные, которые показывают, что вы превышали ограничение скорости. Кто-нибудь вообще знает, почему вы ехали с превышением скорости? Может быть, это случай чрезвычайной ситуации, когда вам пришлось нарушить правило? Только поняв, почему в таких случаях это будет иметь больше смысла. Но вполне возможно, что ваша страховая компания может даже не спросить вас об этом и отказать в покрытии.

Когда системы ИИ не знают почему, всегда будет скрытый риск дискриминации, предвзятости или нелогичного результата.

Правильное решение — чужие руки

Я всегда говорю, что инструменты и системы не приносят вреда; люди, использующие их! С технологиями дело в том, что если вы научитесь их использовать, они будут работать на вас. Но то, «кто» вы есть, будет решать, «как» вы будете это использовать.

Примечательно, что интерфейс между людьми и системами ИИ является одной из рискованных областей. При использовании систем эти риски преобладают на предварительных этапах обучения ИИ. Ошибки кодирования, упущения в управлении данными, неправильное обучение моделей и т. д. могут легко поставить под угрозу критические характеристики решений ИИ, такие как предвзятость, безопасность, соответствие и т. д.

Не стоит забывать и о рисках, связанных с тем, что недовольный персонал может получить доступ к этим системам и тем или иным образом нарушить их работу.

Системы вооружения, оснащенные ИИ, наиболее уязвимы для правильного ИИ при проблемах с неправильными руками и, следовательно, имеют самые большие риски.

Опять же, мы не говорим о том, что системы ИИ становятся злыми. Вместо этого проблема заключается в том, что кто-то злоупотребляет мощной системой искусственного интеллекта. Возможность использования систем ИИ для подавления других какой-либо группой или страной представляет собой значительный риск. В целом, риск попадания правильного ИИ не в те руки является одной из критических проблем и требует серьезного внимания, чтобы избежать его.

Серое вещество — используй или потеряешь!

Расширение ИИ и автоматизации за логические пределы потенциально может изменить наше представление о том, на что способны люди. Несколько десятилетий назад выполнение математических вычислений вручную на листе бумаги было высоко ценимым навыком для человека. С появлением калькуляторов и компьютеров мы больше не видим особой ценности в этом (навыке).

Мы по-прежнему ценим человеческое взаимодействие, коммуникативные навыки, эмоциональный интеллект и некоторые другие качества людей. Что происходит, когда приложение ИИ берет верх? Что случилось с ИИ, выполняющим рутинные задачи и оставляющим нам время на то, что нам нравится и нравится?

Существует высокий риск того, что в конечном итоге несколько человек откажутся от своего интеллекта и будут сидеть в стороне, ожидая, пока приложение для смартфона скажет им, что делать дальше и как они могут себя чувствовать сейчас!

Когда мы изобрели автоматические автомобили, модернизацию автомобилей с ручным переключением передач, мы почти утратили координацию рук, ног и мозга, которая когда-то была важна. Это не просто вопрос координации как таковой; это вопрос мышления, а это то, что люди делают и умеют делать, не так ли?

Огромная сила, которую несет в себе серое вещество в наших головах, может стать тупой и, в конце концов, бесполезной, если мы никогда не используем ее, превращая ее в слякоть. Старая поговорка «используй или потеряешь» явно применима в этом случае.

Миллион лет назад люди потеряли хвост. Будет ли мозг следующим?

[1] Кайди Ву и Дэвид Даннинг, Неизвестные неизвестные: проблема гипокогниции, журнал Scientific American, 9 августа 2018 г., https://blogs.scientificamerican.com/observations/unknown-unknowns-the-problem- гипокогниции/.

Примечание. Эта статья является четвертой из 12 статей об ИИ. Эта серия была впервые опубликована журналом EFY в прошлом году и теперь также доступна на моем веб-сайте по адресу https://www.anandtamboli.com/insights.