"Терминатор". "Матрица." "Я робот". Одним из любимых занятий кабинетных экспертов по технологиям уже давно являются размышления о том, какой апокалиптический научно-фантастический сценарий представляет наибольший риск для новых технологий искусственного интеллекта. ChatGPT — это не Скайнет, но риски, связанные с LLM и другими современными технологиями искусственного интеллекта, сомнений не вызывают. И когда некоторые из самых громких имен в отрасли открыто призвали к усилению регулирования в срочном порядке, пришло время обратить на это внимание.

Правительства, конечно, обратили внимание. Но правительства не известны тем, что быстро договариваются о регулировании бизнеса — и, конечно же, не тем, что соглашаются гармонизировать это регулирование с другими правительствами. Напротив, учтите, что ChatGPT существует меньше года, уже является частью рабочих процессов в компаниях по всему миру и по некоторым показателям является самым быстрорастущим технологическим продуктом за всю историю. Для регулирования является огромной проблемой идти в ногу с развитием технологий.

Есть много вещей, которые мы согласны, поскольку общество должно регулироваться, но очень немногие вещи регулируются глобально и эффективно — ни наркотики, ни оружие, и, конечно, не информация. Фактически, благодаря Интернету последнее становится одной из самых сложных вещей для регулирования. И хотя мы, безусловно, запрещаем обмен некоторыми видами информации, такие запреты не являются универсальными на международном уровне и зачастую неэффективны до тех пор, пока информация не станет ассоциироваться с преступной или аналогичной деятельностью.

Это возвращает нас к саморегулированию и крикам циников, которые могут сказать технологическим лидерам: Но зачем вам регулирование, вы можете решить вести себя без закона, предписывающего вам это делать. Мы часто видели, как платформы социальных сетей выражают желание не регулировать в необходимости поддерживать свободу слова, однако мы должны учитывать, что принятие решений ИИ, если оно должно быть действительно разумным, должно также работать в рамках закона и внутри общеприемлемые нормы социального поведения. Мы не приемлем расизм или сексизм на рабочем месте, и даже если ИИ определил предсказуемость и решения, основанные на этих предубеждениях, для интеллектуальной машины неприемлемо увековечивать их, как и для разумного человека.

Любой, кто имеет опыт в области искусственного интеллекта и кто когда-либо работал с ChatGPT в последнее время, может увидеть усилия, которые были приложены для обеспечения его безопасности —…