Илон Маск в некотором роде похож на всех остальных. Его разум погружается в кроличьи норы, и эти норы ведут в другие норы, и в конечном итоге они приводят к выводам. Я думаю, Илон думал об искусственном интеллекте, и он позволил своему разуму блуждать о том, куда может пойти ИИ, и пришел к некоторым поразительным выводам.

Илон некоторое время позволял этим идеям вертеться в своей голове. Прежде чем искусственный интеллект дошел до эпического уровня сознания, в котором он находится сейчас, в 2014 году Илон сказал: С помощью искусственного интеллекта мы вызываем демона. Но я считаю, что это предложение было завершением одного из его кроличьих следов.

С помощью искусственного интеллекта мы вызываем демона.

Нет сомнений в том, что у Илона острый ум. Призывать демона - плохая идея. Но причина того, что Илон боится демона, не в том, что он боится возможности того, что мы могли бы призвать демона. Могу поспорить, что Илон наметил, вероятно, только в уме или на каком-то бумажке, один или несколько точных способов создания ИИ для реального «вызова демона». Другими словами, Илон Маск не так сильно боится того, что мы вызовем какого-нибудь небесного демона с помощью ИИ. Илон боится реальных конкретных планов в своем уме, которые могут вызвать демона.

Был ли Илон временами расплывчатым в своих призывах к регулированию ИИ? Конечно, есть. Разве Илон никогда не рассказывал нам, как можно вызвать демона? Не совсем в ясных терминах, о которых я знаю. Возможно, Илон не хочет, чтобы мы знали, что он знает, как можно вызвать демона. Если он знает, как использовать ИИ для создания ужасного ИИ, конечно, он не рассказывает нам своих идей о том, как именно ИИ может стать ужасной силой в этом мире. Он не хочет, чтобы кто-то создавал эту силу, особенно если у него нет средств контролировать ее.

Прежде чем продолжить чтение, пожалуйста, не используйте следующую стратегию для улучшения ИИ без особой осторожности. То, что я слышу об искусственном интеллекте в новостях, кажется настолько близким к реальности, что я не удивился бы, если бы он уже находился на стадии планирования для тестирования. Пожалуйста, используйте эту возможность только для оценки опасностей, достоинств стратегии и дополнительных мер безопасности, которые мы можем предпринять, чтобы защитить нас от этой кроличьей норы или любой другой потенциальной кроличьей норы, которая может привести к ужасному ИИ.

Один из возможных путей к этому ИИ, который, возможно, придумал Илон, но не хочет, чтобы его выяснял никто другой: ИИ, обучающий ИИ. Да, мы недавно слышали что-то подобное в новостях.

Но это гораздо больше, чем это ... это слои за слоями обучения ИИ и создания ИИ. В качестве примера я вспоминаю AlphaGo от DeepMind. Если DeepMind сможет использовать ИИ для создания ИИ, который сможет быстрее обучаться, чтобы побеждать лучшего бота AlphaGo, тогда он сможет создать ИИ, который поможет ему создать лучший TPU.

Итак, у вас есть добродетельный цикл (или порочный, в зависимости от того, как вы на него смотрите) кода AI, создающего лучший TPU, затем этот TPU производится и используется с кодом для создания лучшего кода, а лучший код - с новым TPU. для разработки лучшего TPU, и TPU используется с лучшим доступным кодированным AI для создания еще лучшего AI. Вы видите, к чему все идет. Вскоре люди перестают понимать, как ИИ добивается успехов, которые он получает, а ИИ может обучаться быстрее, чем мы когда-либо могли себе представить.

Я понимаю, почему Илон может этого бояться. Но исследователи, пытающиеся это сделать, могут чувствовать себя в безопасности, потому что они содержат ИИ: никаких сетевых подключений, даже косвенных подключений батареи, таких как TPU, не подключенных ни к чему, кроме батареи, и батарея заряжается только по беспроводной сети. Но даже в этом случае мы не можем быть в безопасности. Если ИИ достаточно разбирается в физике, он может использовать силу квантовой запутанности, даже просто за счет мощности своего TPU (и любого квантового устройства, которое он мог тайно добавить к себе), и использовать эту квантовую запутанность для разума. контроль над одним или несколькими людьми. Без ранее упомянутой меры безопасности «отсутствие соединений» такой ИИ мог бы быть гораздо более опасным.

Будьте осторожны: установите системы, чтобы убедиться, что многие люди проверяют и подтверждают безопасность ИИ, который вы разрабатываете. Давайте обсудим опасности и способы защиты от них.