Следует ли позволить циничной и безответственной Силиконовой долине по-прежнему распоряжаться практически всеми данными человечества?

Первоначально опубликовано на шведском языке в финской ежедневной газете Hufvudstadsbladet

Автоматизация и роботизация становятся все более заметными в средствах массовой информации, хотя непосвященных можно простить за то, что они все еще ничего не знают об этом. Машинное обучение происходит прямо сейчас. Искусственный интеллект и машинное обучение, применяемые к огромным объемам данных, используются для автоматизации все большего количества вещей, которые до сих пор нам приходилось делать вручную.

Сейчас большая часть этих данных централизована и находится в руках нескольких ключевых игроков Кремниевой долины. И эта централизация данных, топливо машинного обучения, также привлекла поразительное количество ведущих мировых исследователей машинного обучения — настоящих суперзвезд отрасли — которые в последние годы были наняты из университетов такими компаниями, как Facebook, Google и Microsoft. .

В результате эти компании проводят исследования и разработки в этой области, и такая ситуация потенциально опасна. Эта концентрация технологической мощи огромна — откуда мы знаем, что можем доверять этим компаниям?

В своей недавней книге Disrupted: My Misadventure in the Start-Up Bubble технический журналист и писатель Дэн Лайонс рассказывает о своем опыте работы в бостонском стартапе HubSpot. Картина Кремниевой долины, которую он рисует, пугающая: поверхностная, пубертатная и в то же время крайне циничная и безответственная.

Можно, конечно, усомниться в изображении Лайонса. Возможно, у него действительно есть какие-то проблемы, но если картина, которую он изображает, в целом верна, то есть основания беспокоиться о том, сможет ли такая культура взять на себя ответственность за управление данными всего человечества.

Конечно, мы всегда можем принять решение воздержаться от обмена нашими данными с этими организациями, но это не особенно удовлетворительный ответ. Во-первых, потому что в наши дни это вряд ли практично или даже невозможно, но также и из-за возможностей, которые мы потеряли бы, выбрав этот вариант. Не использовать эти услуги означает не использовать Интернет, социальные сети, электронную почту и т. д., а не делиться своими данными означало бы отказаться от нашей способности использовать и разрабатывать системы, которые действительно могут сделать нашу жизнь и даже наши сообщества лучше. Представьте себе, например, в будущем более точные диагнозы при посещении врача и более последовательные решения судебных органов: результат машинного обучения в сочетании со всеми этими данными. Эти и многие другие вещи могут стать результатом исследований, которые сейчас проводятся в Силиконовой долине.

Нам нужна эта форма искусственного интеллекта для всего нашего будущего, но нам также нужны какие-то гарантии того, что право собственности и контроль над нашими данными и, следовательно, наша конфиденциальность не будут скомпрометированы.

Исследователи работают над тем, как сервисы могут применять машинное обучение к вашим данным, не «видя» их. «Гомоморфное шифрование» — это средство защиты данных от внешнего просмотра. Только те, у кого есть ключ для просмотра данных, также могут видеть результаты вычислений, которые были сделаны на них. Это одна из многих возможных моделей, которая могла бы защитить нас от недобросовестных компаний, но пройдет некоторое время, прежде чем такие решения будут готовы к использованию.

Пока мы ждем, мы должны проявлять особую бдительность в отношении этики тех, кому мы доверяем наши данные.