Анализ влияния искусственного интеллекта на рабочие места и общество с точки зрения специалиста по машинному обучению.

Если вы экономист или социолог, я понимаю, что ваша реакция на заголовок этой статьи будет выглядеть так: «О нет, вот эти высокомерные технические специалисты, которые снова полагают, что они знают обо всем больше, чем все». Но чтобы прояснить, это полностью то, о чем эта статья НЕ предназначена. Напротив, я надеюсь усилить дискуссию и представить идеи, которые могут быть полезны для всех, кто участвует в разработке корпоративной или государственной политики. Фактически, я проявляю огромный интерес к экономике и социальным наукам, особенно к пониманию влияния технологий как на людей, так и на структуру общества.

Причина написания этой статьи заключается в том, что когда я читаю огромное количество материалов, обсуждающих влияние автоматизации и особенно ИИ на общество, я иногда упускаю более техническую / «инсайдерскую» точку зрения, в частности, как подключиться прогнозируемые изменения в экономике и обществе на фактическом этапе технического прогресса и стоящие за ним мотивации.

Иногда просто эти детали скрыты, чтобы читателям, не имеющим технического образования, было легче следить за контентом. Но верно также и то, что многие статьи, похоже, основаны на стереотипах об искусственном интеллекте и / или чрезмерно упрощают аспекты цифровой трансформации, с которой мы сейчас сталкиваемся. Вот некоторые из таких утверждений, которые могут быть наиболее знакомы читателю:

  • «ИИ никогда не заменит творческий подход и нестандартное мышление людей. ИИ может заменить только механические и предсказуемые рабочие места ».
  • «Мы можем подготовить организации и общество к изменениям, вызванным искусственным интеллектом, если каждый получит такие технические навыки, как программирование, наука о данных, блокчейн и кибербезопасность».

По некоторым аспектам существуют популярные, но противоречивые точки зрения, например:

  • «Изначально ИИ приведет к потере работы некоторых людей, но в конце концов он создаст больше рабочих мест, чем заменил, как это произошло с изобретением автомобиля и компьютера».
  • «ИИ сократит количество доступных рабочих мест, но это ожидается и даже желательно, поскольку цель ИИ - повысить наш уровень жизни, позволяя нам меньше работать».
  • «ИИ разрабатывается, чтобы заменить людей, что делает его самой большой угрозой существованию человечества».

В каждом из этих утверждений наверняка есть доля правды. Но они также несут в себе некоторые подводные камни и заблуждения, которые, как я считаю, важно прояснить, чтобы не дать политикам принять решения, которые могут реально навредить обществу в краткосрочной перспективе.

В этой статье я объясню некоторые технические аспекты ИИ, в частности, текущий этап и направления развития ИИ, которые я считаю важными для понимания того, как это может повлиять на рабочие места и общество . Хотя я приведу некоторые технические аргументы, читателю не обязательно иметь технические знания в области искусственного интеллекта, машинного обучения или науки о данных, чтобы читать эту статью.

Что такое искусственный интеллект?

Распространенное представление об «искусственном интеллекте» - это роботы, выполняющие ту работу, которую мы выполняем сейчас. Робототехника и искусственный интеллект, безусловно, являются тесно связанными темами, которые во многом пересекаются, и оба являются частью более широкой темы, называемой автоматизацией, то есть управление выполнением задач за счет уменьшения количества человеческих усилий или вмешательства. Но, как я объясню позже, бум ИИ, который мы наблюдаем в последние годы, не имеет тесной связи с достижениями в области робототехники и не является естественным продолжением общего прогресса в автоматизации.

Начнем с того, что нет единого мнения о том, что представляет собой «искусственный интеллект». Если мы посмотрим на описание в Википедии, мы встретим чрезвычайно расплывчатое определение, в котором упоминаются «обучение», «решение проблем», «способность максимизировать целевую функцию», «способность ощущать окружающую среду», «когнитивные, человеческие. -подобные способности »и т. д. Однако популяризация термина« искусственный интеллект »в последние годы во многом была связана с популяризацией машинного обучения (ML), в частности, с некоторыми подтемами Машинное обучение, такое как глубокое обучение и обучение с подкреплением. С точки зрения непрофессионала:

  • Глубокое обучение - это метод определения значения или прогнозирования результата с помощью компьютерной программы (алгоритма), в которой используется многоуровневая структура данных, которая имеет некоторое сходство со структурой нейронов человека и обозначается как Искусственная нейронная сеть. Глубокое обучение вызвало большой интерес из-за его способности анализировать неструктурированные данные, такие как изображение, звук или человеческий язык, что в некотором смысле соответствует определению Википедии репликации «когнитивных, человеческих способностей».
  • Обучение с подкреплением - это методика, предписывающая действие, которое должно быть предпринято агентом (например, человеком или роботом), путем прогнозирования результата действия после нескольких, возможно, бесконечных шагов вперед в будущем. . Он состоит из компьютерной программы, которая обновляет свои внутренние «знания» каждый раз, когда агент выполняет действие, наблюдая и интерпретируя результат каждого действия. Это описание, кажется, хорошо согласуется с нашим представлением о том, как человек может лучше изучать новые вещи, такие как игра в теннис, пытаясь «делать» их, а не просто наблюдать, как кто-то другой это делает.

Глубокое обучение и обучение с подкреплением также можно комбинировать как метод под названием «Глубокое обучение с подкреплением», которое в основном представляет собой «обучение с подкреплением», выполняемое с помощью нейронных сетей, которые постепенно изменяют свои «нейронные связи», когда агент «учится на опыте». Естественно, это выглядит как еще лучшая аналогия того, как работает человеческий мозг.

А как насчет самого «машинного обучения»? Это гораздо более широкая категория компьютерных алгоритмов, способных «обучать» задачи на основе данных. Он включает в себя глубокое обучение и обучение с подкреплением, а также другие сложные методы, такие как «Совместная фильтрация» и «Повышение градиента», а также более простые методы, которые десятилетиями использовались бизнес-аналитиками, такие как «Логистическая регрессия», и которые обычно не считается «искусственным интеллектом». Наконец, существуют определенные методы, такие как «нейро-нечеткие сети», которые включают ограниченное «машинное обучение», но работают в рамках ограничений, созданных руками человека.

Вот несколько примеров того, как все эти методы можно использовать (или не использовать):

  • Суперкомпьютеру, который играет в шахматы, возможно, не потребуется использовать какое-либо «глубокое обучение», «обучение с подкреплением» или даже какой-либо тип «машинного обучения», поскольку у него достаточно обработки для оценки каждого возможного результата. на несколько шагов вперед;
  • Больничный робот, который транспортирует материалы и лекарства из одной комнаты в другую, может использовать «глубокое обучение» для обработки изображений своего окружения, чтобы распознавать путь, по которому он должен двигаться, а также обнаруживать потенциальные препятствия. такие как люди или носилки. Но остальное поведение всего робота, например, как он определяет маршрут к месту назначения и на каком расстоянии он останавливается, когда видит препятствие, можно определить с помощью ограниченного «машинного обучения», действующего в рамках созданных человеком правил. Это означает, что поведение робота обычно очень предсказуемо и объяснимо;
  • Веб-сайт потокового видео, который может предсказать, насколько каждому пользователю понравится конкретное видео, может сделать это с помощью «машинного обучения», но не обязательно «глубокого обучения». Например, он может использовать технику «совместной фильтрации», которая заключается в изучении уровня привлечения целевого пользователя к видео путем пересечения информации обо всех пользователях и всех их ранее просмотренных видео для выявления отношений сходства;
  • Робот, который играет в пинг-понг против человека, может быть обучен с помощью «глубокого обучения с подкреплением», чтобы иметь возможность определять ход, который максимизирует его шанс набрать очко, итеративно обучаясь, выполняя движения против своего противника и наблюдение за результатом, а также распознавание элементов окружающей обстановки, таких как позиция и стойка соперника, направление и скорость мяча и т. д.

Пытается ли развитие ИИ «подражать» или «заменять» людей?

Прогресс в области автоматизации, робототехники, машинного обучения и искусственного интеллекта ни в коем случае не является «недавним», поскольку он происходил постоянно, начиная с десятилетий назад. Но условия для гигантского скачка интереса к машинному обучению и искусственному интеллекту, который мы наблюдаем в последние годы, сформировались около 15 лет назад, когда началась «трансформация больших данных» благодаря публикации Google MapReduce. модель в 2004 году, а 2 года спустя - ее популяризация посредством выпуска инфраструктуры с открытым исходным кодом Apache Hadoop. С тех пор мир станет свидетелем того, как крупные технологические компании, такие как Google, Facebook и Amazon, а также другие развивающиеся технологические компании, будут собирать огромные объемы пользовательских данных, а затем обрабатывать и монетизировать их способами, невиданными ранее.

Беспрецедентный успех этих компаний, а также популяризованных ими технологий привели к цепной реакции событий, когда почти каждая организация пытается использовать данные, которые у них есть (или иногда их нет, но способны его генерировать) для достижения целей организации. Проще говоря, это «практические» цели, такие как увеличение корпоративной прибыли или эффективность государственной политики.

Обратите внимание, что до этих целей и «подражания людям» еще очень далеко. Фактически, я бы сказал, что самая большая сила машинного обучения заключается в том, чтобы делать то, что люди не могут сделать, например, обрабатывать миллиарды точек данных, которые человек не мог прочитать за всю свою жизнь. Хотя я сам сказал, что нейронные сети изначально были вдохновлены «человеческим мозгом», а методы обучения с подкреплением пытаются имитировать способ обучения людей, факт в том, что реальные модели глубокого обучения / обучения с подкреплением далеки от того, как человеческий мозг работать вроде. Напротив, они сделаны максимально специализированными для решения поставленных перед ними задач.

Конечно, люди могут потерять работу из-за конкуренции с ИИ. Но это потому, что организации пытаются использовать технологии для достижения лучших результатов, используя меньшее количество людей. Не потому, что они пытаются сделать технологию более «похожей на человека».

Это означает, что экономические соображения, а не только технологические, играют роль в определении того, какие наборы навыков уязвимы для замены автоматизации и ИИ. Например, для работы "синих воротничков" требуется автоматизация оборудования (роботов), тогда как работа "белых воротничков" часто может выполняться исключительно с помощью программного обеспечения.

Роботы, в отличие от программного обеспечения, имеют удельную стоимость производства и также могут быть дорогостоящими в обслуживании. Они также сильно ограничены окружающей средой, которая была спроектирована для людей, а не для них. Например, «робот-уборщик», который перемещается и вытирает даже поверхности, может быть не слишком сложным, но как насчет робота, который должен подниматься и спускаться по лестнице, втискиваться в узкие места, собирать и чистить хрупкие предметы? Программное обеспечение, с другой стороны, можно развернуть везде, где могут храниться физические серверы или где есть подключение к Интернету.

По этой причине будет справедливо сказать, что разработка ИИ, который может автоматизировать работу «знатоков», то есть белых воротничков, экономически более привлекательна для организаций, пытающихся увеличить прибыль и сократить расходы. Но, естественно, это произойдет только в том случае, если это будет технологически осуществимо, о чем мы поговорим в следующей части статьи.

Есть ли ограничения на то, что может делать ИИ?

Важно отметить, что ИИ обладает чрезвычайно огромным потенциалом, поэтому лучший вопрос - каковы ограничения того, что ИИ может делать в текущем состоянии и в обозримом будущем? Распространено высказывание, что ИИ не может быть «творческим» или не может «мыслить нестандартно» так же, как человек. Хотя это, вероятно, всего лишь стереотипы, верно, что машинное обучение, включая глубокое обучение и обучение с подкреплением, имеет свои ограничения.

На данный момент, пожалуй, наиболее актуальной из них является проблема маркированных данных нехватки, и она объясняет, как иногда две разные задачи могут иметь совершенно разные уровни сложности с точки зрения зрения человека и машины. Например, почему сегодня мы можем видеть, что ИИ может написать несколько абзацев практически по любой теме (от квантовой механики до истории Туркменистана), но он еще не может обсудить с водопроводчиком решение проблемы утечки в туалете ?

Чтобы понять причину, нужно сначала понять, что модель машинного обучения - это, по сути, математическая формула, применяемая к некоторым входным данным для вывода некоторого результата, такого как прогноз или действие, которое должен предпринять робот или агент-человек. В контролируемом машинном обучении, которое включает в себя глубокое обучение и обучение с подкреплением, математическая формула содержит несколько числовых параметров, которые могут варьироваться от нескольких (например, для модели линейной или логистической регрессии) до сотен миллиардов (OpenAI Языковая модель GPT-3). Математическая формула называется «Модель машинного обучения», а расчет всех этих параметров называется «Модель обучения». Проводя аналогию с человеческим мозгом, «обучение модели» соответствует процессу «перепрограммирования» наших нейронов всякий раз, когда мы изучаем что-то новое.

Мы, люди, способны узнавать новое, наблюдая за «примерами из реальной жизни». Мы получаем информацию из нашего окружения с помощью наших 5 органов чувств и устанавливаем отношения между наблюдаемыми результатами и наблюдаемыми обстоятельствами. Например, если мы неоднократно наблюдаем, что после того, как небо становится облачным и серым, часто идет дождь, в какой-то момент мы начинаем собирать зонтик, прежде чем выходить на улицу, всякий раз, когда мы видим небо облачным и серым. Для ML аналогией этих «реальных примеров» были бы «помеченные точки данных», то есть экземпляры входных данных («наблюдаемые обстоятельства», такие как облачное и серое небо), помеченные соответствующей меткой («наблюдаемые результат », например, появление дождя).

Количество параметров, представленных в математической формуле, и есть «размерность» контролируемой модели машинного обучения. Аналогия: «размерность» соответствует «процентной доле нашего мозга», которая необходима людям, чтобы узнать что-то новое. Разумно сказать, что чем сложнее чему-то научиться (т. Е. Чем больший «процент нашего мозга» нужен людям для этого), тем больше количество примеров, которые нам нужно наблюдать. Например, мы можем узнать разницу между собакой и кошкой на нескольких примерах, но для изучения боевых искусств или нового языка, вероятно, потребуются годы занятий и практики.

Аналогично, для компьютерной программы чем больше размерность, тем больше количество «примеров» (помеченных точек данных), необходимых для расчета параметров в процессе «обучения модели». Что еще хуже, количество необходимых примеров не увеличивается линейно с размерностью; например, для модели с 10 000 параметров может не потребоваться в 10 раз больше примеров, чем для модели с 1 000 параметров; но в 1000, 100000 или даже в миллионы раз больше (см. пояснение в примечании [1]).

Как и следовало ожидать, чем выше размерность и, следовательно, чем больше количество необходимых примеров, тем больше вычислительных мощностей нам потребуется для выполнения «обучения модели». Необходимая вычислительная мощность может быть чрезвычайно велика, как и результирующие выбросы и воздействие на окружающую среду - например, обучение языковой модели «Трансформатор» с 65 миллионами параметров (не совсем сопоставимо с вышеупомянутой языковой моделью GPT-3, которая имеет 175 миллиардов параметров!), по оценкам, производит 626 155 фунтов CO², что соответствует общему количеству выбросов, производимых средним американцем за 17 лет его / ее жизни (подробности см. В [2]). Естественно, если каждая организация начнет обучать большое количество сложных моделей ИИ, может пройти совсем немного времени, прежде чем мы почувствуем влияние на изменение климата.

Вычислительная мощность определенно сдерживает развитие ИИ. Но он стремительно растет, и ожидается, что он будет продолжать расти, несмотря на то, что НИОКР сосредоточены на микросхемах и архитектурах, подходящих для обучения моделей глубокого обучения. Мы также можем полагать, что будущий технологический прогресс каким-то образом решит проблему выбросов. Но с учетом всего этого, существует более фундаментальная проблема, а именно доступность самих помеченных данных. Это своего рода ироническая проблема, поскольку последние 15 лет организации слышали, что повсюду огромные груды больших данных, ожидающих раскрытия своего скрытого потенциала монетизации. Но данные с пометкой , т. Е. Подходящие «примеры» для машинного обучения, на самом деле могут быть скудными или трудными для создания, в зависимости от решаемой проблемы.

Если задуматься, то наиболее успешными примерами искусственного интеллекта являются те случаи, когда таких «примеров» предостаточно. Например, социальные сети или платформа для онлайн-покупок с высокой посещаемостью могут автоматически фиксировать поведение, реакции и покупки каждого пользователя, используя их в качестве примеров, которые можно использовать для обучения моделей для соответствующего определения, прогнозирования и стимулирования поведения, реакций и покупок. Точно так же языковые модели могут написать несколько абзацев текста на любую тему, от квантовой механики до истории Туркменистана, что, безусловно, впечатляет, но факт в том, что в Интернете есть почти неограниченное количество текста на любую тему, которая может можно легко использовать в качестве примеров.

Но во многих случаях помеченные данные не могут быть сгенерированы автоматически, и их необходимо вручную создавать человеком, что называется ручной пометкой. Например, для обучения контролируемой модели машинного обучения, способной определять:

  • Кто изображен на определенном изображении, или
  • Какие эмоции испытывает клиент, обращающийся в службу поддержки, или
  • Является ли страховое требование «подозрительным» в отношении мошенничества

… Мне нужно сначала собрать набор данных «примеров», т.е. где для каждого экземпляра входных данных я уже знаю «метку», то есть правильный результат. Поскольку мой ИИ еще не «изобретен», мне нужны настоящие люди, чтобы оценивать каждый экземпляр входных данных и присваивать ему соответствующую метку.

Мы можем прибегнуть к творческим способам получения таких примеров в больших количествах. Например, приложение для социальных сетей может позволить вам «отмечать» друзей на фотографиях, что помогает в социализации, но также позволяет приложению собирать огромные объемы данных для обучения его алгоритмов распознавания лиц. Но неотъемлемая проблема ручной маркировки заключается в том, что как процесс, который зависит от человеческих усилий, он не становится автоматически быстрее или дешевле из-за улучшений в оборудовании или алгоритмах. Когда мы говорим о чрезвычайно сложных проблемах, для которых могут потребоваться модели с миллиардами или сотнями миллиардов параметров, количество необходимых тегов может оказаться совершенно непрактичным.

Скажем, например, что я разрабатываю искусственный интеллект для чат-бота, который предлагает техническую поддержку для определенного продукта и который должен максимально удовлетворить клиента разговором. Во-первых, если я не даю чат-боту фиксированный набор фраз для использования, его диапазон возможных действий представляет собой весь набор грамматически правильных фраз на языке чат-бота. Кроме того, может потребоваться учесть огромное количество обстоятельств (входные данные), например, прошлые разговоры со всеми клиентами, а также спецификации продукта. Для этого типа проблем мне может потребоваться комплексный подход к машинному обучению, такой как модель глубокого обучения, которая может потребовать, например, 1 миллиарда примеров. Но предположим, что я получаю только около 2000 звонков в день и, следовательно, я могу сгенерировать не более 2000 примеров за день. Это означает, что мне понадобится 1365 лет, чтобы сгенерировать достаточно точек данных для обучения модели машинного обучения.

Наконец, еще одна проблема ручной маркировки заключается в том, что она подвержена человеческой ошибке во всех ее аспектах (наблюдение за данными, оценка метки и транскрипция данных). Например, модель машинного обучения для обнаружения мошеннических страховых претензий, обученная с использованием набора данных, полученного с помощью ручной маркировки, не может стать «умнее» людей, выполнявших эту маркировку. С аналогичной проблемой столкнутся те, кто попытается применить контролируемое машинное обучение для обнаружения «фейковых новостей» и «фальшивых профилей в социальных сетях», которые самим людям трудно распознать. Поэтому неудивительно, что платформы социальных сетей, несмотря на растущую критику, не смогли эффективно сдержать проблему фейковых новостей / профилей, которая в последние годы непрерывно растет.

Но сможет ли ИИ преодолеть эти ограничения в ближайшем будущем?

Естественно, что те, кто занимается разработкой искусственного интеллекта, осознают проблему размерности по сравнению с доступностью маркированных данных. Самый многообещающий метод решения этой проблемы, который может легко стать одной из самых горячих тем в машинном обучении, называется Трансферное обучение.

Идея трансферного обучения удивительно проста: Люди ничего не узнают с нуля; мы используем наши существующие знания, чтобы быстрее узнавать что-то новое, или, другими словами, мы используем наши существующие «нейронные связи». Если я уже умею играть в волейбол, мне будет легче научиться баскетболу, чем тому, кто никогда не учился спорту с мячом. Если бы я много изучал математику, у меня было бы меньше проблем с изучением физики или программирования. Если я уже свободно говорю на каком-либо языке, я могу изучать историю, экономику или любую другую тему, написанную на этом языке.

Трансферное обучение использует ту же идею и применяет ее к ИИ. Допустим, я хочу решить проблему B, для которой есть лишь несколько примеров. Но раньше кто-то другой мог создать модель машинного обучения для решения проблемы A, которая связана с проблемой B, но с миллиардами примеров. Вместо того, чтобы обучать модель для задачи B с нуля, я возьму часть существующей обученной модели для задачи A (скажем, несколько слоев «нейронов» в нейронной сети модели) и включу в модель для задачи B. «Нейронные связи» (т.е. параметры) фиксированы, мне нужно будет вычислить гораздо меньше параметров для решения задачи B. Это снижает размерность и, следовательно, количество необходимых примеров. Этот процесс можно повторять рекурсивно, то есть я могу использовать новую модель для проблемы B как часть модели для решения третьей связанной проблемы и так далее.

Здесь читатель может начать беспокоиться, и это понятно. В конце концов, ИИ не ограничен человеческим мозгом или пятью чувствами, которые мы используем для наблюдений. Посредством рекурсивного применения трансферного обучения к различным областям знаний может показаться, что мы можем построить всеобъемлющий искусственный интеллект, который воплощает в себе все человеческие знания, с потенциалом стать кем-то вроде «Скайнета» или «Альтрона», т. Е. всезнающее существо, обладающее силой свергнуть человечество.

К счастью или к сожалению для некоторых, использование трансферного обучения на практике далеко не так просто, как в теории. Не существует очевидного способа определить, какая из существующих моделей является наиболее подходящей, которую можно повторно использовать для решения конкретной модели, как выбрать слои нейронной сети, которые следует использовать повторно, и как построить структуру. остальной части модели из него. На практике это связано с множеством экспериментов и ошибок и, следовательно, требует значительных человеческих и вычислительных усилий. Хотя мы, безусловно, можем попытаться автоматизировать этот процесс, это включает в себя создание новых параметров, которые необходимо настроить и, следовательно, потребуют более размеченных данных. Но нехватка размеченных данных может быть причиной того, что мы хотели в первую очередь использовать трансферное обучение.

Помимо трансферного обучения, существуют другие подходы к решению проблемы нехватки помеченных данных. Организации могут сотрудничать, чтобы делиться своими данными или комбинировать свои модели (соответственно «Централизованное» и «Федеративное» обучение). Искусственные правила можно комбинировать с машинным обучением для уменьшения размерности, как в случае нейронечетких сетей. Хотя я не собираюсь углубляться во все эти подходы, достаточно сказать, что у них есть свои ограничения и их нелегко обобщить.

Так какая же работа тогда «безопасна» от замены ИИ?

Вероятно, что ИИ не сможет эффективно выполнять определенные виды работы, по крайней мере, в обозримом будущем, если все эти факторы верны:

  1. Работа требует частого выбора идеального действия из огромного (почти бесчисленного) набора возможных действий. Это связано с тем, что наличие огромного набора возможных действий на выбор значительно увеличивает размерность проблемы, увеличивая количество необходимых помеченных данных. Пример. Если моя цель - определить, подходит ли клиент для страхования, это означает, что у меня есть только два возможных действия (одобрение или отказ). Но если моя цель - убедить потенциального клиента купить страховой продукт посредством личного разговора, у меня есть почти бесчисленное множество возможных действий, которые я могу предпринять во время разговора.
  2. Результаты работы не могут быть получены и наблюдаются в массовом масштабе. Другими словами, «примеры из реального мира» не могут быть созданы в больших количествах, чтобы упростить обучение контролируемой модели машинного обучения. Пример: если я вношу незначительные изменения в макет веб-сайта, чтобы увеличить количество посещений, удержания или посетителей, я, вероятно, смогу уловить реакцию посетителей в массовом масштабе. Но это не тот случай, если я выполняю радикальный редизайн веб-сайта, потому что я хочу полностью изменить профиль посетителей и способ использования веб-сайта.
  3. Работа требует оценки множества факторов, в том числе использования предыдущего опыта, который имеет лишь отдаленное отношение к рассматриваемой проблеме. Эти условия как увеличивают размерность проблемы, так и затрудняют использование «трансферного обучения» для использования существующих моделей для других задач, чтобы помочь решить данную проблему. Пример: если я назначаю скидки на товары для массового рынка, я, вероятно, могу получить хорошие результаты, просто глядя на факторы, определяющие чувствительность каждого покупателя к ценообразованию. Но если я участвую в переговорах о цене с крупным корпоративным клиентом, мне, вероятно, необходимо учитывать комплексные факторы, такие как долгосрочные финансовые последствия, мои отношения с клиентом, личность заинтересованных сторон, мой прошлый опыт переговоров и т. Д.

Хотя установка всех трех блоков, а не только одного или двух, может показаться слишком ограничивающим, мы все же можем подумать о нескольких примерах работы, которую ИИ не может выполнять на текущем этапе:

  • Построение человеческих отношений;
  • Разработка сложной системной архитектуры;
  • Работа с несколькими заинтересованными сторонами с противоречивыми целями;
  • Написание увлекательного художественного рассказа;
  • и Т. Д.

Заметьте, что я предпочитаю приводить примеры «работы», чем «работы». Причина в том, что два бизнес-аналитика, два менеджера проектов, два рекрутера и два программиста могут иметь номинальную работу, но их объем работы может быть совершенно разным. Таким образом, многие профессионалы могут избежать риска быть уволенными, сосредоточив внимание на тех видах работы, которые искусственный интеллект вряд ли заменит в ближайшем будущем.

Могу ли я обезопасить свое будущее, изучив технические навыки?

Этот вопрос становится горячей темой, поскольку правительства активно продвигают цифровые карьеры и вкладывают огромные средства в обучение и переподготовку / повышение квалификации рабочей силы для экономики, основанной на данных. Иногда этот толчок даже вызывал негативную реакцию общественности, как, например, в случае с британской рекламой следующая работа Фатимы может быть в киберпространстве.

Ответ заключается в том, что изучение новых вещей, особенно в отношении быстроразвивающихся технологий, всегда может открыть двери и открыть новые возможности. Но одна значительная проблема заключается в том, что, несмотря на то, что автоматизация и ИИ считаются «технической работой», они также могут автоматизировать большую часть «технической работы». Фактически, прилагаются постоянные усилия по автоматизации многих аспектов обработки больших данных и получения на их основе аналитических данных, и машинное обучение не является исключением.

Можно утверждать, что всякий раз, когда проблема преодолевается, возникают другие проблемы, поскольку мы продвигаемся к все более и более трудным проблемам, которые нужно решить. Это верная точка зрения; Технические работники всегда будут востребованы, и количество технических работников, необходимых организациям, безусловно, будет продолжать расти в следующие годы. Но проблема в том, что знания, необходимые для выполнения «эффективной» работы в этой области, в частности работы, которую нелегко автоматизировать, не становятся более доступными и, по сути, становятся все более и более специализированными. Такие темы, как глубокое обучение, обучение с подкреплением и трансферное обучение, безусловно, открывают новые горизонты для изучения ИИ, но они включают в себя разработку моделей машинного обучения, которые становятся все больше, сложнее объяснять и требуют дорогостоящей инфраструктуры, недоступной для обычного человека. .

Подводя итог, можно сказать, что в области, которая развивается очень быстро, а задачи постоянно автоматизируются, вряд ли будет достаточно изучить только «основы», чтобы оставаться актуальным. Это то, что необходимо серьезно учитывать директивным органам. Не у всех есть талант или страсть к работе в сфере технологий, и профессионалы в середине карьеры, пытающиеся переквалифицироваться, могут изо всех сил пытаться конкурировать с профессионалами с опытом работы в технологиях.

Возможно, директивным органам следует рассмотреть различные подходы - вместо того, чтобы пытаться сделать каждого разработчика программного обеспечения, специалиста по обработке данных или эксперта по кибербезопасности, альтернативой будет помочь людям найти способы совместить технические навыки с их существующими навыками, талантами и увлечениями , чтобы продолжать развиваться и оставаться актуальными в этом мире, который становится все более цифровым и ориентированным на данные. Одним из примеров являются специалисты по маркетингу, которые могут выполнять некоторые виды работы, например таргетинг кампании, автоматизированную с помощью технологий, но сами могут использовать автоматизацию / машинное обучение / искусственный интеллект, чтобы быстро экспериментировать с новыми творческими идеями и, возможно, даже получать новые идеи и отзывы о вдохновении. им.

Но почему бы просто не оставить все как есть?

Можно сказать, что общество будет адаптироваться, что будут созданы новые типы рабочих мест, которые заменят рабочие места, вытесненные автоматизацией и искусственным интеллектом. Или мы могли бы сказать, что больше работы, выполняемой машинами, а не людьми, на самом деле хорошо, так как люди могут больше сосредоточиться на наслаждении жизнью.

Но в нашем существующем мире и, вероятно, в обозримом будущем нам придется столкнуться с такими вопросами, как социальное, экономическое неравенство и неравенство сил. В конце концов, если создание продуктов и услуг становится все более автоматизированным, а за ними стоит все меньше и меньше людей, разве эти люди не будут несопоставимо богаче и не смогут ли они контролировать жизни других людей (как «Большой Технологические компании уже иногда обвиняют)? Не станет ли бедным странам с низким уровнем технологий все труднее догонять и сопротивляться тискам развитых стран, усугубляя проблему «ловушки среднего дохода»?

Дело в том, что, как всегда, правительства и общество должны действовать таким образом, чтобы технический прогресс осуществлялся устойчиво и ответственно.

Примечания

[1] Строго говоря, количество необходимых помеченных точек данных пропорционально не размерности, а количеству «степеней свободы» модели, которое зависит от статистической зависимости между параметрами. В худшем случае все параметры независимы, а количество необходимых помеченных точек данных увеличивается экспоненциально с увеличением количества параметров, что называется «Проклятие размерности». Однако в практических моделях машинного обучения такое бывает редко.

[2] Э. Струбелл, А. Ганеш, А. МакКаллум, Энергетические и политические соображения для глубокого обучения в НЛП (2019), 57-е ежегодное собрание Ассоциации компьютерной лингвистики (ACL). Флоренция, Италия. Июль 2019