Вывод корреляции между X и Y или написание статьи в журнал. Что из этих двух задач может быть выполнено только человеком, а что машиной? Казалось бы, ответ довольно прост, не так ли? Вывод корреляции между двумя переменными — это математика. Конечно, это может сделать человек. Но это было бы утомительно и отнимало бы много времени. Было бы проще просто позволить машине сделать это, потому что она может. Но написать статью? Это искусство. Чтобы писать, нужны творческий подход и воображение, ведь только человек способен сделать что-то подобное? О, как далеко продвинулись технологии.

В мае 2020 года исследователи представили последние достижения в области обработки естественного языка (NLP). Назовем его Generative Pre-trained Transformer 3 (GPT-3). С технической точки зрения GPT-3 — это языковая модель авторегрессии со 175 миллиардами параметров. Проще говоря, это модель машинного обучения, предварительно обученная с использованием большого набора данных, чтобы научиться писать как человек (модель авторегрессионного языка). И Он имеет множество параметров, которые пользователь может точно настроить, чтобы говорить очень специфическим образом (175 миллиардов параметров). Таким образом, получив подсказку, например вопрос, GPT-3 может вернуть ответ, который будет звучать так, как будто он исходит от человека. Он стал настолько опытным в этом, что авторы и многочисленные рецензенты утверждали, что это почти неотличимо от реакции человека.

Стоит отметить, однако, что GPT-3 способен совершить этот подвиг, потому что он проанализировал частоту появления определенных слов рядом друг с другом. Например, GPT-3 может «знать», что слово «виноград» часто используется с такими словами, как есть, сладкий, фрукты, фиолетовый и/или вино. Но на самом деле он не полностью понимает тот факт, что виноград — это сладкий фиолетовый фрукт, который мы можем либо съесть, либо превратить в вино.

Но, несмотря на эти недостатки, GPT-3 делает большие успехи. И появляется целый ряд различных приложений, использующих его в качестве основы. Мне недавно стало известно об одном таком новом приложении под названием Headlime. Компания, которая использует GPT-3, чтобы помочь компаниям создавать статьи для публикации.

Поэтому я подумал, что мы могли бы немного повеселиться с этим новым приложением. Принцип работы Headlime заключается в том, что пользователь должен дать модели GPT-3 несколько ключевых слов и подсказку для начала работы. И затем, используя это в качестве входных данных, Headlime создаст несколько абзацев, сгенерированных моделью, в качестве выходных данных. Как будут выглядеть эти выходные данные по сравнению с тем, что пишет человек из тех же подсказок?

Чтобы узнать, я попросил своего друга дать мне подсказку. Затем я передам это приглашение модели GPT-3, чтобы написать несколько абзацев на эту тему; пока я также буду делать то же самое. Затем мы можем сравнить их и посмотреть, какой из них лучше.

Ради справедливости я написал свои абзацы сразу после того, как увидел подсказку, и закончил в течение 30 минут. Потом выложу оба выхода, но не скажу, какой из них какой. А затем мы можем проголосовать за то, какой из них лучше написан.

Итак, это подсказка (при участии моего друга Пола Седиля):

Ключевые слова: безопасность ИИ.

Описание. Безопасность ИИ, когда-то малоизвестная отрасль компьютерных наук, превратилась в важную часть мира исследований ИИ. У них есть свои панели на всех крупных конференциях по искусственному интеллекту, а ведущие мировые университеты и исследовательские институты создали специальные группы для изучения этого предмета, от Open AI, некоммерческой исследовательской лаборатории, основанной Илоном Маском, до Стэнфордского центра исследований. Искусственный интеллект, ориентированный на человека.

Какие проблемы и разработки способствовали тому, что эта область стала популярной?

Выход А:

Безопасность ИИ стала мейнстримом.

Область безопасности ИИ прошла долгий путь с момента ее появления в 1980-х годах. Сначала это была всего лишь крошечная область компьютерных наук, которую большинство экспертов не воспринимали всерьез. В настоящее время безопасность ИИ является основным направлением и становится неотъемлемой частью ведущих мировых университетов и научно-исследовательских институтов, а также многих отраслей, таких как здравоохранение.

Каковы некоторые ключевые проблемы или события, которые способствовали этому росту известности? Что еще более важно, сможет ли он решить растущие проблемы, связанные с ИИ сегодня?

Всего несколько лет назад опасения по поводу предвзятых данных, несогласованных машин и других катастроф, связанных с ИИ, были в лучшем случае предметом праздных разговоров среди исследователей ИИ. 28 сентября 2018 года IEEE провел симпозиум по безопасности и этике ИИ в Нью-Йоркском университете в США. На этом мероприятии они обсудили, какие проблемы необходимо преодолеть для будущего прогресса в исследованиях и разработках ИИ, а также как интегрировать его в нашу повседневную жизнь. Есть много разных опасений по поводу предвзятых алгоритмов с объективными данными, потому что эти предубеждения могут негативно повлиять на решения людей или даже ограничить их способности.

В настоящее время многие люди сильно обеспокоены беспристрастными алгоритмами с объективными данными, потому что эти предубеждения могут негативно повлиять на решения людей или даже ограничить их способности.

Выход Б:

Знаем мы это или нет, но искусственный интеллект (ИИ) стал неотъемлемой частью нашей повседневной жизни. Всякий раз, когда вы открываете Facebook, Twitter или любую другую платформу социальных сетей, вы получаете контент, созданный для вас искусственным интеллектом. Когда вы идете по аэропорту, чаще всего вас сканирует программа распознавания лиц, работающая на базе искусственного интеллекта. Когда вы идете просить кредит в банке, устраиваетесь на работу или даже выполняете поиск в Google, вы каким-то образом, в той или иной форме взаимодействуете с ИИ.

Поэтому неудивительно, что в настоящее время растет озабоченность по поводу того, как работает и ведет себя ИИ. С самого начала область изучения ИИ в основном была сосредоточена на том, чтобы заставить концепцию ИИ «работать», выдавать ответ. Но сейчас мы видим, что все больше и больше внимания уделяется тому, чтобы ИИ «работал хорошо» и выдавал хороший ответ. Достижение этой точки означает наличие алгоритмов, которые могут объяснить беспорядок реального мира. Такие понятия, как расовая и гендерная предвзятость, недостаточность данных или выбросы.

Однако прогресс налицо. Исследователей больше не устраивает «черный ящик» систем искусственного интеллекта. На каждой крупной конференции по ИИ вы увидите панели, посвященные безопасности ИИ. Такие организации, как OpenAI и Стэнфордский центр искусственного интеллекта, ориентированного на человека, были созданы для обеспечения этичного и безопасного внедрения алгоритмов искусственного интеллекта.

Чтобы узнать, кто написал какую статью, проверьте конец сообщения!

GPT-3 провозглашается следующим большим скачком в технологии НЛП. Но это не без рисков. Как и любой инструмент, НЛП может быть использовано неправильно; настолько, что авторы оригинальной статьи, в которой был представлен GPT-3, посвятили значительную часть своей статьи рассказам о возможном неправильном использовании их алгоритма, а также о его предубеждениях, которые могут негативно повлиять на различные демографические данные.

Двигаясь вперед, мы должны осознавать, как новые технологии, такие как GPT-3, могут повлиять на общество. Мы должны знать, как подобные инструменты могут быть использованы для причинения вреда. Но нам также необходимо работать над тем, чтобы сделать сам инструмент более справедливым для всех.

Технологии могут стать великим уравнителем в обществе, но они также могут привести к дальнейшему росту неравенства при неправильном использовании. Поэтому давайте удостоверимся, что это для первого, а не для второго.

Алгоритм написал А. Я написал Б.

Изображение баннера предоставлено mikemacmarketing