Искусственный интеллект сегодня может быть чем угодно.

Это может быть личный помощник, который разбудит вас утром и расскажет новости, пока вы готовитесь к работе.

Это может быть бот по обслуживанию клиентов, который беспрепятственно общается с вами, как представитель службы поддержки клиентов, и помогает вам с возникшими у вас вопросами.

Это также может быть корпоративная система, которая помогает оптимизировать рабочий процесс, планируя встречи, выявляя мошенничество и даже предлагая понимание вовлеченности сотрудников и уровней счастья.

Что нас ждет в будущем для чего-то столь футуристического уже в текущем контексте? Каким будет будущее, когда возможности ИИ выйдут за обычные границы и постепенно станут равными человеческим?

Конечно, невозможно точно предсказать, куда мы пойдем дальше. Но мы уже видим признаки будущего в некоторых недавних достижениях в области ИИ; и одним из самых больших было языковое поколение.

OpenAI Inc., компания, занимающаяся исследованиями искусственного интеллекта из Сан-Франциско, недавно сделала свою модель искусственного интеллекта, генерирующую язык, под названием GPT-3, доступной для частного бета-тестирования; и результаты были, мягко говоря, невероятными.

По своей сути GPT-3 - это третья итерация Generative Pretrained Transformer от OpenAI, который представляет собой алгоритм, который использует машинное обучение для перевода текста, анализа и ответа на вопросы и даже для написания собственного текста. Алгоритм машинного обучения анализирует последовательность текстовых данных, которые он представляет, и генерирует собственные оригинальные статьи, расширяя входные данные.

Поскольку эта третья версия уже доступна, текстовый генератор является самым мощным из существующих. Предшественник этого алгоритма, GPT-2, уже показал весьма эффективные, но противоречивые результаты, когда он успешно генерировал правдоподобные и связные статьи о фейковых новостях из такого небольшого количества информации, как простое вступительное предложение. Согласно MIT Technology Review, модель имеет 175 миллиардов параметров среди значений, оптимизированных нейронной сетью GPT во время обучения, - это больше, чем у GPT-2 в 1,5 миллиарда.

А из-за рисков неправильного использования технологии OpenAI и использования возможностей по неправильным причинам исследовательская компания ранее отказывалась сделать GPT-2 доступным для общественности; вопрос в том, с большим количеством параметров и расширенными пределами того, что может делать алгоритм третьего поколения, насколько готов мир к адаптации технологии и правильному использованию ее возможностей.

Для OpenAI решением на данный момент является предоставление отдельным лицам доступа к продукту через API. И с первых дней применения алгоритма появилось несколько поразительных примеров его возможностей.

На данный момент GPT-3 уже является автором рассказов, песен, пресс-релизов, технических руководств и многого другого среди множества собственных произведений, которые он создал. Во многих случаях все, что нужно было сделать пользователям, - это просто указать название, имя автора и несколько начальных слов для статьи, и GPT-3 может написать рассказ, блестяще имитирующий стиль. и тон известного писателя.

Возможности системы по созданию контента не ограничиваются только текстом; Удивительно, но его способность создавать распространяется на такие типы текста, как табулатура гитары или даже компьютерный код. Чтобы пополнить свой портфель работ, система успешно генерировала веб-макеты с использованием HTML-кода вместо естественного человеческого языка. Все, что нужно сделать пользователям, - это дать конкретные указания и подсказки того, как они хотят, чтобы веб-сайт выглядел, и система начнет кодировать.

Поскольку ИИ берет на себя такие задачи, которые раньше были доступны только человеческому мозгу, ясно, что OpenAI достиг невероятного. Но вопрос в том, в какой степени тот факт, что система создана людьми и обучена на основе человеческих данных, также принимает субъективную природу, предубеждения, предрассудки и представления, которые разделяют и люди?

Однозначного ответа на этот вопрос, конечно, нет. Невозможно предсказать, обретет ли система достаточную осознанность или независимость, чтобы отделиться от предубеждений, присущих определенным текстам и контенту, создаваемому реальными людьми. На данный момент, несмотря на неоспоримые достижения, которые показывает алгоритм, GPT-3 все еще может воспроизводить сексистские или расистские высказывания, если они скрыты в исходном источнике данных, который он анализирует. И хотя GPT-3 был улучшен для ограничения таких результатов с момента запуска GPT-2, они все же находят свой путь через алгоритм и в окончательные результаты, которые дает система.

Ясно, что OpenAI находится на пороге прорыва, который изменит роль, которую технологии играют в нашей повседневной жизни, - возможно, больше, чем какие-либо инновации на сегодняшний день. Но до тех пор, пока не наступит день - или, скорее, если настанет день - когда технология станет эквивалентной человеческому мозгу по своей оригинальности, эмоциям, суждениям и независимому мышлению, инструмент (на его core) хорошо генерирует контент на основе входных данных, создавая таким образом искусную «стилизацию» или «коллаж» из множества частей текстовых строк, соединенных вместе увлекательными, заставляющими задуматься, а иногда и странными способами.

Самой большой проблемой для OpenAI и GPT-3 в сегодняшнем контексте будет защита продукта от неправильного использования или вредоносного перепрофилирования и максимизация положительной ценности, которую он может принести своим пользователям. В конце концов, при любых нововведениях сами пользователи сами решают, какое влияние они окажут.

А с GPT-3 выбор следующий: GPT может стать источником дезинформации, пропаганды и мошенничества или создания ценного контента, упрощенного обучения и т. Д.