В документе исследуется «обоюдоострый меч» непредвиденных последствий и потенциальных преимуществ технологии в клинических условиях

В редакционной статье ChatGPT и другие большие языковые модели — палки о двух концах в журнале Радиология аспирант CDS Ицю (Арти) Шэнь по рекомендации аффилированного профессора CDS Krzysztof J. Geras и профессора CDS Kyunghyun Чо сотрудничал с группой медицинских экспертов, чтобы описать сложную роль технологий искусственного интеллекта в здравоохранении. В статье подчеркивается осторожность, указывая на несколько случаев, которые иллюстрируют тонкую грань, которую система ИИ ChatGPT (Chat Generative Pre-trained Transformer) проводит между полезным и вредным.

С момента своего запуска в ноябре прошлого года компанией OpenAI, занимающейся разработкой искусственного интеллекта, ChatGPT генерирует все, от классных заданий до текстов песен. Технология позволяет пользователям задавать вопросы и вводить подсказки, которые генерируют текст, похожий на человеческий. ChatGPT обучается на большом количестве текстов (около 570 ГБ), включая книги, статьи и веб-сайты, которые охватывают широкий спектр тем. В отличие от других автоматических чатов, система ИИ является диалоговой и более искусной в ответах на запросы пользователей.

Несмотря на свои технологические достижения, ChatGPT имеет ограничения, и многие из его недостатков присущи другим моделям глубокого обучения, которые генерируют естественный язык. ChatGPT может давать неточные ответы, которые кажутся правдой, и будут предполагать намерения пользователя, а не задавать дополнительные вопросы. Авторы подчеркивают опасения, что ограничения технологий ИИ могут привести к фабрикации научных текстов и искажению результатов исследований с помощью текста, рисунков или изображений.

Признавая риски, редакционная статья раскрывает потенциальные преимущества ChatGPT, такие как создание медицинского контента, такого как отчеты и материалы для пациентов для послепроцедурного ухода, предоставление переводов для многоязычного общения и обобщение электронных медицинских карт, что экономит время медицинских работников. процесс выделения критической информации из карт пациентов. Авторы также обрисовывают области, в которых технология может использоваться в сотрудничестве с человеческим интеллектом, например, в поддержке принятия клинических решений. Хотя эту технологию можно использовать для предоставления ответов на конкретные клинические сценарии, она была разработана не для предоставления медицинских консультаций, а вместо этого откладывает принятие решений на специалиста в области здравоохранения.

По мере того как медицинские и академические сообщества ориентируются на использование ChatGPT, понимание ограничений технологий ИИ будет иметь важное значение. «Несмотря на эти проблемы, использование возможностей этой технологии для поддержки принятия клинических решений и даже для обеспечения адекватности визуализации имеет большой потенциал», — пишут авторы. «Интересно рассматривать возможности того, что ChatGPT и аналогичные технологии на основе ИИ приготовили для будущего».

Соавторами редакционной статьи являются Drs. Лаура Хикок, Беатриу Рейг и Линда Мой из Кафедры радиологии Медицинской школы Гроссмана Нью-Йоркского университета с докторами. Джонатан Элиас, Кит Хентел и Джордж Ши из Weill Cornell Medicine в Нью-Йорке.

Мэрил Фэйр