Как я научился перестать беспокоиться и полюбить машинное обучение

В прошлом году я утверждал, что не следует использовать модели большого языка искусственного интеллекта (LLM) для создания контента. В этом году я видел целые профили Medium, заполненные статьями, которые явно были написаны не человеком. Излишне говорить, что эти статьи не очень хороши по причинам, которые я изложил здесь.

Есть два преобладающих отношения к ИИ, которые меня беспокоят. Первое — это то, что я назову подходом техбро: искусственный интеллект — это волшебная машина, которая может делать все — нам больше не нужны писатели, программисты или художники, потому что компьютер теперь может справиться с любыми задачами. подсказку, мы даем это и создаем множество черновиков. Мы можем научить эти машины соответствовать определенному стилю письма или визуального искусства. Нам не нужны актеры или говорящие головы, потому что у нас есть технология дипфейков, и мы можем заменить их видеореалистичными аватарами, которые выглядят и звучат почти как настоящие. Вы можете быть собственной киностудией, состоящей из одного человека, игровой студией, арт-хаусом или чем-то еще, что вы хотите создать.

Второе отношение я назову отношением губителя: вещи, создаваемые ИИ, представляют собой комбинацию опасностей и мусора. У искусственного интеллекта нет практического применения, а компании и предприниматели (управляемые идиотами-технологами) собираются использовать его как инструмент для сбора контента трудолюбивых художников, писателей и программистов и его плагиата. Это автоматически нарушит лицензии свободного доступа, открытого исходного кода и лицензии Creative Commons.

Когда у вас есть молоток, каждая проблема выглядит как гвоздь. И наоборот, любой инструмент может стать молотком, если использовать его неправильно (приношу извинения Адаму Сэвиджу). На практике обе крайности создают ужасный взгляд на жизнь. Позиция техбро – это позиция что-то ради ничего. Это позиция брать, не отдавая, и в то же время ожидать еще большего. И на продаже производного мусора можно быстро заработать, но это недальновидно, неустойчиво и неэтично. Использование ИИ таким образом может иметь смертельные последствия. Если их использовать, например, для получения медицинской информации или информации о собирании съедобных растений, опасности становятся самоочевидными. В отличие от создания тщательно запрограммированной и курируемой экспертной системы с информацией, проверенной группой экспертов-людей, этот подход улавливает весь мусор…