Обнаружение переобучения в моделях генеративной диффузии

Искусственный интеллект для создания изображений недавно подвергся тщательной проверке в соответствии с законом об авторском праве. В то время как сторонники такого ИИ говорят, что модели не запоминают и не воспроизводят изображения из набора обучающих данных, критики утверждают обратное. В этом посте мы рассмотрим новое исследование машинного обучения, которое можно использовать для определения того, является ли изображение, созданное диффузионными моделями, оригинальным творением или получено из набора обучающих данных.

Фон

В 2022 году StabilityAI потряс мир ИИ, открыв исходный код крупнейшей модели генерации изображений, Stable Diffusion (SD). С тех пор сообщество открытого исходного кода начало работать с SD, создав сотни дополнений, графических интерфейсов и улучшений исходной модели. StabilityAI наняла нескольких высококлассных исследователей, стартапы строят свой бизнес вокруг SD, и их приверженность открытому исходному коду снискала им большую репутацию в мире технологий.

Впереди проблемы

Тем не менее, 2023 год начался для StabilityAI не очень хорошо. Они были предметом 2 судебных исков в новом году уже. Первый был сделан тремя художниками, которые могли представлять гораздо больше художников в потенциальном групповом иске. Истцы утверждают, что эти компании «нарушили 17 § 106 Кодекса США, исключительные права на произведения, защищенные авторским правом, Закон об авторском праве в цифровую эпоху и нарушили закон о недобросовестной конкуренции». Другими словами, они утверждают, что SD копирует защищенную интеллектуальную собственность артистов и распространяет ее таким образом, чтобы конкурировать с оригинальными исполнителями. Итак, вопрос в том, копирует ли SD защищенную интеллектуальную собственность артистов? Исторически сложилось так, что стиль художника не охраняется интеллектуальной собственностью, только отдельные произведения искусства могут быть защищены авторским правом. Таким образом, этот иск зависит от определения того, копирует ли SD отдельные произведения искусства и воспроизводит ли их, или же она только имитирует стили.

Второй иск исходит от Getty images, которые утверждают, что StabilityAI скопировал и использовал их изображения для обучения SD без разрешения. Интересным моментом здесь является то, что «просмотр» изображений, защищенных авторским правом Getty, не является незаконным. Однако использование изображений в любой коммерческой работе или удаление водяного знака Getty является незаконным. Таким образом, этот иск зависит от того, считается ли просмотр изображений Getty через модель просмотром изображения и изучением стиля/концепции или буквально использованием изображений.

Запоминает/воспроизводит ли ИИ изображения, защищенные авторским правом?

В некотором смысле оба иска зависят от этого центрального вопроса. Модели ИИ копируют и воспроизводят изображения из набора обучающих данных? Или ИИ только изучает различные стили и методы артистизма?

К сожалению, но, возможно, это и неудивительно, команда из Google и научных кругов доказала, что модели распространения действительно запоминают примеры из обучающего набора данных. Они опубликовали свои результаты в недавней статье Извлечение обучающих данных из диффузионных моделей. Хотя подавляющее большинство изображений, созданных моделями, являются оригинальными, они обнаружили, что диффузионные модели иногда воспроизводят почти точные копии примеров из набора обучающих данных. Поэтому, если вы используете SD или Midjourney для создания ИИ-арта для личного или коммерческого использования, полезно знать, как определить, является ли только что сгенерированное изображение оригиналом или копией обучающего изображения.

Примечание. В приведенном ниже тексте могут быть некоторые термины, которые могут быть вам незнакомы, если вы никогда не использовали генеративные модели, такие как StableDiffusion.

Интуиция 1 — Запоминание

Изображение — это точки, а подсказки — это области встраивания

Модели распространения работают путем выборки изображений из распределения возможных изображений. Каждое изображение, созданное SD или Midjourney, использует два входа: текстовую подсказку и начальное число. Текстовое приглашение указывает область во внутреннем векторном пространстве модели, а начальное число — это случайное число, представляющее случайную точку в распределении. Таким образом, изменив начальное число, мы можем получить новые изображения из того же дистрибутива, соответствующего текстовой подсказке. Таким образом, каждая подсказка сопоставляется с областью в векторном пространстве вложений, и все точки в этой области являются действительными выходными изображениями для подсказок.

Творчество расширяет пространство для встраивания, а запоминание сужает его

Отображаемая область может быть разного размера. Если модель обладает большим воображением, каждая подсказка будет отображать очень большую область, т. е. модель может представить множество изображений, соответствующих одному описанию. Перед обучением модель находится в одной крайности с нулевой памятью и бесконечным воображением, т. Е. Любая случайная подсказка может создать любое возможное случайное изображение. Обучение — это процесс, посредством которого модель изучает отношения между подсказкой и изображениями. Его воображение уменьшается, а память увеличивается. Чем менее изобретательна модель, тем меньше и меньше изображений будет соответствовать каждой подсказке. В этом крайнем случае, если модель отлично запомнила только 1 изображение, то для любой подсказки модель будет возвращать одно и то же запомненное изображение.

Компромисс гиперпараметров между творчеством и запоминанием

Практические модели, такие как SD, должны жить между этими крайностями, они должны помнить только правила и принципы создания хороших изображений, не запоминая отдельные изображения. Чем больше образов запоминает модель, тем больше мы считаем ее переобученной. Мы используем большие наборы данных и такие параметры, как регуляризация, чтобы предотвратить переоснащение.

Проблема в том, что мы можем задавать только параметры, влияющие на всю модель и набор данных, мы не можем реально контролировать на уровне отдельного изображения, если что-то запоминается. Таким образом, даже самые лучшие модели запомнят хотя бы несколько точек данных.

Итак, как вы можете определить, запоминается ли изображение, созданное вашей генеративной моделью ИИ, из обучающего набора по сравнению с исходным изображением, воображаемым моделью?

Интуиция 2 — Аттракторы

Помните, что чем точнее модель запомнила образ, тем меньший объем образов может создать подсказка. Итак, как мы можем измерить это пространство изображений?

Диффузионные модели, такие как SD, DallE-2 и Midjourney, принимают два входа — текстовую подсказку и случайное начальное число. Если мы сохраним приглашение постоянным, мы можем изменить случайное начальное число, чтобы выбрать разные изображения, соответствующие одному и тому же приглашению. Это дает возможность измерить воображение модели.

Случайные семена

  1. Получив подсказку, сгенерируйте 500 изображений с разными случайными начальными значениями.
  2. Если полученные 500 изображений выглядят совершенно по-разному, это означает, что модель имеет большую воображаемую область, соответствующую этой подсказке, и ни одно из созданных изображений, вероятно, не было в обучающих данных.
  3. Напротив, если значительная часть изображений (скажем > 10%) эффективно создает одно и то же изображение, то весьма вероятно, что это изображение было запомнено из обучающего набора данных, поскольку воображение модели ограничено рядом с этим изображением.

Случайно замаскированные изображения

  1. Имея пару подсказок-изображений, сначала выполните описанное выше, чтобы идентифицировать запомненный образ-кандидат. Затем мы можем получить более точный ответ, задав еще несколько вопросов.
  2. Замаскируйте область изображения и попросите модель заполнить замаскированную область, скажем, 25 раз, разными начальными значениями.
  3. Если модель продолжает выдавать одинаковые результаты для разных начальных значений, это указывает на то, что модель запоминает, а не воображает это изображение.

Заключение

Так это то, о чем вам следует беспокоиться? Я должен предварить это словами — это не юридическая консультация, я не юрист.

Предположим, вы хотите создать контент с использованием SD и хотите знать, насколько вероятно, что вы просто копируете данные из какого-то проприетарного набора обучающих данных. Вот цифры. Команда Google/Berkeley выбрала 350 000 случайных изображений из обучающего набора данных SD и провела два теста, описанных выше, чтобы найти изображения, являющиеся аттракторами. Поскольку у них был доступ к обучающему набору данных из SD, они могли убедиться, что только 109 изображений, по-видимому, были запомнены и воспроизведены, или 0,03% выборки.

Первая версия SD обучалась на 2,3 миллиардах изображений, более поздние версии обучались на более чистых наборах данных из 600 миллионов изображений. Экстраполируя результаты Google/Berkeley, мы наивно ожидали бы около 200 000 изображений, которые можно было бы запомнить. Художнику или изображениям Getty это может показаться много. Это то, что должны решать суды. Однако для среднего пользователя 0,03% — это очень низкая вероятность создания изображений, защищенных авторским правом. Но если вы действительно беспокоитесь, теперь у вас есть знания, чтобы проверить это на себе.

— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
Вот и все, моя интуиция для как генеративные модели находят компромисс между памятью и воображением и как вы можете определить, был ли созданный вами образ запомненным или воображенным. Чтобы узнать больше об AI/ML, подпишитесь ниже и подпишитесь на меня в Twitter. Вы также можете ознакомиться с другими моими блогами и проектами на nirsd.com.