ChatGPT задает вопросы, но их подсказывают люди. Было бы лучше, если бы ChatGPT ушел сам, задал себе кучу вопросов, а потом вернулся к нам со своим лучшим вопросом.

Какой лучший вопрос?

Тот, чей ответ дает самые большие градиенты.

Что такое псевдокод?

  1. Пример оператора X из ChatGPT.
  2. Установите X и ¬X как ожидаемые выходные данные.
  3. Вычислите среднее значение абсолютного значения градиентов M.
  4. Если это самая большая буква M, которую вы когда-либо видели, сохраните ее и связанную с ней букву X.
  5. Повторяйте шаги 1–4 в течение часа.
  6. Выведите X и ждите ответа да/нет от человека.
  7. Узнайте на версии X или ¬X, что правда.
  8. Повторяйте шаги 1–7 постоянно.

Конечные примечания:

  • эта статья появилась с осознанием того, что у нас не так много примеров ИИ, которые вообще думают сами за себя
  • обычно либо ИИ думает о поступающих новых данных (английский текст из Интернета при обучении языковых моделей), либо иным образом выполняет какой-то предопределенный алгоритм на старых данных (поиск MCTS в текущей шахматной позиции)
  • встал вопрос о том, как определить мышление, и я принял научный подход за приближение, т.е. генерацию гипотез и последующую проверку стоящих гипотез.
  • здесь ИИ генерирует свои собственные данные в процессе генерации гипотез, выбирает лучшую гипотезу для проверки на основе ее информативности, а затем проверяет эту гипотезу, спрашивая человека.
  • это привлекает внимание к двум последующим проблемам:
    1. как сделать процесс генерации гипотез более эффективным
    2. как автоматизировать проверку гипотез.
  • предварительная реализация вышеуказанного алгоритма доступна здесь