ChatGPT задает вопросы, но их подсказывают люди. Было бы лучше, если бы ChatGPT ушел сам, задал себе кучу вопросов, а потом вернулся к нам со своим лучшим вопросом.
Какой лучший вопрос?
Тот, чей ответ дает самые большие градиенты.
Что такое псевдокод?
- Пример оператора X из ChatGPT.
- Установите X и ¬X как ожидаемые выходные данные.
- Вычислите среднее значение абсолютного значения градиентов M.
- Если это самая большая буква M, которую вы когда-либо видели, сохраните ее и связанную с ней букву X.
- Повторяйте шаги 1–4 в течение часа.
- Выведите X и ждите ответа да/нет от человека.
- Узнайте на версии X или ¬X, что правда.
- Повторяйте шаги 1–7 постоянно.
Конечные примечания:
- эта статья появилась с осознанием того, что у нас не так много примеров ИИ, которые вообще думают сами за себя
- обычно либо ИИ думает о поступающих новых данных (английский текст из Интернета при обучении языковых моделей), либо иным образом выполняет какой-то предопределенный алгоритм на старых данных (поиск MCTS в текущей шахматной позиции)
- встал вопрос о том, как определить мышление, и я принял научный подход за приближение, т.е. генерацию гипотез и последующую проверку стоящих гипотез.
- здесь ИИ генерирует свои собственные данные в процессе генерации гипотез, выбирает лучшую гипотезу для проверки на основе ее информативности, а затем проверяет эту гипотезу, спрашивая человека.
- это привлекает внимание к двум последующим проблемам:
1. как сделать процесс генерации гипотез более эффективным
2. как автоматизировать проверку гипотез. - предварительная реализация вышеуказанного алгоритма доступна здесь