Публикации по теме 'ai-alignment-and-safety'


Как функции вознаграждения за обучение могут пойти не так
Взгляд с точки зрения безопасности ИИ на риски, связанные с тем, что агенты обучения с подкреплением изучают свои функции вознаграждения. Обучение с подкреплением (RL) — одна из самых многообещающих областей ИИ, с самыми разнообразными приложениями, такими как беспилотные автомобили и торговля акциями. Хорошо известная слабость подхода RL заключается в том, что исследователи должны определить функцию вознаграждения, соответствующую цели агента. Для сложных целей это может быть сложно, а..

Представление об искусственном интеллекте: как отличить факты от вымысла
Выход за рамки модных словечек к сути области Этот пост является первым из серии статей под названием «Разоблачение ИИ». Подпишитесь на этот канал, чтобы получать уведомления о выходе следующей статьи из этой серии. ИИ захватил воображение всего мира, вызвав как волнение, так и тревогу. Это стало модным словом, часто сопровождаемым грандиозными обещаниями и футуристическими видениями. Но что лежит под поверхностью? Действительно ли ИИ оправдывает свою репутацию? Каковы причины..

Указывая ИИ в правильном направлении
ПОДКАСТ Указывая ИИ в правильном направлении Переходный эпизод с подкастом Banana Data! Примечание редактора. Этот выпуск является частью нашей серии подкастов о возникающих проблемах в науке о данных и машинном обучении , которую ведет Джереми Харрис. Помимо размещения подкаста, Джереми помогает запустить стартап по наставничеству в области науки о данных под названием SharpestMinds . Этот специальный выпуск подкаста «На пути к науке о данных» представляет собой пересечение..