Публикации по теме 'ai-alignment-and-safety'
Как функции вознаграждения за обучение могут пойти не так
Взгляд с точки зрения безопасности ИИ на риски, связанные с тем, что агенты обучения с подкреплением изучают свои функции вознаграждения.
Обучение с подкреплением (RL) — одна из самых многообещающих областей ИИ, с самыми разнообразными приложениями, такими как беспилотные автомобили и торговля акциями. Хорошо известная слабость подхода RL заключается в том, что исследователи должны определить функцию вознаграждения, соответствующую цели агента. Для сложных целей это может быть сложно, а..
Представление об искусственном интеллекте: как отличить факты от вымысла
Выход за рамки модных словечек к сути области
Этот пост является первым из серии статей под названием «Разоблачение ИИ». Подпишитесь на этот канал, чтобы получать уведомления о выходе следующей статьи из этой серии.
ИИ захватил воображение всего мира, вызвав как волнение, так и тревогу. Это стало модным словом, часто сопровождаемым грандиозными обещаниями и футуристическими видениями. Но что лежит под поверхностью? Действительно ли ИИ оправдывает свою репутацию? Каковы причины..
Указывая ИИ в правильном направлении
ПОДКАСТ
Указывая ИИ в правильном направлении
Переходный эпизод с подкастом Banana Data!
Примечание редактора. Этот выпуск является частью нашей серии подкастов о возникающих проблемах в науке о данных и машинном обучении , которую ведет Джереми Харрис. Помимо размещения подкаста, Джереми помогает запустить стартап по наставничеству в области науки о данных под названием SharpestMinds .
Этот специальный выпуск подкаста «На пути к науке о данных» представляет собой пересечение..