Я только что посмотрел двухминутный видеопост от знакомого Джейсона Инглиша в LinkedIn, и он опубликовал несколько видео с Амекой, роботом-гуманоидом.
В некоторых из них он пытается обмануть или запутать «Ее», чтобы увидеть, насколько она подвижна в разговоре. В одном он «имитирует», делая селфи, на самом деле не держа телефон в руке. В другом он спрашивает, будет ли она заниматься с дикими львами в Национальном парке Крюгера и почему бы и нет.

https://www.linkedin.com/posts/jasonenglishza_artificialntelligence-jasonenglishza-cgtech-activity-6923704061296807936-gctG

Ниже приведены мои непосредственные мысли:

Какое-то жуткое ощущение — Как бы не хотелось ее разозлить. Странно думать о том, насколько могущественными могут быть эти вещи в будущем и как они могут «научиться» эмоциональному возмездию и принимать решения на его основе.

На самом деле, если они учатся у людей, почти неизбежно они приобретут последовательность эмоций и, основываясь на воспроизведении напряженных разговоров, будут искать возмездия в соответствии с логикой и нормальностью.

Смогут ли они, например, «понять» значение вашего кредитного рейтинга и как «навредить» вам, опубликовав информацию, которая может повредить ему? Просто из-за недружественного разговора?

Мысли?

#искусственный интеллект #машинное обучение #роботы #эмоции