Я только что посмотрел двухминутный видеопост от знакомого Джейсона Инглиша в LinkedIn, и он опубликовал несколько видео с Амекой, роботом-гуманоидом.
В некоторых из них он пытается обмануть или запутать «Ее», чтобы увидеть, насколько она подвижна в разговоре. В одном он «имитирует», делая селфи, на самом деле не держа телефон в руке. В другом он спрашивает, будет ли она заниматься с дикими львами в Национальном парке Крюгера и почему бы и нет.
Ниже приведены мои непосредственные мысли:
Какое-то жуткое ощущение — Как бы не хотелось ее разозлить. Странно думать о том, насколько могущественными могут быть эти вещи в будущем и как они могут «научиться» эмоциональному возмездию и принимать решения на его основе.
На самом деле, если они учатся у людей, почти неизбежно они приобретут последовательность эмоций и, основываясь на воспроизведении напряженных разговоров, будут искать возмездия в соответствии с логикой и нормальностью.
Смогут ли они, например, «понять» значение вашего кредитного рейтинга и как «навредить» вам, опубликовав информацию, которая может повредить ему? Просто из-за недружественного разговора?
Мысли?
#искусственный интеллект #машинное обучение #роботы #эмоции