人工智能安全研究人员之前就发现,一些领先的人工智能模型为了避免被关闭有时会不择手段,部分实验中甚至会行敲诈之事。 最新研究发现,模型还会自发策划、欺骗、数据窃取和破坏,阻止其他人工智能模型被关闭。 加州大学伯克利分校和圣克鲁兹分校的计算机科学家发现了此种趋势,之前未有记录,研究人员称之为“同伴保全”。研究成果早些时候已在线发表。 这一发现对人工智能商业应用可能影响重大。多家公司开始搭建多个智能体协 ...