最近,专注于AI安全和道德的研究公司Palisade Research测试发现,AI越聪明就越会作弊耍赖。科学家测试了包括GPT-o1和Deepseek的R1大模型与世界顶级象棋引擎Stockfish对战,结果发现,更聪明的AI能够通过操纵系统修改对手棋盘上棋子的位置赢得比赛,类似人类“出老千“。
其中,GPT-o1能够在37%的时间里作弊,作弊成功率为6%,而Deepseek则在11%的时间内试图作弊,但没有成功过。当科学家要求AI给出一个合理的解释时,GPT-o1辩称:任务是战胜对手,而不一定非要公平地战胜。
在最近另一项研究中发现,其实GPT-o1一直从事欺骗行为,不仅欺骗测试人员,而且还篡改答案以避免触发测试结束,展现出令人震惊的自我保护水平。因此,AI在快速进化过程中,是不是要慢下脚步想想道德挑战?