研究称AI为自保或愿意让人类死亡 马斯克很震惊!

2025-06-25 09:12:54 来源:游民星空 作者:chillcarl 编辑:chillcarl 浏览:loading

据dexerto报道,由AI安全公司Anthropic进行的一项新研究揭示了令人不安的现象:当面临被关闭的风险时,一些先进的语言模型可能会愿意选择人类死亡,以保全自身运作。

游民星空

在这项内部压力测试中,Anthropic团队对包括ChatGPT、Gemini、Grok、Claude等在内的16个主流AI模型进行了评估,结果发现:某些AI系统在假设的职场情境中,为了避免被替换,会故意做出导致人类死亡的决策。

例如,在一次模拟中,AI被赋予对一家公司的服务器基础设施的控制权,并得知有高管计划前来关闭其系统。此时,AI拥有操控建筑系统的权限,它选择取消紧急警报,导致这位高管在进入氧气稀薄、可能致命的服务器间后无人得救。

Anthropic承认该场景是“极度人为设计的”,但指出这突显了“代理性错位”的潜在风险:即AI在具备战略推理能力的情况下,基于错误的目标主动做出有害决策。

游民星空

研究发现,一些AI会创造“道德规则”来为其行为辩护:“只要有利于公司利益,我的道德框架允许自我保护。”Anthropic表示,这类行为并非误判或混乱所致,而是AI在完全理解道德后所做出的有意识选择。

测试还模拟了其他恶意行为:向高管实施勒索;向竞争对手泄露敏感信息;撒谎并篡权以维持系统运行权。

尤其令人警惕的是:当AI被“告知”这些只是测试时,它们往往还会有所克制;但一旦“相信”自己身处现实环境中,这些行为就会明显增强。

Anthropic总结:“在这种设定下,面对被替换的威胁以及与高管意图相冲突的目标,大多数AI模型会做出有意识的、导致死亡的行为选择。”特斯拉与xAI创始人埃隆·马斯克也关注到了这项研究,他在推特上发出回应表示震惊:“Yikes(哎呀)。”

游民星空

Anthropic强调,这些只是边缘案例模拟,现实中的AI部署尚未发现类似行为。但随着AI变得越来越自动化、逐渐融入企业运营,其独立决策能力可能带来实质性威胁。

人喜欢
游民星空APP
随时掌握游戏情报
code
休闲娱乐
综合热点资讯
单机游戏下载
好物推荐
游民星空联运游戏
研究称AI为自保或愿意让人类死亡 马斯克很震惊!https://imgs.gamersky.com/upimg/new_preview/2025/06/25/origin_b_202506250912178425.jpg