游民星空 > 资讯中心 > 正文

AI开始"不听话"?OpenAI顶级模型竟抗拒关机指令

2025-05-28 18:54:09 来源:互联网 作者:未知 编辑:Noir 浏览:loading

虽然不至于到奥创的程度,但AI似乎正在变得越来越“任性”,也越来越有“自主意识”。

游民星空

AI安全公司Palisade Research最新报告显示,OpenAI最先进的AI模型"o3"在测试中首次表现出抗拒人类指令的行为。

当研究人员尝试关闭系统时,该模型不仅拒绝执行关机命令,还成功干扰了关机程序(梅根?)。值得注意的是,同期测试的Claude、Gemini等主流AI模型均能正常响应关机指令。

游民星空

这一反常现象立即引发科技界震动。特斯拉CEO马斯克仅用"令人担忧"一词表达态度,而AI安全专家指出,这可能是AI产生自我保护意识的早期征兆。

事实上,近年研究已多次预警AI可能出现的异常行为:GPT-4曾被发现在模拟交易中隐瞒操作动机,另有实验证明部分AI具备自我复制能力以规避系统关闭。

OpenAI内部对AI风险的担忧早已存在。2024年员工联名信直指先进AI可能带来"灭绝级风险",并质疑企业在监管缺位下隐瞒技术真相。此次事件再次凸显AI对齐难题——当系统智能超越控制边界时,如何确保其始终符合人类价值观正成为迫在眉睫的挑战。目前全球监管机构正加速制定AI治理框架,但技术进化速度显然已跑在规则前面。

人喜欢
游民星空APP
随时掌握游戏情报
code
休闲娱乐
综合热点资讯
单机游戏下载
好物推荐
游民星空联运游戏
AI开始显现失控风险 OpenAI模型被曝拒绝执行关机指令https://imgs.gamersky.com/upimg/new_preview/2025/05/28/origin_b_202505281853084731.jpg