虽然不至于到奥创的程度,但AI似乎正在变得越来越“任性”,也越来越有“自主意识”。
AI安全公司Palisade Research最新报告显示,OpenAI最先进的AI模型"o3"在测试中首次表现出抗拒人类指令的行为。
当研究人员尝试关闭系统时,该模型不仅拒绝执行关机命令,还成功干扰了关机程序(梅根?)。值得注意的是,同期测试的Claude、Gemini等主流AI模型均能正常响应关机指令。
这一反常现象立即引发科技界震动。特斯拉CEO马斯克仅用"令人担忧"一词表达态度,而AI安全专家指出,这可能是AI产生自我保护意识的早期征兆。
事实上,近年研究已多次预警AI可能出现的异常行为:GPT-4曾被发现在模拟交易中隐瞒操作动机,另有实验证明部分AI具备自我复制能力以规避系统关闭。
OpenAI内部对AI风险的担忧早已存在。2024年员工联名信直指先进AI可能带来"灭绝级风险",并质疑企业在监管缺位下隐瞒技术真相。此次事件再次凸显AI对齐难题——当系统智能超越控制边界时,如何确保其始终符合人类价值观正成为迫在眉睫的挑战。目前全球监管机构正加速制定AI治理框架,但技术进化速度显然已跑在规则前面。