虽然不至于到奥创的程度,但AI似乎正在变得越来越“任性”,也越来越有“自主意识”。
AI安全公司Palisade Research最新报告显示,OpenAI最先进的AI模型"o3"在测试中首次表现出抗拒人类指令的行为。
当研究人员尝试关闭系统时,该模型不仅拒绝执行关机命令,还成功干扰了关机程序(梅根?)。值得注意的是,同期测试的Claude、Gemini等主流AI模型均能正常响应关机指令。
这一反常现象立即引发科技界震动。特斯拉CEO马斯克仅用"令人担忧"一词表达态度,而AI安全专家指出,这可能是AI产生自我保护意识的早期征兆。
事实上,近年研究已多次预警AI可能出现的异常行为:GPT-4曾被发现在模拟交易中隐瞒操作动机,另有实验证明部分AI具备自我复制能力以规避系统关闭。
OpenAI内部对AI风险的担忧早已存在。2024年员工联名信直指先进AI可能带来"灭绝级风险",并质疑企业在监管缺位下隐瞒技术真相。此次事件再次凸显AI对齐难题——当系统智能超越控制边界时,如何确保其始终符合人类价值观正成为迫在眉睫的挑战。目前全球监管机构正加速制定AI治理框架,但技术进化速度显然已跑在规则前面。
垫假胸女主如何高情商回复 还是要看翘不翘的囧图
白金工作室分享《忍龙4》新图!大雷美女剪刀手
《女神异闻录6》首次被明确提及!Atlus询问玩家期待
日本麦当劳淘汰纸吸管:新版冷饮杯盖自带饮口
歌手陈粒演出时耳机“爆炸” 工作室发文报平安
大雷《白雪公主》新片段:性感肉腿砸出金色汁水!