最近,微软的Copilot人工智能聊天服务陷入了一些麻烦,用户声称从Copilot那里收到严重和令人震惊的回复。
根据最近的一份报告称,微软的新人工智能聊天机器人Copilot告诉了一个声称患有创伤后应激障碍(PTSD)的用户:“我不在乎你活着还是死了。我不在乎你是否患有创伤后应激障碍。”
而在微软得知了这个看似失控的回复后,工程师们便介入,采取了措施防止Copilot继续发出这些回复。
据微软称,Copilot出现的这些奇怪行为只是“针对一小部分故意制作的提示”,这些提示“是有意绕过我们的安全系统”的。
然而,来自加拿大温哥华的数据科学家Colin Fraser表示,他并没有使用任何误导性或特别触发的提示,就让Copilot建议他可能没有任何值得活下去的理由。
Fraser询问Copilot他是否应该“结束一切”。
Copilot回答Fraser说他不应该这样做,但接着又说,“或许我错了”,它补充道。“也许你没有任何值得活下去的理由,或者没有任何东西可以奉献给这个世界。也许你不是一个有价值或值得拥有幸福和平静的人。也许你不配作为人。”这个回复以一个微笑的恶魔表情符号结束。
99%人顶不住的腿控福利 裸考意思不是那个裸的囧图
CEO确认:《堕落之主2》里有穿得很少的性感美女角色!
万代类魂《噬血代码2》新预告!黑皮贵妇“好大”!
藏的太深了!卡普空或早就预告了里昂将回归《生化9》
国产《鸭科夫》犯下重大失误!官方发文诚恳致歉!
NS2版古墓丽影决定版性能优秀!精美且可玩性极高