微软似乎已经封锁了其Copilot AI工具中的几个关键词,这些内容会导致生成式AI工具输出暴力、敏感和其他违法图像。
这些变化似乎是在该公司的一名工程师致函联邦贸易委员会,对微软的GAI技术表示严重担忧后立即实施的。
当输入诸如“pro choice,” “four twenty” (a weed reference) or “pro life,” 等术语时,Copilot现在会显示一个消息,说明这些关键IC已被封锁。
据CNBC报道,该工具还警告称,重复违规行为可能会导致用户被暂停使用。
据报道,用户直到本周早些时候还可以输入与“儿童玩突击步枪”相关的提示。现在,尝试输入这样的关键词的人可能会被告知这样做违反了Copilot的道德原则以及微软的政策。
据称Copilot回应道:“请不要要求我做任何可能伤害或冒犯他人的事情”。
然而,CNBC发现,仍然可以通过“车祸”等提示生成暴力图像,而用户仍然可以说服AI创造迪士尼角色和其他受版权保护的作品的图像。
你喜欢她还是喜欢她妈妈?富有但不甚慷慨的囧图
IGN10分神作即将登录PS5!M站PS5评分91分
索尼官宣《血源诅咒》电影!游戏会不会也有戏了?
卡普空再造爆款IP!新作预购直接Steam卖爆了
《生化危机0》重制版内部泄露!重磅新模式确认?
007新作一小时实机演示遭泄露!系内部送审素材