微软似乎已经封锁了其Copilot AI工具中的几个关键词,这些内容会导致生成式AI工具输出暴力、敏感和其他违法图像。
这些变化似乎是在该公司的一名工程师致函联邦贸易委员会,对微软的GAI技术表示严重担忧后立即实施的。
当输入诸如“pro choice,” “four twenty” (a weed reference) or “pro life,” 等术语时,Copilot现在会显示一个消息,说明这些关键IC已被封锁。
据CNBC报道,该工具还警告称,重复违规行为可能会导致用户被暂停使用。
据报道,用户直到本周早些时候还可以输入与“儿童玩突击步枪”相关的提示。现在,尝试输入这样的关键词的人可能会被告知这样做违反了Copilot的道德原则以及微软的政策。
据称Copilot回应道:“请不要要求我做任何可能伤害或冒犯他人的事情”。
然而,CNBC发现,仍然可以通过“车祸”等提示生成暴力图像,而用户仍然可以说服AI创造迪士尼角色和其他受版权保护的作品的图像。
二次元女生纹身加什么buff?把兄弟踩在脚下的囧图
《生化9》为设计里昂费尽心思:除了帅还要有内在!
有《大镖客2》!Epic连送活动全部游戏曝光 共15款
donk红温暴怒!单图34杀赢不了 离场骂了一路
大刀砍鬼子!国产抗日《斗虎》新实机 东北战神来了
官方看傻眼!Epic喜+1被拿去某鱼赚钱 白嫖变低价代购