三星已经为自己树立了一个不应该使用人工智能聊天机器人的例子,比如OpenAI的ChatGPT、微软的必应聊天或谷歌的Bard。
此前至少有三名三星员工不小心向OpenAI的ChatGPT泄露了敏感信息,其中一个例子涉及机密数据库的源代码被输入聊天机器人以检查错误。另一个例子包括一名三星员工共享代码优化,最后一个例子是一名员工要求聊天机器人将三星内部会议视频转换为会议记录。
三星的问题似乎已经得到了解决,有报道称,该公司立即推出了一项回应,禁止每位三星员工向ChatGPT上传超过1024字节的内容。此外三星已经对泄密事件的相关人员展开了内部调查,并将创建自己的内部聊天机器人,以防止进一步的问题产生。
然而,这种新的限制更像是对更大问题的权宜之计,随着人工智能聊天机器人越来越容易接触并融入社会和商业的各个方面,人们将不得不与它们分享敏感信息。
反视角的电车痴汉 遇见原味舔食者的囧图
《仙剑4重制版》已沉寂整整一年 评论区玩家饿疯了
还没上线就翻车!TGA压轴新作Steam页被贴LGBT标签
9分!IGN高分评《八方0》:大放异彩的RPG佳作
生成画面太没劲!小岛秀夫谈游戏中AI的真正用法
IGN年度最佳出炉!《光与影》压倒性投票夺冠