员工错误使用 ChatGPT,三星机密数据外泄

809次阅读
没有评论

ChatGPT 极大地改变了人们的工作方式,不光是普通的个人用户从中受益,一些大型科技公司也同样认可了这些 AI 工具的作用,来帮助其员工提高生产力。

虽然 ChatGPT 确实显著提升了用户的工作效率,但如果员工没有得到充分的提醒和培训,不知道哪些信息可以或不可以与 AI 模型共享,就会出现严重的错误,而三星为此交了 “昂贵” 的学费。

员工错误使用 ChatGPT,三星机密数据外泄

根据韩国媒体 Economist 的报道,出于担心可能发生的内部机密信息泄露,三星一直阻止其员工在工作场所使用 ChatGPT。不过从 3 月 11 日起,三星向其半导体部门的员工授予了 ChatGPT 的使用权限(其他部门仍被禁止)。可能是员工对于新工具的好奇,以及三星没有详细向员工告知 AI 工具的工作原理,在过去这段时间,三星的员工向 ChatGPT 提出了各种各样的问题,来提升工作效率。

只不过,在三星员工使用 ChatGPT 来帮助他们完成工作时,三星的机密数据也不知不觉就泄露了。而且在短短几周时间里,就发生了三起。由于 ChatGPT 保留了用户的输入数据来进一步训练自己,三星的这些商业机密现在实际上掌握在了 OpenAI 手中。

根据报道,在这些泄漏事件中,其中一起是一名员工要求 ChatGPT 优化测试序列,以识别芯片中的错误,使这一过程尽可能高效,可以为三星半导体部门节省大量测试和验证处理器的时间,从而达到降低成本的目的;在另一个事件中,一名员工使用 ChatGPT 将公司有关硬件的会议记录转换成演示文稿,其中也涉及到了大量机密内容;最后一起事件则是三星半导体的员工向 ChatGPT 提交了专有程序的源代码以修复错误。

在这些事件发生后,三星就泄露机密信息的潜在危险向其员工发出警告,称这些数据被传输并存储在外部服务器上,公司无法检索这些数据,增加了机密信息泄露的风险。虽然 ChatGPT 是一个强大的工具,但其特性可能会将敏感信息暴露给第三方,这在竞争激烈的半导体行业中是不可接受的。

作为回应,三星现在计划开发自己的内部 AI 工具,供员工内部使用,但他们只能使用大小限制在 1024 字节的 prompts。如果未来再发生类似事件,三星将在公司网络上阻止员工继续访问 ChatGPT。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy