
南韩媒体《Economist》报导,南韩科技巨擘三星员工疑似因使用AI聊天机器人ChatGPT,而分别在不同事件中泄露公司机密。
报导指出,三星装置解决方案及半导体业务部门发生三起事件,出自员工将公司机密信息输入ChatGPT而外流。 外泄的信息包括半导体设备量测数据库、生产/瑕疵设备相关软件,以及一份公司会议语音转录的文字纪录摘要。 报导指出,一名软件开发工程师在数据库程序开发期间发现代码错误,于是将整份程式码复制贴到ChatGPT对话中,以寻找臭虫及解决方案。
三星电子原本因信息安全禁止员工使用ChatGPT,该公司考虑开发可被公司监管的自有AI聊天机器人服务,3月11日才在员工要求下解除禁令,但三星仍呼吁员工不得分享机密信息。
这起事件可能让外部用户通过询问ChatGPT而得知三星机密。 报导指出,三星电子紧急启动信息保护指施,将输入ChatGPT的信息量限制在每个问题1024 byte以下,并展开内部调查。 三星并警告员工,未来若再有类似事件将不再允许公司内部网络使用ChatGPT。
OpenAI也曾在公司FAQ网页告诫用户,不应在ChatGPT对话中分享敏感信息。 这些被上传至ChatGPT的信息,会被当成聊天机器人AI模型的训练数据。
简单易用又强大的特性让ChatGPT在全球爆红,但其大量搜集用户信息令主管机关忧心。 上周意大利资料主管机关以ChatGPT搜集用户个资,又未能辨识未成年用户为由,要求停用ChatGPT,直到OpenAI说明修改搜集个资的作法。 德国当局也说考虑跟进。