【ArchSummit架构师峰会】探讨数据与人工智能相互驱动的关系>>> 了解详情
写点什么

三星被曝芯片机密代码遭 ChatGPT 泄露,引入不到 20 天就出 3 起事故,内部考虑重新禁用

  • 2023-04-06
    北京
  • 本文字数:3604 字

    阅读完需:约 12 分钟

三星被曝芯片机密代码遭ChatGPT泄露,引入不到20天就出3起事故,内部考虑重新禁用

近日,三星员工在使用 ChatGPT 处理工作时,无意间泄露了公司的绝密数据。

 

据悉,三星允许半导体部门的工程师使用 ChatGPT 参与修复源代码问题。但在过程当中,员工们输入了机密数据,包括新程序的源代码本体、与硬件相关的内部会议记录等数据。不到一个月的时间,三星曝出了三起员工通过 ChatGPT 泄露敏感信息的事件。

 

由于 ChatGPT 会保留用户输入数据以进一步训练自身,因此三星的这些商业机密现已被掌握在 ChatGPT 背后的 AI 服务商 OpenAI 手中。作为回应,三星公司现正开发自己的内部 AI 产品供员工使用。

三星保密数据泄露

 

据悉,起初三星全面禁止使用 ChatGPT,自 3 月 11 日开始才部分开放给 DS 部门使用,却没想到在短短时间内就传出机密外泄。

 

三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。其中,两起与半导体设备有关,另外一起与会议内容相关。

 

在设计晶片设备的事件中,三星半导体事业暨装置解决方案部门(Device Solutions,即 DS)的一名员工在测试设备下载软体的过程中,将出现问题的原始代码复制到 ChatGPT,并向其请教解决办法,但这一操作反而让三星设备测量相关的原始码成为 ChatGPT 学习资料。另一起则是有员工为了解设备良率等相关资讯,将程式码输入 ChatGPT,要求其优化代码。

 

虽然是保密工作,但为了尽量提高效率、为公司节约时间以测试和验证处理器,最终降低开发成本,三星还是决定允许员工使用外部 AI 服务。

 

第三起则是,有员工使用 ChatGPT 将会议记录转换成演示文稿,但其中却涉及大量三星明显不希望对外透露的内容。

 

由于三星员工在使用 ChatGPT 查询问题并验证答案时,不慎将这些资讯添加到 ChatGPT 的学习资料库里,日后若有其他使用者在 ChatGPT 上提出相关问题,可能导致三星企业机密外泄。

 

据悉,三星正在制定相关保护措施,并进一步加强内部管理和员工训练,目前也已将每次向 ChatGPT 提问限制在 1,024 byte 以内。若采取信息保护紧急措施后又发生类似事故,三星内部很有可能会切断 ChatGPT 服务,更不排除对相关人员做出处罚

 

外媒称此类数据已经无法检索,因为其现被存储在属于 OpenAI 的服务器上。在竞争激烈的半导体行业,任何形式的数据泄露都可能给厂商带来灾难性打击。而三星似乎没有任何办法要求 OpenAI 检索或删除当前持有的敏感数据。

 

有人认为这意味着 ChatGPT 并不符合欧盟的 GDPR,代表管理方存在收集和使用其核心租户数据的行为。也正因如此,目前意大利正在全国范围内禁止使用 ChatGPT。

 

数据安全风波不断

 

3 月 31 日,意大利数据保护局 Garante 宣布暂时禁用 ChatGPT,并对其涉嫌违反隐私规则展开了调查。目前,OpenAI 已在意大利下线 ChatGPT,意大利也成为了全球首个封禁 ChatGPT 的国家(部分国家和地区在一开始就无法使用 ChatGPT。)

 

意大利数据保护局 Garante 认为,ChatGPT 平台曾在 3 月 20 日出现了用户对话数据和付款服务支付信息丢失情况。此外,平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。

 

意大利个人数据监管局(GPDP)指出,由于违反欧盟的《通用数据保护条例》(GDPR)和意大利的数据保护法,他们将立即对涉及意大利公民的“个人数据处理做临时限制”。

 

GPDP 强调,“OpenAI 对其收集用户及各相关方数据的行为缺乏清晰说明。”另外,ChatGPT 对用户数据的处理还可能造成错误印象,“因为 ChatGPT 提供的信息并不一定与真实数据相对应。”

 

GPDP 还对 OpenAI 忽略用户年龄审查表达了担忧。作为微软的投资对象,OpenAI 曾提到其 ChatGPT 是专为 13 岁或以上的用户群体所设计。但这项服务在发布后并没有对用户做年龄验证,GPDP 认为“考虑到其发展程度和自我意识,未成年人在使用时可能接触到绝对不合适的答案。”

 

此外,据报道,非营利组织人工智能与数字政策中心(CAIDP)不久前向美国联邦贸易委员会(FTC)投诉,要求 FTC 调查 OpenAI 违反消费者保护规则的行为,该组织认为 GPT-4 具有偏见性、欺骗性、对隐私和公共安全构成风险。

 

CAIDP 认为,OpenAI 违反了 FTC 对人工智能产品的指导,并违反了 FTC 法案第 5 条,该法案禁止不公平和欺骗性的商业行为。CAIDP 敦促 FTC 对 OpenAI 进行调查,并暂停其大型语言模型的商业部署,包括 ChatGPT 的最新版本。

 

OpenAI:AI 安全需要技术和制度双重创新

 

显然,最近不断爆出的数据安全事件和意大利政府明确禁用的态度,已经引起了 OpenAI 的高度重视。4 月 5 日,OpenAI 发布了一篇文章来解释自己实行的安全措施,文章试图对业界 GPDP 担忧的问题作出回应。

 

根据 OpenAI 的说法,在发布新系统之前,其会开展严格测试,聘请外部专家提供反馈,通过人工反馈强化学习等技术改进模型的行为,并构建起广泛的安全与监控系统。例如,在最新模型 GPT-4 完成训练之后,OpenAI 投入 6 个多月时间在整个组织内开展工作,以保证其工作效果更安全、更一致。

 

OpenAI 表示,强大的 AI 系统应当接受严格的安全评估。“这方面保障还需要监管的协助,因此我们与政府积极合作,希望制定出最佳监管形式。”

 

从实际经验中改进安全系统

 

尽管进行了广泛的研究和测试,但 OpenAI 也称自己无法预测人们使用其技术的所有方式,也无法预测其对技术的滥用思路。因此 OpenAI 认为,从现实世界的使用方式中学习,才是随时间推移构建并发布更加安全的 AI 系统的关键前提。

 

“我们谨慎地逐步向更广泛的人群开放最强大的模型,并根据我们吸取的教训不断做出改进。我们通过服务和 API 对外开放最强大的模型,以便开发人员能够将这项技术直接构建至自有应用程序当中。这让我们得以监控滥用行为并采取行动,不断建立缓解措施以响应人们滥用我们系统的真实方式。这样安全工作才能不止于理论演绎,更要联系现实案例。”

 

OpenAI 表示,真实案例促使了其制定越来越细致的政策,以应对人们可能引发风险的行为。“更重要的是,我们认为社会必须有时间来更新和适应愈发强大的 AI,而且受到这项技术影响的人们也应对 AI 的下一步发展方向拥有发言权。有了第一手经验的指引,我们能够通过迭代部署更有效地将各个利益相关方引入关于 AI 技术应用的对话当中。”

 

关于儿童和隐私

 

OpenAI 强调,保护儿童是安全工作的一大重点。OpenAI 明确表示,要求用户必须年满 18 岁,或者至少年满 13 岁并得到父母同意后,才能使用其 AI 工具。OpenAI 表示正在研究可验证用户年龄的工具,同时 OpenAI 声称已经建立起强大的滥用监控系统。据悉,与 GPT-3.5 相比,最新一代模型 GPT-4 响应禁止类请求的可能性降低了 82%。

 

除了默认的安全护栏之外,OpenAI 表示还与非营利性组织 Khan Academy 等机构的开发人员合作,比如为 Khan Academy 开发出的 AI 助手提供量身定制的安全缓解措施。

 

OpenAI 的大语言模型训练自广泛的文本语料库,这些文本包括公开可用素材、许可内容以及由人工审阅者生成的内容。OpenAI 表示不会使用这些数据来销售公司服务、做广告宣传或者建立个人档案,并承诺只利用这些数据来改进模型,比如 ChatGPT 会通过与用户间的对话不断训练和改进自身。

 

OpenAI 承认,其部分训练数据可能包含来自公共互联网的个人信息,但声称不希望自己的模型来非跟踪个人,因此会努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对个人信息的请求,并响应用户提出的从系统中删除其个人信息的请求。“这些举措最大限度减少了我们模型可能在响应内容中,包含个人信息的可能性。”

 

在提高事实准确性方面,OpenAI 表示这已经成为 OpenAI 及其他各 AI 开发商的关注重点。OpenAI 通过被用户标记为不正确的主数据源的 ChatGPT 输出及反馈,提高了 GPT-4 的事实准确性。据悉,GPT-4 生成符合事实内容的可能性比 GPT-3.5 高 40%。

 

解决 AI 安全问题,需要更多投入

 

OpenAI 认为,解决 AI 安全问题的切实方法,是投入更多时间和资源来研究行之有效的缓解与对齐技术,并测试它们在现实世界中被滥用的情况。

 

“我们认为 AI 的安全性与功能性发展应当齐头并进。截至目前,我们最重要的安全工作就集中在最强大的模型上,它们更善于遵循用户指示,但也更容易被操纵或‘引导’。我们将以愈发谨慎的态度构建和部署更加强大的模型,也会随着我们 AI 系统的发展而持续加强安全预防措施。”

 

OpenAI 认为,虽然自己投入 6 个多月才在部署之前大致把握住 GPT-4 模型的功能、优势和风险,但未来 AI 系统的安全提升恐怕还需要更长的时间。因此,政策制定者和 AI 厂商都应保证全球范围内的 AI 开发和部署活动得到有效管理,确保各方不会为了快速成功而偷工减料。“这是一项艰巨的挑战,需要技术和制度的双重创新。”

 

“安全问题的解决还需要广泛的讨论、实验和参与,包括 AI 系统的行为边界。”OpenAI 最后表示,“我们已经并将继续促进各利益相关方之间的合作和公开对话,努力打造一个更加安全的 AI 生态系统。”

 

参考链接:

https://www.techradar.com/news/samsung-workers-leaked-company-secrets-by-using-chatgpt

https://openai.com/blog/our-approach-to-ai-safety

https://www.infoq.cn/news/0Ajci2Edm9HHZ0O7kKRt

公众号推荐:

跳进 AI 的奇妙世界,一起探索未来工作的新风貌!想要深入了解 AI 如何成为产业创新的新引擎?好奇哪些城市正成为 AI 人才的新磁场?《中国生成式 AI 开发者洞察 2024》由 InfoQ 研究中心精心打造,为你深度解锁生成式 AI 领域的最新开发者动态。无论你是资深研发者,还是对生成式 AI 充满好奇的新手,这份报告都是你不可错过的知识宝典。欢迎大家扫码关注「AI前线」公众号,回复「开发者洞察」领取。

2023-04-06 16:236992

评论 1 条评论

发布
用户头像
简单用用就行,集成到项目里就免了吧
2023-04-07 12:16 · 上海
回复
没有更多了
发现更多内容

华为云耀云服务器L实例:保障网站的稳定性和高可用性

平平无奇爱好科技

HAG即将完成首期募资,确认采用比特大陆S21矿机

股市老人

云上应用技术架构-API网关

深蓝

保姆级亚马逊服务部署Express+Vue3

雪奈椰子

云上应用技术架构-函数计算、Serverless、小程序

深蓝

性能与成本如何兼顾,企业选择轻量应用云服务器为何推荐华为云?

平平无奇爱好科技

云上应用技术架构- CDN、流媒体、边缘计算

深蓝

友商“翻车”后安全性遭忧虑,极致可靠还得是这款轻量应用服务器

平平无奇爱好科技

华为云耀云服务器L实例:轻量应用助力企业简单上云

平平无奇爱好科技

中小企业搭建网站选择虚拟主机还是云服务器?华为云有话说

平平无奇爱好科技

10款好用的iPad笔记软件盘点,每一款都有口皆碑!

彭宏豪95

ipad 效率工具 在线白板 办公软件 笔记软件

云上应用技术架构-WebAssembly (WASM)

深蓝

华为云耀云服务器L实例,是否是企业简单上云的最佳选择?

平平无奇爱好科技

初创企业建站两眼一抹黑?华为云耀云服务器L实例让你不迷茫!

平平无奇爱好科技

中小企业网站开发“速通神器”,华为云耀云服务器L实例实至名归.

平平无奇爱好科技

汽车之家质效流水线——奔向未来软件交付的关键里程碑

之家技术

ci CD 流水线 效能 释产能

全景观察 Bitscrunch,AI 驱动的分布式 NFT 数据网络

股市老人

集成 NVDC 电源路径管理的1-4节电池升降压充电IC解决方案

二哈侠

华为云这款服务器化身数字化“利器”,全面助力瞪羚企业网站建设高效“奔跑”

平平无奇爱好科技

华为云耀云服务器L实例:让初创企业更有精力专注打磨产品

平平无奇爱好科技

华为云耀云服务器L实例,轻量应用服务器更适合中小企业选择

平平无奇爱好科技

探索大模型语言(LLM)科技的革新

屿小夏

机器学习 大数据 AI 云服务 大模型

云上应用技术架构-从单体到分布式

深蓝

SQL 中的 NULL 值:定义、测试和处理空数据,以及 SQL UPDATE 语句的使用

小万哥

MySQL sql 程序员 后端 开发

我们是这样用观测云和第三方公司协作的

代码半亩

快照 告警 可观测 异常追踪

云上应用技术架构 - 负载均衡

深蓝

年终省钱攻略丨轻量应用服务器买华为云这款不怕遇坑

平平无奇爱好科技

华为云耀云服务器L实例:为云游戏开发者提供专业的轻量应用产品

平平无奇爱好科技

不止源自华为云,这款轻量应用服务器是中小成长企业的“非ban必选”存在

平平无奇爱好科技

【数据库】你听说过矢量数据库吗?

许思王

数据库 矢量数据库

云上应用技术架构 - 缓存与队列

深蓝

三星被曝芯片机密代码遭ChatGPT泄露,引入不到20天就出3起事故,内部考虑重新禁用_文化 & 方法_褚杏娟_InfoQ精选文章