根据路透社消息,谷歌警告员工不要泄露机密信息或使用其 AI 聊天机器人生成的代码,包括自己正在全球推广的 Bard。
知情人士称,谷歌母公司 Alphabet 已建议员工不要将机密材料输入人工智能聊天机器人,该公司援引了长期保护信息政策。研究人员发现 AI 可以重现它在训练期间吸收的数据,从而造成泄漏风险。
还有知情人士透露,Alphabet 提醒其工程师避免直接使用聊天机器人生成的计算机代码。该公司表示 Bard 会提出不受欢迎的代码建议。问题是可能导致错误程序或复杂、臃肿的软件。与根本不使用 AI 进行编码相比,开发人员将花费更多时间来修复这些问题。
据Insider 报道,到 2 月,谷歌告诉测试 Bard 的工作人员在发布前不要向 Bard 提供内部信息。现在谷歌将 Bard 推广到 180 多个国家和 40 种语言。
如今,告诫自己的员工不要直接使用 Bard 生成的代码一事,打破了谷歌声称其聊天机器人可以帮助开发人员提高工作效率的说法。创建者自己由于隐私和安全风险都不使用的话,其他人该怎么相信并使用呢?
前不久,谷歌准备在欧盟地区推出 Bard,但是由于欧盟隐私数据监管机构提出质疑,谷歌被迫将发布日期向后推迟。爱尔兰数据保护委员会近日指出,谷歌并没有明确说明 Bard 服务将如何遵守欧盟地区的隐私数据保护规定。
参考链接:
公众号推荐:
跳进 AI 的奇妙世界,一起探索未来工作的新风貌!想要深入了解 AI 如何成为产业创新的新引擎?好奇哪些城市正成为 AI 人才的新磁场?《中国生成式 AI 开发者洞察 2024》由 InfoQ 研究中心精心打造,为你深度解锁生成式 AI 领域的最新开发者动态。无论你是资深研发者,还是对生成式 AI 充满好奇的新手,这份报告都是你不可错过的知识宝典。欢迎大家扫码关注「AI前线」公众号,回复「开发者洞察」领取。
评论