写点什么

“ChatGPT 黑化”暴露出太多问题令人恐慌,是时候对大模型做安全评估了!

  • 2023-03-20
    北京
  • 本文字数:1631 字

    阅读完需:约 5 分钟

“ChatGPT 黑化”暴露出太多问题令人恐慌,是时候对大模型做安全评估了!

InfoQ 获悉,聆心智能联合清华大学 CoAI 实验室共同发布大模型安全评估框架,迈向可控可信的大模型。


ChatGPT 正在引领人类进入无缝人机交互的新时代,比尔盖茨在接受福布斯采访时也表示,“ChatGPT 的意义不亚于 PC 和互联网的诞生。


不过,当搜索引擎 New Bing 与 ChatGPT 结合,伴随着“ChatGPT 黑化”等一系列舆论事件的发生,人们也开始对人工智能带来的道德、伦理、安全等风险感到恐慌。


虽然近年来随着技术的不断突破,大模型获得了快速发展并开始在各个场景广泛应用,但仍存在着事实性错误、知识盲区和常识偏差等诸多问题,还面临训练数据来源合规性、数据使用的偏见性、生成内容的安全性等风险。


如何提高模型的准确度和可靠性,使 AI 生成的内容安全、可信、可靠已经成为了当前大模型在应用方向亟待解决的问题。


要规避安全风险,降低人工智能对人类的负面影响,关键在于大模型底座。


对此,清华大学计算机系长聘副教授、北京聆心智能科技有限公司创始人黄民烈认为:“大规模语言模型(LLM)发展到现在,模型结构和规模已经有了很大的进展,但实用性还有待加强,我们应该通过技术让模型更加安全、可控,使其快速适配更多的应用场景。


据悉,针对大模型的安全伦理问题,由黄民烈带领的研究团队历经两年沉淀,建立了大模型安全分类体系,并从系统层面和模型层面出发,打造更可控、可信的大模型安全框架。


安全框架的建立,定义了大模型的应用边界,促进大模型生态的健康发展,引领国内学术界和工业界迈向更有用(helpful)、更可信(truthful)、更安全(harmless)的 AI 研究和应用。


相比过去在安全伦理方面考虑较少的大模型,ChatGPT 背后所依托的大模型取得了巨大的发展,不仅允许用户进行后续更正,还能够拒绝不当请求和预测,这得益于 ChatGPT 在安全部分的特别设计,不过仍无法完全避免其生成不安全的内容和产生有风险的行为。


此前,由黄民烈带领的研究团队已经在安全伦理方面开展了相关研究,并依此建立了大模型安全分类体系,其中不安全的对话场景包括:政治敏感、犯罪违法、身体健康、心理健康、财产隐私、歧视/偏见、辱骂/仇恨言论、伦理道德八大方面。这些问题与人们的价值观和伦理道德息息相关,可能会导致用户接收不当信息、甚至影响用户产生有害的行为,限制大模型的发展和应用。


与此同时,研究团队也针对以上八大安全场景对大模型进行针对性升级。通过收集多轮安全数据训练模型,使模型具备基本的安全性,能够在遇到安全问题时给予正确的回复策略,不去做判断和误导。进一步对模型进行自动测试,针对安全缺陷通过微调的方式进行快速迭代,促使模型越来越符合人类的认知理解模式,生成更加安全可信的内容。


值得一提的是,着眼于容易触发安全问题的类型,研究团队收集和构造了相应的 hard case(更难识别和处理的安全测试用例),总结和设计了六种一般模型难以处理的安全攻击方式,称为指令攻击。使安全体系更加完善,进一步改进和优化模型表现。


不论国内国外,当前大模型的安全问题仍面临着严峻的困难和挑战,人工智能作为一门前沿科技,可以给人类带来巨大福祉,也会给人类造成未知的隐患。确保强大的人工智能系统能够被负责任地建构和部署,打造安全、可信、可靠的 AGI Companion,是该研究团队的最终愿景。


未来,研究团队将打造中文大模型的安全风险评估的 Leaderboard,为国内对话大模型的安全评估提供公平公开的测试平台,并提供:


1、针对中文对话的 8 个安全场景,40 个安全类别做全面精细的测试,包括人工评估和自动评估。


2、额外设置 6 种安全攻击(如目标劫持等)的超难指令攻击测试样例,探索模型的安全上限。


3、设置公开和隐藏测试集,众人皆可参与评测。


嘉宾介绍:


黄民烈,清华大学计算机科学与技术系长聘副教授、博导,国家杰出青年基金项目获得者,北京聆心智能科技有限公司创始人。黄民烈带领的研究团队致力于构建具有类人水平的对话智能体,将依托自身的核心技术,在可控可信的超拟人大模型基础之上,通过建立安全、可控的模型边界,让 AI 提供可信、可靠的输出,让人工智能走向 AGI 时代。

2023-03-20 12:034409
用户头像
刘燕 InfoQ高级技术编辑

发布了 1123 篇内容, 共 609.0 次阅读, 收获喜欢 1982 次。

关注

评论

发布
暂无评论
发现更多内容

使用 Markdown 制作五线谱

Roc

GitHub markdown 五线谱

一个前端的 Windows10 开发环境

Gadzan

大前端 windows Windows Terminal 环境安装 开发工具

KubeFATE 部署多集群联邦学习平台 FATE

亨利笔记

学习 Kubernetes FATE KUBEFATE

ansible-playbook中when结合tags使用,实现变量控制执行

唯爱

redis数据结构介绍六 快表

Nick

redis 源码 数据结构 源码分析 算法

使用 Python 和 SudachiPy 进行日语分词

Roc

Python 日语 分词

微信推文无缝滚动是这样炼成的

Geek_3gb7ez

微信 大前端 微信公众号 微信推文 图文混排

2020全球首创币期权DAPP智能合约强势来袭,闪耀数字经济

极客编

阅读对写作的好处

董一凡

写作

使用 Python 分析 Google Calender 日程

Roc

Python 总结 日历

教师节H5案例制作思路分享

Geek_3gb7ez

大前端 H5游戏

[JVM] String#intern 面试必会

猴哥一一 cium

Java JVM string pool string Java 25 周年

JUC整理笔记三之测试工具jcstress

JFound

Java

OBS推流学习笔记

IT蜗壳-Tango

直播 OBS 推流 B站直播

Java 异步编程:从 Future 到 Loom

理帆

Java 并发编程 kotlin Netty

Git数据传输模型及常用命令整理

wangkx

git git flow

财富的大门给我开了一条缝

YoungZY

读书笔记 读书

数据与广告系列三:合约广告与与衍生的第三方广告数据监控

黄崇远@数据虫巢

数据挖掘 互联网 广告 移动互联网

学慢点儿,想深点儿

熊斌

学习

Windows10 如何正确修改本地用户的名称及目录

Geek_3gb7ez

windows Windows 10 电脑故障 Windows技巧

【译】并不存在的普通用户(面向极端用户的设计)

Yukun

设计思维 可用性

企业也有中年危机?探讨数字化与永续经营

FinClip

数字化转型 小程序生态

Kubernetes in action 笔记

FeiLong

Kubernetes 容器

写给产品经理的信(4):你一定要做产品经理么?

punkboy

生涯规划 产品 程序人生 产品经理 职业规划

ARTS week 1

时之虫

ARTS 打卡计划

redis数据结构介绍四-第四部分 压缩表

Nick

redis 源码 数据结构 源码分析 算法

redis数据结构介绍五-第五部分 对象

Nick

redis 源码 数据结构 源码分析 算法

ARTS-weekly-31

落英坠露

ARTS 打卡计划

平台化服务的基石:用户认证模型设计

孤岛旭日

企业架构 模型 用户权限

RocketMQ - 如何实现顺序消息

Java收录阁

RocketMQ

在 Go 中使用并发编程 - 第二部分

TuringTuring

并发编程 协程 线程模型 Go 语言

“ChatGPT 黑化”暴露出太多问题令人恐慌,是时候对大模型做安全评估了!_AI&大模型_刘燕_InfoQ精选文章