写点什么

腾讯吴运声:聚焦技术底座、应用创新、助力科学计算,腾讯云 MaaS 能力再升级

  • 2023-07-08
    北京
  • 本文字数:3778 字

    阅读完需:约 12 分钟

腾讯吴运声:聚焦技术底座、应用创新、助力科学计算,腾讯云MaaS能力再升级

7 月 7 日,世界人工智能大会期间,腾讯举办以“无限可能”为主题的论坛。腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声发表《腾讯云 MaaS,激活产业发展新动能》主题演讲,分享了关于大模型行业应用观点,同时介绍了腾讯云行业大模型技术解决方案的最新进展。


腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声


吴运声认为,产业场景已经成为大模型的最佳练兵场,但企业在应用大模型时,又会面临计算资源少、数据质量差、投入成本高、专业经验少等现实问题的挑战。

 

对此,腾讯云不久前公布了行业大模型技术解决方案。该方案依托腾讯云 TI 平台打造行业大模型精选商店,为客户提供 MaaS 一站式服务,客户只需要加入自己独有的场景数据,就可以快速生成专属模型,结合实际业务场景需求,开发低成本、高可用的智能应用和服务。

 

据吴运声介绍,继 6 月 19 日公布解决方案后,腾讯云 MaaS 平台能力敏捷迭代,在行业大模型技术底座、应用场景、助力科学计算等方向,均有所优化和提升。


在技术底座层面,腾讯不久前发布了自研星脉高性能计算网络、向量数据库,为大模型的行业应用提供更充沛的算力基础设施;在应用创新方面,腾讯云也将行业大模型的能力,应用到金融风控、交互翻译、数智人客服等场景中,提升智能应用效率;在科学计算方面,腾讯云始终坚持“AI for Science”,今年将大模型技术,应用在天文探索、甲骨文考释等科研场景。

 

吴运声最后强调, AI 大模型技术发展和产业探索,离不开产业链协同和生态共建,腾讯希望与行业伙伴携手,共同推进大模型在产业领域的创新和落地。

 

以下为吴运声主题演讲全文:

 

尊敬的各位嘉宾、媒体朋友们,大家下午好,欢迎来到腾讯论坛!我是腾讯的吴运声。

 

作为国内规格最高、影响力最大的技术盛会,世界人工智能大会已经连续举办六届,很多新的技术趋势、创新方案、产业成果在这里发布,已经成为人工智能技术发展的风向标。回顾人工智能发展历史,这项技术自诞生之初,就始终伴随人们的期待与失望,呈螺旋式上升的发展趋势。今天,大语言模型驱动“智慧涌现”,又一次将人工智能技术推到了一个新的制高点。

 

在过去这段时间里,我们发现大语言模型在智能问答、内容创作、智能决策、智能风控等很多业务场景,表现出令人惊艳的应用效果。尤其是广泛的产业场景,已经成为大模型的最佳练兵场。

 

快速了解、应用大模型能力,是新一轮人工智能技术浪潮中,保持市场核心竞争力的关键。这也成为越来越多企业家共同思考的方向,同时也存在一些焦虑。

 

实际上,大模型虽好,但用起来还是有很高的门槛。尤其对一些传统领域企业而言,通用大模型无法精准适配、达到降本增效的预期。企业需要的,是在实际场景中真正解决某个问题,而不是在 100 个场景中解决了 70%-80%的问题。

 

相比之下,训练和部署专属行业大模型,让“通才”变“专才”,对企业来说或许是一个可行路径,但又普遍存在计算资源少、数据质量差、投入成本高、专业经验少等现实挑战。此外,安全、合规,也是企业需要考虑的关键因素。

 

针对这些问题,我们在 6 月 19 日推出了腾讯云 MaaS 一站式行业大模型解决方案:基于腾讯云 TI 平台,打造一站式行业大模型精选商店,TI 平台内置多个行业高质量大模型,同时支持客户多模型训练任务,客户只需要加入自己独有的场景数据,就可以快速生成自己的“专属模型”,结合实际业务场景需求,开发低成本、高可用的智能应用和服务。

 

目前,我们已经联合金融、文旅、政务、传媒、教育等十多个行业头部客户,共同打造了超过 50 个行业大模型解决方案。

 

在金融领域,我们助力中金所技术公司,打造自有模型,降低技术开发与运营成本,支撑多部门业务。 针对资源、开发等需求,基于腾讯云 TI 平台能力,实现资源统一调度,按需扩缩容,降低开发门槛、成本,提高模型开发效率,支持投服部等部门的舆情数据分析场景,每日调用峰值高达 1 亿次,整体调用成功率超过 99%。

 

在文旅领域,我们联合一家线上旅游 OTA 公司,共同探索文旅行业大模型的应用。过去,传统智能客服需要人工进行对话配置:知识维护量大、耗时长,但运营人力有限、人力配置成本高,涉及订单等复杂业务场景,在无配置的情况下无法通过机器人闭环解决问题。精调后的客户专属模型,无需配置对话流程,即可实现端到端解决业务问题。提升任务完成率,降低对话构建成本。

 

在传媒领域,我们联合央视总台,打造了传媒大模型方案。央视总台积累了海量的音视频、图片、文稿等信息资源,但人工编目低效且成本高,传统检索方式召回率低,无法满足时效性和高质量需求。通过腾讯云智能媒体 AI 中台的大模型能力,央视总台实现智能标签理解、泛化能力提升,以及人脸、图像、视频和自然语言描述的精准检索,提高了资源管理效率和准确性,推动了媒体内容生产与传播的智能化进程。

 

腾讯云 MaaS 行业大模型精调解决方案,具备五大优势。基于腾讯深耕产业互联网的行业经验积累,我们在 TI 平台内置了高质量的行业大模型,同时我们提供完善的平台工具,成熟的流程方法,全面配套服务,领先的安全能力保障,可以为客户提供从模型选择、到落地部署的一站式服务。

 

同时,在过去两周多时间里,我们也在不断优化和升级腾讯云 MaaS 平台能力,旨在为客户提供更普惠的行业大模型解决方案。在技术底座层面,我们前几天刚刚发布了自研星脉高性能计算网络、向量数据库,为大模型的行业应用提供更充沛的算力基础设施。在应用创新方面,我们也将行业大模型能力,应用到金融风控、交互翻译、数智人客服等场景中,极大提升了智能应用效率。在科学计算方向,AI for Science 一直是我们关注的重要方向。今年,我们也将大模型技术,应用在天文探索、甲骨文考释等科研场景,取得了不错的成果。

 

首先,行业大模型加持的金融风控解决方案,相比之前有了 10 倍效率提升。腾讯云风控大模型融合了腾讯过去 20 多年黑灰产对抗经验,和上千个真实业务场景,整体反欺诈效果比传统模式有 20%左右的提升。企业可以基于 prompt 模式,迭代风控能力,从样本收集、模型训练到部署上线,实现全流程零人工参与,建模时间也从 2 周减少到仅需 2 天。

 

同时,很多企业受限于积累的样本有限,或者是新品刚刚上线,面临“零样本”搭建风控体系,制定策略非常困难。我们也可以基于腾讯云风控大模型丰富的场景样本快速搭建能力,助力客户跳过“冷启动”过程。

 

行业大模型在交互翻译场景,也有不错的提升效果。过去的同传技术,往往需要大量样本数据进行训练,尤其涉及一些特别专业领域的翻译,也需要人工加持进行调优,才能保障翻译效果。基于行业大模型技术,不再需要百万级的训练数据,使用小样本训练便也可以获得不错的翻译结果,让每一次交互翻译,都对下一句的翻译提升发挥实时作用,目前已经在多个垂直行业落地。大家看到今天会场,以及世界人工智能大会开幕式、主论坛的同传翻译,都是由腾讯同传进行的技术支持,我们已经连续 6 年为大会提供同传翻译服务。

 

今年早些时候,我们推出了小样本数智人工厂,仅需少量数据、24 小时即可复刻 2D 数字分身,大幅提升了生产效率。接下来,我们依托 AI 生成算法,提升 3D 形象复刻速度,推进生成式动作驱动,结合行业大模型能力,让企业获得更“个性化、专业、自然逼真”的数智员工,让“面对面”专业服务成为可能。这几天,我们在展台设置了小样本数智人体验,现场拍摄 3 分钟素材,24 小时就可以领取专属数字分身。

 

与此同时,我们也看到大模型在科学计算方面,也有非常惊艳的表现。在关注 AI 产业落地同时,AI for Science 是我们一直关注的方向。早在 2021 年,我们将 AI 技术应用在天文领域,联合国家天文台、复旦大学计算机科学技术学院,发起“探星计划”,旨在通过人工智能技术,提升天文发现和科研的效率,已经帮助 Fast 发现 30 颗脉冲星。

 

在今年,我们首次通过 AI 技术助力,从巡天观测数据中发现了 2 颗快速射电暴。相比脉冲星,快速射电暴因为发现时间晚、AI 训练数据少、出现频率低,发现难度相比脉冲星要大很多。为此,团队通过全新设计的端到端 AI 算法,提升数据运算速度。引入多示例学习、注意力机制,同时结合腾讯云行业大模型辅助 AI 训练,通过自监督预训练 +数据精调,提升模型精度,降低数据标注成本。

 

在文化领域,我们与内外部多个部门携手合作,首次将文字检测、摹本生成、字形匹配等多种 AI 算法,综合应用于甲骨文研究。截至目前,已建立覆盖 143 万字的全球最大甲骨文单字数据库,提升甲骨内容提取、甲骨文识别与考释等效率,探索甲骨文研究的人机协同新模式。

 

大模型训练,算力是基础。腾讯云在大模型算力方面拥有领先优势,今年早些时候,我们发布了面向大模型训练新一代 HCC 高性能计算集群,整体性能比过去提升了 3 倍。就在过去一周,腾讯云首次完整披露了自研星脉高性能计算网络,能提升 40%的 GPU 利用率,节省 30%~60%的模型训练成本,为 AI 大模型带来 10 倍通信性能提升。基于腾讯云新一代算力集群 HCC,可支持 10 万卡的超大计算规模。

 

最新发布的 AI 原生向量数据库最高支持 10 亿级向量检索规模,延迟控制在毫秒级,相比传统单机插件式数据库检索规模提升 10 倍,同时具备百万级每秒查询(QPS)的峰值能力。这些技术底座能力的持续提升,将为客户的模型训练提供强大的支持和动力。

 

当然,AI 大模型技术发展和产业探索,离不开产业链协同和生态共建,这也是腾讯在 AI 发展方面一直坚持的态度。为此,我们也在早些时候发布了腾讯云行业大模型共建计划。我们愿与行业伙伴携手,去探索无限的可能性。

2023-07-08 15:055996
用户头像
李冬梅 加V:busulishang4668

发布了 1137 篇内容, 共 758.6 次阅读, 收获喜欢 1276 次。

关注

评论

发布
暂无评论
发现更多内容

零售品牌如何挑选达人KOL?火山引擎VeDI有妙招!

字节跳动数据平台

大数据 营销 营销数字化 12 月 PK 榜

【0.1mm钻孔】揭秘激光钻孔加工常见的4种方法

华秋PCB

工艺 PCB PCB设计 钻孔

大数据培训学习编程技术的方法有哪些

小谷哥

Serverless 架构下的 AI 应用开发

Serverless Devs

meta force原力元宇宙魔豹联盟矩阵公排dapp系统开发源代码

开发微hkkf5566

云原生大数据平台零信任网络安全实践技术稿

星环科技

【JVM故障问题排查心得】「内存诊断系列」JVM内存与Kubernetes中pod的内存、容器的内存不一致所引发的OOMKilled问题总结(下)

码界西柚

JVM 12月日更 堆外内存 内存干扰

五种方式实现 Java 单例模式

Jeremy Lai

设计模式 单例模式

详解HashMap源码解析(上)

Jeremy Lai

HashMap底层原理

云小课|云小课带你玩转可视化分析ELB日志

华为云开发者联盟

云计算 后端 华为云 12 月 PK 榜

详解HashMap源码解析(下)

Jeremy Lai

HashMap底层原理

瓴羊Quick BI带给企业新发展,企业数字营销和运营变得格外简单

对不起该用户已成仙‖

Java通过反射注解赋值

Jeremy Lai

解决问题 java注解

大数据培训学习分析师怎么样

小谷哥

将 Vue.js 项目部署至静态网站托管,并开启 Gzip 压缩

华为云开发者联盟

开发 华为云 12 月 PK 榜

React 之 createElement 源码解读

冴羽

JavaScript 前端 前端框架 React react源码

Zebec节点Zepoch销量接近800个,生态发展信心十足

股市老人

Java递归实现评论多级回复

Jeremy Lai

递归 解决方案

SpringBoot快速整合通用Mapper

Jeremy Lai

通用Mapper spring-boot

打造无证服务化:这个政务服务平台有点不一样

华为云开发者联盟

区块链 华为云 12 月 PK 榜

web前端培训程序员学习怎么提升技术

小谷哥

【JVM故障问题排查心得】「内存诊断系列」JVM内存与Kubernetes中pod的内存、容器的内存不一致所引发的OOMKilled问题总结(上)

码界西柚

Docker Kubernetes 容器 JVM 12月日更

MASA Framework 事件总线 - 跨进程事件总线

MASA技术团队

.net MASA Framewrok MASA

一种多引擎可视化数据流实现方案

元年技术洞察

数据中台 数字化转型 专利解析 方舟企业数字化 PaaS 平台

【JUC】循环屏障CyclicBarrier详解

JAVA旭阳

Java 并发 JUC

上海大数据培训机构怎么选择比较好

小谷哥

模拟HashMap冲突

Jeremy Lai

hashmap 哈希冲突

刷新AI作图速度,最快开源Stable Diffusion出炉

OneFlow

人工智能 深度学习 前沿技术

SAP MM 使用两个STO实现免关税跨国公司间转储(II)

SAP虾客

SAP MM PO输出 NACE

web前端培训程序员学习什么呢

小谷哥

腾讯吴运声:聚焦技术底座、应用创新、助力科学计算,腾讯云MaaS能力再升级_腾讯_李冬梅_InfoQ精选文章