阿里、蚂蚁、晟腾、中科加禾精彩分享 AI 基础设施洞见,现购票可享受 9 折优惠 |AICon 了解详情
写点什么

腾讯吴运声:聚焦技术底座、应用创新、助力科学计算,腾讯云 MaaS 能力再升级

  • 2023-07-08
    北京
  • 本文字数:3778 字

    阅读完需:约 12 分钟

腾讯吴运声:聚焦技术底座、应用创新、助力科学计算,腾讯云MaaS能力再升级

7 月 7 日,世界人工智能大会期间,腾讯举办以“无限可能”为主题的论坛。腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声发表《腾讯云 MaaS,激活产业发展新动能》主题演讲,分享了关于大模型行业应用观点,同时介绍了腾讯云行业大模型技术解决方案的最新进展。


腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴运声


吴运声认为,产业场景已经成为大模型的最佳练兵场,但企业在应用大模型时,又会面临计算资源少、数据质量差、投入成本高、专业经验少等现实问题的挑战。

 

对此,腾讯云不久前公布了行业大模型技术解决方案。该方案依托腾讯云 TI 平台打造行业大模型精选商店,为客户提供 MaaS 一站式服务,客户只需要加入自己独有的场景数据,就可以快速生成专属模型,结合实际业务场景需求,开发低成本、高可用的智能应用和服务。

 

据吴运声介绍,继 6 月 19 日公布解决方案后,腾讯云 MaaS 平台能力敏捷迭代,在行业大模型技术底座、应用场景、助力科学计算等方向,均有所优化和提升。


在技术底座层面,腾讯不久前发布了自研星脉高性能计算网络、向量数据库,为大模型的行业应用提供更充沛的算力基础设施;在应用创新方面,腾讯云也将行业大模型的能力,应用到金融风控、交互翻译、数智人客服等场景中,提升智能应用效率;在科学计算方面,腾讯云始终坚持“AI for Science”,今年将大模型技术,应用在天文探索、甲骨文考释等科研场景。

 

吴运声最后强调, AI 大模型技术发展和产业探索,离不开产业链协同和生态共建,腾讯希望与行业伙伴携手,共同推进大模型在产业领域的创新和落地。

 

以下为吴运声主题演讲全文:

 

尊敬的各位嘉宾、媒体朋友们,大家下午好,欢迎来到腾讯论坛!我是腾讯的吴运声。

 

作为国内规格最高、影响力最大的技术盛会,世界人工智能大会已经连续举办六届,很多新的技术趋势、创新方案、产业成果在这里发布,已经成为人工智能技术发展的风向标。回顾人工智能发展历史,这项技术自诞生之初,就始终伴随人们的期待与失望,呈螺旋式上升的发展趋势。今天,大语言模型驱动“智慧涌现”,又一次将人工智能技术推到了一个新的制高点。

 

在过去这段时间里,我们发现大语言模型在智能问答、内容创作、智能决策、智能风控等很多业务场景,表现出令人惊艳的应用效果。尤其是广泛的产业场景,已经成为大模型的最佳练兵场。

 

快速了解、应用大模型能力,是新一轮人工智能技术浪潮中,保持市场核心竞争力的关键。这也成为越来越多企业家共同思考的方向,同时也存在一些焦虑。

 

实际上,大模型虽好,但用起来还是有很高的门槛。尤其对一些传统领域企业而言,通用大模型无法精准适配、达到降本增效的预期。企业需要的,是在实际场景中真正解决某个问题,而不是在 100 个场景中解决了 70%-80%的问题。

 

相比之下,训练和部署专属行业大模型,让“通才”变“专才”,对企业来说或许是一个可行路径,但又普遍存在计算资源少、数据质量差、投入成本高、专业经验少等现实挑战。此外,安全、合规,也是企业需要考虑的关键因素。

 

针对这些问题,我们在 6 月 19 日推出了腾讯云 MaaS 一站式行业大模型解决方案:基于腾讯云 TI 平台,打造一站式行业大模型精选商店,TI 平台内置多个行业高质量大模型,同时支持客户多模型训练任务,客户只需要加入自己独有的场景数据,就可以快速生成自己的“专属模型”,结合实际业务场景需求,开发低成本、高可用的智能应用和服务。

 

目前,我们已经联合金融、文旅、政务、传媒、教育等十多个行业头部客户,共同打造了超过 50 个行业大模型解决方案。

 

在金融领域,我们助力中金所技术公司,打造自有模型,降低技术开发与运营成本,支撑多部门业务。 针对资源、开发等需求,基于腾讯云 TI 平台能力,实现资源统一调度,按需扩缩容,降低开发门槛、成本,提高模型开发效率,支持投服部等部门的舆情数据分析场景,每日调用峰值高达 1 亿次,整体调用成功率超过 99%。

 

在文旅领域,我们联合一家线上旅游 OTA 公司,共同探索文旅行业大模型的应用。过去,传统智能客服需要人工进行对话配置:知识维护量大、耗时长,但运营人力有限、人力配置成本高,涉及订单等复杂业务场景,在无配置的情况下无法通过机器人闭环解决问题。精调后的客户专属模型,无需配置对话流程,即可实现端到端解决业务问题。提升任务完成率,降低对话构建成本。

 

在传媒领域,我们联合央视总台,打造了传媒大模型方案。央视总台积累了海量的音视频、图片、文稿等信息资源,但人工编目低效且成本高,传统检索方式召回率低,无法满足时效性和高质量需求。通过腾讯云智能媒体 AI 中台的大模型能力,央视总台实现智能标签理解、泛化能力提升,以及人脸、图像、视频和自然语言描述的精准检索,提高了资源管理效率和准确性,推动了媒体内容生产与传播的智能化进程。

 

腾讯云 MaaS 行业大模型精调解决方案,具备五大优势。基于腾讯深耕产业互联网的行业经验积累,我们在 TI 平台内置了高质量的行业大模型,同时我们提供完善的平台工具,成熟的流程方法,全面配套服务,领先的安全能力保障,可以为客户提供从模型选择、到落地部署的一站式服务。

 

同时,在过去两周多时间里,我们也在不断优化和升级腾讯云 MaaS 平台能力,旨在为客户提供更普惠的行业大模型解决方案。在技术底座层面,我们前几天刚刚发布了自研星脉高性能计算网络、向量数据库,为大模型的行业应用提供更充沛的算力基础设施。在应用创新方面,我们也将行业大模型能力,应用到金融风控、交互翻译、数智人客服等场景中,极大提升了智能应用效率。在科学计算方向,AI for Science 一直是我们关注的重要方向。今年,我们也将大模型技术,应用在天文探索、甲骨文考释等科研场景,取得了不错的成果。

 

首先,行业大模型加持的金融风控解决方案,相比之前有了 10 倍效率提升。腾讯云风控大模型融合了腾讯过去 20 多年黑灰产对抗经验,和上千个真实业务场景,整体反欺诈效果比传统模式有 20%左右的提升。企业可以基于 prompt 模式,迭代风控能力,从样本收集、模型训练到部署上线,实现全流程零人工参与,建模时间也从 2 周减少到仅需 2 天。

 

同时,很多企业受限于积累的样本有限,或者是新品刚刚上线,面临“零样本”搭建风控体系,制定策略非常困难。我们也可以基于腾讯云风控大模型丰富的场景样本快速搭建能力,助力客户跳过“冷启动”过程。

 

行业大模型在交互翻译场景,也有不错的提升效果。过去的同传技术,往往需要大量样本数据进行训练,尤其涉及一些特别专业领域的翻译,也需要人工加持进行调优,才能保障翻译效果。基于行业大模型技术,不再需要百万级的训练数据,使用小样本训练便也可以获得不错的翻译结果,让每一次交互翻译,都对下一句的翻译提升发挥实时作用,目前已经在多个垂直行业落地。大家看到今天会场,以及世界人工智能大会开幕式、主论坛的同传翻译,都是由腾讯同传进行的技术支持,我们已经连续 6 年为大会提供同传翻译服务。

 

今年早些时候,我们推出了小样本数智人工厂,仅需少量数据、24 小时即可复刻 2D 数字分身,大幅提升了生产效率。接下来,我们依托 AI 生成算法,提升 3D 形象复刻速度,推进生成式动作驱动,结合行业大模型能力,让企业获得更“个性化、专业、自然逼真”的数智员工,让“面对面”专业服务成为可能。这几天,我们在展台设置了小样本数智人体验,现场拍摄 3 分钟素材,24 小时就可以领取专属数字分身。

 

与此同时,我们也看到大模型在科学计算方面,也有非常惊艳的表现。在关注 AI 产业落地同时,AI for Science 是我们一直关注的方向。早在 2021 年,我们将 AI 技术应用在天文领域,联合国家天文台、复旦大学计算机科学技术学院,发起“探星计划”,旨在通过人工智能技术,提升天文发现和科研的效率,已经帮助 Fast 发现 30 颗脉冲星。

 

在今年,我们首次通过 AI 技术助力,从巡天观测数据中发现了 2 颗快速射电暴。相比脉冲星,快速射电暴因为发现时间晚、AI 训练数据少、出现频率低,发现难度相比脉冲星要大很多。为此,团队通过全新设计的端到端 AI 算法,提升数据运算速度。引入多示例学习、注意力机制,同时结合腾讯云行业大模型辅助 AI 训练,通过自监督预训练 +数据精调,提升模型精度,降低数据标注成本。

 

在文化领域,我们与内外部多个部门携手合作,首次将文字检测、摹本生成、字形匹配等多种 AI 算法,综合应用于甲骨文研究。截至目前,已建立覆盖 143 万字的全球最大甲骨文单字数据库,提升甲骨内容提取、甲骨文识别与考释等效率,探索甲骨文研究的人机协同新模式。

 

大模型训练,算力是基础。腾讯云在大模型算力方面拥有领先优势,今年早些时候,我们发布了面向大模型训练新一代 HCC 高性能计算集群,整体性能比过去提升了 3 倍。就在过去一周,腾讯云首次完整披露了自研星脉高性能计算网络,能提升 40%的 GPU 利用率,节省 30%~60%的模型训练成本,为 AI 大模型带来 10 倍通信性能提升。基于腾讯云新一代算力集群 HCC,可支持 10 万卡的超大计算规模。

 

最新发布的 AI 原生向量数据库最高支持 10 亿级向量检索规模,延迟控制在毫秒级,相比传统单机插件式数据库检索规模提升 10 倍,同时具备百万级每秒查询(QPS)的峰值能力。这些技术底座能力的持续提升,将为客户的模型训练提供强大的支持和动力。

 

当然,AI 大模型技术发展和产业探索,离不开产业链协同和生态共建,这也是腾讯在 AI 发展方面一直坚持的态度。为此,我们也在早些时候发布了腾讯云行业大模型共建计划。我们愿与行业伙伴携手,去探索无限的可能性。

公众号推荐:

跳进 AI 的奇妙世界,一起探索未来工作的新风貌!想要深入了解 AI 如何成为产业创新的新引擎?好奇哪些城市正成为 AI 人才的新磁场?《中国生成式 AI 开发者洞察 2024》由 InfoQ 研究中心精心打造,为你深度解锁生成式 AI 领域的最新开发者动态。无论你是资深研发者,还是对生成式 AI 充满好奇的新手,这份报告都是你不可错过的知识宝典。欢迎大家扫码关注「AI前线」公众号,回复「开发者洞察」领取。

2023-07-08 15:054678
用户头像
李冬梅 加V:busulishang4668

发布了 808 篇内容, 共 376.8 次阅读, 收获喜欢 998 次。

关注

评论

发布
暂无评论
发现更多内容
腾讯吴运声:聚焦技术底座、应用创新、助力科学计算,腾讯云MaaS能力再升级_腾讯_李冬梅_InfoQ精选文章