OPPO 端侧化算法组负责人宋晓辉确认出席 AICon 北京站,分享 OPPO 多模态大模型端侧化应用实践

  • 2025-11-04
    北京
  • 本文字数:929 字

    阅读完需:约 3 分钟

12 月 19-20 日, AICon全球人工智能开发与应用大会收官之站将在北京举办,本次大会 将以 “探索 AI 应用边界” 为主题,聚焦企业级 Agent 落地、上下文工程、AI 产品创新等多个热门方向,围绕企业如何通过大模型提升研发与业务运营效率的实际应用案例,邀请来自阿里、字节、华为、京东、快手、美团等头部企业、大厂以及明星创业公司的专家,带来一线的大模型实践经验和前沿洞察。一起探索 AI 应用的更多可能,发掘 AI 驱动业务增长的新路径!

OPPO 端侧化算法组负责人宋晓辉已确认出席并将在「大模型推理优化与边缘 AI 部署」专题发表题为OPPO 多模态大模型端侧化应用实践的主题分享。近两年来小规模模型的性能和端侧算力在高速发展,这为模型端侧化提供了可行性。

本次分享介绍 OPPO 大模型端侧化的技术路线,该路线支撑了 OPPO 端侧智慧语音,AI 搜索等线上业务,并在模型压缩,解码加速等方面做到了行业领先水平。

宋晓辉专注大模型轻量化与端侧化领域,负责 OPPO 近三年的大模型端侧化算法工作,从 0 开始建立 OPPO 大模型端侧化算法团队和技术栈。将端侧大模型从语言模型支持单一任务,升级到多模态大模型支持多种业务的高效部署和更新。在模型压缩、知识蒸馏等领域均有学术论文发表。他在本次会议的详细演讲内容如下:

  1. OPPO 端侧化算法技术栈全景:介绍 OPPO 最新模型端侧化算法技术路线

  2. 稀疏化 & QAT:端到端的量化损失训练,绕过 PTQ 步骤,直接和芯片平台的量化格式打通

  3. 编解码加速:支持最高 128k 的上下文和最高 240token/s 的通用场景解码速度

  4. QALFT 框架:自研端侧量化感知训练框架,为业务解耦优化和高效 OTA 升级提供支持

  5. 总结和展望

听众收益:

  • 了解 OPPO 端侧化团队本年度内最新的技术实践路线

  • 了解相对领先的端侧化模型压缩和解码加速技术方案

除此之外,本次大会还策划了LLM 时代的软件研发新范式Context EngineeringData+AI / Agent 落地实践大模型系统工程企业级 Agent 的设计与落地大模型时代下的搜广推系统实践多模态从技术突破到创新应用落地等 10 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 50+资深专家在 AICon 北京站现场带来前沿技术洞察和一线实践经验。

现在报名即可以享受 8 折优惠,单张门票立省 1160 元,详情可扫码或联系票务经理 13269078023 咨询。