
12 月 19-20 日, AICon全球人工智能开发与应用大会收官之站将在北京举办,本次大会 将以 “探索 AI 应用边界” 为主题,聚焦企业级 Agent 落地、上下文工程、AI 产品创新等多个热门方向,围绕企业如何通过大模型提升研发与业务运营效率的实际应用案例,邀请来自阿里、字节、华为、京东、快手、美团等头部企业、大厂以及明星创业公司的专家,带来一线的大模型实践经验和前沿洞察。一起探索 AI 应用的更多可能,发掘 AI 驱动业务增长的新路径!
OPPO 端侧化算法组负责人宋晓辉已确认出席并将在「大模型推理优化与边缘 AI 部署」专题发表题为《OPPO 多模态大模型端侧化应用实践》的主题分享。近两年来小规模模型的性能和端侧算力在高速发展,这为模型端侧化提供了可行性。
本次分享介绍 OPPO 大模型端侧化的技术路线,该路线支撑了 OPPO 端侧智慧语音,AI 搜索等线上业务,并在模型压缩,解码加速等方面做到了行业领先水平。
宋晓辉专注大模型轻量化与端侧化领域,负责 OPPO 近三年的大模型端侧化算法工作,从 0 开始建立 OPPO 大模型端侧化算法团队和技术栈。将端侧大模型从语言模型支持单一任务,升级到多模态大模型支持多种业务的高效部署和更新。在模型压缩、知识蒸馏等领域均有学术论文发表。他在本次会议的详细演讲内容如下:
OPPO 端侧化算法技术栈全景:介绍 OPPO 最新模型端侧化算法技术路线
稀疏化 & QAT:端到端的量化损失训练,绕过 PTQ 步骤,直接和芯片平台的量化格式打通
编解码加速:支持最高 128k 的上下文和最高 240token/s 的通用场景解码速度
QALFT 框架:自研端侧量化感知训练框架,为业务解耦优化和高效 OTA 升级提供支持
总结和展望
听众收益:
了解 OPPO 端侧化团队本年度内最新的技术实践路线
了解相对领先的端侧化模型压缩和解码加速技术方案
除此之外,本次大会还策划了LLM 时代的软件研发新范式、Context Engineering、Data+AI / Agent 落地实践、大模型系统工程、企业级 Agent 的设计与落地、大模型时代下的搜广推系统实践、多模态从技术突破到创新应用落地等 10 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 50+资深专家在 AICon 北京站现场带来前沿技术洞察和一线实践经验。
现在报名即可以享受 8 折优惠,单张门票立省 1160 元,详情可扫码或联系票务经理 13269078023 咨询。








评论