
6 月 27 日-6 月 28 日,AICon 全球人工智能开发与应用大会北京站即将拉开帷幕。本次大会将汇聚 AI 前沿技术与落地实践,邀请来自腾讯、阿里、百度、字节跳动等头部大厂以及智谱、硅基流动、智象未来、声智科技等 AI 企业的 50+资深专家,深度探讨 AI Agent、多模态应用、推理性能优化以及 AI 在软件研发、数据分析、业务运营等场景的具体落地实践。
深思考人工智能 CEO 兼 AI 算法科学家杨志明已确认出席并发表题为《深思考端侧多模态大模型TinyDongni&Deepseek的创新实践》的主题分享。当前,全球 AI 大模型发展进入关键阶段,端侧 AI 市场展现出巨大潜力,预计到 2032 年全球规模将达到 1436 亿美元,覆盖医疗、智能终端、机器人等多个重要领域。深思考人工智能推出的 TinyDongni&DeepSeek 端侧多模态大模型,通过创新的 1.5B/4B 双参数架构设计,在保障性能的同时实现高效本地化部署。该方案采用自研 Dongni-AMDC 量化压缩技术,将模型优化为 1B 端侧版本,并赋予视觉模态能力,全面适配鸿蒙、Linux、Windows 等操作系统及国产算力平台。其核心技术优势包括:Token 压缩与多精度混合量化使 1.5B 模型在骁龙 8Gen3 上达到 20-25 token/s 的解码速度;跨模态性能在多项测试中保持领先,0.4B 版本图像检索计算量仅 175BFLOPs。目前已在智能手机、人形机器人、AI 摄像头、AIPC Suite、医学显微镜及存储设备等场景成功落地,为各领域提供安全可靠的端侧 AI 解决方案。

杨志明现任深思考人工智能机器人科技(北京)有限公司 CEO 兼 AI 算法科学家。毕业于中国科学院研究生院,获硕士学位,后在中国科学院软件研究所攻读博士,专注于自然语言处理、深度学习和机器学习。同时拥有中国科学院大学 MBA 和清华五道口金融学院的学术背景。
是苏州领军人才和江苏双创人才,担任中国银行业协会 CFT 人工智能课程讲席教授,上海金浦资本 2019 年人工智能特聘专家,宁波大学科技学院客座教授。拥有 20 年大型复杂系统与 AI 系统架构设计与研发经验,曾主持多项重大核心系统研发,参与多项国家级重大项目研究。
拥有知识产权 113 项,其中国家发明专利 32 项,发表多篇一级学术期刊论文,荣获国际国内奖项 19 项。作为首席架构师与核心算法设计师,带领团队蝉联多届人机对话及语言与智能技术大赛冠军,入选工信部 2021“新一代人工智能产业创新发展重点任务揭榜优胜单位”。他在本次会议的详细演讲内容如下:
演讲提纲
端侧大模型是指在设备本地(如智能手机、个人电脑、IoT 设备、嵌入式系统等)运行的大模型,其特点是参数规模不大,不需要网络传输,响应速度快,且可以保障用户数据的安全性。本次分享主要介绍深思考“TinyDongni”&“DeepSeek”超小端侧多模态大模型,围绕背景与市场需求,核心工作、差异化技术优势、赋能应用展开。
1. 背景与市场需求
随着个人和企业本地非结构化数据(如图片、视频、文档)以年均 58%的速度激增,传统基于文件名或关键词的检索方式已显乏力——无法理解图像内容、视频语义或文档逻辑,导致搜索失败率超 60%。专业用户日均因此损失 47 分钟,亟需支持跨格式语义分析、可离线运行的端侧 AI 搜索方案,以充分挖掘数据资产价值
2. 核心工作
使用深思考自研的 Dongni-AMDC(Adaptive Multi-Dimensional Compression) 方法量化压缩了 DeepSeek R1 模型为 DeepSeek R1 -1B 端侧模型。
使得 DeepSeek R1-1B “长眼睛”具备视觉模态能力,从而增强为多模态模型。
适配了开源鸿蒙操作系统(据悉也同时适配了 Linux Ubuntu 22.04 / 统信 UOS/Windows 10 & 11/Android 14)
将 TinyDongni”及“deepseek”超小端侧多模态大模型优化运行至国产算力模组,推出一站式解决方案。
3. 差异化技术优势
创新的端侧模型量化及加速推理的技术:Token 数量压缩、模型量化、编译优化、多芯片协同处理、NPU 加速、内存使用优化、定制调优。
跨模态端侧模型的性能优势
适配多种芯片
4. 赋能应用
对 AI PC 的赋能
对 AI 手机的赋能
对 AI 摄像头的赋能
对医学显微镜的赋能
您认为,这样的技术在实践过程中有哪些痛点?
算力与效能的极限博弈:1B 参数模型在低功耗 NPU 上运行仍面临发热降频问题
多模态对齐的精度损失:跨模态向量空间映射误差导致语义漂移
您的演讲有哪些前沿亮点?
解锁端侧 AI 技术落地的实战方法论
了解如何将十亿级大模型压缩到端侧可运行规模;掌握多模态对齐、内存优化等关键技术的工程化实现路径,避免重复踩坑。
突破现有业务瓶颈的创新视角
学习在国产芯片上实现 3.2 倍推理加速的优化策略;启发将传统检索系统升级为语义中枢的路径。
预判技术演进趋势的决策依据
提前布局技术储备;抓住开放插件生态的早期接入窗口,建立技术护城河。
听众收益
了解大模型在隐私敏感场景(如医疗、金融)的端侧部署实践
获取多模态搜索、实时决策、可控输出等技术的行业适配方法论
洞察 AI 与鸿蒙生态、边缘计算的融合趋势
除此之外,本次大会还策划了AI Agent 构建与多场景实践、多模态实践与应用、大模型助力研发的实战经验、AI 在业务运营中的深度落地、大模型时代的数据处理与分析、AI 变革下的工程师等 10 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 50+资深专家在 AICon 北京站现场带来前沿技术洞察和一线实践经验。
现在报名即可以享受 9 折优惠,单张门票立省 580 元,详情可扫码或联系票务经理 13269078023 咨询。

评论