2025上半年,最新 AI实践都在这!20+ 应用案例,任听一场议题就值回票价 了解详情
写点什么

英特尔数据中心与人工智能事业部 AI 软件架构师何普江确认出席 QCon 上海,分享大模型时代:最大化 CPU 价值的优化策略

  • 2023-12-12
    北京
  • 本文字数:1243 字

    阅读完需:约 4 分钟

大小:660.17K时长:03:45
英特尔数据中心与人工智能事业部 AI 软件架构师何普江确认出席 QCon 上海,分享大模型时代:最大化 CPU 价值的优化策略

QCon 全球软件开发大会,将于 12 月在上海召开。英特尔数据中心与人工智能事业部 AI 软件架构师何普江将发表题为《大模型时代:最大化 CPU 价值的优化策略》主题分享,探讨一种结合 CPU 和 GPU 的投机采样方法,在大语言模型时代充分利用 CPU 资源的关键策略,以及最新的性能情况,以便了解这些优化策略的实际效果。


何普江,2007 年硕士毕业于中国科学技术大学。精通英特尔软件架构、英特尔产品与技术以及 IA 平台性能优化。在英特尔工作期间,为国内主流 ISV 开发出基于 IA 平台的云计算产品过程中提供关键支持,并优化了多家主要互联网公司的核心产品,使其性能提升数倍。对 PyTorch,Tensorflow 等 AI 框架有深入研究,并拥有 10 年以上软件优化经验。工作期间曾获得英特尔中国个人员工最高荣誉奖,与国内互联网厂商多个部门进行深度合作,并在 2019 年助力某云厂商云在 MLPerf 评测中创下了业界领先的 Performance/TOPS 性能记录。他致力于基于 IA 架构平台的深度学习、机器学习研究和在互联网行业的落地推广工作,最新工作包括创建并开源了 CPU 上大语言模型的极致优化方案 xFasterTransformer。他在本次会议的演讲内容如下:


演讲:大模型时代:最大化 CPU 价值的优化策略


本次演讲将探讨在大语言模型时代充分利用 CPU 资源的关键策略。具体介绍一些结合硬件特性的优化方法,例如利用 CPU 的多核特性、采用并行计算和 AMX 指令集扩展技术来提高处理速度。


此外还将介绍一种结合 CPU 和 GPU 的投机采样方法,通过在 CPU 上运行部分计算任务,充分利用 CPU 资源并减少对 GPU 的依赖。最后,我将分享一些最新的性能情况,让您了解这些优化策略的实际效果。通过这些方法,您将能够更好地利用 CPU 资源,提高模型推理速度,以更快速高效的实现生成式模型部署落地。


演讲提纲:


  1. 大语言模型时代为什么需要最大化 CPU 价值

  2. CPU 上的大模型优化策略

○ 大语言模型计算特点

○ CPU 硬件特性概览

○ 优化方法

○ 从向量化到张量化

○ 从并行执行到分布式推理

○ 低精度优化

○ 深入 CPU 微架构的软件优化

○ 各优化策略的实际性能数据对比及效果展示

  1. 结合 CPU 和 GPU 的投机采样方法

○ CPU 和 GPU 协同工作的背景

○ 投机采样技术的介绍

○ 利用 CPU 进行部分计算任务的优势

○ 优化方法:选择合适的投机采样策略、任务调度等

  1. 总结与展望

○ 各优化方法的核心优势与局限性总结

○ 对未来大语言模型时代的展望与挑战


听众收益点:


○ 理解并结合硬件特性进行优化,提高模型推理速度和处理能力

○ 了解 CPU 上的最新性能情况,为实际业务的大模型线上部署提供更多选择

○ 掌握结合 CPU 和 GPU 协同工作的优化策略,减少对 GPU 的依赖,提高资源利用率


除上述演讲外,QCon 上海还将围绕 GenAI和通用大模型应用探索AI Agent 与行业融合应用的前景LLM 时代的性能优化智能化信创软件 IDE面向人工智能时代的架构性能工程:提升效率和创新的新方法等专题进行交流。


QCon 上海 2023,相约 12 月!9 折优惠仅剩最后 4 天,现在购票立减¥680!咨询购票请联系:18514549229(微信同手机号)。



2023-12-12 11:304110
用户头像

发布了 89 篇内容, 共 47.2 次阅读, 收获喜欢 12 次。

关注

评论

发布
暂无评论
发现更多内容

详解异步任务 | 看 Serverless Task 如何解决任务调度&可观测性中的问题

Serverless Devs

云原生

腾讯开源摘星计划培养开源贡献者的实践思考

腾源会

开源 腾源会

Serverless实战——2分钟,教你用Serverless每天给女朋友自动发土味情话

Serverless Devs

#Serverless

六、HikariConfig配置解析

阿白

数据库 源码解析 HikariCP 源代码 连接池

知识库对企业的意义

Baklib

面向大数据存算分离场景的数据湖加速方案

Baidu AICLOUD

数据湖 对象存储 元数据 存算分离 层级namespace

二、HikariCP源码分析之获取连接流程二

阿白

数据库 源码解析 HikariCP 源代码 连接池

SQL 改写系列七:谓词移动

OceanBase 数据库

版本更新 | 极狐GitLab 15.2 发布飞书通知机器人、多层史诗调整至专业版、实时 Wiki 图表预览和全新设计的合并请求报告

极狐GitLab

git DevOps 敏捷开发 CI/CD 极狐GitLab

活动回顾 | 大咖云集“开源安全治理模型和工具”线上研讨会

安势信息

开源安全 供应链攻击 SBOM SLSA 软件供应链安全

7 行代码搞崩溃 B 站,原因令人唏嘘!

Python猫

怎么实现您的个人知识库?

Geek_da0866

你想怎么使用 Serverless 函数计算?(评测赢好礼 )

Serverless Devs

七、HikariConfig初始化分析

阿白

数据库 源码解析 HikariCP 源代码 连接池

高性能数据访问中间件 OBProxy(三):问题排查和服务运维

OceanBase 数据库

五、HikariCP源码分析之初始化分析二

阿白

数据库 源码解析 HikariCP 源代码 连接池

要卖课、要带货,知识付费系统帮你一步搞定!

CRMEB

KubeMeet 报名 | 「边缘原生」线上技术沙龙完整议程公布!

阿里巴巴云原生

阿里云 容器 云原生 边缘计算

算力顶天地,存力纳乾坤:国家超级计算济南中心的一体两面

脑极体

纯css实现:单行文本的打字机动画效果

南极一块修炼千年的大冰块

7月月更

leetcode122. Best Time to Buy and Sell Stock II 买卖股票的最佳时机 II(简单)

okokabcd

LeetCode 数据结构与算法 贪心算法

八、HikariCP源码分析之ConcurrentBag一

阿白

数据库 源码解析 HikariCP 源代码 连接池

一、HikariCP源码分析之获取连接流程一

阿白

数据库 源码解析 HikariCP 源代码 连接池

三、HikariCP源码分析之获取连接流程三

阿白

数据库 源码解析 HikariCP 源代码 连接池

Apache Doris 1.1 特性揭秘:Flink 实时写入如何兼顾高吞吐和低延时

SelectDB

数据库 flink 数据仓库 Doris 数仓

经验分享|编写简单易用的在线产品手册小妙招

Baklib

2022中国物流产业大会暨企业家高峰论坛在杭州举办!

联营汇聚

人社部公布“数据库运行管理员”成新职业,OceanBase参与制定职业标准

OceanBase 数据库

不要再用if-else!

Jackpop

四、HikariCP源码分析之初始化分析一

阿白

数据库 源码解析 HikariCP 源代码 连接池

英特尔数据中心与人工智能事业部 AI 软件架构师何普江确认出席 QCon 上海,分享大模型时代:最大化 CPU 价值的优化策略_生成式 AI_徐晓博_InfoQ精选文章