写点什么

软硬协同、开源共建:英特尔与龙蜥携手打造 AI 时代的可信计算底座

  • 2025-11-25
    北京
  • 本文字数:3342 字

    阅读完需:约 11 分钟

软硬协同、开源共建:英特尔与龙蜥携手打造 AI 时代的可信计算底座

当智能驾舱厂商训练自动驾驶 AI 模型、金融机构运行 AI 风控系统时,普遍面临相同困境:数据敏感不敢上云,本地算力又难以支撑大模型需求。AI 大爆发后,“算力效率”与“数据安全”的矛盾愈发突出。2025 龙蜥操作系统大会前夕,InfoQ 对话英特尔技术专家与阿里云技术专家,揭秘双方如何通过第六代至强处理器与龙蜥操作系统的深度协同,破解这一行业难题。



合作底层逻辑:为什么是“英特尔硬件+龙蜥开源”?


AI 时代的算力释放,早已不是“硬件单枪匹马”能实现的。“过去硬件做芯片、软件写系统的分工模式已失效,AI 模型扩大与数据敏感化,要求硬件与软件必须深度协同。”英特尔技术专家强调,“2020 年我们成为龙蜥首批理事单位,正是看中龙蜥操作系统在云原生和 AI 领域的开源属性——它能快速承接硬件新特性,而英特尔的芯片技术,就是要为这个开源生态打下坚实的算力底座。”


过去一年,双方形成了固定的合作节奏:硬件首发时与龙蜥操作系统同步适配,避免企业“空有硬件用不了”;针对硬件暴露的软件问题联合优化,成果反哺龙蜥及 Linux 上游社区;英特尔提供测试资源,龙蜥联动客户推动技术落地。总结来说,英特尔负责造算力、锁安全,龙蜥负责用算力、传价值,这是双方合作的核心逻辑。


阿里云技术专家补充道:“阿里云作为云平台方,刚好承接这种协同成果——把英特尔的硬件能力和龙蜥操作系统的系统优势,打包成企业能直接用的云服务,这也是我们作为社区理事单位的价值。”

技术共建:从芯片到工具链,让 AI 算力“跑满效能”


AI 算力的高效释放,需要“芯片发动机”“系统公路”与“工具链交通规则”的协同。过去一年,英特尔与龙蜥的技术共建集中在这三大方向:


  1. 第六代至强适配:不止能用,更要“榨干”性能


2025 年发布的第六代至强处理器,针对不同 AI 场景做了细分设计:Granite Rapids 主打高密度计算,适配金融风控、科学计算等强性能需求;Sierra Forest 聚焦云原生大规模部署,优化能效比以降低云厂商运营成本。“我们的芯片设计贴合场景化需求,而龙蜥操作系统能精准匹配这种特性,让硬件能力不浪费。”英特尔技术专家说。


为让硬件性能充分释放,双方完成了两项关键优化:

  • 全链路适配:覆盖龙蜥操作系统 5.10 长期支持版与 6.6 最新特性版,同时完成主流虚拟化平台定制,为 Granite Rapids 开发“大内存调度补丁”,支持 2TB 以上内存以满足 AI 训练需求;

  • 突破多核瓶颈:针对新一代处理器近 128 核的硬件特性,重构龙蜥操作系统多核调度算法,通过“专属缓存分配”减少核心资源争抢,优化内存页表管理实现有序读写。


这些优化最终让 Granite Rapids 在多线程任务中性能较上代提升显著。“性能提升是企业能切实感受到的变化,这是软硬件协同的价值。”英特尔技术专家表示。


  1. 下一代硬件预研:提前 3 个月适配,消除“空窗期”


为解决企业“硬件到位、系统未就绪”的痛点,双方采用“提前布局”策略。英特尔下一代至强 6 Plus 服务器(代号 Clearwater Forest)尚未上市,2025 年 Q2 已联合龙蜥启动适配。“企业采购硬件投入大,我们把适配周期提前,就是要让客户拿到硬件就能开机测试,这符合龙蜥社区‘开箱即用’的理念。”英特尔技术专家表示。


  1. 异构工具链:oneAPI+OpenVINO,降低开发门槛


AI 开发者常受困于“硬件异构”——为 CPU 写的代码无法直接在 GPU、NPU 上运行,重复适配耗费大量精力。英特尔与龙蜥的解法是构建“统一工具链”。“开发者的核心价值是优化 AI 模型精度,不是做硬件适配的‘翻译官’。”英特尔技术专家直言,“oneAPI 和 OpenVINO 的融合,就是要把硬件差异藏在工具链里,让一套代码跑通所有设备。”


  • oneAPI 统一开发框架:基于 LLVM 扩展异构编译能力,搭建设备抽象层,一套代码可调用不同硬件能力;该平台支持多种编程语言,包括 C++、Python、Fortran 等,使得 AI 模型的训练和推理能够在不同计算架构上高效执行。

  • OpenVINO 工具链即插即用:与龙蜥操作系统深度集成,简单命令即可部署,为云端和边缘计算环境中的 AI 推理任务提供优化方案,进一步降低 AI 部署的计算成本,提高 AI 模型的执行效率。


“我们的目标是让开发者聚焦模型优化,而非硬件适配。”英特尔技术专家表示,这正是“软件定义、硬件赋能”的核心体现。

生态共建:让算力生态“活起来”


技术落地离不开生态支撑。作为龙蜥社区副理事长单位,英特尔从社区治理、资源支持、国际化联动三方面推动生态发展:


首先是深度参与社区治理。英特尔并非单纯的“硬件供应商”,而是深度参与龙蜥社区底层建设:如主导 X86 架构优化的 Arch SIG 项目,制定至强处理器在龙蜥操作系统上的性能基准测试体系;参与《国产服务器操作系统发展报告(2025)》中核心章节的撰写;推动龙蜥社区加速国际化等。“开源社区要靠核心厂商带头做实事,这是我们作为副理事长单位的责任,也是为了让龙蜥生态更有技术厚度。”英特尔技术专家说。


其次是开放资源、降低参与门槛。为解决中小企业“缺硬件、缺技术”的问题,英特尔向龙蜥社区开放测试硬件,开展联合测试并输出技术文档、联合报告。阿里云技术专家补充:“我们会把测试成果转化为云平台最佳实践,帮客户少走弯路。”


最后是国际化经验反哺。依托在 Linux Foundation、CNCF 的经验,英特尔帮助龙蜥优化内核补丁流程,深度参与 X86 架构补丁审核;并推动龙蜥开发者参加全球开源峰会,加强国际化交流等。

机密计算:用“硬件锁+开源钥匙”守护数据安全


AI 时代的核心矛盾是“数据需流动产生价值,却怕流动中泄露”。英特尔与龙蜥的解法,是从硬件隔离到开源方案的全链路防护。


英特尔从硬件层面构建安全底座,核心依赖两大技术,其原理均通过硬件隔离实现数据防护。“机密计算的核心是‘硬件可信’,软件再安全,硬件被突破就没用。”英特尔技术专家解释,“TDX 和 SGX 就是从芯片层面给数据加‘锁’,让安全成为硬件原生能力。”


  • TDX(可信域扩展):在至强芯片中创建“隔离执行域(TD)”,即使系统内核被攻击,TD 内的内容也无法被访问,内存数据通过内存控制器实时加密,仅硬件才能解密;

  • SGX(软件防护扩展):针对轻量级场景在内存中划分“加密区(Enclave)”,仅授权代码可访问,其他进程即使获取内存地址,看到的也只是乱码。


为让龙蜥操作系统适配这些能力,英特尔在系统内核中集成 TDX 和 SGX 驱动并由硬件实现 AES-GCM 加密协议,确保安全防护不影响性能。


此外,基于硬件底座,阿里云在龙蜥社区推出 Confidential AI 开源方案,整合 TDX 安全能力、远程证明服务与密态存储/网络能力,降低企业使用 TDX 机密计算的门槛。“英特尔的硬件是‘安全地基’,我们的工作是在地基上搭好‘房子’,让企业不用自己打地基就能用。”阿里云技术专家说,“目前龙蜥社区 Confidential AI 开源方案已落地阿里云异构机密计算实例,并正与消费电子、智能驾舱客户合作。”


为推动行业规范,双方在标准化工作上已取得明确进展。阿里云技术专家具体介绍:“以 Confidential AI 为技术基础,阿里云已联合 30 多家合作伙伴牵头编写 CCSA AI 数据安全的标准化架构与技术实现方案,重点覆盖 AI 推理和训练两大核心场景,目前这项工作已进入实质推进阶段。”


国际标准的布局也在同步展开,他补充道:“我们计划以 CCSA 的标准化成果为基础,在 12 月初日内瓦举行的国际电信联盟 ITU-T SG17 分论坛上,推动该标准的国际版本立项。这将形成一个良性闭环——开源解决方案为标准化提供了可落地的技术参考,而标准化规范又能为开源方案的合理性和通用性提供背书。”


在他看来,这种联动恰好体现了核心价值:“商业需求驱动开源方案迭代,开源方案支撑标准化落地,标准化又反过来赋能商业推广,三者不是孤立的,而是循环共生的关系。”

未来方向:AI 原生时代的多元协同


在 2025 龙蜥大会上,双方集中展示了第六代至强与龙蜥操作系统的性能优化成果、Confidential AI 落地进展及 Clearwater Forest 适配情况,同时释放 AI 原生时代的算力发展方向。


“AI 原生算力靠‘芯-OS-云-AI’协同。”英特尔技术专家透露规划:硬件上,下一代至强将进一步强化 AI 与安全能力;系统上,将联合龙蜥开发 AI 任务调度器,优化资源分配效率;场景上,将针对隐私敏感场景推出通用部署方案。


对企业而言,这意味着未来使用 AI 将更简单:依托“英特尔硬件+龙蜥操作系统”的组合,无需自行解决适配、优化与安全问题,即可直接获得高效且安全的算力支撑。随着龙蜥大会的召开,这套“硬件底座+开源生态”的方案,将成为企业 AI 落地的核心选择。


2025-11-25 10:4793

评论

发布
暂无评论
软硬协同、开源共建:英特尔与龙蜥携手打造 AI 时代的可信计算底座_云计算_付秋伟_InfoQ精选文章