
微软宣布在一种新的芯片冷却方法上取得了进展,这种方法有望攻克扩展人工智能基础设施过程中的一大关键难题:散热问题。微软的研究人员成功展示了芯片内微流控冷却技术,通过在硅芯片背面蚀刻出精细的沟槽,直接将液体冷却剂引入芯片内部,从而实现高效散热。
传统的数据中心冷却方式,例如冷板冷却,主要依靠热量逐层穿过多种材料来实现散热。这种方式在散热效率上存在瓶颈,能够有效处理的热量十分有限。随着人工智能芯片的功率密度不断提升,这些冷却方式的局限性愈发明显。据微软方面表示,过去能够依靠冷板冷却来应对的工作负载可能很快就会超出其热容量。
微流控技术另辟蹊径。它在硅片中蚀刻出微通道,这些通道的宽度仅与人类头发相当,冷却剂能够借此直接流经芯片内部的热点区域。早期的实验室测试结果显示,在特定工作负载条件下,该设计的散热效率比传统的冷板冷却高出三倍。微软还报告称,最大 GPU 温度上升减少了 65%。
尽管这项技术目前仍处于实验阶段,但研究人员指出,它具有显著的实用价值。它可以支持数据中心实现更高密度的服务器配置,降低冷却液体所需的能耗,并且在无需过度配置基础设施的情况下,提升芯片的性能上限。鉴于人工智能工作负载常常出现不可预测的激增,更高的冷却效率还能使受控超频变得更加可行。
设计这一系统已被证明极具挑战性。通道必须足够深,以确保冷却剂能够顺畅循环且不发生堵塞,但又不能过深,以免削弱硅片的结构完整性。在过去的一年中,微软进行了多次设计迭代,并与瑞士初创公司 Corintis 合作优化通道图案。其中一些设计灵感源自树叶和蝴蝶翅膀中的天然静脉结构,这些天然结构能够实现液体的高效分配。
微流控技术还需要一个防漏的封装系统、稳定的冷却剂配方,并且要与芯片制造工艺兼容。走出实验室,与全规模数据中心系统的集成将是一个重大挑战。
社区已经开始关注这项技术更广泛的影响。PTC 高级分析师 Sanil S. 分享道:
除了冷却效率的显著提升外,这一技术还可能在更广泛的层面带来积极影响:减少冷却过程中不必要的能源浪费,有望提高电力使用效率,同时也能有效减轻对电力基础设施的压力。
微软尚未明确具体的部署时间表,但已确认正在积极测试将微流控冷却技术整合到其未来内部芯片版本中的可行性,并且正在探索与芯片制造公司的合作机会。
目前,这些测试为人工智能芯片设计日益强大且散热需求不断攀升的未来提供了一种潜在的解决方案。微流控技术能否成为数据中心的主流标准,将取决于其在大规模生产中的可制造性、长期可靠性以及成本效益。
原文链接:
https://www.infoq.com/news/2025/10/microsoft-ai-chips/
评论