在近日举行的 Akamai 亚太区 2026 年云展上,围绕 AI 与云计算融合发展的多项技术趋势被集中讨论。
随着生成式 AI 和大规模推理应用进入实际生产阶段,企业对算力获取方式、部署位置以及治理能力的要求正在发生变化。Akamai 云计算服务首席技术官 Jay Jenkins 在会上指出,亚太地区的云计算架构正从以集中式公有云为核心,逐步演进为更加分布式、强调可移植性与长期韧性的技术体系。
从行业背景来看,过去十余年,云计算主要依赖超大规模数据中心,通过规模化集中部署来降低单位算力成本。但这一模式在 AI 时代开始显露局限。一方面,AI 推理对低时延和实时响应的需求显著提升,尤其是在面向用户交互、物联网和工业控制等场景中;另一方面,数据合规、跨区域数据流动以及业务连续性等要求,也促使企业重新审视“集中即高效”的传统假设。在此背景下,云能力向边缘延伸,逐渐成为企业架构调整的重要方向。
Akamai 联合 IDC 发布的研究为这一变化提供了量化视角。IDC 在相关报告中预测,到 2027 年,约 80%的 CIO 将更多依赖边缘服务来满足 AI 推理在性能和合规层面的要求。
从投资角度看,到 2028 年,边缘公有云服务的年复合增长率预计将达到 17%,整体支出规模接近 290 亿美元。IDC 将这一趋势定义为“边缘演进”,其核心并非简单地将算力下沉,而是通过边缘与核心云的协同,构建更贴近业务场景的计算体系。
在这一演进过程中,云可移植性被反复提及。Jay Jenkins 表示,企业正在重新定义对云灵活性的理解。早期,多云或混合云策略主要用于避免成本失控或提升议价能力,而当前,能够跨平台、跨区域、跨架构迁移工作负载,正被视为基础设施设计的核心能力之一。这种能力使企业在面对业务调整、技术迭代或外部不确定性时,具备更高的适应性,也为新一代 AI 应用提供了更稳固的运行基础。
与此同时,AI 架构本身也在发生转变。随着模型规模扩大和推理需求增长,企业开始将部分 AI 推理任务从集中式云环境迁移至更靠近数据源和用户的位置。分布式 AI 架构因此获得更多关注,其目标是在保证性能的同时,降低网络传输带来的延迟和成本。这一趋势被认为将对交通出行、公共服务、工业自动化等行业产生持续影响,并推动这些领域的数字化系统从“云优先”走向“场景优先”。
安全与治理同样成为 AI 云计算演进中不可回避的话题。与传统应用不同,AI 系统的风险不仅存在于基础设施层面,还贯穿于数据、模型和推理过程之中。Jay Jenkins 指出,单纯依赖端点防护或网络隔离,已难以覆盖 AI 系统的完整风险面。企业需要建立覆盖训练数据、推理请求、模型输出的全链路治理体系。在这一背景下,能够在边缘侧实时检查提示与响应的“AI 防火墙”开始出现,其特点是在分布式环境中同步进行安全评估,而非集中处理。
成本管理方式的变化,则反映了 AI 应用走向规模化后的现实挑战。AI 计算负载往往具有高度波动性,传统在部署后进行成本核算的 FinOps 模式,难以及时约束架构选择带来的长期支出风险。
Akamai 方面认为,FinOps 正在向“左移”演进,即在模型设计和产品开发阶段,就引入成本可见性和财务影响评估。通过将模型版本、部署区域和推理模式的成本差异提前量化,工程和产品团队可以在设计阶段做出更具可持续性的技术决策。





