Akamai Inference Cloud 是一个分布式 AI 基础架构平台,旨在从更靠近用户和数据的位置运行推理。
重要信息:
AI 基础架构的发展已到达一个关键的转折点,即集中式 AI 工厂与最终用户之间的物理距离已成为实时应用的一个根本性瓶颈。在此 IDC Link 报告中,IDC 分析师 Dave McCarthy 探讨了 Akamai 如何通过在其地理分布式云上叠加一个智能编排平面来解决这一问题。阅读更多内容以:
- 了解 Akamai Inference Cloud 如何将企业级 AI 从试点项目转变为生产级基础架构。
- 了解如何突破传统超大规模云模式的核心物理与经济瓶颈,例如集中式云架构中高达 100 毫秒以上的往返延迟以及高昂的出站流量成本。
- 在需要超低延迟以确保理想性能的领域(如游戏、金融服务和直播媒体等)实施高并发应用场景。
常见问题 (FAQ)
Akamai 正在超过 4,400 个边缘位置部署数以千计的 NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU,并通过 NVIDIA BlueField-3® 数据处理单元 (DPU) 实现 GPU 之间的互联。智能编排层充当高速代理的角色,能够根据距离、成本和 GPU 可用性将 AI 请求路由到最优的计算层。
通过在网络边缘部署 AI 推理,我们大幅缩短了计算资源与最终用户之间的物理距离。这实现了确定性的超低延迟——对于游戏、金融服务以及直播媒体等领域的实时应用而言,这是一项关键要求。