A Akamai Inference Cloud é uma plataforma distribuída de infraestrutura de IA projetada para executar a inferência mais perto dos usuários e dos dados.
Principais conclusões:
A infraestrutura de IA atingiu um ponto crítico de inflexão em que a distância física entre fábricas centralizadas de IA e usuários finais se tornou um gargalo central para aplicações em tempo real. Neste IDC Link, Dave McCarthy, da IDC, explora como a Akamai está lidando com esse problema ao sobrepor um plano de orquestração inteligente à sua nuvem geograficamente distribuída. Leia mais e:
- Saiba como a Akamai Inference Cloud está fazendo a transição da IA corporativa de projetos-piloto para uma infraestrutura de nível de produção.
- Entenda como eliminar os principais gargalos físicos e econômicos do modelo tradicional de hiperescala, como atrasos de rota de mais de 100 ms e altos custos de saída de nuvens centralizadas.
- Implemente casos de uso de alta simultaneidade nos setores de jogos, serviços financeiros e mídia ao vivo que exigem latência ultrabaixa para desempenho máximo.
Perguntas frequentes (FAQ)
A Akamai está implantando milhares de GPUs NVIDIA RTX PRO™ 6000 Blackwell Server Edition, interconectadas com unidades de processamento de dados (DPUs) NVIDIA Bluefield-3® em mais de 4.400 locais de edge. Uma camada de orquestração inteligente atua como um broker ágil, encaminhando solicitações de IA para níveis de computação ideais com base na proximidade, no custo e na disponibilidade da GPU.
Ao implantar a inferência de IA na edge da rede, reduzimos significativamente a distância física entre os recursos de computação e os usuários finais. Isso proporciona uma latência determinística e ultrabaixa — um requisito essencial para aplicações em tempo real em setores como jogos, serviços financeiros e mídia ao vivo.