Akamai Inference Cloud ist eine verteilte KI-Infrastrukturplattform. Sie ist darauf ausgelegt, die Inferenz näher an Nutzer und Daten zu führen.
Wichtige Erkenntnisse:
Die KI-Infrastruktur hat einen kritischen Wendepunkt erreicht, an dem die physische Entfernung zwischen zentralisierten KI-Fabriken und Endnutzern zu einem grundlegenden Engpass für Echtzeitanwendungen geworden ist. In diesem IDC Link untersucht Dave McCarthy von IDC, wie Akamai dieses Problem durch die Überlagerung einer intelligenten Orchestrierungsebene in der geografisch verteilten Cloud bewältigt. Lesen Sie, um Folgendes zu erfahren:
- Lernen, wie die Akamai Inference Cloud Unternehmens-KI von Pilotprojekten in eine produktionsgerechte Infrastruktur umwandelt.
- Verstehen, wie die wichtigsten physischen und wirtschaftlichen Engpässe des herkömmlichen Hyperscaler-Modells überwunden werden können, z. B. Verzögerungen von über 100 ms und hohe Übertragungskosten von zentralisierten Clouds.
- Implementieren von Anwendungsfällen mit hoher Parallelität für Spiele, Finanzdienstleistungen und Live-Medien, die eine extrem niedrige Latenz für Spitzenperformance erfordern.
Häufig gestellte Fragen (FAQ)
Akamai stellt Tausende von NVIDIA RTX PRO™ 6000 Blackwell Server Edition-GPUs bereit, die mit NVIDIA Bluefield-3® Data Processing Units (DPUs) an mehr als 4.400 Edge-Standorten verbunden sind. Eine intelligente Orchestrierungsebene fungiert als schneller Broker, der KI-Anfragen an optimale Computingebenen basierend auf Nähe, Kosten und GPU-Verfügbarkeit weiterleitet.
Durch die Bereitstellung von KI-Inferenz an der Netzwerk-Edge verkürzen wir den physischen Abstand zwischen Computing-Ressourcen und Endnutzern erheblich. Dies ermöglicht eine deterministische, extrem niedrige Latenz, welche wiederum eine wesentliche Anforderung für Echtzeitanwendungen in Sektoren wie Gaming, Finanzdienstleistungen und Live-Medien darstellt.