L'Akamai Inference Cloud è una piattaforma per l'infrastruttura dell'AI distribuita, che è stata progettata per eseguire l'inferencing più vicino a utenti e dati.
Vantaggi principali
L'infrastruttura dell'AI ha raggiunto un punto critico di inflessione in cui la distanza fisica tra i centri di produzione di intelligenza artificiale centralizzati e gli utenti finali è diventata un collo di bottiglia fondamentale per le applicazioni in tempo reale. In questo rapporto IDC Link, Dave McCarthy di IDC esplora il modo con cui Akamai sta affrontando questo problema sovrapponendo un piano di orchestrazione intelligente sul suo cloud distribuito in varie aree geografiche. Leggete ulteriori informazioni per:
- Scoprire come l'Akamai Inference Cloud sta trasformando l'AI aziendale dai progetti pilota all'infrastruttura di produzione.
- Capire come superare i principali colli di bottiglia fisici ed economici del modello offerto dagli operatori hyperscale tradizionali, come i ritardi di round trip superiori a 100 ms e gli elevati costi di uscita dei cloud centralizzati.
- Implementare casi di utilizzo in tempo reale nel gaming, nei servizi finanziari e nei media live che richiedono una latenza bassissima per garantire performance senpre ottimali.
Domande frequenti (FAQ)
Akamai sta implementando migliaia di GPU NVIDIA RTX PRO™ 6000 Blackwell Server Edition, interconnesse con unità di elaborazione dei dati (DPU) NVIDIA BlueField-3®, in più di 4.400 posizioni sull'edge. Un livello di orchestrazione intelligente consente di indirizzare rapidamente le richieste dell'AI a livelli di elaborazione ottimali in base alla prossimità, ai costi e alla disponibilità della GPU.
Implementando l'AI inferencing sull'edge della rete, possiamo ridurre significativamente la distanza fisica tra le risorse di elaborazione e gli utenti finali in modo da garantire una latenza deterministica bassissima, un requisito essenziale per le applicazioni in tempo reale in settori come il gaming, i servizi finanziari e i media live.