Neu in der Akamai Cloud
IDC Link: The Dawn of Distributed AI
Erfahren Sie, wie Akamai Inference Cloud KI dezentralisiert, um Latenz, Kosten und Ressourcenverfügbarkeit für Produktions-Workloads zu optimieren.
Cloudinfrastruktur für KI-Inferenz und agentische KI an der Edge
Agentische KI und Inferenz sind latenzempfindlich und nutzerorientiert. Akamai Cloud führt GPU-beschleunigte KI auf einer global verteilten Plattform aus, die integrierte Sicherheit und Bereitstellung bietet. So können Anwendungen in Echtzeit reagieren und sicher über Edge und Cloud hinweg skaliert werden.
Akamai Cloud – bewährt bei Kunden
Erfahren Sie, wie Unternehmen mithilfe der Akamai Cloud auf globaler Ebene die Distanz zwischen Nutzern und KI-Workloads sowie modernen Anwendungen verringern.
Der Kern von Akamai Cloud
Alles, was Sie zum Erstellen und Ausführen moderner Anwendungen benötigen – bereitgestellt in einer verteilten Cloud.
Akamai Inference Cloud
Bietet weltweit eine skalierbare, sichere und latenzarme KI-Inferenz, um die bevorstehende Welle physischer und agentischer KI voranzutreiben.
Computing
Stellen Sie VMs in einer global verteilten Cloud mit GPU-Instanzen, dedizierter sowie gemeinsam genutzter CPU und High-Memory-Optionen bereit. Wählen Sie die richtigen VM-Größen für Ihre Workload basierend auf dem Preis-Leistungs-Profil, das Sie benötigen.
Speicher
Der Speicher von Akamai Cloud wurde entwickelt, um Daten zu vereinheitlichen und Abläufe zu vereinfachen. Er unterstützt die Anwendungsentwicklung und datengestützte Erkenntnisse. Speziell für den Edge-Bereich entwickelt bieten sich Ihnen Skalierung, Schutz und eine hohe Performance, um Zuverlässigkeit und Kosteneffizienz in Einklang zu bringen.
Netzwerk
Die Netzwerkdienste von Akamai Cloud sind darauf ausgelegt, verteilte Anwendungen zu verbinden und zu schützen. Sie umfassen DNS, Lastausgleich, Firewall-Funktionen und private Netzwerke, um die Bereitstellung zuverlässiger, skalierbarer Dienste über eine globale Infrastruktur hinweg zu unterstützen.
Serverlos
Stellen Sie Code schnell bereit, ohne sich um die Infrastruktur kümmern zu müssen. Sie können serverlose Funktionen schreiben und die Verwaltung der Skalierung, Kapazität und Verfügbarkeit der Plattform überlassen. Akamai läuft serverlos über eine massiv verteilte Edge- und Cloudumgebung, sodass Ihre Logik näher an den Nutzern, Daten und dem realen Traffic ausgeführt wird.
Cloudnativ
Führen Sie auf Managed Kubernetes KI-gestützte und cloudnative Anwendungen mit einem vorkonfigurierten Open-Source-Stack aus, der Multicloud-Architekturen ermöglicht. Sie können die Bereitstellung von Modellen, APIs und Diensten beschleunigen. Dabei entfällt der Betriebsaufwand, der sonst durch eine selbstständige Ausführung von Kubernetes entstehen würde.
Datenbank
Implementieren Sie schnell eine neue Datenbank und stellen Sie Verwaltungsaufgaben wie Konfigurationen, Verfügbarkeit, Notfallwiederherstellung, Backups und Datenreplizierung zurück.
Der Wandel von Akamai vom CDN-Anbieter zum verteilten Cloudanbieter
IDC-Bericht: Erfahren Sie mehr über die Entwicklung von Akamai zu einem führenden Anbieter von Cloud- und Cybersicherheitslösungen mit dem weltweit verteilten Edge-Netzwerk.
Nächste Schritte
Häufig gestellte Fragen (FAQ)
Häufig gestellte Fragen (FAQ)
Die Akamai Cloud ist eine global verteilte Public-Cloud-Plattform, die in das intelligente Edge-Netzwerk von Akamai integriert ist. Im Gegensatz zu zentralisierten Hyperscalern werden Computing und KI-Inferenzen näher an den Nutzern ausgeführt. Daraus ergeben sich eine geringere Latenz, integrierte Sicherheit und eine standardmäßig vorhersehbare Performance.
Die Akamai Cloud eignet sich ideal für KI-Inferenzen mit geringer Latenz, Echtzeitanwendungen, Medienbereitstellung, Personalisierung, Sicherheits-Workloads und moderne Web- und API-Dienste, die davon profitieren, dass sie sich über Cloud und Edge hinweg näher an den Nutzern befinden.
Ja. Die Akamai Cloud umfasst GPU-Cloud-Instanzen, die für KI-Inferenz-Workloads entwickelt wurden. Akamai Inference Cloud ermöglicht es Teams, Modelle näher an den Benutzern auszuführen, wodurch Latenzzeiten und Kosten durch geringe Egress-Gebühren reduziert werden, während die Inferenz global über eine verteilte Plattform skaliert wird. https://www.akamai.com/de/products/gpu
Ja. Die Akamai Cloud ist offen gestaltet und wurde so konzipiert, dass sie bestehende Cloud-Umgebungen ergänzt, um Multicloud-Architekturen zu ermöglichen. Teams können die Akamai Cloud mit Hyperscalern integrieren, um Workloads näher an die Nutzer zu bringen, ohne dass es zu einer Anbieterbindung oder erzwungenen Migrationen kommt.
Die Akamai Cloud ist in ein intelligentes globales Edge-Netzwerk integriert, das auf schädlichen Traffic prüft und die Anwendungsleistung automatisch optimiert. Sicherheit und Performance sind kein Nebengedanke, sondern Kernfunktionen der Plattform.
Die Akamai Cloud läuft auf einer der weltweit am weitesten verteilten Plattformen und erstreckt sich über Tausende von Standorten in Hunderten von Städten und Ländern. Dank dieser Architektur können Endnutzer weltweit innerhalb von Millisekunden auf Rechenressourcen zugreifen.https://www.akamai.com/de/why-akamai/global-infrastructure
Ja. Die Akamai Cloud ist auf Kosteneffizienz ausgerichtet und bietet transparente Preise sowie niedrige Übertragungsgebühren. So können Teams bei der globalen Skalierung von KI-, Medien- und performancelastigen Workloads die Kosten kontrollieren.https://www.akamai.com/de/cloud/pricing
Entwickler melden sich mit einem kostenlosen Konto bei Akamai an. Sie können auch mit den APIs, SDKs und Beispielen von Akamai beginnen, die auf GitHub verfügbar sind. Akamai ist auch stolzer „Maintainer“ des Spin- und SpinKube-Projekts der CNCF und bietet die Open-Source-Plattform App Platform, mit der Entwickler auf einfachere Weise eine IDP erstellen können. Diese Tools erleichtern Ihnen das Erstellen, Testen und Bereitstellen von Anwendungen über Cloud-, Edge- und KI-Workloads hinweg.https://github.com/akamai-developers
Die Akamai Cloud ist eine vollständige Public-Cloud-Plattform mit Computing, Speicher, Netzwerk, Kubernetes, serverlosen Lösungen und KI-Diensten, die auf einer global verteilten Architektur bereitgestellt werden.