Zum Inhalt springen
BlogBerechnenAI-Inferenz in der Akamai Cloud: Ermöglicht Entwicklern die Beschleunigung von Edge Native Applications

AI-Inferenz in der Akamai Cloud: Ermöglicht Entwicklern die Beschleunigung nativer Edge-Anwendungen

AI_Inference_on_Akamai_Cloud_ermöglicht_Entwicklern_eine_Beschleunigung_nativer_Anwendungen

Die Begeisterung für künstliche Intelligenz (KI) nimmt weiter zu, und damit auch die Notwendigkeit, nicht nur leistungsstarke Modelle zu trainieren, sondern sie auch effektiv für reale Anwendungen einzusetzen. Hier kommt die KI-Inferenz ins Spiel - der Prozess der Verwendung von trainierten KI-Modellen, um Vorhersagen und Erkenntnisse zu generieren. Bei Akamai haben wir strategisch auf eine Zukunft hingearbeitet, in der KI-Inferenz nicht nur leicht zugänglich, sondern auch performant, skalierbar und kosteneffizient ist - bis hin zum Edge.

Mit der Einführung von Akamai Cloud Inferencesetzen wir unsere Vision um, die weltweit verteilteste Cloud zu sein, die Workloads mit hohem Durchsatz und niedriger Latenz für KI und darüber hinaus ermöglicht. Akamai Cloud Inference ist der spannende Zusammenschluss mehrerer wichtiger Schritte, die wir in letzter Zeit unternommen haben, um Entwicklern die Erstellung und Bereitstellung von nativen Edge-Anwendungen und KI-Lösungen zu ermöglichen. Wir haben erkannt, dass zentralisierte Cloud-Modelle zwar groß angelegte KI-Trainings durchführen können, aber oft mit der Skalierung und Verteilung zu kämpfen haben, die für eine kontinuierliche On-Demand-Inferenz mit extrem niedriger Latenz erforderlich ist, um auf globaler Ebene effektiv zu sein. 

Wir haben uns bewusst auf den Weg gemacht, eine schnellere und kosteneffizientere Cloud für KI-Inferenzen bereitzustellen, die auf einem starken Fundament aus Cloud-nativen Technologien aufbaut. Diese Architektur basiert auf der Akamai Cloud, der weltweit am weitesten verbreiteten öffentlichen Cloud, die mit einer umfassenden Suite von Cloud-Produkten, die über das ausgedehnte globale Netzwerk von Akamai bereitgestellt werden, einzigartig für die KI-Inferenz ausgestattet ist. Akamai Cloud Inference basiert auf dem robusten Rückgrat einer Cloud-nativen, skalierbaren Kubernetes-Architektur - Linode Kubernetes Engine (LKE) und Akamai App Platform - die eine schnelle Bereitstellung von KI-Anwendungen und Inferenz-Anwendungsfällen ermöglicht.

  • Die neue Lösung von Akamai bietet Tools für Plattform-Ingenieure und Entwickler, um KI-Anwendungen und datenintensive Workloads näher an den Endnutzern zu erstellen und auszuführen und dabei einen dreifach höheren Durchsatz bei einer bis zu 2,5-fachen Reduzierung der Latenz zu erzielen.
  • Mit der Akamai-Lösung können Unternehmen bis zu 86 % bei KI-Inferenz- und KI-Agenten-Workloads im Vergleich zu herkömmlichen Hyperscaler-Infrastrukturen sparen.
  • Von den neuesten AMD-CPUs für leichtgewichtiges Feintuning bis hin zu leistungsstarken Optionen für beschleunigte Berechnungen mit NVIDIA und NETINT-Videoverarbeitungseinheiten (VPUs) bieten wir die richtige Leistung, um Ihre individuellen KI-Anforderungen zu erfüllen. 
  • Unsere Zusammenarbeit mit VAST Data bietet einen optimierten Zugang zu Echtzeitdaten, die für die Beschleunigung von Inferenzaufgaben entscheidend sind. Ergänzt wird dies durch hoch skalierbare Objektspeicher und Integrationen mit führenden Vektordatenbankanbietern wie Aiven und Milvus für Retrieval Augmented Generation (RAG). 
  • Durch den Einsatz unserer Cloud-nativen Kubernetes-Plattformen, einschließlich der neuen LKE-Enterprise und App Platform, ermöglichen wir hoch skalierbare und portable KI-Anwendungscontainer, die eine Herstellerbindung und Komplexität vermeiden und Geschwindigkeit, Kosten und Sicherheit optimieren. 
  • Durch die Partnerschaft mit führenden WebAssembly (WASM)-Anbietern wie Fermyon ermöglicht Akamai Entwicklern die Ausführung von leichtgewichtigen Inferenzen für LLMs direkt aus serverlosen Anwendungen am Edge, um latenzsensitive Anwendungen zu unterstützen. 

Unser massiv verteiltes Netzwerk mit über 4.100 Standorten auf der ganzen Welt gewährleistet einen latenzarmen Zugriff auf Rechenressourcen von der Cloud bis zum Edge. Diese leistungsstarke Kombination ermöglicht es uns, die bestmögliche KI-Inferenz mit niedriger Latenz und hohem Durchsatz zu liefern - überall und in großem Umfang. 

Hier geht es nicht nur um Technologie, sondern darum, Unternehmen mit praktischen KI-Lösungen zu unterstützen. Stellen Sie sich vor, Sie könnten den Kassiervorgang im Einzelhandel durch Objekterkennung in Echtzeit umgestalten, den Prozess beschleunigen und Fehler reduzieren. Oder denken Sie an die KI-gestützte Sprachunterstützung im Auto, die unmittelbare und relevante Antworten für vernetzte Autofunktionen und erweiterte Routenoptimierung liefert. Dies sind nur einige Beispiele dafür, wie Akamai Cloud Inference einen echten Mehrwert für Ihr Unternehmen schaffen kann. 

Mit Blick auf die Zukunft haben wir eine klare Vision: Wir wollen die Zukunft dafür gestalten, wie Unternehmen schnelle und leistungsstarke KI-Inferenzen für ihr gesamtes Unternehmen und ihre Kunden bereitstellen können - mit dem höchstmöglichen Durchsatz und der kürzestmöglichen Reaktionszeit. Wir glauben, dass das Momentum auf unserer Seite ist, da Unternehmen zunehmend die Grenzen von zentralisierten Architekturen für Edge-zentrierte KI-Workloads erkennen. Akamai ist einzigartig positioniert, um Kunden bei der Skalierung ihrer KI-Initiativen zu unterstützen und Daten näher am digitalen Touchpoint in Aktionen umzusetzen. Willkommen in der Zukunft der KI-Inferenz, powered by Akamai Cloud.

Vielleicht interessiert Sie auch ...

Kommentare

Kommentar abgeben

Ihre E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit *gekennzeichnet