Ältere Cloud-Plattformen haben sich beim Training von KI-Modellen mit riesigen Datenmengen als unschätzbar wertvoll erwiesen. Da Unternehmen jedoch KI-Anwendungen weiter skalieren und optimieren möchten, stoßen Legacy-Plattformen schnell an ihre Grenzen.
In einer von Akamai in Auftrag gegebenen Forrester-Studie haben wir die Probleme aufgedeckt, die IT-Leiter und Entwickler mit älteren Cloud-Plattformen haben. Viele sind sich einig, dass die Verlagerung von Rechenressourcen auf Edge Computing dazu beitragen wird, Latenzzeiten, Bandbreitennutzung und Kosten in der Ära der KI-Inferenz zu reduzieren.
Da das KI-Training den Weg für die KI-Schlussfolgerung ebnet, benötigen wir Lösungen, die mit den steigenden Arbeitslasten und Rechenanforderungen zurechtkommen, ohne die Leistung und das Nutzererlebnis zu beeinträchtigen.
Was die Umstellung auf KI-Inferenz für die Anwendungsentwicklung bedeutet
Was bedeutet das für die Entwickler von KI-Anwendungen, wenn sich der Rechenbedarf von KI auf Schlussfolgerungen statt nur auf das Training verlagert?
Laut Jack Gold, President und Principal Analyst bei J. Gold Associates, liegt das Gleichgewicht zwischen Ausbildung und Schlussfolgerungen derzeit bei 80 % Ausbildung und 20 % Schlussfolgerungen. Er prognostiziert, dass sich dies in den nächsten drei Jahren ändern wird, wobei sich die Rechenressourcen auf 80 % Schlussfolgerungen und nur 20 % Schulungen konzentrieren werden.

Unter KI-Inferenz versteht man den Prozess der Verwendung trainierter Modelle, um aus neuen Daten Schlussfolgerungen und Ergebnisse zu ziehen. Da immer mehr Modelle mit großen Datensätzen trainiert werden, besteht der nächste Schritt darin, diese Modelle zu nutzen, um neue Informationen zu verarbeiten und die Fähigkeiten von KI-Lösungen zu skalieren.
Dies, gepaart mit den Erwartungen der Nutzer an eine stärkere Personalisierung, hohe Leistung und Echtzeit-Datennutzung in Anwendungen, bedeutet, dass sich die aktuellen Cloud-Lösungen anpassen müssen.
Warum die zentrale Cloud-Architektur nicht mithalten kann
Das Ziel der KI-Inferenz ist die Unterstützung von Echtzeit-Ergebnissen und eine nahtlosere Benutzererfahrung in KI-Anwendungen. Herkömmliche Cloud-Lösungen stoßen jedoch auf ein Hindernis, genauer gesagt auf drei zentrale Herausforderungen, die eine Skalierung und Optimierung mit KI erschweren.
In der Studie haben wir festgestellt, dass die größten Herausforderungen für Entwickler und IT-Leiter folgende sind:
- Latenzprobleme (56 % haben mit Verzögerungen bei der Verarbeitung zu kämpfen)
- Kostenprobleme (60 % haben Probleme mit den Lager-/Verarbeitungskosten)
- Schwierigkeiten bei der Skalierung (45 % haben Probleme bei der Skalierung)
"Die Mehrheit der Umfrageteilnehmer gab an, dass ihre derzeitigen Cloud-Strategien sie daran hindern, datengesteuerte Echtzeit-Entscheidungen in ihre Anwendungen zu integrieren."
Cloud-Kernlösungen haben bereits Schwierigkeiten, mit den Anforderungen der KI-Skalierung und -Optimierung Schritt zu halten. Gibt es also eine effektivere Lösung?
Edge Computing bringt die Datenverarbeitung näher an den Endnutzer heran, verringert Latenzprobleme und verbessert die Leistung, so dass Entwickler ihre Anwendungen effektiver skalieren können.
Doch auch dies birgt Herausforderungen, wie z. B. Bedenken hinsichtlich der Einhaltung von Vorschriften und Bestimmungen, die Bindung an einen bestimmten Anbieter sowie Schwierigkeiten bei der Einstellung und Bindung von technischen Fachkräften mit den entsprechenden Fähigkeiten. Beim Edge Computing werden in der Regel unterschiedliche Architekturansätze, Spezialprotokolle und verschiedene Anbieter verwendet, was zu betrieblicher Komplexität und erhöhten Geschäftsrisiken führt.
Verteiltes Cloud Computing als nächste Stufe der KI-Anwendungsentwicklung
Eine alternative Lösung, die unter IT-Führungskräften schnell an Bedeutung gewinnt , ist das verteilte Cloud Computing. Mehr als die Hälfte der Befragten in dieser Studie gab an, dass sie derzeit eine Form der verteilten Architektur selbst verwalten.

Die meisten gaben an, dass ihre derzeitigen Cloud-Strategien ihre Fähigkeit behindern, datengesteuerte Echtzeit-Entscheidungen in ihre Anwendungen einzubauen, und zwar aufgrund der Kosten für zusätzliche Speicher- und Verarbeitungsleistung und der durch hohe Latenzzeiten verursachten Verarbeitungsverzögerungen.
Ähnlich wie beim Edge Computing ermöglicht die verteilte Cloud-Architektur den Entwicklern die Bereitstellung von Daten von Standorten aus, die näher an den Nutzern liegen, und verbessert so die Latenzzeiten und die Leistung von Anwendungen, Cloud-Datenbanken, Streaming-Medien und anderen Workloads.
Der Unterschied besteht darin, dass diese Form des Cloud Computing zwar Teil eines verteilten Netzwerks ist, aber eine Vielzahl verschiedener Standorte für Daten umfassen kann, darunter Rechenzentren von Drittanbietern, Standorte vor Ort und private Cloud-Standorte.
Auf dem Weg zur KI werden immer mehr Anwendungen und Skalierungsmöglichkeiten entstehen und damit auch der Bedarf an effizienteren Methoden zur Datenverarbeitung.
Die Benutzer von Anwendungen erwarten schnelle Ergebnisse und ein nahtloses Erlebnis. Durch Investitionen in verteilte Architekturen können Entwickler die Anforderungen an die Echtzeit-Datenverarbeitung und -Schlussfolgerung in modernen Anwendungen erfüllen und den Wettbewerbsvorteil ihres Unternehmens bei den Nutzern sichern.
Wie verteiltes Cloud Computing die Unternehmensziele widerspiegelt
Wir haben festgestellt, dass die Flexibilität, Rechenressourcen näher an den Endnutzern bereitzustellen und gleichzeitig die zentrale Verwaltung und Kontrolle beizubehalten, einige der wichtigsten Anliegen der Umfrageteilnehmer anspricht, darunter:
- 55 % der Befragten gaben an, dass dies die Befürchtung eines erhöhten Geschäftsrisikos ausräumen würde.
- 54 % der Befragten gaben an, dass dies zum Schutz vor ausufernden Kosten beitragen würde.
- 49 % der Befragten gaben an, dass dies die Zeit bis zur Wertschöpfung verkürzen würde.
Der Vorteil der verteilten Cloud-Architektur gegenüber dem Edge Computing liegt darin, dass sie die Bereitstellung und Verwaltung von KI-Anwendungen mit denselben Fähigkeiten, Architekturparadigmen und Cloud-Primitiven wie beim Core Cloud Computing erleichtert.
Darüber hinaus bietet die verteilte Cloud geringere Latenzzeiten, bessere Skalierbarkeit, höhere Zuverlässigkeit und eine bessere Gesamtkontrolle über die Daten bei der Erstellung von Anwendungen.
Ist es besser, früher zu wechseln als später?
Aus der Studie von Akamai und Forrester geht hervor, dass IT-Führungskräfte und Anwendungsentwickler Ziele wie Innovationen im Bereich KI, die Modernisierung digitaler Erlebnisse, die Personalisierung von Erlebnissen und die Verbesserung der Datenverwaltung priorisieren. Die Vorteile der verteilten Cloud decken sich daher direkt mit dem, was die meisten Entwickler anstreben.

Angesichts der Vorhersagen zur KI-Inferenz und des zunehmenden Trends zu verteilten Cloud-Konfigurationen scheint der Wechsel zu einem verteilten Ansatz eine naheliegende Entscheidung zu sein. Wenn Sie diesen Schritt eher früher als später vollziehen, können Sie wettbewerbsfähig bleiben, wenn sich der Markt und die KI-Technologie weiterentwickeln.
Wenn Sie mehr über die Zukunft der verteilten Cloud im Vergleich zu Edge-Computing und Core-Cloud-Architekturen erfahren möchten, können Sie den vollständigen Bericht noch heute herunterladen.
* In dieser von Akamai in Auftrag gegebenen Studie von Forrester Consulting wurden 163 nordamerikanische Cloud-Strategie-Entscheidungsträger aus den Bereichen Einzelhandel, Medien und Telekommunikation nach ihrer Meinung zum aktuellen Stand des Cloud Computing befragt.
Kommentare