Die Überschneidung von Container-Orchestrierung und GPU stellt für Unternehmen, die ihre Leistung optimieren möchten, eine mächtige Grenze dar. Die Ausführung von verwalteten Kubernetes-Clustern auf GPUs ist nicht nur eine technische Entscheidung, sondern eine strategische Entscheidung, die die Art und Weise verändern kann, wie Unternehmen ihre anspruchsvollsten Arbeitslasten bewältigen.
Die Nachfrage nach GPU Workloads wird durch die explosionsartige Zunahme von KI- und ML-Initiativen, die steigende Nachfrage nach Echtzeit-Datenverarbeitung und den zunehmenden Bedarf an hochleistungsfähiger Medienverarbeitung und Streaming angetrieben.
Medien- und Streaming-Anwendungen passen sich ständig an die Nachfrage an. Manchmal ist ein Anstieg des Datenverkehrs oder der Nachfrage vorhersehbar, wie z. B. beim Livestreaming für ein großes Sportereignis, aber nicht immer. Edge-native Anwendungen nutzen Kubernetes, um sicherzustellen, dass die zugrunde liegende Infrastruktur einer Anwendung skaliert werden kann, um Nachfragespitzen zu bewältigen, während die erwartete Leistung beibehalten wird und ohne für Infrastrukturressourcen zu bezahlen, die sonst ungenutzt bleiben würden.
Leistungsstarke Transcodierung ist ein wesentlicher Bestandteil einer skalierbaren Medienanwendung, insbesondere für Live-Streaming. Mit GPU in verwalteten Kubernetes-Clustern machen wir dies für unsere Kunden jetzt einfacher denn je.
Ankündigung der GPU für Linode Kubernetes Engine: Hinzufügen von NVIDIA RTX 4000 Ada Generation GPUs zu K8s-Clustern
Wir freuen uns, ankündigen zu können, dass die Linode Kubernetes Engine jetzt NVIDIA RTX 4000 Ada Generation GPUs unterstützt. Unsere RTX 4000 Ada Generation GPU sind für Medienanwendungen optimiert, da jede Karte 2x Encode-, 2x Decode- und 1x AV1 Encode-Engine enthält, aber für eine Reihe von Arbeitslasten und Anwendungen geeignet ist. Die RTX 4000 Ada Generation Tarife beginnen bei 0,52 $ pro Stunde für 1 GPU, 4 CPUs und 16 GB RAM.
Die ersten Schritte sind einfach: Wählen Sie bei der Einrichtung Ihres Kubernetes-Clusters Ihren bevorzugten GPU und die Anzahl der Knotenpools, die Sie Ihrem Cluster hinzufügen möchten.
Hinweis: Dies erfordert die Auswahl einer Region, in der GPUs angeboten werden. RTX 4000 Ada Generation GPUs sind in den folgenden Regionen verfügbar:
- Chicago, USA (us-ord)
- Seattle, USA (us-sea)
- Erweiterung Frankfurt (de-fra-2)
- Paris, FR (fr-par)
- Osaka, JP (jp-osa)
- Erweiterung Singapur (sg-sin-2)
Der schnellste Weg zum Kubernetes-Wert
Für Entwickler, die die Komplexität der Erstellung und Verwaltung von Workloads auf Kubernetes reduzieren möchten, kann unsere kürzlich eingeführte Akamai App Platform auch auf GPUs laufen. Die Kombination der beschleunigten Bereitstellung von K8s, die App Platform bietet, mit den leistungsstarken Rechenleistungen von GPUs ermöglicht den perfekten Sturm für Hochleistungsanwendungen wie Medien und KI zu besseren Kosten, besserer Leistung und Skalierung.
Um es selbst auszuprobieren, erstellen Sie ein Konto und durchsuchen Sie unsere Kubernetes-Dokumentation, um loszulegen, oder wenden Sie sich an unsere Cloud Computing-Berater, um Unterstützung zu erhalten.
Hinweis: App Platform ist derzeit nur als Beta-Version verfügbar und muss daher über unsere Beta-Programm-Seiteaktiviert werden, bevor sie für die Bereitstellung in Ihrem Kubernetes-Cluster sichtbar wird.
Kommentare