L'intersezione tra l'orchestrazione di container e il GPU Computing rappresenta una potente frontiera per le organizzazioni che cercano di ottimizzare le proprie prestazioni. L'esecuzione di cluster Kubernetes gestiti su GPU non è solo una scelta tecnica, ma una decisione strategica che può trasformare il modo in cui le aziende gestiscono i carichi di lavoro più impegnativi.
La domanda di carichi di lavoro GPU è guidata dall'esplosione delle iniziative di AI e ML, dall'aumento della domanda di elaborazione dei dati in tempo reale e dalla crescente necessità di elaborazione e streaming dei media ad alte prestazioni.
Le applicazioni multimediali e di streaming si adattano costantemente per soddisfare la domanda. A volte l'aumento del traffico o della domanda è prevedibile, come nel caso del livestreaming di un grande evento sportivo, ma non sempre. Le applicazioni edge-native sfruttano Kubernetes per garantire che l'infrastruttura sottostante l'applicazione possa scalare per soddisfare i picchi di domanda, mantenendo le prestazioni previste e senza pagare per le risorse infrastrutturali che altrimenti rimarrebbero inutilizzate.
La transcodifica performante è un componente essenziale di un'applicazione multimediale scalabile, soprattutto per lo streaming live. Ora stiamo rendendo questa operazione più facile che mai per i nostri clienti con pool di nodi GPU in cluster Kubernetes gestiti.
Annuncio del supporto GPU per Linode Kubernetes Engine: Aggiunta di GPU NVIDIA RTX 4000 Ada Generation ai cluster K8s
Siamo entusiasti di annunciare che Linode Kubernetes Engine ora supporta le GPU NVIDIA RTX 4000 Ada Generation. I nostri piani per GPU RTX 4000 Ada Generation sono ottimizzati per i casi d'uso dei media, con ogni scheda che contiene motori dedicati di codifica 2x, decodifica 2x e codifica 1x AV1, ma sono dimensionati per una vasta gamma di carichi di lavoro e applicazioni. I piani RTX 4000 Ada Generation partono da 0,52 dollari l'ora per 1 GPU, 4 CPU e 16 GB di RAM.
Iniziare è semplice: durante la configurazione del cluster Kubernetes, selezionare il piano GPU preferito e la quantità di pool di nodi da aggiungere al cluster.
Nota: per questa operazione è necessario selezionare una regione in cui sono disponibili le GPU. Le GPU RTX 4000 Ada Generation sono disponibili nelle seguenti regioni:
- Chicago, USA (us-ord)
- Seattle, USA (us-sea)
- Espansione di Francoforte (de-fra-2)
- Parigi, FR (fr-par)
- Osaka, JP (jp-osa)
- Espansione di Singapore (sg-sin-2)
Il percorso più rapido verso il valore di Kubernetes
Per gli sviluppatori che desiderano ridurre la complessità della creazione e della gestione dei carichi di lavoro su Kubernetes, Akamai App Platform, lanciata di recente, può essere eseguita anche su GPU. L'accoppiata tra la distribuzione accelerata di K8s offerta da App Platform e il potente calcolo delle GPU consente di creare la tempesta perfetta per applicazioni ad alte prestazioni come quelle multimediali e di intelligenza artificiale a costi, prestazioni e scala migliori.
Per provare, create un account e consultate la nostra documentazione su Kubernetes per iniziare, oppure contattate i nostri consulenti di cloud computing per ricevere assistenza.
Nota: App Platform è attualmente disponibile solo in versione Beta, quindi dovrà essere attivata attraverso la pagina del programma Betaprima di essere visibile per la distribuzione nel cluster Kubernetes.
Commenti