L'intersection de l'orchestration de conteneurs et de l'informatique GPU représente une frontière puissante pour les organisations qui cherchent à optimiser leurs performances. L'exécution de clusters Kubernetes gérés sur des GPU n'est pas seulement un choix technique, c'est une décision stratégique qui peut transformer la façon dont les entreprises gèrent leurs charges de travail les plus exigeantes.
La demande de charges de travail GPU est tirée par l'explosion des initiatives d'IA et de ML, la demande accrue de traitement des données en temps réel et le besoin croissant de traitement des médias et de streaming haute performance.
Les applications de médias et de diffusion en continu s'adaptent en permanence pour répondre à la demande. Parfois, une augmentation du trafic ou de la demande est prévisible, comme dans le cas du livestreaming lors d'un événement sportif majeur, mais pas toujours. Les applications Edge-native s'appuient sur Kubernetes pour s'assurer que l'infrastructure sous-jacente d'une application peut évoluer pour répondre aux pics de demande tout en maintenant les performances attendues, et sans payer pour des ressources d'infrastructure qui resteraient autrement inutilisées.
Un transcodage performant est un composant essentiel d'une application média évolutive, en particulier pour la diffusion en direct. Désormais, nous rendons cela plus facile que jamais pour nos clients avec des pools de nœuds GPU dans des clusters Kubernetes gérés.
Annonce de la prise en charge du GPU pour Linode Kubernetes Engine : Ajout de GPU NVIDIA RTX 4000 Ada Generation aux clusters K8s
Nous sommes ravis d'annoncer que Linode Kubernetes Engine prend désormais en charge les GPU NVIDIA RTX 4000 Ada Generation. Nos plans RTX 4000 Ada Generation GPU sont optimisés pour les cas d'utilisation des médias avec chaque carte contenant 2x encodage, 2x décodage, et 1x AV1 moteurs d'encodage dédiés, mais sont dimensionnés pour une gamme de charges de travail et d'applications. Les plans RTX 4000 Ada Generation commencent à 0,52 $ par heure pour 1 GPU, 4 CPU et 16 Go de RAM.
La mise en route est simple : lors de la configuration de votre cluster Kubernetes, sélectionnez votre plan GPU préféré et la quantité du pool de nœuds à ajouter à votre cluster.
Note : Il faut pour cela sélectionner une région où les GPU sont proposés. Les GPU RTX 4000 Ada Generation sont disponibles dans les régions suivantes :
- Chicago, USA (us-ord)
- Seattle, États-Unis (us-sea)
- Expansion de Francfort (de-fra-2)
- Paris, FR (fr-par)
- Osaka, JP (jp-osa)
- Extension de Singapour (sg-sin-2)
Le chemin le plus rapide vers la valeur de Kubernetes
Pour les développeurs qui souhaitent réduire la complexité de la création et de la gestion des charges de travail sur Kubernetes, notre Akamai App Platform, récemment lancée, peut également s'exécuter sur des GPU. L'association du déploiement accéléré de K8s qu'offre App Platform avec le puissant calcul des GPU constitue la tempête parfaite pour les applications à hautes performances telles que les médias et l'IA, à un meilleur coût, avec de meilleures performances et une montée en charge plus rapide.
Pour l'essayer vous-même, créez un compte et parcourez notre documentation Kubernetes pour commencer, ou contactez nos consultants en cloud computing pour obtenir de l'aide.
Remarque : App Platform n'est actuellement disponible qu'en version bêta et devra donc être activée via la page denotre programme bêtaavant d'être visible pour le déploiement dans votre cluster Kubernetes.
Commentaires