La intersección de la orquestación de contenedores y el GPU Computing representa una poderosa frontera para las organizaciones que buscan optimizar su rendimiento. Ejecutar clústeres Kubernetes gestionados en GPU no es solo una elección técnica, es una decisión estratégica que puede transformar la forma en que las empresas gestionan sus cargas de trabajo más exigentes.
La demanda de cargas de trabajo GPU está impulsada por la explosión de iniciativas de IA y ML, el aumento de la demanda de procesamiento de datos en tiempo real y la creciente necesidad de procesamiento multimedia y streaming de alto rendimiento.
Las aplicaciones multimedia y de streaming se adaptan constantemente a la demanda. A veces, un aumento del tráfico o de la demanda es predecible, como la retransmisión en directo de un gran evento deportivo, pero no siempre. Las aplicaciones nativas de borde aprovechan Kubernetes para garantizar que la infraestructura subyacente de una aplicación pueda escalar para satisfacer los picos de demanda manteniendo el rendimiento esperado, y sin pagar por recursos de infraestructura que de otro modo quedarían sin utilizar.
Una transcodificación eficaz es un componente esencial de una aplicación multimedia escalable, especialmente para la transmisión en directo. Ahora se lo ponemos más fácil que nunca a nuestros clientes con grupos de nodos GPU en clústeres Kubernetes gestionados.
Anunciamos soporte de GPU para Linode Kubernetes Engine: Añadiendo GPUs NVIDIA RTX 4000 Ada Generation a Clusters K8s
Nos complace anunciar que Linode Kubernetes Engine ahora es compatible con las GPU NVIDIA RTX 4000 Ada Generation. Nuestros planes de GPU RTX 4000 Ada Generation están optimizados para casos de uso de medios con cada tarjeta que contiene motores dedicados de codificación 2x, decodificación 2x y codificación 1x AV1, pero tienen el tamaño adecuado para una amplia gama de cargas de trabajo y aplicaciones. Los planes RTX 4000 Ada Generation empiezan en 0,52 dólares por hora para 1 GPU, 4 CPU y 16 GB de RAM.
Empezar es sencillo: mientras configura su clúster Kubernetes, seleccione su plan de GPU preferido y la cantidad del grupo de nodos que desea añadir a su clúster.
Nota: Para ello es necesario seleccionar una región en la que se ofrezcan GPUs. Las GPU RTX 4000 Ada Generation están disponibles en las siguientes regiones:
- Chicago, EE.UU. (us-ord)
- Seattle, EE.UU. (us-sea)
- Ampliación de Fráncfort (de-fra-2)
- París, FR (fr-par)
- Osaka, JP (jp-osa)
- Ampliación de Singapur (sg-sin-2)
El camino más rápido hacia el valor de Kubernetes
Para los desarrolladores que desean reducir la complejidad de crear y gestionar cargas de trabajo en Kubernetes, nuestra recientemente lanzada Akamai App Platform también puede ejecutarse en GPU. Combinando el despliegue acelerado de K8s que App Platform ofrece con la potente computación de las GPUs, se consigue la tormenta perfecta para aplicaciones de alto rendimiento como medios e IA a mejor coste, rendimiento y escala.
Para probarlo usted mismo, cree una cuenta y consulte nuestra documentación sobre Kubernetes para empezar, o póngase en contacto con nuestros consultores de cloud computing para obtener ayuda.
Nota: App Platform solo está disponible actualmente en versión Beta, por lo que deberá activarse a través de nuestra página del programa Betaantes de que sea visible para su despliegue en su clúster Kubernetes.
Comentarios