Skip to main content
BlogCalculInférence AI dans le Cloud d'Akamai : Permettre aux développeurs d'accélérer les applications natives Edge

AI Inference dans le Cloud d'Akamai : Permettre aux développeurs d'accélérer les applications natives Edge

AI_Inference_on_Akamai_Cloud_enabling_developers_to_accelerate_edge_native_applications

L'engouement pour l'intelligence artificielle (IA) ne cesse de croître et, avec lui, le besoin crucial d'aller au-delà de la simple formation de modèles puissants pour les déployer efficacement dans des applications du monde réel. C'est là qu'entre en jeu l'inférence de l'IA, c'est-à-dire le processus d'utilisation de modèles d'IA formés pour générer des prédictions et des informations. Chez Akamai, nous construisons stratégiquement un avenir où l'inférence de l'IA est non seulement facilement accessible, mais aussi performante, évolutive et rentable, jusqu'à la périphérie.

Avec le lancement de Akamai Cloud Inferencenous poursuivons la réalisation de notre vision : être le Cloud le plus distribué au monde, permettant des charges de travail à haut débit et faible latence pour l'IA et au-delà. Akamai Cloud Inference est l'union passionnante de plusieurs mesures clés que nous avons prises récemment pour permettre aux développeurs de créer et de diffuser des applications natives de pointe et des solutions d'IA. Nous avons constaté que si les modèles centralisés dans le Cloud gèrent l'entraînement à l'IA à grande échelle, ils sont souvent confrontés à la montée en charge et à la distribution requises pour que l'inférence continue et à la demande avec une latence ultra-faible soit efficace à l'échelle mondiale. 

Notre démarche visant à offrir un Cloud plus rapide et plus rentable pour l'inférence d'IA a été délibérée et construite sur une base solide de technologies natives du Cloud. À la base de cette architecture se trouve Akamai Cloud, le Cloud public le plus distribué au monde, équipé de façon unique pour optimiser l'inférence d'IA avec une suite complète de produits dans le Cloud, diffusés sur le vaste réseau mondial d'Akamai. Akamai Cloud Inference est construit sur l'épine dorsale robuste d'une architecture Kubernetes montée en charge et native dans le Cloud - Linode Kubernetes Engine (LKE) et Akamai App Platform - qui permet un déploiement rapide des applications d'IA et des cas d'utilisation de l'inférence.

  • La nouvelle solution d'Akamai fournit des outils aux ingénieurs et développeurs de plates-formes pour créer et exécuter des applications d'IA et des charges de travail à forte intensité de données plus proches des utilisateurs finaux, offrant un débit trois fois supérieur tout en réduisant la latence jusqu'à 2,5 fois.
  • Grâce à la solution d'Akamai, les entreprises peuvent économiser jusqu'à 86 % sur les charges de travail d'inférence et d'intelligence artificielle par rapport à l'infrastructure hyperscalaire traditionnelle.
  • Des derniers CPU AMD pour un réglage fin et léger aux puissantes options de calcul accéléré avec les GPUNVIDIA et les unités de traitement vidéo (VPU) NETINT, nous fournissons la puissance nécessaire pour répondre à vos besoins uniques en matière d'inférence d'IA. 
  • Notre collaboration avec VAST Data offre un accès simplifié aux données en temps réel, ce qui est essentiel pour accélérer les tâches liées à l'inférence. Elle est complétée par un stockage d'objets hautement évolutif et des intégrations avec les principaux fournisseurs de bases de données vectorielles tels qu'Aiven et Milvus pour la génération augmentée de recherche (RAG). 
  • En nous appuyant sur nos plateformes Kubernetes natives pour le cloud, notamment les nouvelles plateformes LKE-Enterprise et App Platform, nous mettons en place des conteneurs d'applications d'IA hautement évolutifs et portables qui éliminent le verrouillage des fournisseurs et la complexité, en optimisant la vitesse, les coûts et la sécurité. 
  • En s'associant avec les principaux WebAssembly (WASM) tels que Fermyon, Akamai permet aux développeurs d'exécuter une inférence légère pour les LLM directement à partir d'applications sans serveur à la périphérie, ce qui permet d'optimiser les applications sensibles à la latence. 

Notre réseau massivement distribué, avec plus de 4 100 points de présence dans le monde, garantit un accès à faible latence aux ressources de calcul, du nuage à la périphérie. Cette puissante combinaison nous permet de fournir la meilleure inférence IA possible à faible latence et à haut débit, partout et à grande échelle. 

Il ne s'agit pas seulement de technologie ; il s'agit de donner aux entreprises les moyens d'agir grâce à des solutions d'IA pratiques. Imaginez que vous puissiez transformer le passage en caisse des magasins grâce à la détection et à la reconnaissance d'objets en temps réel, ce qui accélèrerait le processus et réduirait le nombre d'erreurs. Ou encore, imaginez une assistance vocale embarquée alimentée par l'IA qui fournit des réponses immédiates et pertinentes pour les fonctions de la voiture connectée et l'optimisation avancée des itinéraires. Il ne s'agit là que de quelques exemples de la manière dont Akamai Cloud Inference peut générer une réelle valeur commerciale. 

Pour l'avenir, notre vision est claire : construire le futur de la manière dont les entreprises fournissent une inférence IA rapide et performante à travers leur activité et à leurs clients - avec le débit le plus élevé et le temps de réponse le plus court possible. Nous pensons que la dynamique est de notre côté, car les entreprises reconnaissent de plus en plus les limites des architectures centralisées pour les charges de travail d'IA centrées sur la périphérie. Akamai est idéalement positionné pour aider les clients à faire monter en charge leurs initiatives d'IA, en transformant les données en actions au plus près du point de contact numérique ". Bienvenue dans l'avenir de l'inférence de l'IA, optimisée par le Cloud d'Akamai.

Vous pourriez aussi aimer...

Commentaires

Laissez un commentaire

Votre adresse électronique ne sera pas publiée. Les champs obligatoires sont marqués d'un *.