Skip to main content
BlogInformatiquePourquoi l'inférence de l'IA est le moteur du passage du Cloud Computing centralisé au Cloud Computing distribué

Pourquoi l'inférence de l'IA est le moteur du passage de l'Cloud Computing centralisée à l'Cloud Computing distribuée

Pourquoi l'inférence de l'IA est le moteur du passage de l'informatique centralisée à l'informatique distribuée dans le nuage ?

Les plateformes cloud héritées se sont révélées inestimables pour entraîner les modèles d'IA avec de vastes volumes de données. Mais à mesure que les organisations souhaitent faire évoluer et optimiser les applications d'IA, les plateformes patrimoniales montrent rapidement leurs limites. 

Dans une étude Forrester commandée par Akamai, nous avons découvert les problèmes que les responsables informatiques et les développeurs rencontrent avec les anciennes plateformes dans le Cloud. Beaucoup s'accordent à dire que le déplacement des ressources de calcul vers l' edge computing contribuera à réduire la latence, l'utilisation de la bande passante et les coûts à l'ère de l'inférence de l'IA.  

Alors que la formation à l'IA ouvre la voie à l'inférence de l'IA, nous avons besoin de solutions capables de faire face à l'augmentation des charges de travail et des besoins en calcul sans nuire aux performances et à l'expérience de l'utilisateur final. 

Ce que le passage à l'inférence par l'IA signifie pour le développement d'applications 

Les besoins en calcul de l'IA étant sur le point de passer à l'inférence plutôt qu'à l'entraînement, qu'est-ce que cela signifie pour les développeurs d'applications d'IA ? 

Selon Jack Gold, président et analyste principal de J.Gold Associates, l'équilibre entre la formation et l'inférence est actuellement de 80 % pour la formation et de 20 % pour l'inférence. Il prévoit que cette situation va changer au cours des trois prochaines années, les ressources informatiques se concentrant sur 80 % de l'inférence et seulement 20 % de la formation.  

L'inférence en IA est le processus qui consiste à utiliser des modèles formés pour tirer des conclusions et des résultats à partir de nouvelles données. Comme de plus en plus de modèles sont entraînés avec d'énormes ensembles de données, l'étape suivante consiste à utiliser ces modèles pour traiter de nouvelles informations afin d'augmenter les capacités des solutions d'IA.  

Cette situation, associée aux attentes des utilisateurs en matière de personnalisation accrue, de performances élevées et d'utilisation de données en temps réel dans les applications, signifie que les solutions actuelles d'informatique dématérialisée doivent s'adapter.  

Pourquoi l'architecture de base de l'informatique en nuage n'arrive pas à suivre 

L'objectif de l'inférence de l'IA est d'aider à obtenir des résultats en temps réel et une expérience utilisateur plus transparente dans les applications de l'IA. Cependant, les solutions cloud existantes se heurtent à un obstacle, ou plus précisément à trois défis majeurs qui rendent difficile l'évolution et l'optimisation de l'IA. 

L'étude révèle que les principaux défis auxquels sont confrontés les développeurs et les responsables informatiques sont les suivants : 

  • Problèmes de latence (56 % sont confrontés à des retards de traitement) 
  • Problèmes de coûts (60 % sont confrontés aux coûts de stockage/traitement) 
  • Difficultés de mise à l'échelle (45% ont des difficultés de mise à l'échelle) 

"La majorité des personnes interrogées ont déclaré que leurs stratégies actuelles en matière d'informatique dématérialisée entravaient leur capacité à intégrer dans leurs applications des prises de décision en temps réel, fondées sur des données ." 

Les solutions cloud de base ont déjà du mal à répondre aux exigences de la mise à l'échelle et de l'optimisation de l'IA. Existe-t-il une solution plus efficace ? 

L'informatique en périphérie rapproche le traitement des données de l'utilisateur final, ce qui réduit les problèmes de latence et améliore les performances, permettant ainsi aux développeurs d'adapter leurs applications de manière plus efficace.  

Cependant, même cette solution présente des difficultés, notamment en matière de conformité et de réglementation, de verrouillage des fournisseurs et de recrutement et de fidélisation de talents techniques possédant les compétences requises. L'informatique en périphérie utilise généralement différentes approches architecturales, des protocoles spécialisés et différents fournisseurs, ce qui entraîne des complexités opérationnelles et un risque accru pour l'entreprise. 

L'Cloud Computing distribuée, prochaine étape du développement des applications d'IA  

Une solution alternative qui gagne rapidement du terrain parmi les responsables informatiques est l'informatique en nuage distribuée. Plus de la moitié des personnes interrogées dans le cadre de cette étude ont déclaré qu'elles géraient actuellement elles-mêmes une forme d'architecture distribuée. 

La plupart d'entre eux ont déclaré que leurs stratégies actuelles en matière d'informatique dématérialisée entravaient leur capacité à intégrer dans leurs applications des décisions en temps réel fondées sur des données, en raison des coûts de stockage et de puissance de traitement supplémentaires et des retards de traitement causés par une latence élevée.  

Comme l'edge computing, l'architecture distribuée en nuage permet aux développeurs de servir des données à partir d'emplacements plus proches des utilisateurs, améliorant ainsi la latence et les performances des applications, des bases de données en nuage, des médias en continu et d'autres charges de travail.  

La différence est que, tout en faisant partie d'un réseau distribué, cette forme d'informatique en nuage peut inclure une variété d'emplacements différents pour les données, y compris des centres de données tiers, des emplacements sur site et des emplacements de nuage privé.  

Au fur et à mesure que nous progressons vers l'inférence de l'IA, davantage d'applications et d'opportunités de mise à l'échelle apparaîtront et, avec elles, la nécessité de trouver des moyens plus efficaces de traiter les données.  

Les utilisateurs d'applications s'attendent à des résultats rapides et à une expérience transparente. En investissant dans des architectures distribuées, les développeurs peuvent répondre aux demandes de traitement de données et d'inférence en temps réel dans les applications modernes et garantir l'avantage concurrentiel de leur entreprise auprès des utilisateurs. 

Comment l Cloud Computing distribuée reflète les objectifs de l'entreprise  

Nous avons constaté que la possibilité de déployer des ressources informatiques plus près des utilisateurs finaux tout en maintenant une gestion et un contrôle centralisés répondait à certaines des principales préoccupations des personnes interrogées dans le cadre de notre enquête, notamment 

  • 55% ont déclaré que cela répondrait aux craintes d'une augmentation des risques pour les entreprises 
  • 54 % ont déclaré qu'elle contribuerait à protéger contre l'augmentation des coûts incontrôlés 
  • 49% ont déclaré qu'il améliorerait le temps de retour sur investissement 

Là où l'architecture en nuage distribuée est plus performante que l'informatique en périphérie, c'est qu'elle facilite le déploiement et la gestion des applications d'IA avec les mêmes compétences, le même paradigme architectural et les mêmes primitives de nuage que l'informatique en nuage de base.  

En outre, l'informatique en nuage distribuée permet de réduire la latence, d'améliorer l'évolutivité et la fiabilité, et de mieux contrôler les données lors de la création d'applications.  

Est-il préférable de passer à l'euro plus tôt que plus tard ? 

D'après l'étude d'Akamai et de Forrester, il est important de noter que les responsables informatiques et les développeurs d'applications accordent la priorité à des objectifs tels que l'innovation autour de l'IA, la modernisation des expériences numériques, la personnalisation des expériences et l'amélioration de la gestion des données. Les avantages du cloud distribué sont donc directement liés à ce que recherchent la plupart des développeurs.  

Sur la base des prédictions concernant l'inférence de l'IA et d'une tendance croissante vers des configurations de cloud distribuées, le passage à une approche distribuée semble être un choix évident. En franchissant le pas le plus tôt possible, vous pourrez rester compétitif face à l'évolution du marché et de la technologie de l'IA.  

Pour en savoir plus sur notre rapport sur l'avenir du cloud distribué par rapport à l'edge computing et aux architectures de cloud de base, téléchargez le rapport complet dès aujourd'hui.

* Dans cette étude de Forrester Consulting commandée par Akamai, 163 décideurs nord-américains de la stratégie du Cloud, issus des secteurs de la vente au détail, des médias et des télécommunications, ont été invités à donner leur avis sur l'état actuel du Cloud Computing. 

Vous pourriez aussi aimer...

Commentaires

Laissez un commentaire

Votre adresse électronique ne sera pas publiée. Les champs obligatoires sont marqués d'un *.