Le piattaforme cloud tradizionali si sono dimostrate preziose per l'addestramento di modelli di IA con grandi volumi di dati. Ma quando le aziende vogliono scalare e ottimizzare ulteriormente le applicazioni di IA, le piattaforme legacy stanno rapidamente mostrando i loro limiti.
In uno studio Forrester commissionato da Akamai, abbiamo scoperto i problemi che i leader IT e gli sviluppatori incontrano con le piattaforme cloud legacy. Molti concordano sul fatto che lo spostamento delle risorse di calcolo verso l'edge computing contribuirà a ridurre la latenza, l'utilizzo della larghezza di banda e i costi nell'era dell'inferenza AI.
Poiché l'addestramento dell'intelligenza artificiale apre la strada all'inferenza dell'intelligenza artificiale, abbiamo bisogno di soluzioni in grado di gestire carichi di lavoro e necessità di calcolo crescenti senza compromettere le prestazioni e l'esperienza dell'utente finale.
Cosa significa il passaggio all'inferenza dell'intelligenza artificiale per lo sviluppo delle applicazioni
Con la necessità di calcolo dell'IA che si sposta verso l'inferenza piuttosto che verso il solo addestramento, cosa significa questo per gli sviluppatori nello sviluppo di applicazioni di IA?
Secondo Jack Gold, presidente e analista principale di J.Gold Associates, l'equilibrio tra formazione e inferenza è attualmente pari all'80% di formazione e al 20% di inferenza. Prevede che questa situazione cambierà nei prossimi tre anni, con le risorse di calcolo che si concentreranno sull'80% di inferenza e solo sul 20% di formazione.

L'inferenza dell'IA è il processo di utilizzo di modelli addestrati per trarre conclusioni e risultati da nuovi dati. Man mano che un maggior numero di modelli viene addestrato con enormi set di dati, la fase successiva consiste nell'utilizzare tali modelli per gestire nuove informazioni e scalare le capacità delle soluzioni di IA.
Questo, unito alle aspettative degli utenti di una maggiore personalizzazione, di prestazioni elevate e di utilizzo dei dati in tempo reale nelle applicazioni, significa che le attuali soluzioni cloud devono adattarsi.
Perché l'architettura cloud di base non riesce a tenere il passo
L'obiettivo dell'inferenza dell'IA è quello di fornire risultati in tempo reale e un'esperienza utente più fluida nelle applicazioni di IA. Tuttavia, le soluzioni cloud tradizionali incontrano un ostacolo, o più precisamente tre sfide chiave che rendono difficile la scalabilità e l'ottimizzazione dell'IA.
Lo studio ha rivelato che le principali sfide che sviluppatori e responsabili IT si trovano ad affrontare sono:
- Problemi di latenza (il 56% ha riscontrato ritardi nell'elaborazione)
- Problemi di costi (il 60% ha problemi con i costi di stoccaggio/elaborazione)
- Difficoltà di scalatura (il 45% ha problemi di scalatura)
"La maggioranza degli intervistati ha dichiarato che le loro attuali strategie cloud ostacolano la capacità di inserire nelle loro applicazioni processi decisionali in tempo reale e basati sui dati ".
Le soluzioni cloud di base fanno già fatica a tenere il passo con i requisiti di scalabilità e ottimizzazione dell'intelligenza artificiale. Esiste quindi una soluzione più efficace?
L'edge computing avvicina l'elaborazione dei dati all'utente finale, riducendo i problemi di latenza e migliorando le prestazioni, consentendo agli sviluppatori di scalare le applicazioni in modo più efficace.
Tuttavia, anche questo ha le sue sfide, tra cui i problemi di conformità e regolamentazione, il vendor lock-in e le difficoltà nell'assumere e trattenere talenti tecnici con le competenze necessarie. L'edge computing utilizza in genere approcci architetturali diversi, protocolli speciali e fornitori diversi, causando complessità operative e maggiori rischi aziendali.
Il Cloud Computing distribuito come prossima fase dello sviluppo di applicazioni AI
Una soluzione alternativa che si sta rapidamente affermando tra i leader IT è il cloud computing distribuito. Più della metà degli intervistati in questo studio ha dichiarato che attualmente sta autogestendo una qualche forma di architettura distribuita.

La maggior parte di loro ha dichiarato che le attuali strategie cloud ostacolano la capacità di integrare nelle loro applicazioni un processo decisionale in tempo reale e basato sui dati, a causa dei costi di storage e di potenza di elaborazione aggiuntivi e dei ritardi di elaborazione causati dall'elevata latenza.
Come l'edge computing, l'architettura cloud distribuita consente agli sviluppatori di servire i dati da postazioni più vicine agli utenti, migliorando la latenza e le prestazioni di applicazioni, database cloud, streaming media e altri carichi di lavoro.
La differenza è che, pur facendo parte di una rete distribuita, questa forma di cloud computing può includere una serie di sedi diverse per i dati, tra cui data center di terze parti, sedi on-premise e sedi di cloud privati.
Man mano che ci dirigiamo verso l'inferenza dell'intelligenza artificiale, emergeranno altre applicazioni e opportunità di scalabilità e, con esse, la necessità di modi più efficienti di gestire i dati.
Gli utenti delle applicazioni si aspettano risultati rapidi e un'esperienza senza soluzione di continuità. Investendo in architetture distribuite, gli sviluppatori possono soddisfare le esigenze di elaborazione e inferenza dei dati in tempo reale nelle applicazioni moderne e garantire alla loro azienda un vantaggio competitivo nei confronti degli utenti.
Come il Cloud Computing distribuito rispecchia gli obiettivi aziendali
Abbiamo riscontrato che la flessibilità di distribuire le risorse di calcolo più vicino agli utenti finali, pur mantenendo la gestione e il controllo centrali, risponde ad alcune delle principali preoccupazioni degli intervistati, tra cui:
- Il 55% ha dichiarato che affronterebbe i timori di un aumento del rischio d'impresa
- Il 54% ha dichiarato che aiuterebbe a proteggersi dall'aumento dei costi di fuga.
- Il 49% ha dichiarato che migliorerebbe il time-to-value lento
Il punto in cui l'architettura cloud distribuita supera l'edge computing è che rende più facile l'implementazione e la gestione delle applicazioni di intelligenza artificiale con le stesse competenze, lo stesso paradigma architettonico e le stesse primitive cloud del core cloud computing.
Inoltre, il cloud distribuito offre una latenza ridotta, una migliore scalabilità, una maggiore affidabilità e un maggiore controllo generale sui dati durante la creazione delle applicazioni.
È meglio cambiare prima che dopo?
Dallo studio condotto da Akamai in collaborazione con Forrester, è importante notare che i leader IT e gli sviluppatori di applicazioni danno priorità a obiettivi quali l'innovazione dell'IA, la modernizzazione delle esperienze digitali, la personalizzazione delle esperienze e il miglioramento della gestione dei dati. I vantaggi del cloud distribuito sono quindi direttamente collegati a ciò che la maggior parte degli sviluppatori sta cercando.

Sulla base delle previsioni relative all'inferenza dell'intelligenza artificiale e alla tendenza crescente verso le configurazioni cloud distribuite, il passaggio a un approccio distribuito sembra una scelta ovvia. Fare questa scelta prima del tempo potrebbe aiutarvi a rimanere competitivi con l'evoluzione del mercato e della tecnologia AI.
Per saperne di più sul futuro del cloud distribuito rispetto all'edge computing e alle architetture core cloud, scaricate oggi stesso il report completo.
* In questo studio di Forrester Consulting, commissionato da Akamai, è stato chiesto a 163 responsabili delle decisioni strategiche in materia di cloud, con sede in Nord America, appartenenti ai settori della vendita al dettaglio, dei media e delle telecomunicazioni, di esprimere la loro opinione sullo stato attuale del cloud computing.
Commenti