Il fermento intorno all'intelligenza artificiale (AI) continua a crescere e con esso la necessità cruciale di andare oltre l'addestramento di modelli potenti e di utilizzarli efficacemente per le applicazioni del mondo reale. È qui che entra in gioco l'inferenza dell'IA, ovvero il processo di utilizzo di modelli di IA addestrati per generare previsioni e approfondimenti. In Akamai stiamo costruendo strategicamente un futuro in cui l'inferenza dell'intelligenza artificiale non solo sia facilmente accessibile, ma anche performante, scalabile ed economica, fino all'edge.
Con il lancio di Akamai Cloud Inferencerealizziamo ulteriormente la nostra visione di essere il cloud più distribuito al mondo, consentendo carichi di lavoro ad alta velocità e bassa latenza per l'IA e non solo. Akamai Cloud Inference è l'entusiasmante unione di diversi passi chiave che abbiamo compiuto di recente per consentire agli sviluppatori di creare e distribuire applicazioni edge native e soluzioni AI. Ci siamo resi conto che, mentre i modelli cloud centralizzati gestiscono l'addestramento dell'IA su larga scala, spesso hanno difficoltà a gestire la scala e la distribuzione necessarie per un'inferenza continua, on-demand e a bassissima latenza per essere efficace su scala globale.
Il nostro percorso verso la realizzazione di un cloud più veloce ed economico per l'inferenza AI è stato deliberato e costruito su una solida base di tecnologie cloud-native. Alla base di questa architettura c'è Akamai Cloud, il cloud pubblico più distribuito al mondo, equipaggiato in modo unico per alimentare l'inferenza dell'intelligenza artificiale con una suite completa di prodotti cloud, distribuiti attraverso la vasta rete globale di Akamai. Akamai Cloud Inference si basa sulla solida struttura portante di un'architettura Kubernetes scalabile e cloud-nativa - Linode Kubernetes Engine (LKE) e Akamai App Platform - che consente una rapida implementazione di applicazioni AI e di casi d'uso di inferenza.
- La nuova soluzione di Akamai fornisce strumenti agli ingegneri di piattaforma e agli sviluppatori per costruire ed eseguire applicazioni AI e carichi di lavoro ad alta intensità di dati più vicini agli utenti finali, offrendo un throughput 3 volte migliore e riducendo la latenza fino a 2,5 volte.
- Utilizzando la soluzione di Akamai, le aziende possono risparmiare fino all'86% sull'inferenza AI e sui carichi di lavoro dell'AI agenziale rispetto all'infrastruttura hyperscaler tradizionale.
- Dalle più recenti CPU AMD per una messa a punto leggera alle potenti opzioni di calcolo accelerato con GPUNVIDIA e unità di elaborazione video (VPU) NETINT, offriamo la giusta potenza per soddisfare le vostre esigenze di inferenza AI.
- La nostra collaborazione con VAST Data fornisce un accesso semplificato ai dati in tempo reale, fondamentale per accelerare le attività di inferenza. A ciò si aggiungono l'archiviazione di oggetti altamente scalabile e le integrazioni con i principali fornitori di database vettoriali, come Aiven e Milvus, per la generazione aumentata del reperimento (RAG).
- Sfruttando le nostre piattaforme Kubernetes native per il cloud, tra cui le nuove LKE-Enterprise e App Platform, consentiamo contenitori di applicazioni AI altamente scalabili e portatili che eliminano il vendor lock-in e la complessità, ottimizzando velocità, costi e sicurezza.
- Grazie alla collaborazione con i principali WebAssembly (WASM) come Fermyon, Akamai consente agli sviluppatori di eseguire un'inferenza leggera per gli LLM direttamente dalle applicazioni serverless sul bordo, alimentando le applicazioni sensibili alla latenza.
La nostra rete massicciamente distribuita, con oltre 4.100 punti di presenza in tutto il mondo, garantisce un accesso a bassa latenza alle risorse di calcolo dal cloud all'edge. Questa potente combinazione ci permette di fornire la migliore inferenza AI a bassa latenza e ad alto rendimento, ovunque e su scala.
Non si tratta solo di tecnologia, ma di potenziare le aziende con soluzioni pratiche di intelligenza artificiale. Immaginate di trasformare l'esperienza della cassa al dettaglio con il rilevamento e il riconoscimento degli oggetti in tempo reale, accelerando il processo e riducendo gli errori. Oppure si pensi all'assistenza vocale in auto con AI che fornisce risposte immediate e pertinenti per le funzioni dell'auto connessa e l'ottimizzazione avanzata del percorso. Questi sono solo alcuni esempi di come Akamai Cloud Inference può generare un reale valore aziendale.
Guardando al futuro, la nostra visione è chiara: costruire il futuro di come le aziende offrono un'inferenza AI veloce e performante all'interno della loro azienda e ai loro clienti, con il massimo throughput e il minor tempo di risposta possibile. Riteniamo che lo slancio sia dalla nostra parte, poiché le aziende riconoscono sempre più i limiti delle architetture centralizzate per i carichi di lavoro AI edge-centrici. Akamai è in una posizione unica per aiutare i clienti a scalare le loro iniziative di AI, trasformando i dati in azioni più vicine al touchpoint digitale. Benvenuti nel futuro dell'inferenza AI, grazie ad Akamai Cloud.
Commenti