Pular para o conteúdo principal
BlogComputaçãoInferência de IA na nuvem da Akamai: Permitindo que os desenvolvedores acelerem as aplicações nativas de borda

Inferência de IA na nuvem da Akamai: Permitindo que os desenvolvedores acelerem as aplicações nativas de borda

AI_Inference_on_Akamai_Cloud_enabling_developers_to_accelerate_edge_native_applications

O burburinho em torno da inteligência artificial (IA) continua a crescer e, com ele, a necessidade crucial de ir além do simples treinamento de modelos avançados e implantá-los efetivamente em aplicações do mundo real. É aqui que a inferência de IA entra em ação: o processo de usar modelos de IA treinados para gerar previsões e insights. Na Akamai, estamos construindo estrategicamente em direção a um futuro em que a inferência de IA não seja apenas facilmente acessível, mas também eficiente, escalonável e econômica, até a borda.

Com o lançamento do Akamai Cloud Inferenceconcretizamos ainda mais nossa visão de ser a nuvem mais distribuída do mundo, permitindo cargas de trabalho de alta taxa de transferência e baixa latência para IA e muito mais. O Akamai Cloud Inference é a união empolgante de várias etapas importantes que tomamos recentemente para permitir que os desenvolvedores criem e entreguem aplicações nativas de borda e soluções de IA. Reconhecemos que, embora os modelos de nuvem centralizados lidem com o treinamento de IA em larga escala, eles geralmente têm dificuldades com a escala e a distribuição necessárias para que a inferência contínua e sob demanda com latência ultrabaixa seja eficaz em escala global. 

Nossa jornada para entregar uma nuvem mais rápida e econômica para inferência de IA foi deliberada e construída sobre uma base sólida de tecnologias nativas da nuvem. A base dessa arquitetura é a Akamai Cloud, a nuvem pública mais distribuída do mundo, equipada exclusivamente para potencializar a inferência de IA com um conjunto abrangente de produtos em nuvem, entregues na ampla rede global da Akamai. O Akamai Cloud Inference é construído sobre a espinha dorsal robusta de uma arquitetura Kubernetes escalonável e nativa da nuvem, o Linode Kubernetes Engine (LKE) e a Akamai App Platform, que permite a rápida implantação de aplicações de IA e casos de uso de inferência.

  • A nova solução da Akamai fornece ferramentas para que engenheiros e desenvolvedores de plataformas criem e executem aplicações de IA e cargas de trabalho com uso intensivo de dados mais próximas dos usuários finais, oferecendo uma taxa de transferência 3x melhor e reduzindo a latência em até 2,5x.
  • Usando a solução da Akamai, as empresas podem economizar até 86% em cargas de trabalho de inferência de IA e IA agêntica em comparação com a infraestrutura tradicional do hyperscaler.
  • Desde as mais recentes CPUs AMD para ajuste fino leve até opções avançadas de computação acelerada com GPUsNVIDIA e unidades de processamento de vídeo (VPUs) NETINT, fornecemos a potência certa para atender às suas necessidades exclusivas de inferência de IA. 
  • Nossa colaboração com a VAST Data oferece acesso simplificado a dados em tempo real, o que é fundamental para acelerar as tarefas relacionadas à inferência. Isso é complementado por um armazenamento de objetos altamente dimensionável e integrações com os principais fornecedores de bancos de dados vetoriais, como Aiven e Milvus, para geração aumentada de recuperação (RAG). 
  • Aproveitando nossas plataformas Kubernetes nativas da nuvem, incluindo o novo LKE-Enterprise e a App Platform, possibilitamos contêineres de aplicativos de IA altamente dimensionáveis e portáteis que eliminam a dependência de fornecedores e a complexidade, otimizando a velocidade, o custo e a segurança. 
  • Em parceria com o WebAssembly (WASM) líder, como a Fermyon, a Akamai permite que os desenvolvedores executem inferência leve para LLMs diretamente de aplicações sem servidor na borda, potencializando aplicações sensíveis à latência. 

Nossa rede maciçamente distribuída, com mais de 4.100 pontos de presença em todo o mundo, garante acesso de baixa latência a recursos de computação da nuvem à borda. Essa poderosa combinação nos permite oferecer a melhor inferência de IA possível, de baixa latência e alta taxa de transferência, em qualquer lugar e em escala. 

Não se trata apenas de tecnologia; trata-se de capacitar as empresas com soluções práticas de IA. Imagine transformar a experiência do caixa de varejo com detecção e reconhecimento de objetos em tempo real, acelerando o processo e reduzindo os erros. Ou considere a assistência por voz no carro com tecnologia de IA que fornece respostas imediatas e relevantes para funções de carros conectados e otimização avançada de rotas. Esses são apenas alguns exemplos de como o Akamai Cloud Inference pode gerar valor real para os negócios. 

Olhando para o futuro, nossa visão é clara: construir o futuro de como as empresas fornecem inferência de IA rápida e eficiente em seus negócios e para seus clientes - com o maior rendimento e o menor tempo de resposta possível. Acreditamos que o momento está do nosso lado, pois as empresas reconhecem cada vez mais as limitações das arquiteturas centralizadas para cargas de trabalho de IA centradas na borda. A Akamai está posicionada de forma exclusiva para ajudar os clientes a escalonar suas iniciativas de IA, transformando dados em ação mais próxima do ponto de contato digital. Bem-vindo ao futuro da inferência de IA, com a tecnologia da Akamai Cloud.

Você também pode gostar...

Comentários

Deixe uma resposta

Seu endereço de e-mail não será publicado. Os campos obrigatórios estão marcados com *