
A F5 anunciou a disponibilidade comercial da nova versão do BIG‑IP Next for Kubernetes, otimizada para ser executada nativamente nas DPUs NVIDIA BlueField‑3 e na estrutura DOCA. O objetivo da atualização é fornecer maior desempenho, controlo e segurança em ambientes de IA que dependem de cargas de trabalho distribuídas e de alto volume de dados.
A validação da Sesterce confirma uma economia de até 20% no uso de GPU, além de melhorias na multi-tenancy e proteção de tráfego. A empresa francesa, especializada em infraestrutura de IA soberana, comprovou que a nova combinação reduz a latência e mantém um desempenho estável, mesmo quando vários clientes partilham o mesmo cluster Kubernetes.
A integração com o NVIDIA Dynamo e seu KV Cache Manager introduz um mecanismo de cache que evita o recurso contínuo à memória GPU para operações repetitivas. A integração com o NVIDIA Dynamo e seu KV Cache Manager reduz a latência na inferência de modelos de linguagem e aproveita melhor a memória disponível. Ao descarregar tarefas rotineiras da CPU para a DPU, as organizações podem escalar a IA generativa com um custo operacional menor.
Outro avanço está no roteamento inteligente de solicitações LLM na DPU BlueField‑3, que coopera com os microsserviços NVIDIA NIM. O roteamento inteligente de solicitações LLM na DPU permite atribuir cada consulta ao modelo mais adequado, otimizando o desempenho e os custos. As solicitações simples são encaminhadas para modelos leves, enquanto os modelos mais avançados são reservados para perguntas complexas ou específicas do domínio, reduzindo o tempo de resposta e o consumo de recursos.
A solução também incorpora um proxy reverso para o Model Context Protocol (MCP), padrão promovido pela Anthropic. Com a programabilidade do F5 iRules, as organizações podem adaptar rapidamente as políticas de segurança e responder à evolução do protocolo, reforçando a proteção contra ameaças emergentes.
De acordo com a direção da Sesterce, o balanceamento dinâmico da F5 distribui o tráfego do Kubernetes com maior eficiência e oferece flexibilidade na hora de oferecer serviços diferenciados aos seus clientes. Por sua vez, porta-vozes da F5 e da NVIDIA destacam que a lógica de roteamento na própria DPU abre as portas para novos casos de uso e contribui para escalar a IA empresarial sem prejudicar a experiência do utilizador.
A F5 já oferece a nova versão do BIG‑IP Next for Kubernetes em produção, pronta para implementações empresariais em grande escala.