Parceria mira cortar gargalos de comunicação entre GPUs e data centers
Nvidia e Marvell Technology anunciaram recentemente um aporte de US$ 2 bilhões que reforça a cooperação entre as duas companhias e promete redesenhar a infraestrutura de inteligência artificial em escala global.
- Em resumo: o investimento foca em interligar chips com menor latência para acelerar treinamentos de modelos de IA generativa.
Integração de hardware vira arma estratégica
A combinação dos GPUs da Nvidia com os semicondutores de conectividade da Marvell pretende eliminar o chamado “data movement bottleneck”, considerado o calcanhar de Aquiles dos clusters de IA. De acordo com relatório da Bloomberg Technology, cada milissegundo poupado na troca de dados impacta diretamente o custo de treinar modelos como GPT-4 ou Gemini.
“A colaboração busca acelerar o desenvolvimento de soluções de próxima geração para cargas de trabalho de inteligência artificial”, informaram as companhias.
Por que isso importa para o mercado
O movimento sinaliza um passo a mais na verticalização da cadeia de suprimentos: além de dominar 80% do mercado de GPUs para IA, a Nvidia agora garante acesso dedicado a ASICs de rede de 5 nm da Marvell, rival direta da Broadcom em switches de alta largura de banda. Analistas projetam que a demanda por interconexão pode crescer 30% ao ano até 2027, impulsionada por data centers GPU-first de gigantes como AWS, Microsoft Azure e Google Cloud.
O que você acha? A união de processamento e conectividade será suficiente para aliviar a escassez de hardware de IA? Para acompanhar outras análises, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Nvidia