Stack aberta da Intel promete inferência de IA sem travas proprietárias
Intel – Nos testes recentes do MLCommons MLPerf Inference v6.0, a companhia validou que sua combinação de CPUs Xeon 6 e GPUs Arc Pro B70/B65 consegue inferir modelos com até 120 bilhões de parâmetros, sustentados por 128 GB de VRAM compartilhada, reforçando a defesa de uma arquitetura aberta e escalável.
- Em resumo: Plataforma containerizada de edge a data center entrega 1,8 × mais desempenho que a geração anterior.
CPUs Xeon 6 e GPUs Arc Pro: sinergia testada
O resultado coloca a Intel em posição estratégica no confronto por hardware de IA, cenário detalhado recentemente pela MIT Technology Review, que aponta a pressão de mercado por opções além das GPUs dominantes da concorrência.
A proposta é simplificar a adoção de IA em empresas, reduzindo custos e evitando dependência de soluções proprietárias.
Mercado mira IA distribuída e custo menor
Com suporte a PCIe P2P, SR-IOV, ECC e telemetria remota, a infraestrutura da Intel se alinha à tendência de processamento híbrido (edge + cloud). Dados de consultorias de nuvem indicam que a adoção de clusters multi-GPU pode crescer 28 % ao ano até 2027, impulsionada pela necessidade de baixa latência em setores como saúde e varejo.
O que você acha? Arquiteturas abertas serão suficientes para frear o domínio de soluções fechadas? Para mais detalhes, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Intel