Novo sistema rack-scale desafia a hegemonia das GPUs Nvidia
Rebellions – A startup sul-coreana apoiada por Samsung e Arm revelou recentemente uma linha de servidores de inferência “prontos para datacenter” que promete reduzir em até seis vezes o consumo de energia e cortar 75% do custo de aquisição em comparação aos aceleradores Nvidia mais usados no mercado.
- Em resumo: cada rack entrega 1,2 PFlops de IA consumindo 6 kW, segundo a empresa.
Financiamento robusto e ambição global
Impulsionada por um aporte pré-IPO de US$ 400 milhões, a companhia planeja ampliar a produção em 2024. De acordo com dados compilados pela TechCrunch, esse montante coloca a Rebellions entre as cinco maiores rodadas de hardware de IA na Ásia este ano.
“Nosso chip Atom é otimizado para inferência de modelos LLM e visão computacional, entregando 4,2 TOPS/W”, detalhou a ficha técnica distribuída à imprensa.
Por que o custo e a energia importam agora
Com GPUs Nvidia H100 custando acima de US$ 30 mil a unidade e demandando cerca de 700 W por placa, provedores de nuvem buscam alternativas que aliviem o OPEX energético. A Rebellions aposta em módulos de 800 W que, combinados em um chassi proprietário, atingem densidade térmica de 25 kW/rack — valor compatível com corredores frios sem liquid cooling. Segundo o Data Center Knowledge, o gasto elétrico já responde por até 60% do TCO de clusters de IA em larga escala.
Além do hardware, a startup oferece SDK com suporte a TensorFlow e PyTorch, facilitando a portabilidade de modelos de linguagem generativa. A estratégia mira players de streaming, fintechs e operadoras 5G, setores onde a latência milissegundo pode definir receitas.
O que você acha? Racks sob medida podem realmente abalar o domínio das GPUs tradicionais? Para acompanhar outras inovações em IA, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Rebellions