Mudança coloca pressão em rivais e acende alerta nos data centers globais
Samsung anunciou que passará a criar gerações inteiras de memória HBM em apenas um ano, abandonando o ciclo bianual e respondendo à escalada da demanda por IA generativa que domina o mercado de aceleradores.
- Em resumo: HBM4 estreia ainda este ano e, a partir daí, cada novo padrão chegará anualmente.
Cadência anual mira boom dos aceleradores de IA
Até recentemente, a sul-coreana trabalhava num intervalo de 24 meses entre as famílias HBM3E e HBM4. A virada acompanha o cronograma agressivo de plataformas como NVIDIA Vera Rubin e AMD Instinct MI400, e reflete a explosão de investimento em memória para IA, setor que, segundo análise da TechCrunch, deve multiplicar a receita global de HBM para mais de US$ 20 bilhões até 2027.
“Um ciclo anual garante a sobrevivência da Samsung e evita que ela fique para trás em termos de tecnologia.”
Produção vertical reduz riscos, mas concorrência aperta
Dominar toda a cadeia — do wafer ao empacotamento com Hybrid Bonding — dá à Samsung uma vantagem decisiva contra SK Hynix e Micron, líderes atuais de market share. No entanto, analistas da TrendForce alertam que a meta de reduzir custo por GB em meio a saltos de largura de banda (HBM4E pode ultrapassar 1,2 TB/s por empilhamento) exigirá fábricas em ritmo quase ininterrupto e yields acima de 80%.
A empresa já sinalizou que o HBM4E entrará em amostragem no segundo semestre, enquanto equipes de P&D aceleram a arquitetura do futuro HBM5, projetada para nodes abaixo de 12 nm. Caso cumpra o cronograma, a Samsung alinhará suas memórias aos lançamentos anuais de GPUs de data center, estratégia crucial para capturar contratos multibilionários com provedores de nuvem.
O que você acha? A nova cadência conseguirá manter qualidade e preço competitivo? Para mais análises de infraestrutura e chips, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Samsung