Descontos sigilosos ampliam vantagem da gigante dos chips
NVIDIA – Um relatório da SemiAnalysis publicado recentemente revela que a companhia selou contratos de fornecimento de DRAM e HBM a preços abaixo da média, justamente quando os hyperscalers devem direcionar 30% do capital de 2026 apenas à compra de memória.
- Em resumo: Memória passa de 8% (2024) para 30% do CapEx dos grandes data centers em dois anos.
Corrida por DRAM e HBM pressiona rivais
O acordo dá à NVIDIA prioridade nas linhas de Samsung, SK Hynix e Micron, garantindo estoque de HBM4 e DDR5 enquanto o mercado adota um modelo de “preço por hora”. Já concorrentes como AMD precisam disputar lotes remanescentes, elevando custos e prazos, conforme destacou o Canaltech em análises recentes.
Gastos com memória (DRAM e HBM) devem devorar 30% de todo o orçamento de capital (CapEx) dos hyperscalers em 2026.
Impacto no consumidor e no ecossistema de IA
Especialistas projetam que a migração em massa para arquiteturas de IA generativa — que exigem larguras de banda superiores a 5 TB/s por GPU — manterá os preços no varejo elevados até que a produção de HBM4 atinja escala em 2027. Para o usuário final, isso significa PCs e placas de vídeo mais caros, ao passo que provedores de nuvem podem repassar custos adicionais em serviços de inferência.
O que você acha? A estratégia da NVIDIA consolida liderança ou distorce a concorrência? Para mais análises do mundo dos semicondutores, acesse nossa editoria de tecnologia.
Crédito da imagem: Divulgação / SemiAnalysis