NVIDIA antecipa lançamento da plataforma de inteligência artificial Vera Rubin para julho deste ano
A NVIDIA antecipou para julho as remessas da plataforma de IA Vera Rubin, com envios iniciais para empresas como Microsoft, Google, Amazon, Meta e Oracle. A fabricação utiliza o processo de 3nm da TSMC, com previsão de envios em massa a partir do terceiro trimestre de 2026. Cada rack de servidor deve custar cerca de US$ 180 milhões

A NVIDIA antecipou o cronograma de lançamento da Vera Rubin, sua plataforma de inteligência artificial de última geração, com as primeiras remessas previstas para julho deste ano. A estratégia de implementação ocorrerá em etapas, iniciando com a produção de teste no próximo mês, seguida pelo envio de unidades para as principais empresas de IA e centros de dados nos Estados Unidos.
O grupo inicial de clientes contempla gigantes como Microsoft, Google, Amazon, Meta e Oracle. A expectativa é que a companhia detalhe esses avanços e as parcerias estabelecidas durante a Computex 26, em apresentação conduzida por Jensen Huang.
A fabricação dos chips da Vera Rubin, utilizando o processo de 3nm da TSMC, teve início no começo deste ano. O lançamento completo, apoiado por parceiros como Foxconn, Quanta e Wistron, está programado para o segundo semestre de 2024, com a previsão de envios em massa a partir do terceiro trimestre de 2026. A finalização da variante de produção dos servidores indica que eventuais questionamentos sobre mudanças em design ou especificações foram superados.
Do ponto de vista financeiro e técnico, cada rack de servidor da plataforma deve custar aproximadamente US$ 180 milhões, com a projeção de que o alcance global da linha atinja ao menos US$ 1 bilhão. Esse movimento impulsiona fornecedores de memória, que integrarão a tecnologia HBM4 nas GPUs Rubin e módulos SOCAMM2 LPDDR5X de até 256 GB nos CPUs Vera.
A arquitetura da Vera Rubin é composta por sete chips e um ecossistema de software especializado. Com essa infraestrutura, a NVIDIA estabeleceu a meta de ampliar a capacidade de computação em 40 milhões de vezes ao longo de uma década, promovendo um salto significativo no processamento de dados para o setor de IA.