A NVIDIA está a desenvolver uma solução para os utilizadores que precisem de quantidades massivas de memória para aplicações de Inteligência Artificial, como é o caso de grandes organizações de investigação, fornecedores de serviços cloud, hyperscalers – como a Google, Meta e Microsoft – e outras entidades que pretendam ultrapassar os limites do que é hoje possível fazer com este tipo de aplicações.
O anúncio deste novo sistema foi efetuado no início desta semana. “Estamos a construí-lo agora”, avançou Jensen Huang, CEO da NVIDIA, durante uma apresentação na Computex, a exposição de computadores que se realiza anualmente em Taiwan. Acrescentou ainda que todos os componentes já estão em fase de construção.
O supercomputador DGX GH200 funcionará como uma única máquina de memória partilhada. Terá 144 terabytes de memória dos quais 20 terabytes serão memória rápida HBM3. Os restantes 124 terabytes serão memória DRAM. Toda a memória estará acessível aos 256 GPUs disponibilizados por Grace Hopper Superchips que estarão conectados entre si através de NVLink Switches.
Sabe-se também que conseguirá alcançar 1 exaflop de performance AI e que disponibilizará 900 gigabytes por segundo de largura de banda entre GPUs.
O fabricante conta disponibilizar os sistemas DGX GH200 já no final do ano.