Nvidia GTC: processador Hopper em plena produção

Buck, que inventou a linguagem CUDA usada para programar GPUs da Nvidia para HPC e outros usos, disse que os modelos de linguagem grande (LLMs) serão um dos casos de uso de IA mais importantes para o H100.

Os modelos de linguagem são ferramentas treinadas para prever a próxima palavra em uma frase, como o preenchimento automático em um telefone ou navegador. Os LLMs, como o próprio nome indica, podem prever frases inteiras e fazer muito mais, como escrever ensaios, criar gráficos e gerar códigos de computador.

“Vemos modelos de linguagem grandes sendo usados para coisas fora da linguagem humana, como codificação, e ajudando os desenvolvedores de software a escrever software com mais rapidez, eficiência e menos erros”, disse Buck.

Espera-se que os sistemas com tecnologia H100 dos fabricantes de hardware sejam enviados nas próximas semanas, com mais de 50 modelos de servidores no mercado até o final do ano e dezenas de outros no primeiro semestre de 2023. Os parceiros incluem Atos, Cisco, Dell, Fujitsu, Gigabyte, HPE, Lenovo e Supermicro.

Além disso, Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure afirmam que estarão entre os primeiros a implementar instâncias baseadas em H100 na nuvem a partir do próximo ano.

Se o senhor quiser fazer um test drive do H100, ele estará disponível para teste por meio do site da Nvidia Launchpad, seu serviço try-before-you-buy (experimente antes de comprar), no qual os usuários podem fazer login e testar o hardware da Nvidia, incluindo a H100.