Buck, que inventou a linguagem CUDA usada para programar GPUs da Nvidia para HPC e outros usos, disse que os modelos de linguagem grande (LLMs) serão um dos casos de uso de IA mais importantes para o H100.
Os modelos de linguagem são ferramentas treinadas para prever a próxima palavra em uma frase, como o preenchimento automático em um telefone ou navegador. Os LLMs, como o próprio nome indica, podem prever frases inteiras e fazer muito mais, como escrever ensaios, criar gráficos e gerar códigos de computador.
“Vemos modelos de linguagem grandes sendo usados para coisas fora da linguagem humana, como codificação, e ajudando os desenvolvedores de software a escrever software com mais rapidez, eficiência e menos erros”, disse Buck.
Espera-se que os sistemas com tecnologia H100 dos fabricantes de hardware sejam enviados nas próximas semanas, com mais de 50 modelos de servidores no mercado até o final do ano e dezenas de outros no primeiro semestre de 2023. Os parceiros incluem Atos, Cisco, Dell, Fujitsu, Gigabyte, HPE, Lenovo e Supermicro.
Além disso, Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure afirmam que estarão entre os primeiros a implementar instâncias baseadas em H100 na nuvem a partir do próximo ano.
Se o senhor quiser fazer um test drive do H100, ele estará disponível para teste por meio do site da Nvidia Launchpad, seu serviço try-before-you-buy (experimente antes de comprar), no qual os usuários podem fazer login e testar o hardware da Nvidia, incluindo a H100.