Assim, a Nvidia criou o chip NVSwitch, que conecta todas as 16 GPUs na caixa DGX-2 com um tecido que tem cinco vezes mais largura de banda do que o principal switch PCIe do mercado, disse a empresa. Um único switch tem 18 portas de largura de banda total para um agregado de 900 GB/s de largura de banda bidirecional.
A IBM já usa o NVLink em seus servidores POWER9 baseados em RISC e provavelmente também licenciará o NVSwitch. Será muito interessante ver quem mais entrará em cena à medida que o setor se cansar de esperar que o PCI Express SIG entre em ação.
Do jeito que está, o setor está realmente se unindo em torno da GPU Tesla para HPC e IA. Na feira, a Cray, a HPE, a IBM, a Lenovo, a Supermicro e a Tyan anunciaram que começarão a lançar novos sistemas Tesla V100 de 32 GB no segundo trimestre, e a Oracle Cloud Infrastructure anunciou planos para oferecer o Tesla V100 de 32 GB na nuvem no segundo semestre do ano.
Atualizações de software da Nvidia
As notícias da Nvidia não são apenas sobre silício. A empresa também anunciou atualizações em sua pilha de software de IA e aprendizado de máquina. A empresa anunciou uma nova versão de seu software de inferência TensorRT que está integrado à estrutura TensorFlow do Google. A empresa afirma que a inferência de aprendizagem profunda é até 190 vezes mais rápida para aplicativos em comparação com CPUs.
Por fim, a Nvidia anunciou uma parceria com a ARM Holdings, fabricante do design do processador móvel dominante que todos usam, para combinar a estrutura do acelerador de aprendizado profundo da Nvidia com a plataforma de aprendizado de máquina da ARM.
O objetivo é facilitar aos licenciados da ARM que estão desenvolvendo aplicativos de IoT a integração da IA em seus projetos e tornar a IA e a aprendizagem de máquina amplamente disponíveis em dispositivos inteligentes e conectados.