Su disse que o MI300 oferece oito vezes mais desempenho de IA e cinco vezes mais desempenho por watt que o Instinct MI250. Ela mencionou o tão badalado chatbot de IA ChatGPT e observou que leva meses para treinar os modelos; o MI300 reduzirá o tempo de treinamento de meses para semanas, o que poderia economizar milhões de dólares em eletricidade, disse Su.
O senhor sabe que o MI250 da AMD é uma peça de silício impressionante, usada no primeiro supercomputador exascale, Frontier, no Laboratório Nacional de Oak Ridge.
O chip MI300 da AMD é semelhante ao que a Intel está fazendo com o Falcon Shores, previsto para 2024, e a Nvidia está fazendo com seu Grace Hopper Superchip, previsto para o final deste ano. Su disse que o chip está sendo testado em laboratórios e em amostras para clientes selecionados, com lançamento previsto para o segundo semestre do ano.
Novo acelerador de IA da AMD
O Instinct não é o único anúncio empresarial na CES. A Su também apresentou o acelerador de inferência de IA Alveo V70. O Alveo faz parte da linha FPGA da Xilinx que a AMD adquiriu no ano passado e foi desenvolvido com a tecnologia de mecanismo de IA XDNA da AMD. Ele pode fornecer 400 milhões de operações de IA por segundo em uma variedade de modelos de IA, incluindo análise de vídeo e mecanismos de recomendação de clientes, de acordo com a AMD.
Su disse que, em análise de vídeo, o Alveo V70 oferece 70% mais cobertura de rua para aplicativos de cidades inteligentes, 72% mais cobertura de leitos hospitalares para monitoramento de pacientes e 80% mais cobertura de pista de checkout em uma loja de varejo inteligente do que a concorrência, mas ela não disse qual é a concorrência.
Tudo isso dentro de um envelope de energia de 75 watts e um formato pequeno. A AMD está aceitando pré-encomendas para as placas V70 hoje, com disponibilidade na primavera.