A HPE enviará um servidor de inferência dedicado para a borda

Além do desempenho, o Cloud AI100 consome pouca energia. Ele vem em dois formatos, uma placa PCI Express e dois chips M.2 montados na placa-mãe. A placa PCIe tem um envelope de energia de 75 watts, enquanto as duas unidades de fator de forma M.2 consomem 15 watts ou 25 watts. Uma CPU típica consome mais de 200 watts e uma GPU mais de 400 watts.

A Qualcomm afirma que o Cloud AI 100 é compatível com todos os principais formatos de modelos padrão do setor, incluindo ONNX, TensorFlow, PyTorch e Caffe, que podem ser importados e preparados a partir de modelos pré-treinados que podem ser compilados e otimizados para implantação. A Qualcomm tem um conjunto de ferramentas para portabilidade e preparação de modelos, incluindo suporte para operações personalizadas.

A Qualcomm diz que o Cloud AI100 tem como alvo clientes de manufatura/industriais, bem como aqueles com requisitos de IA de ponta. Os casos de uso para computação de inferência de IA na borda incluem visão computacional e cargas de trabalho de processamento de linguagem natural (NLP).

No caso da visão computacional, isso poderia incluir controle e garantia de qualidade na fabricação, detecção de objetos e vigilância por vídeo, além de prevenção e detecção de perdas. No caso da PNL, isso inclui a geração de códigos de programação, operações de assistentes inteligentes e tradução de idiomas.

Os servidores Edgeline estarão disponíveis para compra ou aluguel por meio do HPE GreenLake no final deste mês.