Dois meses após a Nvidia ( NVDA ) – Get Report lançar sua mais recente GPU de servidor principal , as primeiras instâncias de computação em nuvem a depender do produto estão sendo lançadas.
Na terça-feira, a Nvidia e o Google ( GOOG ) – Get Report anunciaram que o Google Cloud Platform (GCP) está lançando uma série de instâncias de computação em nuvem – conhecidas como a família A2 VM – que são alimentadas pela nova GPU A100 da Nvidia. A mais poderosa dessas instâncias fornece acesso a 16 GPUs A100, além de 1,3 TB de memória do sistema; clientes com necessidades menos exigentes podem comprar acesso a instâncias menores.
Com a Nvidia posicionando o A100 como sua solução de próxima geração para treinamento de IA, inferência de IA e cargas de trabalho tradicionais de computação de alto desempenho (HPC), bem como uma solução que pode descarregar o processamento de big data das CPUs do servidor, as instâncias da A2 VM estão sendo lançadas como uma opção para usar GPUs para acelerar uma variedade de cargas de trabalho exigentes.
Além disso, o Google diz que o A100 em breve oferecerá suporte ao serviço Kubernetes Engine para implantar clusters de aplicativos em execução em contêineres e à Cloud AI Platform, que ajuda os desenvolvedores a criar, executar e gerenciar modelos de IA / machine learning.
Pode não demorar muito para que outros grandes provedores de nuvem pública implementem instâncias de computação com tecnologia A100. Enquanto anunciava oficialmente o A100 em maio, a Nvidia afirmou que (além do Google) Amazon Web Services ( AMZN ) – Obtenha relatório , Microsoft Azure ( MSFT ) – Obtenha relatório e Oracle ( ORCL ) – Obtenha relatório, todos planejam oferecer o A100- serviços avançados , como o Alibaba ( BABA ) – Obtenha relatórios , Baidu ( BIDU ) – Obtenha relatórios e Tencent ( TCEHY ) plataformas de nuvem pública. Todas essas plataformas já oferecem instâncias de computação em nuvem que dependem de GPUs da Nvidia mais antigas.
Embora seus ganhos exatos de desempenho variem de carga de trabalho para carga de trabalho, a Nvidia afirmou que o A100, que é baseado em sua nova arquitetura de GPU Ampere, supera significativamente seu último GPU de servidor principal (o Tesla V100, lançado em meados de 2017) ao executar o popular Cargas de trabalho relacionadas à IA. Ganhos de até 20x são prometidos ao executar treinamento e inferência usando certos tipos de aritmética.
Embora a Nvidia não tenha anunciado oficialmente o A100 até 14 de maio, começou a enviar a GPU para selecionar clientes durante o trimestre de abril. As remessas iniciais do A100, juntamente com a demanda saudável por GPUs de servidor e servidores acionados por GPU, ajudaram o segmento de Data Center da Nvidia a postar uma receita de US $ 1,14 bilhão no trimestre de abril de US $ 1,14 bilhão, 18% sequencialmente e 80% ao ano.
As ações da Nvidia subiram 1,4%, para US $ 399,17, no pregão do meio-dia de terça-feira, enquanto as ações da Alphabet subiram 0,6%, para US $ 1.509,73.
A Alphabet e a Nvidia são participações no portfólio de ações de Jim Cramer PLUS Charitable Trust . Deseja ser alertado antes da Cramer comprar ou vender essas ações? Saiba mais agora.
No Comment! Be the first one.