GPUs NVIDIA Hopper expandem alcance à medida que cresce a demanda por IA

Salvador, 23/03/2023 – A NVIDIA e seus principais parceiros anunciam a disponibilidade de novos produtos e serviços, apresentando a GPU NVIDIA H100 Tensor Core – a GPU para IA mais potente do mundo – para atender à demanda em rápido crescimento por inferência e treinamento de IA generativa.

A Oracle Cloud Infrastructure (OCI) anunciou a disponibilidade limitada das novas instâncias de GPU bare-metal OCI Compute, que dispõem de GPUs H100. Além disso, a Amazon Web Services anunciou seus próximos UltraClusters EC2 de instâncias P5 da Amazon EC2, que podem receber até 20.000 GPUs H100 interconectadas. Isso segue o anúncio da semana passada sobre a pré-visualização privada da H100 do Microsoft Azure para sua máquina virtual H100, a ND H100 v5.

Além disso, a Meta implantou internamente seu supercomputador para IA Grand Teton, equipado com H100, para suas equipes de pesquisa e produção de IA.

Durante sua palestra de abertura no GTC, Jensen Huang, fundador e CEO da NVIDIA, anunciou que os supercomputadores para IA NVIDIA DGX H100 estão em plena produção e estarão disponíveis em breve para empresas de todo o mundo.

“O incrível potencial da IA generativa é inspirar praticamente todos os setores para que reinventem suas estratégias de negócios e a tecnologia necessária para alcançá-las”, diz Huang. “A NVIDIA e os nossos parceiros estão agindo com rapidez para fornecer a plataforma de computação de IA mais potente do mundo para criar essas aplicações que vão transformar radicalmente a forma como vivemos, trabalhamos e nos divertimos.”

A arquitetura Hopper acelera a IA

A H100, baseada na arquitetura de computação de GPU NVIDIA Hopper com Motores Transformer integrados, é otimizada para desenvolvimento, treinamento e implantação de IA generativa, grandes modelos de linguagem (LLMs) e sistemas de recomendação. Essa tecnologia faz uso da precisão FP8 da H100 e oferece treinamento em IA nove vezes mais rápido e inferência de IA 30 vezes mais veloz em LLMs, em comparação com a A100 da geração anterior. A H100 começou a ser comercializada no final do terceiro trimestre em unidades de placa individuais e selecionadas de fabricantes globais.

A NVIDIA DGX H100 apresenta oito GPUs H100 conectadas com interconexões de alta velocidade NVIDIA NVLink e rede Ethernet integrada NVIDIA Quantum InfiniBand e Spectrum. Essa plataforma fornece 32 petaflops de desempenho de computação com precisão FP8, com o dobro da velocidade de rede da geração anterior, ajudando a maximizar a eficiência energética no processamento de grandes cargas de trabalho de IA.

A DGX H100 também apresenta a pilha de software NVIDIA AI completa, permitindo que as empresas executem e gerenciem perfeitamente suas cargas de trabalho de IA em escala. Essa oferta inclui a versão mais recente do NVIDIA AI Enterprise, anunciado separadamente no GTC, além do NVIDIA Base Command™, o sistema operacional do data center DGX, que coordena as operações e treinamento de IA na plataforma NVIDIA DGX para simplificar e agilizar o desenvolvimento de IA.

“A NVIDIA vem oferecendo plataformas de computação de IA para todos os setores. Com o crescimento da IA generativa e inferência, a H100 é uma possibilidade para acelerar o fluxo de trabalhos e melhorar o desempenho”, pontua Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.

Últimas notícias