GTC 2018: os últimos lançamentos da NVIDIA em Deep Learning e Inteligência Artificial

Avatar

Por Lucas Bicudo

28 de março de 2018 às 03:00 - Atualizado há 3 anos

Logo Black Friday 2020

Nossos melhores Cursos Executivos ou Programas Internacionais com até 50% off

Quero saber mais

Vem aí a melhor formação de líderes do Brasil

Logo Liderança Exponencial Aprenda as novas competências fundamentais para desenvolver uma liderança exponencial e desenvolva diferenciais competitivos para se tornar um profissional de destaque no mercado.

100% online, aulas ao vivo e gravadas

Próxima turma: De 14 a 17/Dez, das 19hs às 22hs

Inscreva-se agora

A NVIDIA anunciou hoje (27), durante o keynote do CEO Jensen Huang, na GPU Technology Conference – o maior evento de Inteligência Artificial do mundo, que acontece em San Jose, na Califórnia -, as principais novidades e lançamentos da companhia para 2018.

Uma empresa que até pouco tempo atrás “apenas” dominava o mercado de hardwares, com suas famosas Graphical Processing Units (GPUs). Acontece que tem uma coisa: esse hardware é mais útil para rodar Inteligência Artificial do que CPUs tradicionais. Uma oportunidade gigantesca se abriu para a NVIDIA: produzir o hardware que vai rodar essa Inteligência Artificial para todas as empresas que desejam extrair o que há de mais produtivo nessa tecnologia.

Estamos falando de coisa séria. São várias as iniciativas de capacitação na área: Nvidia DeveloperNvidia Deep Learning Institute e Nvidia Teaching Kits. Cada uma com um propósito específico, mas que nunca deixa de orbitar a missão principal da empresa: ser a vanguarda dessa transformação. No mundo inteiro já são mais de 820 mil pesquisadores cadastrados em sua base.

Ecossistema NVIDIA - NVIDIA's CEO Jensen Huang keynote at GTC18

Ecossistema NVIDIA – NVIDIA’s CEO Jensen Huang keynote at GTC18

A StartSe esteve presente no evento e te conta agora quais foram os principais destaques da apresentação do CEO.

Mais poder para a NVIDIA AI Platform!

Seis meses após do lançamento da última geração da plataforma, a nova atualização chega a desempenhar 10 vezes mais do que a sua antecessora. Trata-se da ferramenta mais utilizada do mundo para a criação de serviços de Inteligência Artificial.

Todas as principais estruturas de Deep Learning são aceleradas na plataforma da NVIDIA, disponível em todos os provedores de serviços de nuvem ao redor do mundo. Empresas de todos os portes estão aproveitando as placas de vídeo na nuvem para atingir resultados mais rápidos, se livrar da complexidade de gerenciar todo esse tipo de infraestrutura e, sobretudo, diminuir gastos pesados de capital.

As organizações estão cada vez mais recorrendo às placas de vídeo para desenvolver aplicativos avançados em áreas como processamento de linguagem natural, atendimento inteligente ao cliente, análise de tráfego, vídeos de aprendizado e recomendações personalizadas.

Entre os avanços anunciados no GTC: o dobro de capacidade de memória (32GB) para a NVIDIA Tesla V100, a mais poderosa GPU de datacenter; o NVIDIA NVSwitch, um ponto de conexão que permite que até 16 GPUs Tesla V100 se comuniquem simultaneamente a uma velocidade recorde de 2,4 terabytes por segundo; e o NVIDIA DGX-2, primeiro servidor capaz de fornecer dois petaflops de potência computacional, poder de processamento de até 300 servidores e eficiência 18 vezes maior no consumo de energia. Todos os softwares estão devidamente otimizados e atualizados.

NVIDIA AI Platform - NVIDIA's CEO Jensen Huang keynote at GTC18

NVIDIA AI Platform – NVIDIA’s CEO Jensen Huang keynote at GTC18

“Os avanços extraordinários que estamos vivendo em Deep Learning são só um aperitivo do que ainda está por vir. Hoje, a NVIDIA Deep Learning Platform é a ferramenta padrão de desenvolvimento de Inteligência Artificial no mundo. Estamos a aprimorando em um ritmo que excede as características da Lei de Moore, permitindo disruptar as mais diversas indústrias”, discursa o CEO.

NVIDIA Tesla V100 GPU

Agora equipada com 32GB de memória, a Tesla V100 GPU ajudará cientistas de dados a treinarem modelos de Deep Learning com mais precisão. A nova GPU também irá melhorar o desempenho de aplicativos HPC em até 50% em comparação com a versão anterior. Disponível em todo portfólio DGX, empresas como Cray, Hewllet Packard Enterprise, IBM, Lenovo, Supermicro, Tyan e Oracle Cloud Infrastructure já anunciaram que começarão a usar o novo modelo.

Anúncio Tesla V100 - NVIDIA's CEO Jensen Huang keynote at GTC18

Anúncio Tesla V100 GPU – NVIDIA’s CEO Jensen Huang keynote at GTC18

NVIDIA Tesla V100 32GB GPU

“A colaboração entre Microsoft e a NVIDIA gerou um enorme progresso para o desenvolvimento de Inteligência Artificial, como por exemplo no uso do tradutor. Com a nova Tesla V100 de 32GB, seremos capazes de treinar modelos de IA mais complexos e em uma velocidade maior, fazer com que exista mais precisão na detecção de discursos e que sejam mais próximos das capacidades humanas”, exemplifica Xuedong Huang, Técnico em Discurso e Linguagens na Microsoft.

NVSwitch

O NVSwitch permite que desenvolvedores criem sistemas com GPUs hiperconectadas. Isso os ajudará a superarem as limitações anteriores do sistema e a executar conjuntos de dados muito maiores. A novidade também abre as portas para cargas de trabalho maiores e mais complexas, incluindo modelagem de redes neurais. O NVSwitch amplia as inovações disponibilizadas pelo NVLink, o primeiro sistema de conexão entre CPU e GPU em computadores da NVIDIA, e permite que os designers de sistemas construam sistemas ainda mais avançados.

Anúncio NVIDIA NVSwitch - NVIDIA CEO's Jensen Huang keynote at GTC18

Anúncio NVIDIA NVSwitch – NVIDIA CEO’s Jensen Huang keynote at GTC18

NVIDIA NVSwitch

NVIDIA NVSwitch

NVIDIA DGX-2

O DGX-2 é o sistema que está lançando o NVSwitch, que permite que todas as 16 GPUs conectadas compartilhem um espaço de memória unificado. Combinado com um pacote totalmente otimizado e atualizado de softwares, o DGX-2 foi construído especificamente para os cientistas de dados que vão além em pesquisas e aplicações de Deep Learning. O sistema pode treinar o FAIRSeq, um modelo de tradução neural de última geração, em menos de 2 dias – um avanço de desempenho 10 vezes maior em comparação ao DGX-1, apresentado em setembro de 2017.

NVIDIA DGX-2

NVIDIA DGX-2

Softwares

Um novo pacote de softwares está disponível para a comunidade de 820 mil desenvolvedores da NVIDIA (para efeito comparativo, esse número era 480 mil um ano atrás). Entre as atualizações: novas versões do NVIDIA CUDA, TensorRT, NCCL, cudNN e um novo software Isaac para robótica. Além disso, com o suporte dos grandes provedores de serviços de nuvem, todas as principais estruturas serão continuamente otimizadas para aproveitar ao máximo a plataforma de computação da NVIDIA.

NVIDIA GPU CLOUD

Anúncio NVIDIA GPU CLOUD – NVIDIA’s CEO Jensen Huang keynote at GTC18

Parceria com a Arm, maior empresa de IoT do mundo!

A NVIDIA também anunciou no GTC 2018 uma parceria oficial com a Arm, a maior empresa de IoT (Internet of Things) do mundo, para inferência de Deep Learning em bilhões de dispositivos e eletrônicos inteligentes, que cada vez mais estarão presentes no mercado de consumo.

Sob esta parceria, a arquitetura de código aberto NVIDIA Deep Learning Accelerator (NVDLA) será integrada na plataforma de Machine Learning Project Trillium. A colaboração tornará mais simples para as empresas de chips de Internet das Coisas integrarem Inteligência Artificial em seus projetos e colocarem produtos mais inteligentes e acessíveis nas mãos de consumidores no mundo todo.

“Esse tipo de inferência se tornará uma capacidade básica de todos os dispositivos IoT no futuro”, discursa Deepu Talla, VP and General Manager of Autonomous Machines da NVIDIA. “Nossa parceria com a Arm ajudará a impulsionar essa onda de adoção, facilitando a incorporação de tecnologias de Deep Learning a centenas de empresas de chips”.

Baseado no NVIDIA Xavier, o sistema de máquinas autônomas mais poderoso do mundo, o NVDLA é uma arquitetura livre e aberta para promover uma maneira padronizada de projetar aceleradores de inferência de Deep Learning. A arquitetura modular do NVDLA é escalável, altamente configurável e projetada para simplificar a integração e a portabilidade.

NVIDIA faz parceria com ARM para trazer Inteligência Artificial para bilhões de dispositivos IoT

NVIDIA faz parceria com ARM para trazer Inteligência Artificial para bilhões de dispositivos IoT

“Testar e acelerar Inteligência Artificial até seu limite é fundamental para executar a visão da Arm de conectar um trilhão de dispositivos IoT”, disse Rene Haas, VP Executive and President do IP Group da Arm. “Hoje estamos um passo mais perto dessa visão, incorporando o NVDLA na plataforma Arm Project Trillium, já que todo o nosso ecossistema se beneficiará imediatamente da experiência e das capacidades que nossas duas empresas trazem em IA e IoT”.

O NVIDIA Deep Learning Accelerator é suportado por um conjunto de poderosas ferramentas de desenvolvimento da NVIDIA, incluindo as próximas versões do TensorRT, um acelerador de Deep Learning programável. O design de código aberto permite que recursos de ponta sejam adicionados regularmente, incluindo contribuições da comunidade de pesquisa. A integração do NVDLA com o Project Trillium proporcionará aos desenvolvedores os mais altos níveis de desempenho, pois eles aproveitam a flexibilidade e escalabilidade da Arm em toda a ampla gama de dispositivos IoT.

“É o tipo de situação que só traz ganhos para as empresas que desejam projetar soluções Inteligência Artificial. A Nvidia é a líder absoluta em IA e a Arm é a líder em IoT, por isso faz muito sentido para elas se juntarem”, pontua por sua vez Karl Freund, analista-chefe de Deep Learning da Moor Insights & Strategy

Recursos de inferência de Deep Learning para datacenters de hiperescala!

A NVIDIA anunciou uma série de novas tecnologias e parcerias que expandem seus recursos de Deep Learning para 30 milhões de servidores de hiperescala, ao mesmo tempo em que reduzem drasticamente o custo de fornecimento de seus serviços.

O CEO Jensen Huang descreveu como acelerar a inferência de Deep Learning está ganhando força, com novo suporte a recursos como reconhecimento de fala, processamento de linguagem natural, sistemas de recomendação e reconhecimento de imagem, em datacenters e aplicativos automotivos, bem como em dispositivos incorporados como robôs e drones.

Anúncio das novidades sobre AI Inference - NVIDIA's CEO Jensen Huang keynote at GTC18

Anúncio das novidades sobre AI Inference – NVIDIA’s CEO Jensen Huang keynote at GTC18

Entre os lançamentos: uma nova versão de seu software de inferência TensorRT e a integração dele na popular estrutura TensorFlow do Google; a NVIDIA também anunciou que o Kaldi, o framework mais popular para reconhecimento de fala, agora está otimizado para GPUs. A estreita colaboração da NVIDIA com parceiros como Amazon, Facebook e Microsoft facilita aos desenvolvedores acelerar suas GPUs usando ONNX e WinML.

“Aceleração de GPU para inferência de Deep Learning permite que até mesmo as maiores redes neurais sejam executadas em tempo real e com o menor custo. Com o suporte de aplicativos e frameworks mais inteligentes, podemos agora melhorar a qualidade do desenvolvimento de Deep Learning e ajudar a reduzir o custo de 30 milhões de servidores em hiperescala”, fala Ian Buck, VP e General Manager of Accelerated Computing da NVIDIA.

TensorRT

Foi revelado o novo TensorRT 4, para acelerar a inferência de Deep Learning através de uma série de aplicações. O software oferece execução de rede INT8 e FP16 altamente precisa, o que pode reduzir os custos do datacenter em até 70%. O TensorRT 4 pode ser usado para otimizar rapidamente, validar e implantar redes neurais treinadas em datacenters de hiperescala, plataformas de GPU embarcadas e automotivas.

O novo software oferece uma inferência de Deep Learning de até 190x² mais rápida em comparação com CPUs para aplicações comuns, como Computer Vision, tradução neural, reconhecimento automático de fala, síntese de fala e sistemas de recomendação. Para simplificar ainda mais o desenvolvimento, os engenheiros da NVIDIA e do Google integraram o TensorRT ao TensorFlow 1.7.

“A equipe do TensorFlow está colaborando muito de perto com a NVIDIA para trazer o melhor desempenho possível em GPUs para a comunidade de Deep Learning. A integração do TensorFlow com o TensorRT agora oferece inferência de até 8 vezes maior (comparado à execução de GPU regular em um alvo de baixa latência) em plataformas de Deep Learning com tecnologia Volta Tensor Core, permitindo o mais alto desempenho para inferência de GPU dentro do TensorFlow”, comenta Rajat Monga, Engineering Director do Google.

A NVIDIA otimizou a estrutura de fala Kaldi para obter um desempenho mais rápido em execução na GPU. A aceleração de fala da GPU significará assistentes virtuais mais precisos e úteis para os consumidores e custos de implantação mais baixos para os operadores de datacenter.

Amplo suporte ao setor

Desenvolvedores em todo o mundo estão usando o TensorRT para descobrir novos insights a partir de dados e implantar serviços inteligentes para empresas e consumidores. Os engenheiros da NVIDIA trabalharam em conjunto com a Amazon, o Facebook e a Microsoft para garantir que os desenvolvedores que usam estruturas ONNX, como Caffe 2, Chainer, CNTK, MXNet e Pytorch, agora possam implantar facilmente plataformas de Deep Learning da companhia.

“Na avaliação do TensorRT, executando nosso aplicativo de recomendação baseado em GPUs NVIDIA Tesla V100, obtivemos um aumento de 45 vezes na velocidade de inferência e taxa de transferência em comparação com uma plataforma CPU normal. Acreditamos que o TensorRT pode melhorar drasticamente a produtividade dos nossos consumidores corporativos”, diz Markus Noga, Head of Machine Learning no SAP.

Nicolas Koumchatzky, Head of Twitter Cortex, disse por sua vez que “o uso de GPUs possibilitou uma melhor compreensão da mídia em nossa plataforma, não apenas reduzindo drasticamente o tempo de treinamento de modelos de Deep Learning”.

A Microsoft também anunciou recentemente o suporte de Inteligência Artificial para aplicativos do Windows 10. A NVIDIA fez uma parceria com a Microsoft para criar ferramentas aceleradas por GPUs para ajudar os desenvolvedores a incorporarem recursos mais inteligentes em aplicativos do Windows.

A NVIDIA também anunciou a aceleração de suas GPUs para o Kubernetes, para facilitar a implantação de inferências corporativas em clusters de GPU com várias nuvens. A NVIDIA está contribuindo com aprimoramentos da GPU para a comunidade de código aberto para apoiar o ecossistema Kubernetes.

Além disso, a MathWorks, fabricante do MATLAB, anunciou hoje a integração do TensorRT com o software. Engenheiros e cientistas agora podem gerar automaticamente mecanismos de inferência de alto desempenho do MATLAB para as plataformas Jetson, NVIDIA Drive e Tesla.

Inferência para carros autônomos

O TensorRT também pode ser implementado em veículos autônomos da NVIDIA DRIVE e plataformas da NVIDIA Jetson. Redes neurais profundas em cada estrutura podem ser treinadas em sistemas DGX da NVIDIA no datacenter e, em seguida, implantadas em todos os tipos de dispositivos – de robôs a veículos autônomos – para inferência em tempo real.

Com o TensorRT, os desenvolvedores podem se concentrar no desenvolvimento de aplicativos avançados de Deep Learning, em vez de ficarem ajustando o desempenho para implantação de inferência. Os desenvolvedores podem usar o TensorRT para fornecer uma inferência usando precisão INT8 ou FP16, o que reduz significativamente a latência, vital para recursos como detecção de objetos e planejamento de caminhos.

DRIVE Constellation Simulation System

A NVIDIA apresentou um sistema na nuvem para testar veículos autônomos usando simulação fotorrealista, criando um método mais seguro e escalável para levar esses carros para as ruas. A NVIDIA DRIVE Constellation é uma plataforma de computação baseada em dois servidores diferentes: o primeiro executa o software NVIDIA DRIVE Sim para simular os sensores de um veículo autônomo, como câmeras, lidar e radar; e o segundo contém um poderoso computador de bordo NVIDIA DRIVE Pegasus IA, que executa todos os softwares e processa os dados simulados como se estivessem vindo dos sensores de um carro autônomo na estrada.

Anúncio NVIDIA DRIVE Sim e Constellation - NVIDIA's CEO Jensen Huang keynote at GTC18

Anúncio NVIDIA DRIVE Sim e Constellation – NVIDIA’s CEO Jensen Huang keynote at GTC18

“A implementação de carros autônomos requer uma solução para testar e validar bilhões de quilômetros, para assim obter a segurança e a confiança necessárias para os clientes. Com o DRIVE Constellation, conseguimos isso combinando nossa experiência em computação visual e data centers. Com simulação virtual, podemos aumentar a robustez de nossos algoritmos, testando bilhões de quilômetros de cenários personalizados, tudo em uma fração do tempo e o custo que seria necessário para fazer isso em estradas físicas”, opinou Rob Csongor, VP and General Manager of Automotive na NVIDIA.

O servidor de simulação é alimentado por GPUs da NVIDIA, cada uma gerando um fluxo de dados de sensores, que alimentam o DRIVE Pegasus para processamento. Os comandos de direção do DRIVE Pegasus são realimentados no simulador, completando o ciclo. Esse ciclo “hardware-in-the-loop”, que ocorre 30 vezes por segundo, é usado para validar que os algoritmos e softwares executados no Pegasus estão operando corretamente.

NVIDIA DRIVE Constellation

NVIDIA DRIVE Constellation

O software DRIVE Sim gera fluxos de dados fotorrealistas para criar uma vasta gama de diferentes ambientes de teste. Pode simular climas diferentes, como tempestades e nevascas; brilho ofuscante em diferentes momentos do dia ou visão limitada à noite; e todos os diferentes tipos de superfícies de estrada e terreno. Situações perigosas podem ser roteirizadas para testar a capacidade do carro autônomo de reagir, sem nunca colocar ninguém em perigo.

“Veículos autônomos precisam ser desenvolvidos com um sistema que cubra treinamento para testes e direção”, discursou Luca de Ambroggi, Diretor de Pesquisa e Análise da IHS Markit. “A plataforma end-to-end da NVIDIA é a abordagem certa. O DRIVE Constellation nos aproximará da produção de carros autônomos”.

Ainda sobre o acidente com o carro autônomo que matou uma mulher no último 19 de março, o CEO disse: “Nós não sabemos ainda o que aconteceu. Como bons engenheiros, devemos esperar os resultados para aprender com essa experiência”. 

Tudo que se move será autônomo - NVIDIA's CEO Jensen Huang keynote at GTC18

Tudo que se move será autônomo – NVIDIA’s CEO Jensen Huang keynote at GTC18

NVIDIA RTX Technology

O último grande anúncio da NVIDIA no GTC 2018 foi o NVIDIA Quadro GV100 GPU com tecnologia NVIDIA RTX, entregando pela primeira vez ray tracing (traçado de raios), que oferece uma renderização com qualidade mais alta e em tempo real para criadores de conteúdo e desenvolvedores de jogos.

Profissionais de mídia e entretenimento, designers e arquitetos poderão agora ver e interagir com suas criações com a luz e sombra corretas, além de renderizar até 10 vezes mais rápido do que com uma CPU regular. A ideia é criar visualizações interativas de modelos 3D massivos, tudo em tempo real.

Anúncio NVDIA RTX Technology - NVIDIA's CEO Jensen Huang keynote at GTC18

Anúncio NVDIA RTX Technology – NVIDIA’s CEO Jensen Huang keynote at GTC18

“A NVIDIA reinventou a estação de trabalho. Artistas e designers podem simular e interagir com suas criações de maneiras nunca antes possíveis, vai mudar fundamentalmente os fluxos de trabalho em muitas indústrias”, comenta Bob Pette, VP of Professional Visualization da NVIDIA.

A tecnologia NVIDIA RTX foi apresentada na semana passada na Game Developers Conference. Hoje, a NVIDIA anunciou que é suportada por mais de duas dúzias das principais aplicações de criação profissional do mundo, com uma base de usuários combinada de mais de 25 milhões.

O Quadro GV100 possui 32 GB de memória e é escalável para 64 GB com várias GPUs Quadro (usando a NVIDIA NVLink, plataforma de maior desempenho disponível para esses aplicativos). Baseado na arquitetura GPU Volta da NVIDIA, o GV100 possui 7,4 teraflops de dupla precisão, 14,8 teraflops de precisão única e 118,5 teraflops de desempenho em Deep Learning.

Anúncio NVIDIA Quadro GV100 com tecnologia RTX - NVIDIA's CEO Jensen Huang keynote at GTC18

Anúncio NVIDIA Quadro GV100 com tecnologia RTX – NVIDIA’s CEO Jensen Huang keynote at GTC18

NVIDIA Quadro GV100

NVIDIA Quadro GV100

Benefícios

  • Fácil implementação através de uma variedade de APIs: os desenvolvedores podem acessar a tecnologia NVIDIA RTX através da interface de programação de aplicativos NVIDIA OptiX, da nova API DirectX Raytracing da Microsoft e, no futuro, do Vulkan, um padrão gráfico aberto. Todas as três APIs têm um modelo de programação de sombreamento comum, que permite aos desenvolvedores oferecer suporte a várias plataformas.
  • Iluminação, reflexos e sombras realistas usando luz real e propriedades físicas: a tecnologia de rastreamento de raio GV100 e NVIDIA RTX oferece uma velocidade sem precedentes de renderizações de qualidade cinematográfica.
  • Desempenho de renderização alimentado por Inteligência Artificial: a ideia é fornecer interatividade visual fluida ao longo do processo de design.
  • Desempenho altamente escalável: precisão dupla rápida, juntamente com a capacidade de escalar memória até 64 GB, usando o NVLink para renderizar modelos complexos com maior facilidade.
  • A capacidade de colaborar, projetar e criar em VR: Realidade Virtual com o máximo de gráficos e desempenho computacional disponível significa que os designers podem usar plataformas imersivas para conduzir revisões de projeto e produtos em grande escala.
Os anúncios do CEO Jensen Huang em keynote durante o GTC 2018

Os anúncios do CEO Jensen Huang em keynote durante o GTC 2018

Confira sua apresentação:

[php snippet=5]