GTC 2018: NVIDIA, parcerias com Adobe, Disney e Verizon, máquinas autônomas e mais!

Avatar

Por Lucas Bicudo

29 de março de 2018 às 01:03 - Atualizado há 3 anos

Logo ReStartSe

Inscreva-se para o maior e mais audacioso evento de inovação, tecnologia e transformação digital já feito na América Latina. 30 dias que vão mudar sua visão de mundo, dos seus negócios e da sua carreira.

Online e totalmente gratuito - 01 a 30 de outubro/2020

28 de março, GPU Technology Conference 2018. Depois dos anúncios do CEO Jensen Huang e da final do Inception Awards, a StartSe reuniu alguns dos destaques dessa quarta-feira de GTC, direto de San Jose, na Califórnia.

Os CEOs da ADOBE e NVIDIA juntos

Na verdade, eles não estavam exatamente no evento. Dessa vez foi no Adobe Summit, que aconteceu em Las Vegas, diante de uma audiência de mais de 10 mil especialistas em Data Science de todo o mundo. O papo entre os CEOs Shantanu Narayen e Jensen Huang, da Adobe Systems e da NVIDIA, respectivamente, foi transmitido em sessão no Marriot Balroom.

A ideia era discutir como Inteligência Artificial e Machine Learning podem abrir novas possibilidades, além de anunciar uma parceria estratégica para otimizar o Adobe Sensei às GPUs da NVIDIA. A Adobe ainda mostrou uma demo de cair o queixo, que combinou o poderoso modo de foto Ansel da NVIDIA com seus jogos munidos de Inteligência Artificial.

“Vocês vão criar experiências com essas ferramentas. Ferramentas que permitirão que as pessoas desenvolvam um número enorme de novas realidades”, disse Huang em determinado momento.

Bircan Tulga Photography

Bircan Tulga Photography

A Adobe e a NVIDIA já trabalham juntas há mais de uma década, com o objetivo principal de acelerar GPUs em um amplo conjunto de produtos de experiência digital e criativa da Adobe – ponto destacado quando Huang e Narayen falaram sobre sua história compartilhada na vanguarda da computação gráfica.

Simular as leis da física – ponto chave para a criação de gráficos realistas – levou a NVIDIA olhar para Inteligência Artificial e Machine Learning. Sete anos atrás, Huang fez com que a empresa aproveitasse essa nova oportunidade. “Vimos um novo modelo de software que chamamos de Deep Learning e Inteligência Artificial, o que mudaria tudo dali em diante. Criamos algo que nenhum ser humano pode escrever”, pontuou.

O novo curso da companhia é um exemplo de como empresas de sucesso – como a Adobe – mudam com o tempo. “Não há alternativa a não ser tentar entender a si mesmo e as implicações da nova dinâmica na indústria”, pontuou Huang.

O keynote também apresentou o mundo minuciosamente detalhado de “The Witcher 3: The Wild Hunt”, onde a Inteligência Artificial da Adobe foi capaz de descrever a estética de uma cena e interpretar sua composição de pessoas, objetos e animais. Com um simples comando de voz (“mostre-me o homem furioso de braços cruzados”), enquanto uma câmera circulava pela Vila de Novigrad do game, a IA foi capaz de detectar o pedido e simulá-lo instantaneamente.

“Experiências de varejo, de viagens. Isso foi feito em virtude do fato de que você tem essa arquitetura aberta que nos permite disponibilizá-la para que todos possam aplicar sua própria ciência de dados ”, provocou Narayen.

Esse é apenas um exemplo de como a colaboração entre a Adobe e a NVIDIA promete acelerar o tempo de comercialização e melhorar o desempenho de serviços com tecnologia Sensei para clientes e desenvolvedores da Adobe Creative Cloud e Experience Cloud.

A parceria irá melhorar recursos como sincronização automática de lábios no Adobe Character Animator CC; edição com reconhecimento de face no Photoshop CC; produtos e recursos de Machine Learning e Inteligência Artificial baseados em nuvem, como análise de imagem para Adobe Stock e Lightroom CC; e codificação automática no Adobe Experience Manager.

NVIDIA lança Isaac SDK

O anúncio do projeto Isaac aconteceu durante o keynote do CEO Jensen Huang – você pode conferir tudo que rolou aqui -, mas decidimos abrir um espaço separado para falar sobre a relação da NVIDIA com máquinas autônomas.

O kit de desenvolvimento de software Isaac é uma coleção de bibliotecas, drivers, APIs e outras ferramentas, que ajudará fabricantes, pesquisadores, startups e desenvolvedores na adição de Inteligência Artificial em robôs, com o intuito de melhorar percepção, navegação e manipulação da máquina. O SDK também fornece uma estrutura para gerenciar comunicações e transferir dados dentro da arquitetura do robô. Além disso, é fácil adicionar sensores, gerenciar dados desses sensores e controlar atuadores em tempo real.

A NVIDIA também exibiu o primeiro design do modelo Isaac SDK, apelidado de Carter – por sua habilidade útil de contornar objetos.

Isaac SDK Carter

Isaac SDK Carter

O Isaac Sim é um ambiente de simulação para desenvolvimento, teste e treinamento de máquinas autônomas no mundo virtual. Isso é feito usando um conjunto de ferramentas de desenvolvimento para simulação foto realística e renderização avançada em tempo real. Os algoritmos treinados em simulação são então implantados no NVIDIA Jetson, dando vida aos robôs.

Jetson combinado com o Isaac SDK e Isaac Sim torna a plataforma NVIDIA Isaac ideal para o desenvolvimento e implantação de aplicações robóticas em manufatura, logística, entrega, agricultura, serviços, construção, inspeção e outras áreas.

O Isaac Sim está intimamente ligado às ferramentas e estruturas presentes no Isaac SDK, permitindo a transferência perfeita de dados e algoritmos para o robô físico. Engenharia e testes que normalmente levariam meses podem ser feitos em minutos. Uma vez que a simulação está completa, o sistema treinado é transferido para o modelo.

NVIDIA e Disney?

Simulação Star Wars: Galaxy's Edge durante o GPU Technology Conference 2018

Simulação Star Wars: Galaxy’s Edge durante o GPU Technology Conference 2018

Quando Star Wars: Galaxy’s Edge abrir no ano que vem no Walt Disney World Resort, os visitantes terão a oportunidade de conhecer o planeta de Batuu, um remoto posto avançado que já foi um cruzamento movimentado ao longo das antigas rotas comerciais da galáxia. Bem, quem esteve no GTC 2018 pôde ter um vislumbre do que será a parceria entre NVIDIA, Walt Disney Imagineering e EPIC Games para desenvolver a tecnologia que rodará a atração.

Yang Smolikowski e Eric Smolikowski participaram da palestra “Walt Disney Imagineering Technoloy Preview: Real-time Rendering of a Galaxy Far, Far Away,” e discutiram como a Imagineering aproveitou as mais recentes modificações técnicas da NVIDIA para o Unreal Engine, que permite que oito GPUs sejam renderizadas com qualidade e velocidade sem precedentes.

Produzida pela ILMxLAB e rodando em tempo real, uma sequência animada da Millennium Falcon foi revelada hoje, mostrando a incrível experiência imersiva e detalhada que a atração oferecerá. Quando lançada, visitantes entrarão em um cockpit alimentado por um único chassi BOXX, com oito GPUs NVIDIA Quadro P6000 de ponta, conectados via Quadro SLI. A equipe da Imagineering criou uma implementação multi-GPU personalizada para a Unreal Engine.

A Quadro Sync sincroniza cinco projetores para a criação de visores perfeitamente cronometrados, de altíssima resolução, para mergulhar completamente quem queira se aventurar pelo planeta Batuu.

“Trabalhamos com engenheiros da NVIDIA para usar recursos específicos Quadro, como Mosaic e leituras cruzadas de GPUs, para desenvolver um renderizador que tivesse características de desempenho que precisávamos”, diz Bei Yang, Technology Studio Executive da Disney Imagineering. “O uso das oito GPUs conectadas nos permitiu obter um desempenho nunca visto antes”.

O robô autônomo Robby e as entregas pelos corredores do GTC

O robô autônomo Robby, da Robby Technologies, está fazendo entregas durante o evento! A equipe da empresa está testando um novo tipo de experiência de estandes de concessão, chamada Robby Venue. Pode ser aplicada em conferências, estádios, feiras e parques de diversões, para que as pessoas não tenham que esperar em longas filas por suas comidas e bebidas. Um usuário simplesmente abriria um aplicativo oferecido pelo local e escolheria os itens que gostaria de pedir. Momentos depois, é Robby para o resgate.

Fruto de dois PHDs em robótica e Computer Vision do MIT, a Robby Technologies é uma empresa do Vale do Silício e já tem seus modelos implementados em toda a Califórnia. A ideia do Robby é mudar a forma como as mercadorias são movimentadas entre pessoas, lojas e armazéns.

Em seu núcleo está uma GPU da NVIDIA, que através de Deep Learning traz ao robô percepções em tempo real. O Robby é autônomo e detecta/evita obstáculos ao longo de seu caminho. Isso permite com que ele viaje com segurança nas calçadas – caso esbarre no caminho de uma pessoa, ele vai diminuir a velocidade, parar para ceder passagem e educadamente se desculpar.

O robô também possui várias medidas de segurança: seu bloqueio digital só pode ser aberto pelo cliente pretendido por meio de um aplicativo, tem um sistema de alarme, câmeras de 360º e rastreamento GPS, o que dificulta que alguém o mal intencione sem ser pego.

O próximo modelo, Robby 2, foi apresentado no início deste ano na CES e funciona em quaisquer condições climáticas. Suas seis rodas e tração nas quatro rodas proporcionam capacidades de subida igual ao de um SV. Tem um alcance de viagem de mais de 20 milhas e capacidade de armazenamento igual a de uma mala grande.

Verizon, cidades inteligentes e NVIDIA Metropolis

Para tornar as cidades mais seguras e inteligentes, elas precisam estar conectadas. E poucas empresas sabem mais sobre conexão do que a Verizon. A companhia se juntou a NVIDIA Metropolis, a plataforma de vídeo na nuvem da gigante do Vale do Silício para a criação de aplicativos com Deep Learning.

Seu grupo de “Smart Communities” tem trabalhado para conectar as comunidades e configurá-las para o futuro, incluindo a anexação de matrizes de câmeras inteligentes com tecnologia NVIDIA Jetson nas luzes da rua e outros pontos de observação urbanos.

As matrizes usam os algoritmos de Deep Learning do Jetson para analisar vários fluxos de dados de vídeo e procurar formas de melhorar a dinâmica de tráfego, aumentar a segurança de pedestres, otimizar estacionamento em áreas urbanas e muito mais.

Previnindo acidentes antes que eles aconteçam

Lançada no ano passado, a plataforma NVIDIA Metropolis inclui ferramentas, tecnologias e suporte para criar aplicativos de Deep Learning para qualquer tipo de aplicação, desde gerenciamento de tráfego e estacionamento, até serviços policiais e da cidade.

A Verizon aproveita o Jetson TX1 para coletar e analisar dados capazes de chegar nas extremidades de uma cidade. Este supercomputador acelera o Deep Learning ao limite, permitindo a análise de vídeo em tempo real. Esses vídeos capturam e classificam objetos como veículos, ciclistas e pedestres e identificam interações, fornecendo às autoridades municipais um fluxo de dados 24 horas por dia, 7 dias por semana, sobre pessoas que atravessaram o farol vermelho, pedestres fora das faixas e locais de estacionamento.

“No Jetson, vimos a capacidade de aproveitar as GPUs para criar uma visão de Deep Learning consistente”, disse Tucker. Enquanto o Jetson pode identificar veículos em alta velocidade, movimentos de ciclistas e lidar com outras tarefas em tempo real, uma vez que os dados estão de volta na nuvem, eles podem ser usados ​​para análise preditiva. “Temos a tendência de ver algo acontecendo no cruzamento A e entender o impacto quase em tempo real nos cruzamentos B e C a alguns quarteirões de distância”.

Em Boston e Sacramento, na Califórnia, a Verizon já implantou essa tecnologia em infraestruturas de iluminação pública. Mais adiante, essas luzes inteligentes serão capazes de se comunicar com veículos autônomos e apoiar a comunicação de tráfego, ajudando a reduzir congestionamentos e manter os pedestres e motoristas mais seguros.

Andrew Herson, chefe de Computer Vision Products no Smart Communities Group da Verizon, falou sobre as novidades na sessão “Buildin Smarter Cities with AI-Powered Applications”. A Verizon também está demonstrando suas luzes inteligentes na seção de Smart Cities da NVIDIA no showroom do GTC.

Einride e seu caminhão autônomo

Pavilhão de veículos autônomos - GPU Technology Conference 2018

Pavilhão de veículos autônomos – GPU Technology Conference 2018

No pavilhão de Carros Autônomos do Hall 1, a Einride está apresentando seu modelo de caminhão autônomo: o T-Pod, com testes previstos agora para agosto de 2018.

O conceito do T-Pod foi apresentado no ano passado, mas agora de fato que foi lançado. A presença do motorista existe, mas controla tudo remotamente. Toda a parte de inteligência e de estudo dos sensores é feita com a placa NVIDIA Drive PX 2, focada apenas em tornar a direção autônoma mais segura.

A ideia é testá-lo em áreas controladas, mas dentro de vias públicas e em distâncias pequenas. Nesta primeira parte de testes, serão colocadas cargas de clientes para operações de um ponto A a um ponto B.

Sua capacidade de carga é de 15 pallets ou 18 toneladas. A autonomia, com caminhão lotado, é de aproximadamente 200km, o que o torna perfeito para entregas de curta distância.

A Einride não venderá o veículo, entretanto. Ela mesmo fabricará seus caminhões e comercializará seus serviços de transporte para quem desejar contratar em uma espécie de aluguel, nos mesmos moldes de bicicletas compartilhadas. A empresa tem como objetivo colocar mais de 200 caminhões nas ruas até 2020.

Caminhão Autônomo Einride - GPU Technology Conference 2018

Caminhão Autônomo Einride – GPU Technology Conference 2018

Project Clara: NVIDIA Supercomputing Platform Redefines Medical Imaging

Existem cerca de 3 milhões de instrumentos de imagem médica instalados em todo o mundo. São apenas milhares de novos vendidos a cada ano, o que levaria décadas para atualizar toda essa base de instalação. O Project Clara é um supercomputador da NVIDIA, que projeta imagens em 3D!

Uma década atrás, os pesquisadores perceberam que as GPUs da NVIDIA fornecem a arquitetura mais eficiente para aplicações de imagens médicas e podem ajudar a reduzir a exposição à radiação, melhorar a qualidade e produzir imagens em tempo real. Agora, Deep Learning tomou conta do setor.

Reconstrução iterativa e sensoriamento por compressão reduzem a exposição à radiação em até 90% e encurtam o tempo necessário para a captação de uma imagem de tomografia e ressonância magnética.

Deep Learning e Inteligência Artificial estão gerando ótimas oportunidades para análise e quantificação avançadas de imagens. Um algoritmo recente chamado V-Net usa segmentação volumétrica 3D e pode medir automaticamente o volume de sangue que flui através do coração. Quinze anos atrás, esse algoritmo precisaria de um computador de US$ 10 milhões e consumisse 500 kW de energia. Hoje, ele pode rodar em algumas GPUs Tesla V100.

Project Clara

Project Clara

Estrutura do evento

[php snippet=5]