Startup brasileira desenvolve óculos de realidade virtual

Da Redação

Por Da Redação

24 de setembro de 2015 às 10:42 - Atualizado há 5 anos

Logo ReStartSe

Inscreva-se para o maior e mais audacioso evento de inovação, tecnologia e transformação digital já feito na América Latina. 30 dias que vão mudar sua visão de mundo, dos seus negócios e da sua carreira.

Online e totalmente gratuito - 01 a 30 de outubro/2020

O Podcast Rio Bravo entrevista Rawlinson Peter, co-fundador e diretor da Beenoculus Tecnologia, startup brasileira voltada para soluções nas áreas de entretenimento e de educação. Na conversa, o entrevistado fala a respeito da proposta da Beenoculus, que é democratizar o acesso à realidade virtual. Para tanto, a empresa desenvolveu um óculos que promove essa experiência. “Há muitos anos nós buscamos levar tecnologia para a sala de aula”, diz o fundador da Beenoculus. A startup já estabeleceu parceria com o Departamento de Telemedicina da Faculdade de Medicina da Universidade de São Paulo, possibilitando aos usuários o conhecimento do corpo humano com o auxílio de práticas imersivas em primeira pessoa.

Perguntas/Respostas:

Como surgiu o projeto da Beenoculus?

O projeto vem de uma busca que nós temos há muitos anos de levar tecnologia para dentro da sala de aula. Em meados de 2002, 2003, nós desenvolvemos um projeto pioneiro no mundo, de um computador por aluno, chamado Caderno Digital, em Curitiba. Nós tínhamos toda infraestrutura necessária dentro de sala de aula para simular um ambiente de computação, ou seja, os alunos de uma turma de 1º ano do Ensino Médio tinham toda uma infraestrutura. Ao fim do projeto, o principal problema que nós identificamos era que o professor não estaria capacitado para o uso daquelas tecnologias. Mas nós olhamos isso de uma forma diferente: a tecnologia é que não estava preparada para dentro de sala de aula. E aí foi uma busca, desde esse período, para desenvolver tecnologias apropriadas para trazer uma melhoria no processo de ensino e aprendizagem. A gente vem acompanhando todo o desenvolvimento da tecnologia e, em meados de 2009, nós começamos a trabalhar com a tecnologia que começou a surgir naquela época, chamada visão computacional. A visão computacional nos trouxe uma abertura para resolver vários problemas que teríamos para levar a tecnologia para dentro da sala de aula, principalmente, com a visão computacional, o computador passar a entender o mundo, entender as coisas ao seu redor. Então fica mais simples o processo de interação homem/ máquina. Quando a gente fala de visão computacional, estamos falando basicamente de realidade aumentada e realidade virtual. Então começamos a desenvolver projetos em realidade aumentada. Só que um dos grandes problemas da realidade aumentada é que você tem que ficar focalizando a câmera do computador para um ponto de referência e isso não é natural para o ser humano, você ficar segurando um dispositivo e ao mesmo tempo ter que manipular esse dispositivo em cima de um livro, em cima de um objeto. Você não consegue fazer isso com facilidade, porque fica com as mãos ocupadas. Então, naquele momento, nós tínhamos que ter uma tecnologia wearable, que é levar a capacidade da visão computacional para próximo da pessoa e liberar as mãos delas para ela poder manipular o marcador, ter uma experiência completa e mais natural. Aí nós começamos a pesquisar todas as empresas no mundo que estavam desenvolvendo wearables e hardwares para essa finalidade. Vozikis, no Japão, que trabalha há muitos anos com óculos de realidade virtual, a Meta, o pai da realidade aumentada, que é o Steve Mann é o fundador da Meta… Recom, no Canadá, o próprio Google Glass, e nós começamos a fazer muita pesquisa em termos de dispositivos que facilitassem essa integração do homem com o computador e que o computador pudesse trazer essa experiência mais agradável quando tratasse de realidade virtual e realidade aumentada. E aí nos deparamos com um projeto que estava no crowdfunding americano em agosto de 2012 do óculos Rift. Ela estava ainda financiando a ideia, nós aportamos também recursos nesse desenvolvimento e ficamos aqui no Brasil esperando chegar o nosso developer kit. Em seis meses, oito meses, muitas pessoas recebendo no mundo, já desenvolvendo aplicações, a gente não recebia aqui no país. Aí um blog especializado em tecnologia lá de fora desmontou um developer kit e para nossa surpresa o que tinha ali de eletrônico não era nenhuma novidade. Tinha tela de smartphone, sensores de smartphone, ou seja, desmontaram um smartphone e simplesmente colocaram ele num óculos usando um processo chamado estereoscopia que já tem quase 200 anos. A estereoscopia é uma técnica muito dominada no mundo há séculos. Hoje no mundo você tem cerca de 2 bilhões de pessoas com smartphones e em dois anos esse número deve dobrar. Com base em tudo isso, falamos ‘vamos investir no desenvolvimento de um projeto de um óculos que você possa adaptar o smartphone’. Aí que surgiu a Beenoculus.

Então, sem o developer kit vocês pensaram em uma alternativa com o smartphone?

Exatamente. Aí começamos a modelar protótipos e isso dentro do nosso laboratório da Bitek, uma empresa de desenvolvimento de software que a gente tem em Curitiba, e incubamos o projeto no Tecpar, na Intek, que é a incubadora tecnológica do Tecpar. Porque lá eles tinham prototipação rápida, em 3D, então a gente começou a modelar o produto com muito mais rapidez e facilidade. O Tecpar apoiou nisso, apoiou também na formatação do modelo do negócio e nós começamos a trabalhar esses protótipos. Depois de 12 meses, setembro de 2014, a gente tinha o produto tecnicamente desenvolvido. Agora o desafio era produzir. Como a gente ia produzir e colocar esse produto no mercado? Mas sempre pensando que o objetivo do Beenoculus é ser um meio para que a gente pudesse prover conteúdo. A busca sempre foi facilitar o acesso ao conteúdo. Aí nós reunimos alguns amigos, são 5 sócios hoje da Beenoculus, e fizemos um aporte de R$ 2,5 milhões para desenvolver toda estratégia de marketing, lançamento do produto e a parte de matrizes plásticas para a fabricação industrial. Hoje, nossa fábrica fica em Barueri, no Estado de São Paulo, com capacidade de produção de 60 mil Beenoculus por mês…

É isso que tem saído?

Não, a gente está ainda bem aquém da nossa capacidade. Porque a empresa foi apresentada ao mercado em janeiro deste ano na Consumer Electronics Show, em Las Vegas. A Beenoculus passou por um processo de seleção, o pessoal da CES viu inovação no produto, nos colocou numa área nobre da feira, o espaço Eureka, que tem veículos de imprensa americanos e a Beenoculus foi eleita por um deles como uma das dez inovações da feira. Aqui no Brasil, as pessoas veem inovação como algo novo, que não existe, então fazem muita referência Beenoculus Rift. A Beenoculus surgiu antes do Google Cardboard Isso é importante porque as pessoas dizem que o Beenoculus copiou o Cardboard. Não, pelo contrário, ele surgiu antes. Essas referências são feitas, mas a grande inovação do produto Beenoculus é que nós conseguimos desenvolver um produto de baixo custo, ele pode ser disseminado e realmente pode democratizar a realidade virtual. Em termos comparativos, um óculos Rift que vai ser lançado no mercado no primeiro trimestre do ano que vem com uma expectativa de preço de 400 dólares custaria aqui no Brasil 30 vezes mais que o Beenoculus. O próprio guia da Samsung que já está no mercado lá fora por 200 dólares, aqui no Brasil chega a custar 15 vezes mais do que o Beenoculus. A grande virtude da Beenoculus foi não ter interesse em ganhar muito dinheiro com o meio. Nós temos que levar o meio às pessoas para que elas possam ter acesso ao conteúdo.

Em termos de projeção de mercado, qual o potencial de um produto como Beenoculus no Brasil?

Existem hoje cerca de 70 milhões de usuários de smartphone. Destes, cerca de 15% são smartphones de ponta e esse é o nosso mercado alvo por enquanto, porque existe também um holding map de maior capacidade de smartphones e menor preço. Isso, com o passar do tempo, vai aumentando a capacidade e vai caindo o preço do dispositivo. Nós não temos dúvida de que nos próximos dois anos quase todo mundo vai ter um smartphone igual ou superior aos de ponta que nós temos hoje. Então estamos falando de um mercado entre 15 e 20 milhões de potenciais consumidores para o Beenoculus.

Não estamos falando também de um universo restrito de perfis mais engajados no caso dos usuários?

Começa assim. Você tem perfis de usuários que fazem a primeira adoção, que são os gamers, porque muito dessa tecnologia de realidade virtual está sendo propagada para o uso do entretenimento, do jogo, do vídeo. Então sem dúvida. Esse público é o primeiro consumidor, mas, no médio prazo, as pessoas vão consumido o Beenoculus para conteúdo de vídeo, para aulas imersivas, para conteúdo de game séries… Isso no médio prazo vai ser superior ao segmento de jogos.

Do ponto de vista da estrutura, como o Beenoculus funciona?

O Beenoculus é um conjunto feito de plástico com lentes especiais com regulagens e uma tampa que você adapta ao seu smartphone com adaptador específico. Esse conjunto todo, quando você coloca o smartphone, ele transforma esse smartphone em um instrumento de realidade virtual. Ou seja, é difícil visualizar isso, mas você tem uma tela hoje no smartphone de 5 polegadas e dentro do Beenoculus você está num Imax 3D imersivo. É uma referência, mas é mais ainda, porque você está em um ambiente imersivo em 360 graus, o Imax não te fornece o 360.

Como esse ambiente imersivo pode aprimorar a experiência não só em relação aos games, mas também no âmbito da educação?

Esse é o foco maior da Beenoculus, sempre foi a busca ter um meio que facilitasse levar tecnologia para dentro de sala de aula e que isso fosse útil dentro do processo de ensino e aprendizagem e nessas experiências educacionais a gente está conversando com vários atores. Dentro do processo, criamos uma metodologia que chamamos Educação Imersiva em Primeira Pessoa. O que é isso? Você reproduz um cenário sob o ponto de vista de primeira pessoa, um cenário em 360, isso pode ser feito em computação gráfica ou filmes 360 ou as duas coisas juntas. Você pode gravar um filme, colocar a computação gráfica dentro do filme, gameficar essa experiência, para você também ter controle e métrica sobre esse experiência. Então tudo o que o usuário fizer você consegue captar o que ele fez e os resultados. Um exemplo claro: você poderia imaginar um médico fazendo uma cirurgia e nós agora filmamos esse médico fazendo a cirurgia em primeira pessoa e gravamos quatro ou seis horas de cirurgia e trazemos isso para uma edição. E aí nós vamos cortar tudo o que é repetitivo, colocar computação gráfica mostrando quais foram os instrumentos que ele utilizou, uma animação com nó cirúrgico no momento em que ele fez, o áudio do cirurgião falando como fez aquela cirurgia e transformamos isso numa aula de 30 minutos. Agora você coloca isso dentro do Beenoculus e um residente, um estudante que nunca fez uma cirurgia desse tipo agora vai ver essa cirurgia sendo feita sob o ponto de vista dele próprio. Para o cérebro, o que ele está vendo é ele que está vendo porque ele está em primeira pessoa, por mais que tenha sido outra pessoa. Então você coloca o sujeito dentro da ação feita por outra pessoa, e agora você está enganando o cérebro. Ele pensa que é você que está fazendo aquilo. Consequentemente, o que nós queremos validar é que com esse método você vai aprender muito mais rápido e com muito mais qualidade, já que não existem mais distrações nem abstrações. Quando você está dentro de um ambiente imersivo, você está focado naquela ação, e focado em 360. Então enquanto você movimenta a sua cabeça, você vai estar fazendo os movimentos que o médico estava fazendo. Enquanto isso, seu cérebro está pensando: “Sou eu que estou fazendo isso!”. Quando você for fazer isso de verdade, seguramente você vai estar mais treinado para fazer aquilo. Então ele é um complemento, porque ele não vai substituir qualquer processo e você vai ter que ter aula, o professor mostrando os conceitos… Agora ele é uma ferramenta de apoio fantástica. Eu dei esse exemplo, mas tem outros. Nós estamos fazendo um jogo de educação no trânsito para uma editora educacional infantil em Curitiba. Então nós temos um cenário, todo ele em computação gráfica, uma cidade fantástica, toda colorida, e você coloca agora a criança dentro desse game. Ela está em primeira pessoa e tem personagem se comunicando com ela, e o personagem ensina a criança no início do game os movimentos que ela tem que fazer, que são em linguagem natural que o software reconhece e dá comandos. Como balançar cabeça, sim ou não, olhar para a direita, olhar para a esquerda… Todos esses movimentos de sensores do smartphone, foi projetado o software para serem reconhecidos. Você deve atravessar a rua agora fora da faixa? Aí a criança olha para o lado direito para ver se vem carro e olha para o lado esquerdo. Aí o personagem fala: “Ah, muito bem! Você está prestando atenção, você olhou se vem carro ou não, aí você vai atravessar com segurança”. Essas experiências são marcantes, são experiências sensoriais, não são só abstrações. Pelo método de ensino e aprendizagem convencional, você tem que repetir muito para memorizar, e normalmente isso não faz sentido na sua vida. Hoje nós temos uma escola que foi projetada para uma sociedade que não tinha informação, e hoje nós temos abundância de informação. E nós temos um professor que não é nativo digital e ele está tentando entender isso, mas a gente tem um aluno que já nasce com essas tecnologias. Então há uma desconexão muito grande dentro desse processo e a gente não tem dúvida de que essas ferramentas podem ajudar a retomar essa conexão. O papel do professor enquanto dizer o melhor caminho, trazer novas experiências, e a pessoa se reconhecer agora dentro desse ambiente de sala de aula que aquilo faz parte da vida dela. Ela está se relacionando com tecnologia, com seu smartphone ou com smartphone de um laboratório na escola… Como você implanta isso na escola? Você pode ter um laboratório de reunião virtual por menos de 50 mil reais com um smartphone de ponta, 50 máquinas, e você leva todo mundo para esse laboratório. Se a pessoa tiver smartphone, ela também pode levar essa experiência para sua casa, para onde quiser.

Falando especificamente disso, conte um pouco sobre a parceria com a faculdade de Medicina da Universidade de São Paulo.

Com a faculdade de Medicina da USP, eles têm um projeto chamado Homem Virtual, que eles desenvolveram durante 13 anos, um projeto fantástico de computação gráfica, do corpo humano. Eles já usam essas animações para uso educacional, só que focado em tablets e computadores. Com esse conteúdo, nós pegamos um conteúdo, que é uma viagem pelo ouvido… A ideia era fazer 15 passeios dentro de um holding map que a gente tem, onde você transforma esse conteúdo em viagens imersivas por dentro do corpo humano, para que você traga essa experiência em realidade virtual. Você pode entrar dentro do corpo humano e entender como ele funciona melhor. Então a ideia é ter um conteúdo que possa trazer, nesse processo de ensino e aprendizagem, mais elementos para entender melhor o funcionamento do corpo humano. Esse material é feito para PC e para uma capacidade de processamento muito grande. Exige uma capacidade de processamento muito grande, porque ele é muito rico em detalhes e foi feito com milhares de polígonos, só que para rodar num smartphone existe um trabalho de pegar esse material, reduzir o número de polígonos e agora você tem que ser um diretor de cena, porque você tem que produzir os caminhos agora. O que você quer extrair do aluno? Qual é o objetivo? Um exemplo é o seguinte. O ouvido funciona assim, e se eu usar muito fone de ouvido durante um tempo prolongado isso vai fazer com que eu tenha perda de audição? O que isso implica fisicamente? Hoje a gente consegue mostrar isso para as pessoas e acho que o impacto emocional faz com que elas tenham uma mudança de atitude até, porque isso está mais claro. O que isso significa para a saúde pública, para a produtividade do trabalhador, na vida futura dessa pessoa? A gente está falando de coisas simples, mas que têm uma ligação com tudo e pode significar economia para a sociedade, melhoria da qualidade de vida da pessoa… Tudo parte desse processo de educação. Por isso a gente é apaixonado por isso e busca desenvolver tecnologia para apoiar essa causa.