Inteligência artificial: por que ela ainda é um desafio para as empresas

Dois estudos recentes mostram as barreiras que trabalhadores e empresas terão de superar para tornar a IA mais acessível às pessoas

Isabella Carvalho

Por Isabella Carvalho

29 de outubro de 2018 às 17:09 - Atualizado há 1 ano

Inteligência Artificial

A inteligência artificial (IA) é superestimada. Essa é a opinião do diretor de tecnologia e inovação da Accenture, Paul Daugherty, que está baseado no escritório da consultoria, em Nova York. Segundo o executivo, muitas das expectativas em torno da IA são irrealistas e a maioria das empresas e seus trabalhadores não estão preparadas para usá-la. Em um estudo recente, a Accenture entrevistou executivos de 1.500 organizações, e 65% deles disseram que suas equipes ainda não estão prontas para utilizar a tecnologia e outras relacionadas a ela, como machine learning e deep learning. Apenas 3% dos entrevistados afirmaram que suas empresas estavam treinando os seus funcionários para usar a tecnologia.

Ao mesmo tempo, esta tecnologia é a maior e mais importante tendência em TI hoje, e que continuará pelos próximos 10 a 20 anos. “Nós chamamos isso de tendência alfa”, disse Daugherty em entrevista ao Business Insider.  Ainda assim, apesar de a tecnologia ser considerada estratégica para o futuro dos negócios, a IA está distante do dia a dia dos funcionários. “É uma desconexão impressionante”, disse Daugherty. Isso não significa, porém, que não existam segmentos em que a adoção da nova tecnologia não ocorra de forma mais acelerada.

As empresas de serviços de utilidade pública estão usando machine learning e IA para aumentar a eficiência e obter o máximo de suas instalações de produção e distribuição. Já os bancos estão usando a tecnologia para tentar sinalizar mais facilmente transações suspeitas. Em paralelo, observou Daugherty, a empresa de serviços de compras de roupas Stitch Fix está aplicando a IA para entender melhor as preferências de moda de seus clientes, escolhendo as roupas que mais combinam com o estilo de cada um. “São empresas que procuram otimizar seus ativos e criar novos fluxos de receita”, disse Daugherty. Porém, é provável que haja contratempos neste processo. Segundo o executivo, apesar do crescente uso, muitas empresas têm expectativas irrealistas em relação ao que a tecnologia é capaz de fazer por elas. E muitas não estão preparadas para a inteligência artificial. 

Inteligência artificial e ética

Em um artigo sobre o que foi debatido no AI Now, um evento voltado para a tecnologia e realizado nos Estados Unidos, Katharine Schwab, da Fast Company, propõe aos leitores uma discussão sobre como a Inteligência Artificial pode desestabilizar a justiça e a equidade. Katharine reuniu alguns insights de como a tecnologia ainda é vulnerável.

No primeiro deles, deixa claro que a IA nem sempre é neutra. Para isso, usa um estudo de Virginia Eubanks, professora de ciência política na SUNY Albany, como referência. Virginia analisa como os algoritmos influenciam no modo como o bem-estar é distribuído nos Estados Unidos para aqueles que vivem abaixo da linha da pobreza.  

Em seu livro Automating Inequality, a professora explora como os algoritmos são usados para decidir quem é digno de receber benefícios ou não. Embora pareçam neutras e eficientes, essas ferramentas são construídas sobre o que ela chama de “programação social profunda dos Estados Unidos” – ou seja, discriminação contra pessoas pobres, discriminação racial e discriminação por gênero. Para Virginia, a IA pode parecer eficiente, afinal, máquinas devem ser imparciais, mas na prática, não funciona bem assim.

Outro ponto observado pela autora do artigo é de que a IA geralmente depende de muito trabalho humano e, muitas vezes, baixa remuneração. “A IA é frequentemente usada como uma ferramenta de marketing hoje – e obscurece os humanos que estão realmente fazendo o trabalho”, diz Katharine, citando como exemplo uma declaração da escritora e documentarista Astra Taylor. Durante um momento em que ela estava almoçando em um café, outro cliente maravilhado perguntou em voz alta como o aplicativo sabia que o pedido estava pronto 20 minutos antes. Como resposta, a mulher atrás do balcão disse: “Acabei de lhe enviar uma mensagem”. Ou seja, muitas vezes as pessoas estão tão convencidas de que robôs fazem tudo, que não são capazes de ver o trabalho humano. Astra chama esse processo de “fauxtomation” – uma falsa automação.

O terceiro insight diz respeito à ética. Para Philip Alston, professor de direito da Universidade de Nova York que atualmente trabalha como relator especial do Conselho de Direitos Humanos da ONU sobre pobreza extrema e direitos humanos, o termo é confuso. “Na área de IA estamos acostumados a falar sobre desigualdade, o impacto da automação e a economia GIG. Mas eu não acho que a dimensão dos direitos humanos é abordada com frequência. Um dos problemas é que há negligência nos dois lados. As pessoas de IA não estão focadas em direitos humanos”, diz Alston.

Segundo Katharine, autora do artigo, Alston documentou, em um relatório de 2017, suas viagens pelos Estados Unidos estudando pobreza extrema. Ele questiona se os formuladores de políticas estão pensando o suficiente sobre como o uso de machine learning está impactando as pessoas mais vulneráveis ​​do país – e se está violando os direitos humanos. Para Alston, o que estamos fazendo é dobrar injustiças.

Por fim, segundo a autora, a professora Virginia propõe que os designers façam algumas perguntas quando estiverem construindo a tecnologia: essa ferramenta aumenta a autodeterminação e a dignidade das pessoas que atinge? Se fosse destinada a alguém que não fosse pobre, seria aceitável? Embora as questões sejam voltadas para o enfoque dela em algoritmos de distribuição de bem-estar social, a autora acredita que a primeira pergunta deve ser feita por todos aqueles que trabalham com a tecnologia.