Caso expõe um erro que muitas empresas ainda vão cometer: IA sem filtro humano é um risco
Foto: Banco de Imagens
, redator(a) da StartSe
6 min
•
8 out 2025
•
Atualizado: 8 out 2025
newsletter
Start Seu dia:
A Newsletter do AGORA!
A inteligência artificial está revolucionando o mundo dos negócios — mas também está cobrando caro de quem ainda não entendeu como usá-la.
A Deloitte, uma das maiores consultorias globais de tecnologia, precisou devolver US$ 440 mil ao governo da Austrália depois de admitir o uso de IA generativa em um relatório oficial que continha erros graves e informações inventadas.
A Deloitte foi contratada para revisar a estrutura interna dos sistemas de compliance e tecnologia da informação da Assistência Social australiana — responsáveis por automatizar penalidades aplicadas a trabalhadores que descumprissem obrigações legais.
O relatório, entregue em 4 de julho, parecia mais uma entrega técnica de rotina. Mas o problema começou quando especialistas perceberam incoerências e dados sem fonte rastreável.
Em agosto, a empresa fez uma revisão, mas o estrago já estava feito: o documento apresentava “alucinações”, termo usado para descrever quando sistemas de IA inventam informações para preencher lacunas.
O episódio ganhou força depois que um pesquisador da Universidade de Sydney, Christopher Rudge, analisou o relatório e concluiu que o texto estava repleto de dados falsos.
Segundo ele, a Deloitte, em vez de corrigir os erros na versão revisada, substituiu as informações erradas por outras igualmente falsas. “Em vez de substituir as alucinações inventadas por uma referência real, eles acrescentaram novas informações falsas no lugar das apontadas anteriormente”, disse o pesquisador ao The Guardian. “O que isso sugere é que as afirmações feitas no relatório não foram baseadas em nenhuma fonte probatória real.”
A crítica pública levou o Departamento de Emprego e Relações de Trabalho da Austrália a confirmar que o contrato seria tornado público — mas somente após a devolução integral dos US$ 440 mil.
No relatório revisado, a Deloitte incluiu uma menção discreta ao uso de IA generativa no apêndice técnico, reconhecendo que parte do conteúdo foi gerada pela plataforma Azure OpenAI, da Microsoft.
Mas, em nota oficial, a empresa não confirmou se o uso da tecnologia foi responsável pelos erros originais — apenas afirmou que “o assunto foi resolvido diretamente com o contratante.”
A polêmica, porém, expõe algo muito maior que um erro técnico: o risco de adotar IA sem governança, sem validação e sem transparência. Em busca de produtividade e velocidade, muitas empresas estão delegando decisões críticas à IA, esquecendo que quem responde pelos erros ainda é o humano.
O caso da Deloitte é um alerta para todo o mercado: a inteligência artificial não elimina a responsabilidade corporativa — ela a amplifica.
Usar IA para redigir relatórios, gerar análises ou automatizar decisões não é o problema. O problema é fazer isso sem supervisão, sem metodologia e sem accountability.
Na era da automação, confiança é o ativo mais valioso. E quando ela é perdida, nem uma gigante global escapa: a multa é apenas um detalhe perto do custo reputacional.
O episódio mostra o que já está se tornando regra: não basta adotar IA — é preciso entender, validar e assumir o que ela produz. Empresas maduras vão além da eficiência. Criam estruturas de governança, revisão humana e ética digital para garantir que a tecnologia seja aliada, não ameaça.
O erro da Deloitte custou US$ 440 mil. Ficou barato ao caixa da empresa, mas muito caro para sua reputação. Para o mercado, o custo da lição é ainda maior: sem inteligência humana, toda inteligência artificial vira passivo.
Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!
Assuntos relacionados
redator(a) da Startse
Jornalista e Copywriter. Escreve sobre negócios, tendências de mercado e tecnologia na StartSe.
Leia o próximo artigo
newsletter
Start Seu dia:
A Newsletter do AGORA!