De agosto/24 a agosto/25, a taxa de respostas falsas em chatbots quase dobrou — saltou de 18% para 35%, segundo relatório da NewsGuard. O que parecia ferramenta confiável para acelerar pesquisas agora se mostra também como canal de risco para empresas e executivos.
Por que isso importa?
- Confiabilidade em queda: modelos que antes preferiam não responder (31% dos casos em 2024) agora arriscam sempre uma saída — mesmo quando erram (NewsGuard).
- Impacto direto nos negócios: decisões tomadas a partir de relatórios gerados por IA podem ser baseadas em informações falsas, comprometendo reputação e estratégia.
- Exploração por grupos maliciosos: redes de desinformação já usam sites obscuros e fazendas de conteúdo de IA para “alimentar” os modelos com narrativas enviesadas, como mostrou a BBC.
As causas do problema
- Arquitetura do modelo: chatbots são treinados para “preencher lacunas” — mesmo quando não existe resposta confiável (OpenAI).
- Busca em tempo real: integração com web ampliou a velocidade, mas abriu a porta para sites de baixa qualidade e manipulação.
- Pressão competitiva: empresas de IA estão preferindo não deixar perguntas sem resposta, ainda que isso aumente o risco de alucinações.
Exemplos que acendem alerta
- Saúde: estudo do Mount Sinai mostrou que chatbots replicam erros médicos e até inventam diagnósticos com confiança alta.
- Atualidades: em teste com 100 artigos, a BBC concluiu que mais da metade das respostas geradas por IAs tinha erros significativos.
- Manipulação política: a Reuters mostrou o quão fácil é induzir modelos a “mentirem” sobre informações sensíveis, criando falsas citações.
Quanto mais “fluentes” e confiáveis os chatbots parecem, mais perigosos se tornam quando erram. O risco não é só a falha, mas a convicção com que apresentam dados falsos.
Como executivos podem se proteger
- Checagem cruzada: sempre validar respostas de IA em pelo menos duas fontes confiáveis.
- Protocolos internos: estabelecer políticas claras para uso de IA em relatórios estratégicos.
- Treinar equipes: ensinar times a reconhecer sinais de “alucinação” e a adotar ceticismo saudável.
- Priorizar transparência: adotar ferramentas que permitem rastrear de onde vêm as informações citadas.
- Ceticismo como vantagem competitiva: empresas que sabem filtrar sinal do ruído vão evitar decisões erradas e preservar reputação.
O que está em jogo
A desinformação por IA já é considerada pelo Fórum Econômico Mundial o maior risco global de curto prazo. Para líderes, a lição é clara: usar IA de forma estratégica exige tanto quanto aprender a desconfiar dela.
Quer entender como aplicar IA de forma responsável e estratégica — sem cair nas armadilhas das alucinações? Participe do AI Festival StartSe.