Sou Aluno
Formações
Imersões Internacionais
Eventos
AI Tools
Artigos
Sobre Nós
Para Empresas
Consultoria
NOVO

Chatbots estão se tornando megafones de desinformação

Como CEOs podem se proteger da desinformação

Chatbots estão se tornando megafones de desinformação

Foto: Pexels

, redator(a) da StartSe

4 min

30 set 2025

Atualizado: 30 set 2025

newsletter

Start Seu dia:
A Newsletter do AGORA!

De agosto/24 a agosto/25, a taxa de respostas falsas em chatbots quase dobrou — saltou de 18% para 35%, segundo relatório da NewsGuard. O que parecia ferramenta confiável para acelerar pesquisas agora se mostra também como canal de risco para empresas e executivos.


Por que isso importa?

  • Confiabilidade em queda: modelos que antes preferiam não responder (31% dos casos em 2024) agora arriscam sempre uma saída — mesmo quando erram (NewsGuard).
  • Impacto direto nos negócios: decisões tomadas a partir de relatórios gerados por IA podem ser baseadas em informações falsas, comprometendo reputação e estratégia.
  • Exploração por grupos maliciosos: redes de desinformação já usam sites obscuros e fazendas de conteúdo de IA para “alimentar” os modelos com narrativas enviesadas, como mostrou a BBC.
     

As causas do problema

  • Arquitetura do modelo: chatbots são treinados para “preencher lacunas” — mesmo quando não existe resposta confiável (OpenAI).
  • Busca em tempo real: integração com web ampliou a velocidade, mas abriu a porta para sites de baixa qualidade e manipulação.
  • Pressão competitiva: empresas de IA estão preferindo não deixar perguntas sem resposta, ainda que isso aumente o risco de alucinações.
     

Exemplos que acendem alerta

  • Saúde: estudo do Mount Sinai mostrou que chatbots replicam erros médicos e até inventam diagnósticos com confiança alta.
  • Atualidades: em teste com 100 artigos, a BBC concluiu que mais da metade das respostas geradas por IAs tinha erros significativos.
  • Manipulação política: a Reuters mostrou o quão fácil é induzir modelos a “mentirem” sobre informações sensíveis, criando falsas citações.
     

Quanto mais “fluentes” e confiáveis os chatbots parecem, mais perigosos se tornam quando erram. O risco não é só a falha, mas a convicção com que apresentam dados falsos.


Como executivos podem se proteger

  1. Checagem cruzada: sempre validar respostas de IA em pelo menos duas fontes confiáveis.
  2. Protocolos internos: estabelecer políticas claras para uso de IA em relatórios estratégicos.
  3. Treinar equipes: ensinar times a reconhecer sinais de “alucinação” e a adotar ceticismo saudável.
  4. Priorizar transparência: adotar ferramentas que permitem rastrear de onde vêm as informações citadas.
  5. Ceticismo como vantagem competitiva: empresas que sabem filtrar sinal do ruído vão evitar decisões erradas e preservar reputação.
     

O que está em jogo

A desinformação por IA já é considerada pelo Fórum Econômico Mundial o maior risco global de curto prazo. Para líderes, a lição é clara: usar IA de forma estratégica exige tanto quanto aprender a desconfiar dela.


Quer entender como aplicar IA de forma responsável e estratégica — sem cair nas armadilhas das alucinações? Participe do AI Festival StartSe.

Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!


Assuntos relacionados

Imagem de perfil do redator

Sócio da StartSe

Leia o próximo artigo

newsletter

Start Seu dia:
A Newsletter do AGORA!