StartSe blackfriday logo
Sou Aluno
Formações
Imersões Internacionais
Eventos
AI Tools
Artigos
Sobre Nós
Para Empresas
Consultoria

A nova falha humana na era da IA: funcionários estão vazando dados sem perceber

Relatórios confidenciais, bases de clientes e até estratégias corporativas estão indo parar em plataformas de IA abertas. A Kaspersky alerta: “o risco não é a IA — é o uso sem inteligência”.

A nova falha humana na era da IA: funcionários estão vazando dados sem perceber

Kaspersky

, redator(a) da StartSe

7 min

17 nov 2025

Atualizado: 17 nov 2025

newsletter

Start Seu dia:
A Newsletter do AGORA!

A inteligência artificial virou o motor da produtividade nas empresas — mas também a nova porta de entrada para vazamentos de dados.

De acordo com a Kaspersky, uma das maiores empresas globais de cibersegurança, o uso indevido de plataformas de IA generativa por funcionários está expondo informações estratégicas de companhias no mundo todo.

A empresa revela que detecta quase 467 mil arquivos maliciosos por dia, um número que traduz a explosão das ameaças digitais. O problema, porém, não é só técnico — é comportamental. Em busca de agilidade, colaboradores estão inserindo relatórios, planilhas e bases confidenciais em plataformas abertas, sem saber que esses dados podem ser indexados e expostos publicamente.

A nova fronteira do risco corporativo

O alerta vem de Claudio Martinelli, diretor-geral da Kaspersky para as Américas.
Segundo ele, “as empresas estão delegando inteligência para sistemas que não compreendem os limites da confidencialidade. O risco não é a IA em si, mas o uso sem consciência.”

O perigo é real: conversas mantidas com modelos generativos já foram encontradas indexadas em mecanismos de busca, expondo conteúdos privados e sensíveis.
Agora, imagine o impacto se o mesmo acontecer com informações internas de uma empresa — como contratos, estratégias ou dados de clientes.

O erro mais comum: usar IA aberta para resolver tarefas internas

A busca por produtividade imediata tem levado muitos profissionais a usar ferramentas como ChatGPT, Claude ou Gemini para gerar textos, revisar documentos e até analisar planilhas corporativas.

O problema? Essas plataformas armazenam as consultas para treinar novos modelos.
Ou seja, cada prompt pode se transformar em um vazamento involuntário de informação estratégica.

IA sem segurança é igual a open bar de dados

A própria Kaspersky alerta que, sem políticas internas, o uso da IA nas empresas vira uma espécie de “open bar” digital. Qualquer colaborador pode, sem querer, abrir brechas que hackers e competidores sabem explorar.

Um levantamento da IBM Security mostra que 82% das violações de dados têm origem em erro humano, e o custo médio de um vazamento em 2025 já passa de US$ 4,88 milhões, segundo o Cost of a Data Breach Report.

Treinar pessoas é mais importante do que treinar modelos

Para reduzir o risco, o primeiro passo é investir em alfabetização digital e treinamento em segurança.

Segundo Martinelli, “os colaboradores precisam entender que IA é uma ferramenta poderosa, mas que exige limites claros e governança. O uso seguro começa com cultura, não com tecnologia.”

Programas internos de conscientização e simulações de ataques (como phishing tests) reduzem em até 70% o risco de incidentes, de acordo com a Cybersecurity Ventures.

Governança de IA: o novo compliance das empresas

A Kaspersky recomenda que companhias estabeleçam uma governança de IA corporativa, que defina o que pode e o que não pode ser compartilhado com modelos generativos.

A criação de modelos internos, com dados protegidos, é o caminho mais seguro para integrar IA sem comprometer segredos de negócio.

Empresas como Microsoft e Google Cloud já oferecem frameworks corporativos com ambientes de IA isolados para evitar esse tipo de vazamento.

Infraestrutura e cadeia de fornecedores: os elos esquecidos

Outro ponto crítico é a cadeia de suprimentos digital.

De nada adianta proteger os dados internos se fornecedores e parceiros não seguem o mesmo padrão de segurança.

Ataques como o da SolarWinds (2020) e o recente vazamento na MOVEit (2023) provaram que um único elo vulnerável pode comprometer milhares de empresas.

Cibersegurança preditiva: agir antes da falha

O uso de IA também é parte da defesa.

Ferramentas de cibersegurança preditiva, que analisam padrões e identificam comportamentos suspeitos, já conseguem detectar 40% mais tentativas de invasão antes que causem danos, segundo a Gartner. A Kaspersky defende que o mesmo poder de automação usado para criar deve ser usado para proteger.

Segurança é evolução contínua, não checklist

Manter softwares e infraestruturas atualizadas ainda é a defesa mais básica — e mais negligenciada.

Em 2024, mais de 60% dos ciberataques exploraram falhas conhecidas, mas não corrigidas, de acordo com o Verizon Data Breach Report. Atualizações, testes de vulnerabilidade e auditorias periódicas precisam se tornar parte do ciclo de operação, e não um evento anual.

O paradoxo da IA: quanto mais poderosa, maior o risco

A IA está se tornando o coração das decisões empresariais — mas também o novo alvo.
À medida que os sistemas aprendem mais sobre o negócio, o impacto de um vazamento cresce exponencialmente. O futuro da segurança digital não será sobre impedir ataques, mas sobre integrar IA e cibersegurança como uma só disciplina.

Inteligência artificial exige inteligência humana

A IA pode impulsionar a eficiência e acelerar a inovação, mas sem governança vira um risco corporativo. A fronteira entre produtividade e exposição nunca foi tão tênue.
O novo papel das empresas é claro: educar, proteger e governar antes que o aprendizado de máquina vire aprendizado de erro.

Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!


Assuntos relacionados

Imagem de perfil do redator

Jornalista e Copywriter. Escreve sobre negócios, tendências de mercado e tecnologia na StartSe.

Leia o próximo artigo

newsletter

Start Seu dia:
A Newsletter do AGORA!