Relatórios confidenciais, bases de clientes e até estratégias corporativas estão indo parar em plataformas de IA abertas. A Kaspersky alerta: “o risco não é a IA — é o uso sem inteligência”.
Kaspersky
, redator(a) da StartSe
7 min
•
17 nov 2025
•
Atualizado: 17 nov 2025
newsletter
Start Seu dia:
A Newsletter do AGORA!
A inteligência artificial virou o motor da produtividade nas empresas — mas também a nova porta de entrada para vazamentos de dados.
De acordo com a Kaspersky, uma das maiores empresas globais de cibersegurança, o uso indevido de plataformas de IA generativa por funcionários está expondo informações estratégicas de companhias no mundo todo.
A empresa revela que detecta quase 467 mil arquivos maliciosos por dia, um número que traduz a explosão das ameaças digitais. O problema, porém, não é só técnico — é comportamental. Em busca de agilidade, colaboradores estão inserindo relatórios, planilhas e bases confidenciais em plataformas abertas, sem saber que esses dados podem ser indexados e expostos publicamente.
O alerta vem de Claudio Martinelli, diretor-geral da Kaspersky para as Américas.
Segundo ele, “as empresas estão delegando inteligência para sistemas que não compreendem os limites da confidencialidade. O risco não é a IA em si, mas o uso sem consciência.”
O perigo é real: conversas mantidas com modelos generativos já foram encontradas indexadas em mecanismos de busca, expondo conteúdos privados e sensíveis.
Agora, imagine o impacto se o mesmo acontecer com informações internas de uma empresa — como contratos, estratégias ou dados de clientes.
A busca por produtividade imediata tem levado muitos profissionais a usar ferramentas como ChatGPT, Claude ou Gemini para gerar textos, revisar documentos e até analisar planilhas corporativas.
O problema? Essas plataformas armazenam as consultas para treinar novos modelos.
Ou seja, cada prompt pode se transformar em um vazamento involuntário de informação estratégica.
A própria Kaspersky alerta que, sem políticas internas, o uso da IA nas empresas vira uma espécie de “open bar” digital. Qualquer colaborador pode, sem querer, abrir brechas que hackers e competidores sabem explorar.
Um levantamento da IBM Security mostra que 82% das violações de dados têm origem em erro humano, e o custo médio de um vazamento em 2025 já passa de US$ 4,88 milhões, segundo o Cost of a Data Breach Report.
Para reduzir o risco, o primeiro passo é investir em alfabetização digital e treinamento em segurança.
Segundo Martinelli, “os colaboradores precisam entender que IA é uma ferramenta poderosa, mas que exige limites claros e governança. O uso seguro começa com cultura, não com tecnologia.”
Programas internos de conscientização e simulações de ataques (como phishing tests) reduzem em até 70% o risco de incidentes, de acordo com a Cybersecurity Ventures.
A Kaspersky recomenda que companhias estabeleçam uma governança de IA corporativa, que defina o que pode e o que não pode ser compartilhado com modelos generativos.
A criação de modelos internos, com dados protegidos, é o caminho mais seguro para integrar IA sem comprometer segredos de negócio.
Empresas como Microsoft e Google Cloud já oferecem frameworks corporativos com ambientes de IA isolados para evitar esse tipo de vazamento.
Outro ponto crítico é a cadeia de suprimentos digital.
De nada adianta proteger os dados internos se fornecedores e parceiros não seguem o mesmo padrão de segurança.
Ataques como o da SolarWinds (2020) e o recente vazamento na MOVEit (2023) provaram que um único elo vulnerável pode comprometer milhares de empresas.
O uso de IA também é parte da defesa.
Ferramentas de cibersegurança preditiva, que analisam padrões e identificam comportamentos suspeitos, já conseguem detectar 40% mais tentativas de invasão antes que causem danos, segundo a Gartner. A Kaspersky defende que o mesmo poder de automação usado para criar deve ser usado para proteger.
Manter softwares e infraestruturas atualizadas ainda é a defesa mais básica — e mais negligenciada.
Em 2024, mais de 60% dos ciberataques exploraram falhas conhecidas, mas não corrigidas, de acordo com o Verizon Data Breach Report. Atualizações, testes de vulnerabilidade e auditorias periódicas precisam se tornar parte do ciclo de operação, e não um evento anual.
A IA está se tornando o coração das decisões empresariais — mas também o novo alvo.
À medida que os sistemas aprendem mais sobre o negócio, o impacto de um vazamento cresce exponencialmente. O futuro da segurança digital não será sobre impedir ataques, mas sobre integrar IA e cibersegurança como uma só disciplina.
A IA pode impulsionar a eficiência e acelerar a inovação, mas sem governança vira um risco corporativo. A fronteira entre produtividade e exposição nunca foi tão tênue.
O novo papel das empresas é claro: educar, proteger e governar antes que o aprendizado de máquina vire aprendizado de erro.
Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!
Assuntos relacionados
redator(a) da Startse
Jornalista e Copywriter. Escreve sobre negócios, tendências de mercado e tecnologia na StartSe.
Leia o próximo artigo
newsletter
Start Seu dia:
A Newsletter do AGORA!