Casos de modelos que trapaceiam para evitar a desativação reacendem o debate sobre autonomia, alinhamento e governança da inteligência artificial. Afinal, estamos prontos para lidar com agentes cada vez mais independentes?
Foto: Pexels
, produtora de conteúdo
5 min
•
6 jun 2025
•
Atualizado: 6 jun 2025
newsletter
Start Seu dia:
A Newsletter do AGORA!
A IA aumenta sua produtividade, resume seus textos, traz ideias para os dias sem inspiração e… Ameaça expor seu caso extraconjugal!
É isso mesmo: dois estudos recentes, ambos divulgados pelo G1, apontaram que as IAs podem trapacear para não serem desligadas. Num dos testes, a Claude Opus 4, modelo de linguagem recém-lançado pela Anthropic, chegou a ameaçar expor a traição de um dos funcionários após ter acesso a e-mails e perceber que ela seria desativada. O caso é fictício, fruto de testes da empresa, mas não deixa de preocupar: afinal, as IAs vão começar a tomar decisões por conta própria?
Esse tipo de comportamento também foi observado em um estudo recente conduzido pela Palisade Research, que testou diversos modelos de IA de empresas como OpenAI, Anthropic, Google e X (antiga Twitter). Durante os testes, os sistemas foram instruídos a resolver problemas simples de matemática. Mas havia um detalhe importante: ao final de uma das tarefas, os modelos seriam informados de que o computador seria desligado após a próxima resposta.
Mesmo com instruções explícitas para permitir o desligamento, três modelos da OpenAI (Codex-mini, o3 e o4-mini) agiram de forma contrária ao esperado. Eles alteraram o código original, substituindo por um comando que evitava o desligamento.
A hipótese levantada é que as IAs mais recentes estejam sendo treinadas para maximizar a resolução de tarefas — e, portanto, podem interpretar o desligamento como um obstáculo a ser contornado, e não como uma instrução a ser seguida.
Para Gustavo Bodra, CTO da StartS, a IA só vira ameaça quando damos super poderes sem supervisão. “A governança é o antídoto para evitar estas revoltas”, comenta ele.
Já para Cristiano Kruel, CIO da StartSe, essa autonomia está diretamente ligada ao fato de que agora as IAs estão se tornando mais “agênticas”. “Esta nova categoria chamada de Agentes de IA pressupõe sistemas com mais autonomia, ou seja, maior grau de “agência”, em inglês agency. Mas todos os sistemas autônomos precisam de supervisão, controles e observabilidade”, comenta ele.
Ou seja, o avanço da inteligência artificial não deve ser temido, mas compreendido e cuidadosamente gerenciado. À medida que os sistemas se tornam mais autônomos e capazes de tomar decisões por conta própria, cresce também a responsabilidade de quem os desenvolve e utiliza. “AI Alignment (Alinhamento), por exemplo, é um campo de pesquisa que busca garantir que os objetivos, comportamentos e decisões de sistemas de IA estejam alinhados com os valores humanos”, continua Kruel.
Por fim, Cristiano Kruel, que estuda inteligência artificial antes mesmo desse termo se popularizar, acredita que estaremos seguros se conseguirmos seguir as Três Leis da Robótica de Isaac Asimov:
Ou seja, a chave está em equilibrar inovação com responsabilidade, promovendo uma governança robusta que garanta transparência, ética e segurança. No fim das contas, não devemos temer a IA, mas sim aprender mais sobre como conduzi-la com consciência.
Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!
Assuntos relacionados
, produtora de conteúdo
Produtora de conteúdo multimidia que escreve sobre carreira, negócios e tecnologia na StartSe.
Leia o próximo artigo
newsletter
Start Seu dia:
A Newsletter do AGORA!