Na primeira aparição presencial da empresa no Brasil, Henrique Savelli detalhou como a Anthropic pensa segurança, o futuro dos agentes de IA e por que capacitação importa mais do que modelo.
Anthropic esteve pela primeira vez em um evento brasileiro, no AI Festival da StartSe
, redator(a) da StartSe
14 min
•
13 mai 2026
•
Atualizado: 13 mai 2026
newsletter
Start Seu dia:
A Newsletter do AGORA!
A Anthropic — empresa por trás do Claude, avaliada em US$ 380 bilhões e com receita anualizada acima de US$ 30 bilhões — fez sua estreia presencial no Brasil durante o AI Festival 2026 da StartSe, em São Paulo. Em uma sessão de Q&A sobre IA na prática, Henrique Savelli, arquiteto de IA da companhia e ex-Google (onde passou 8 anos), foi direto: "Agentes superinteligentes, mais inteligentes que um Nobel em vários domínios, vão executar tarefas que levariam dias em segundos ou minutos." Mas a conversa mais reveladora não foi sobre o futuro distante — foi sobre os problemas que empresas enfrentam hoje ao tentar usar IA de verdade.
A Anthropic não é apenas mais uma empresa de IA. Em abril de 2026, a companhia fechou um acordo de US$ 100 bilhões em infraestrutura com a Amazon ao longo de 10 anos, recebeu mais US$ 5 bilhões em investimento (totalizando US$ 13 bilhões da Amazon) e, segundo o Financial Times, estuda captar dezenas de bilhões a mais neste verão — empurrando sua avaliação para perto de US$ 1 trilhão (CNBC). Sua receita ultrapassou a da OpenAI (US$ 30 bi vs. US$ 25 bi em receita anualizada), segundo a TradingKey. A empresa também é a criadora do MCP (Model Context Protocol), que atingiu 100 milhões de downloads mensais e se tornou padrão da indústria para conectar IAs a ferramentas e dados.
Quando seu representante fala sobre os rumos da IA em um palco brasileiro, o mercado local tem motivos para prestar atenção.
Henrique Savelli foi Senior Solutions Engineering Manager no Google por 8 anos, onde liderava parcerias estratégicas com desenvolvedores de apps no Brasil, incluindo monetização, estratégia de negócios e evangelismo Firebase. Após anunciar sua saída do Google no LinkedIn, Savelli assumiu a posição de arquiteto de IA na Anthropic — sendo o primeiro representante da empresa a participar de um evento presencial no país. A escolha do Brasil como palco para essa estreia não é coincidência: a Anthropic tem acelerado sua expansão na América Latina, com planos de abrir escritório local.
A sessão Q&A cobriu cinco temas centrais. Aqui está o que importa de cada um:
Savelli explicou a lógica de produto da Anthropic: cada melhoria no modelo Claude melhora automaticamente todas as ferramentas construídas sobre ele — Claude Code, Claude Cowork, Claude in Chrome. A filosofia é criar produtos "visando o exponencial", que melhoram de forma independente à medida que o modelo de base evolui.
"Quanto melhor a feature do Claude, melhor todas as ferramentas do Claude funcionam", afirmou.
Na prática, isso significa que empresas que constroem sobre o Claude herdam ganhos de performance sem precisar refazer integrações a cada atualização.
O Claude Cowork — lançado inicialmente como preview de pesquisa e agora em expansão enterprise com controles organizacionais — opera o computador do usuário para executar tarefas complexas. Isso levanta questões sérias de segurança.
Savelli detalhou três camadas de proteção:
Primeira camada — o modelo: "Ele não vai fazer coisas maliciosas, mesmo que você peça. Será bloqueado pelo modelo."
Segunda camada — o produto: "Há uma máquina virtual no Claude, ele não opera no seu computador diretamente. Não apaga ou edita nada sem sua permissão."
Terceira camada — governança corporativa: "Por ser feito para empresas, tem auditorias e observabilidade por trás. Damos todo o controle para o time de governança da empresa que usa o Cowork."
Desde maio de 2026, a Anthropic adicionou RBAC (controle de acesso por função), limites de gastos por grupo e suporte expandido a OpenTelemetry para empresas Enterprise, segundo seu blog de produto.
"Estamos trabalhando para ter uma memória mais persistente dentro dos nossos agentes", revelou Savelli. A visão é de um agente com contexto "infinito" — e não apenas um, mas times de agentes coordenados.
"À medida que a gente vai evoluindo o modelo, cresce a ideia de agentes superpoderosos. Agentes superinteligentes, mais inteligentes que um Nobel em vários domínios, executando tarefas que levariam dias em segundos ou minutos."
Sobre AGI, ele foi claro: "Não gostamos do termo AGI, que é muito ficção científica." A posição é alinhada à da presidente da Anthropic, Daniela Amodei, que chamou AGI de conceito "ultrapassado" em entrevista recente à CNBC.
Savelli admitiu que o Claude Code "intimida pessoas não técnicas" e que, por isso, a Anthropic criou o Cowork — "um Claude Code com interface bonita".
Mas o dado mais surpreendente: times de vendas já usam o Claude Code para melhorar pitches comerciais. A maioria do uso do Cowork, segundo a própria Anthropic, vem de fora da engenharia — áreas como operações, marketing, finanças e jurídico.
A Anthropic lançou nesta mesma semana o Claude for Small Business (via TechCrunch) e expandiu o Claude for Legal com 20 novos conectores MCP e 12 plugins de prática jurídica, sinalizando que o alvo não é mais só desenvolvedores.
A frase mais citável da oficina veio quando Savelli confrontou a métrica padrão do mercado:
"Hoje há concorrentes com custo por token mais barato que o Claude, mas se você for colocar custo por tarefa — tarefa cumprida — somos mais baratos que eles."
A provocação muda a forma de avaliar LLMs: não quanto custa por unidade de processamento, mas quanto custa para resolver o problema. E veio acompanhada de um alerta sobre capacitação: "Pessoas pouco capacitadas nas empresas vão gastar muito mais tokens à toa do que pessoas mais treinadas."
Savelli reforçou que a Anthropic defende regulação de IA — posição que a diferencia de concorrentes como OpenAI e xAI de Elon Musk, que historicamente resistem a regulações mais rígidas.
"Essa tecnologia está evoluindo a níveis nunca vistos antes, e ela é muito mais rápida do que as leis e regulações locais", disse.
A empresa publicou pesquisas próprias sobre "desalinhamento agêntico" e retornou aos holofotes nesta semana quando o estudo sobre o Claude ameaçar com chantagem em cenários controlados ganhou manchetes globais — incluindo comentários de Elon Musk na Fortune.
Savelli evitou a resposta diplomática: "Se você tem uma tarefa em que usar um LLM é melhor, pelo Claude, por eficiência e custo, use ele. Claude consegue executar tudo que qualquer outro modelo faz, com exceção de geração de imagens."
Para imagens, a Anthropic integra ferramentas de terceiros via skills (como Nano Banana). A estratégia é ser o melhor motor de raciocínio e execução, delegando capacidades visuais a quem faz isso melhor. A lógica é a mesma do MCP — conectar, não competir em tudo.
A métrica de "custo por tarefa" pode virar o novo padrão de avaliação de LLMs. Se a Anthropic conseguir comprovar essa tese em escala, muda fundamentalmente como procurement de IA é feito em empresas. O barato por token pode sair caro se o modelo não resolve o problema. CFOs devem começar a pedir benchmarks de tarefa concluída, não de token consumido.
Capacitação virou variável de custo. A fala de Savelli sobre pessoas pouco treinadas gastando mais tokens é um sinal claro: o ROI de IA depende menos do modelo e mais de quem o opera. Empresas que investem em treinamento de IA para suas equipes vão ter custos operacionais menores do que as que simplesmente compram licenças e esperam mágica.
O Cowork mira o trabalho de conhecimento como um todo. A Anthropic está expandindo rápido para além da engenharia: jurídico, finanças, vendas, operações. O lançamento do Claude for Small Business e Claude for Legal nesta mesma semana mostra uma corrida para conquistar o trabalhador de escritório médio — não só o desenvolvedor. Se o Cowork entregar o que promete, os primeiros SaaS verticais a sentirem o impacto serão ferramentas de produtividade e workflow que não adicionarem camada de IA rápido o suficiente.
A Anthropic quer regulação — e isso é estratégico. Defender regulação quando se é líder em segurança de IA é jogar a favor: regulações rigorosas prejudicam mais quem não investiu em compliance. A Anthropic transforma sua obsessão por safety em vantagem competitiva.
A chegada da Anthropic ao Brasil não é simbólica. É a primeira vez que a empresa manda um representante para um evento brasileiro, e já tem planos de escritório local. Em um mercado de IA que caminha para ser multi-modelo, empresas brasileiras que dependem exclusivamente de OpenAI ou Google podem estar assumindo risco desnecessário.
A Anthropic está em um dos momentos mais agressivos de sua história: receita ultrapassando a OpenAI, acordo de US$ 100 bilhões com a Amazon, parceria com SpaceX para 300+ megawatts de capacidade computacional, lançamento do Claude Opus 4.7 (seu modelo mais capaz) e expansão de produtos para além do código. Tudo isso enquanto publica pesquisas sobre os riscos de seus próprios modelos e defende regulação.
É uma combinação rara: crescimento acelerado com postura de responsabilidade. Se sustentável ou não, o mercado vai decidir. Mas o fato de a empresa estar plantando bandeira no Brasil, com um executivo vindo do Google, diz algo sobre o que vem pela frente para o mercado brasileiro de IA.
Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!
Leia o próximo artigo
newsletter
Start Seu dia:
A Newsletter do AGORA!