Você já está tokenmaxxing?
Você já está tokenmaxxing?
, redator(a) da StartSe
7 min
•
17 abr 2026
•
Atualizado: 17 abr 2026
newsletter
Start Seu dia:
A Newsletter do AGORA!
Um ranking interno que classifica funcionários pelo uso de IA vazou da Meta — e abriu um debate que ninguém no mundo corporativo consegue mais ignorar: quanto uso de IA é produtividade de verdade, e quanto é só ruído caro?
Por que isso importa: A discussão sobre tokenmaxxing não é modinha do Vale do Silício. Ela sinaliza uma mudança profunda em como empresas vão medir, remunerar e eventualmente demitir pessoas na era da IA. Quem entender essa lógica agora sai na frente na hora de montar — ou de sobreviver em — times cada vez mais enxutos e dependentes de IA.
Um funcionário da Meta criou, por conta própria, um dashboard no intranet da empresa chamado Claudeonomics — uma referência ao modelo de IA da Anthropic, o Claude. O ranking acompanhava o uso de tokens dos mais de 85 mil funcionários da empresa e listava os top 250 maiores consumidores, com títulos como "Token Legend", "Cache Wizard" e "Session Immortal".
Em 30 dias, os funcionários da Meta consumiram 60 trilhões de tokens. O líder do ranking sozinho chegou a 281 bilhões de tokens no mesmo período — o que, no modelo mais barato do Claude Opus 4.6 (US$ 5 por milhão de tokens), representaria um custo estimado de mais de US$ 1,4 milhão para a empresa. Mark Zuckerberg, por sinal, não apareceu nem no top 250.
Dois dias após a notícia vazar para a imprensa, a Meta encerrou o Claudeonomics. A mensagem deixada no lugar do dashboard foi direta: “Foi pensado como uma forma divertida de acompanhar tokens, mas como dados foram compartilhados externamente, decidimos encerrar o Claudeonomics por ora.”
Tokenmaxxing é o conceito de incentivar — ou exigir — que funcionários usem a maior quantidade possível de tokens de IA. A lógica por trás: quem usa mais IA, aprende mais rápido, automatiza mais e entrega mais.
Líderes do setor abraçaram a ideia publicamente:
Engenheiros e analistas apontam o problema óbvio: token é métrica de input, não de output. Medir produtividade por tokens é como avaliar um time de marketing pelo quanto de budget ele queima.
E a distorção já aconteceu na prática. Segundo o The Information, na Amazon, um engenheiro descobriu que poderia fazer cada interação com a ferramenta de IA parecer consumir 10 vezes mais tokens do que o normal — e seu time virou um dos "maiores consumidores de IA" do departamento sem produzir mais nada. Na Meta, funcionários criaram bots para rodar em ciclos e inflar o ranking
A discussão sobre tokenmaxxing está acontecendo exatamente quando a disponibilidade de tokens começa a apertar. A CFO da OpenAI, Sarah Friar, admitiu publicamente que a empresa está fazendo "escolhas muito difíceis sobre o que não perseguir porque não temos compute suficiente". A Anthropic limitou seu modelo mais recente a apenas cerca de 40 organizações. A OpenAI migrou o Codex para precificação por token, encerrando o modelo de acesso irrestrito.
Em outras palavras: o mundo está debatendo quem deve usar mais tokens no exato momento em que os tokens estão se tornando escassos.
A tendência mais relevante aqui não é o tokenmaxxing em si — é o que vem depois. Tokens como métrica de performance abre caminho para tokens como componente de remuneração. Jensen Huang já sinalizou isso. Uma análise da Theory Ventures apontou que, para engenheiros top de mercado, o pacote de compensação já está chegando a 1 dólar em cada 5 sendo compute — não salário, não equity.
Para empresas brasileiras, o alerta prático é duplo: não copiem o erro de medir esforço de IA sem medir resultado. Mas também não ignorem que, em breve, a pergunta em processos seletivos pode deixar de ser "você sabe usar IA?" e passar a ser "quanto você usa?" — com número e tudo.
Quer entender como preparar o seu time para essa nova lógica de produtividade com IA? 👉 Acesse o HR Power Up da StartSe
Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!
Leia o próximo artigo
newsletter
Start Seu dia:
A Newsletter do AGORA!