O futuro passa por diversidade de modelos, transparência, governança e, principalmente, consciência crítica no uso.
As respostas do ChatGPT favorecem nações ocidentais ricas, diz estudo.
, redator(a) da StartSe
7 min
•
21 jan 2026
•
Atualizado: 21 jan 2026
newsletter
Start Seu dia:
A Newsletter do AGORA!
Uma nova pesquisa acadêmica reacendeu um debate incômodo sobre inteligência artificial: modelos generativos não apenas respondem perguntas — eles reproduzem visões de mundo. E, muitas vezes, essas visões favorecem países ricos e regiões historicamente dominantes.
O estudo intitulado "The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place" (O Olhar de Silício: Uma tipologia de vieses e desigualdade em LLMs através da lente do lugar), analisou mais de 20 milhões de consultas submetidas ao modelo 4o-mini do ChatGPT.
Pesquisadores do Oxford Internet Institute da Universidade de Oxford e da Universidade de Kentucky analisaram milhões de interações com uma versão recente do ChatGPT e identificaram um padrão consistente: quando questionado com comparações subjetivas entre países, cidades ou regiões, o modelo tende a posicionar nações de alta renda e centros ocidentais nas melhores colocações, enquanto regiões do Sul Global aparecem com mais frequência nas últimas posições.
Não se trata de erros pontuais. É um comportamento recorrente.
Os pesquisadores chamaram esse fenômeno de “olhar de silício” — uma metáfora para explicar como os sistemas de IA passam a enxergar o mundo a partir dos dados que os formaram. Como grande parte do conteúdo digital disponível globalmente vem de países mais ricos, bem documentados e com maior produção acadêmica e midiática, essas regiões acabam se tornando o “padrão implícito” da IA.
O resultado é sutil, mas poderoso: certos lugares são associados com inovação, inteligência e progresso; outros, com atraso, precariedade ou irrelevância. Mesmo quando essas associações não são explicitamente negativas, elas reforçam hierarquias antigas.
Em análises mais granulares, o padrão se repete. Quando o modelo avalia bairros dentro de grandes cidades, suas respostas tendem a espelhar divisões sociais já existentes, alinhando avaliações positivas a regiões mais ricas e negativas a áreas historicamente marginalizadas.
Um dos pontos mais fortes do estudo é a conclusão de que esses vieses não são simples falhas técnicas a serem corrigidas com ajustes finos. Eles nascem da própria lógica de treinamento dos grandes modelos de linguagem.
Os pesquisadores identificam diferentes camadas desse problema:
O risco maior não está em respostas erradas ou exageradas, mas nas ausências silenciosas — lugares, culturas e contextos que quase nunca aparecem, ou aparecem sempre da mesma forma.
Empresas responsáveis por esses modelos reconhecem que viés é uma questão ativa e contínua. Ao mesmo tempo, argumentam que análises muito restritas — como pedir rankings simples ou respostas unidimensionais — não refletem o uso real da tecnologia.
Ainda assim, o debate permanece: quando a IA começa a ser usada para apoiar decisões, pesquisas, políticas públicas e até investimentos, essas inclinações podem ganhar escala e influência real.
O ponto central não exatamente é se a IA “favorece o Ocidente” ou se modelos orientais fariam o mesmo por seus países.
O ponto é mais profundo: IA reflete poder acumulado.
Quem produz mais dados, define mais padrões.
Quem controla infraestrutura, define mais narrativas.
Quem tem mais capital, treina modelos maiores — e mais influentes.
IAs desenvolvidas no Oriente tendem a carregar outros valores, outras prioridades e outros silêncios. Não porque sejam mais justas ou mais enviesadas, mas porque todo modelo aprende com o mundo que o alimenta.
O jogo não está desequilibrado porque uma IA favorece este ou aquele país.
Ele está desequilibrado porque o mundo sempre foi desigual na produção de conhecimento, dados e representação — e a IA apenas acelera isso.
A grande questão para líderes, governos e organizações não é escolher “qual IA é menos enviesada”, mas entender que neutralidade algorítmica é um mito. O futuro passa por diversidade de modelos, transparência, governança e, principalmente, consciência crítica no uso.
Porque, no fim, a IA não está inventando uma hierarquia global, a hierarquia está já estava aí.
E ela está automatizando o que já existia, só que agora em escala nunca vista antes.
Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!
Assuntos relacionados
redator(a) da Startse
Jornalista e Copywriter. Escreve sobre negócios, tendências de mercado e tecnologia na StartSe.
Leia o próximo artigo
newsletter
Start Seu dia:
A Newsletter do AGORA!