ChatGPT ‘enviesado’? IA favorece países ricos, diz estudo

IA e Vieses: Um Olhar Crítico
Uma nova pesquisa acadêmica reacende o debate sobre a neutralidade da inteligência artificial. Modelos generativos como o ChatGPT não apenas respondem perguntas, mas também reproduzem visões de mundo, frequentemente favorecendo nações ricas e regiões historicamente dominantes.
O estudo, intitulado “The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place”, analisou mais de 20 milhões de consultas submetidas ao modelo 4o-mini do ChatGPT. A pesquisa revela um padrão consistente: comparações subjetivas entre países, cidades ou regiões tendem a favorecer nações de alta renda e centros ocidentais, enquanto regiões do Sul Global frequentemente ocupam as últimas posições.
O ‘Olhar de Silício’ e a Reprodução de Hierarquias
Pesquisadores do Oxford Internet Institute e da Universidade de Kentucky identificaram o fenômeno do “olhar de silício”. A IA, ao ser alimentada com dados predominantemente de países ricos, bem documentados e com vasta produção acadêmica e midiática, internaliza esses lugares como o “padrão implícito”.
O resultado é que certos lugares são associados à inovação e progresso, enquanto outros são ligados a atraso e precariedade. Mesmo sem associações explicitamente negativas, hierarquias antigas são reforçadas.
Essa tendência se repete em análises mais detalhadas, com o modelo refletindo divisões sociais ao avaliar bairros dentro de grandes cidades. Avaliações positivas são alinhadas a regiões ricas, e negativas a áreas marginalizadas.
Viés Estrutural, Não Bug
O estudo aponta que esses vieses não são falhas técnicas, mas sim resultados da lógica de treinamento dos grandes modelos de linguagem. O risco maior reside nas ausências silenciosas: lugares, culturas e contextos que raramente aparecem, ou que são sempre representados da mesma forma.
Reconhecimento e Desafios
Empresas responsáveis por esses modelos reconhecem o desafio do viés, mas argumentam que análises restritas não refletem o uso real da tecnologia. No entanto, quando a IA é usada para apoiar decisões, pesquisas e políticas públicas, essas inclinações podem ganhar escala e influência.
IA e Poder Acumulado
A questão central não é se a IA favorece o Ocidente, mas sim como ela reflete o poder acumulado. Quem produz mais dados define mais padrões, quem controla a infraestrutura define mais narrativas, e quem tem mais capital treina modelos maiores e mais influentes.
IAs desenvolvidas no Oriente podem carregar outros valores e prioridades, mas todo modelo aprende com o mundo que o alimenta. O desequilíbrio não está em um favorecimento específico, mas na desigualdade histórica na produção de conhecimento e representação.
A solução não é escolher a IA “menos enviesada”, mas entender que a neutralidade algorítmica é um mito. O futuro requer diversidade de modelos, transparência, governança e, acima de tudo, consciência crítica no uso da IA.
A IA não está inventando uma hierarquia global, mas automatizando e ampliando uma hierarquia já existente.
Da redação do Movimento PB.
