Manaus – Pesquisadores da Universidade de Oxford, no Reino Unido, divulgaram em janeiro um relatório global que identificou vieses regionais […]

Relatório sugere viés de IA ao retratar amazonenses como “menos inteligentes”
Manaus – Pesquisadores da Universidade de Oxford, no Reino Unido, divulgaram em janeiro um relatório global que identificou vieses regionais nas respostas de sistemas de inteligência artificial, incluindo o ChatGPT. O estudo, intitulado “The Silicon Gaze” (O Olhar de Silício), indica que ferramentas de IA podem reproduzir estereótipos e desigualdades geográficas, com efeitos mais evidentes em análises subnacionais de países como Brasil, Estados Unidos e Reino Unido.
No caso brasileiro, a pesquisa analisou 20,3 milhões de consultas ao ChatGPT e, com base em uma metodologia própria, elaborou um ranking comparativo sobre como a IA responde a perguntas associadas a diferentes estados. Nesse levantamento, Amazonas e Maranhão apareceram entre as classificações mais baixas, enquanto São Paulo, Minas Gerais e o Distrito Federal figuraram entre os estados com avaliações mais altas em atributos relacionados à “inteligência” no relatório.
Os autores ressaltam, no entanto, que o estudo não afirma que a IA considere pessoas de determinadas regiões menos inteligentes. A análise aponta que, em certos tipos de consulta, respostas automatizadas tendem a associar características cognitivas ou socioeconômicas de forma desigual entre regiões, refletindo vieses presentes nos dados utilizados no treinamento dos modelos.
Especialistas em ética e tecnologia alertam que sistemas de inteligência artificial podem reproduzir preconceitos históricos e desigualdades sociais, especialmente quando fazem generalizações amplas com base em padrões estatísticos. A OpenAI, responsável pelo ChatGPT, reconhece que modelos desse tipo podem refletir vieses e que a mitigação desse problema é um dos principais desafios da área.
O relatório de Oxford busca justamente evidenciar esses padrões e estimular práticas mais responsáveis no desenvolvimento e uso da IA, com foco em transparência, monitoramento contínuo e ajustes que reduzam estereótipos indesejados.
Os pesquisadores recomendam cautela na interpretação de rankings e pontuações gerados por análises automatizadas, destacando que sistemas de IA devem sempre ser acompanhados de contexto humano e avaliação crítica, sobretudo em temas sensíveis como educação, capacidade cognitiva e comparações entre populações.
