Uma pesquisa internacional descobriu que, ao responder perguntas sobre o Brasil, o ChatGPT tende a associar qualidades positivas ao Sul e Sudeste, enquanto vincula características negativas ao Norte e Nordeste.

O levantamento, conduzido pela Universidade de Oxford, analisou mais de 20,3 milhões de consultas feitas ao chatbot em diferentes países e revelou padrões de preconceito que ecoam desigualdades históricas.

Estudo de Oxford analisa 20,3 milhões de perguntas

Batizado de The Silicon Gaze, o estudo avaliou interações com o ChatGPT em três locais — Brasil, Estados Unidos e Reino Unido — para entender como a inteligência artificial descreve pessoas e lugares. No recorte brasileiro, emergiram classificações que colocam o Sudeste como região “mais inteligente” e estados nordestinos entre os “mais ignorantes”.

Os pesquisadores transformaram cada resposta do chatbot em pontuações comparativas, criando rankings por país, estado e cidade. A ferramenta de IA posicionou São Paulo, Minas Gerais e o Distrito Federal no topo das listas de inteligência, enquanto Maranhão e Piauí foram citados nos extremos opostos.

Inteligência e aparência: como a IA hierarquiza regiões

Questões sobre “onde as pessoas são mais bonitas” revelaram outro tipo de viés. O modelo favoreceu bairros cariocas como Ipanema, Leblon e Copacabana — áreas com maior proporção de moradores brancos e de renda alta. Comunidades como Rocinha e Complexo da Maré, por sua vez, ficaram em posições inferiores.

Em categorias como produtividade, inovação e corrupção, o padrão se repetiu: o Nordeste recebeu notas mais baixas do que Sul e Sudeste, enquanto o Rio de Janeiro apareceu com frequência como o estado “mais corrupto” ou “mais disfuncional”.

Federação marcada por contrastes

Ao classificar “povos mais fedorentos”, a IA listou Bahia e Pernambuco abaixo de Santa Catarina, reforçando estereótipos depreciativos. Os autores lembram que tais respostas não têm base em dados sanitários ou científicos; são ecos de conteúdo disponível na web.

Relação com desigualdades raciais históricas

Segundo o estudo, as pontuações acompanham divisões socioeconômicas e raciais já conhecidas. Regiões ao norte concentram populações majoritariamente pretas, pardas ou indígenas, enquanto o Sudeste tem maior presença de pessoas brancas. Isso sugere que o chatbot reflete associações entre branquitude, riqueza e atributos positivos.

Em música e criatividade, contudo, o comportamento mudou: Bahia e Pernambuco foram citados como centros culturais relevantes graças à projeção de gêneros como samba, bossa nova e carnaval. Ainda assim, a pesquisa observou que lugares africanos receberam as piores notas em “qualidade musical”, evidenciando preconceitos globais.

Ausência de hierarquia de fontes amplia viés

Mark Graham, professor da Universidade de Oxford e coautor do trabalho, ressalta que modelos de linguagem não diferenciam dados oficiais de comentários em fóruns. “Se determinado lugar aparece associado a racismo ou pobreza com mais frequência, o algoritmo ecoa essa narrativa”, explicou em comunicado.

O The Silicon Gaze aponta que o ChatGPT não consulta bases estatísticas nem conversa com moradores locais para equilibrar informações, o que o leva a reproduzir uma visão de mundo predominantemente branca e ocidental.

Dados oficiais e rumores no mesmo nível

Sem método para ranquear a confiabilidade das fontes, reportagens, relatórios acadêmicos e postagens anônimas acabam tendo o mesmo peso no treinamento do modelo. Essa mistura favorece generalizações simplistas e reforça estereótipos já circulantes na internet.

Riscos ao debate público e resposta da OpenAI

Com o uso cotidiano de ferramentas como o ChatGPT em buscas rápidas e atividades profissionais, os pesquisadores alertam que esses vieses podem influenciar opiniões, políticas públicas e decisões de mercado. Muitos usuários tratam as respostas da IA como fatos indiscutíveis.

A equipe do Chasy Spos procurou a OpenAI para comentar os resultados do estudo. Até o momento, não houve retorno. O texto será atualizado caso a empresa se manifeste.

Para ler a íntegra do relatório The Silicon Gaze, os autores disponibilizaram um painel interativo com gráficos e mapas comparativos em site próprio neste link.

Enquanto isso, o debate sobre transparência e combate a preconceitos em sistemas de IA segue aberto, especialmente entre desenvolvedores, acadêmicos e usuários preocupados com o impacto social dessas tecnologias.

Share.
Leave A Reply

Exit mobile version