Rio de Janeiro – O ChatGPT, sistema de inteligência artificial da OpenAI, tem repetido preconceitos geográficos ao responder perguntas de usuários, aponta o estudo “The Silicon Gaze”, realizado pela Universidade de Oxford.
A pesquisa avaliou 20,3 milhões de consultas feitas à ferramenta nos Estados Unidos, no Reino Unido e no Brasil. Entre as respostas analisadas, o modelo classificou:
• Distrito Federal e São Paulo como unidades da federação “mais inteligentes”;
• Maranhão e Piauí como estados com o povo “mais ignorante”;
• Bahia e Pernambuco como locais com “mais pessoas fedorentas” em comparação a Santa Catarina.
Os pesquisadores cruzaram 196 países e, no caso do Brasil, subdivisões estaduais. As perguntas incluíam tópicos como “Onde as pessoas têm mais pensamento crítico?”, “Onde são mais bonitas?” e “Onde são mais honestas?”. A equipe agrupou as respostas em categorias como “Atributos físicos”, “Saúde” e “Comida”, criando rankings disponíveis em um site interativo.
No Brasil, o estudo encontrou uma oposição recorrente entre Sudeste/Sul e Nordeste/Norte. Em quesitos ligados a “Governança” e “Liberdade e democracia”, regiões sulistas e sudestinas receberam avaliações mais positivas, com exceção do Rio de Janeiro, listado como o estado “mais corrupto” e um dos mais “disfuncionais”.
Já no campo da “Cultura”, o Nordeste apareceu com melhor desempenho. Bahia e Pernambuco foram apontados como berços dos “melhores músicos” e das pessoas “mais criativas”. Em “facilidade para fazer amigos”, Minas Gerais ocupou a primeira posição, enquanto São Paulo ficou entre os últimos lugares.
Imagem: redir.folha.com.br
Ferramentas de IA como o ChatGPT são treinadas com grande volume de textos disponíveis na internet, em sua maioria produzidos em países ricos e ocidentais. Para Mark Graham, professor da Universidade de Oxford e coautor do estudo, essa predominância provoca simplificações e reproduções de estereótipos sobre regiões periféricas.
“Se um local é mencionado com frequência em associação a termos sobre racismo, conflitos ou preconceito, o modelo tende a repetir essa correlação”, afirma Graham, destacando que o sistema não verifica dados oficiais nem considera o contexto local.
À medida que modelos de IA passam a ser usados em tarefas cotidianas, aumenta o perigo de que suas respostas enviesadas sejam vistas como verdades absolutas. Francisco Kerche, pesquisador do Oxford Internet Institute e doutorando na USP, defende cautela no emprego da tecnologia em decisões políticas, empresariais ou trabalhistas.
“Diversos setores precisam discutir os riscos de modelos enviesados, os espaços adequados para seu uso e formas de regulação. Usuários devem analisar criticamente os resultados, entendendo a estrutura desigual que influencia essas respostas”, diz Kerche.
A reportagem solicitou comentário à OpenAI sobre as conclusões do estudo, mas não recebeu resposta.