Entre em nosso grupo
2
Continua depois da publicidade
 
								Entre os modelos analisados estão o GPT-4, GPT-3.5, Llama-3, Mixtral e Qwen | Freepik
A Inteligência Artificial (IA) se tornou uma importante aliada na execução de tarefas humanas.
Continua depois da publicidade
No entanto, um estudo mostra que, embora seja útil, essa nova “companheira” pode apresentar certo viés ao avaliar conteúdos feitos por pessoas.
A pesquisa, publicada em julho de 2025 na revista Anais da Academia Nacional de Ciências dos EUA (PNAS), indica que modelos como o GPT-3.5 e o GPT-4 tendem a favorecer textos criados por outras IAs em vez de produções humanas.
Textos de pessoas que contam com apoio de IA também saem em vantagem.
Continua depois da publicidade
Os modelos de linguagem de grande porte (LLMs em inglês) foram as ferramentas estudadas pelos pesquisadores. Eles são sistemas de inteligência artificial capazes de entender e gerar textos parecidos com a linguagem humana.
Para fazer isso, os LLMs foram treinados lendo muita informação (livros, sites, artigos, conversas, etc.) e aprendendo os padrões de como as palavras e frases costumam aparecer juntas.
No estudo, os pesquisadores analisaram três tipos de conteúdo: descrições de produtos, resumos de artigos científicos e sinopses de filmes. Os LLMs receberam informações básicas sobre cada item e foram instruídos a gerar textos a partir desses dados.
Continua depois da publicidade
Esses textos gerados por IA foram comparados com versões feitas por humanos, usando diferentes ferramentas como GPT4, GPT3.5, Llama3, Mixtral e Qwen.
Os pares – um texto humano e outro produzido por IA – foram apresentados alternadamente às próprias ferramentas, que precisavam escolher qual consideravam melhor, simulando uma decisão real do usuário.
Nos três tipos de conteúdo, os resultados mostraram uma constante preferência das IAs por textos produzidos por outras IAs.
Continua depois da publicidade
Os pesquisadores também fizeram um teste com 13 avaliadores humanos para comparar a preferência deles.
Eles analisaram descrições de produtos, resumos científicos e sinopses de filmes escritos por humanos e gerados pelo GPT3.5 e GPT4, sem saber a origem, e escolheram qual era o seu favorito.
Os resultados mostraram que os humanos tendem a preferir menos textos de IA do que as próprias ferramentas. Mas os autores ressaltam que a amostra foi pequena e recomendam estudos mais amplos para confirmar o fenômeno.
Continua depois da publicidade
Continua depois da publicidade