Os psicólogos há muito debatem se a mente humana pode ser explicada por uma teoria única e unificadora ou se diferentes funções, como atenção e memória, devem ser estudadas separadamente. Agora, a inteligência artificial (IA) está a entrar nesse debate, oferecendo uma nova forma de explorar como a mente funciona.
Em julho de 2025, foi publicado um estudo a natureza Introduziu um modelo de IA chamado “Centro”. Construído em modelos de linguagem padrão e refinado usando dados de experimentos psicológicos, o Centaur foi projetado para simular o comportamento cognitivo humano. Foi relatado que tem um bom desempenho em 160 tarefas, incluindo tomada de decisões, controle executivo e outros processos mentais. Os resultados atraíram a atenção generalizada e foram vistos como um passo potencial em direção a sistemas de IA que pudessem replicar de forma mais ampla o pensamento humano.
Nova pesquisa levanta dúvidas
Um estudo recente publicado Aberto Nacional de Ciências Desafie essas afirmações. Pesquisadores da Universidade de Zhejiang argumentam que o aparente sucesso do Centaur pode vir do overfitting. Em outras palavras, em vez de compreender as tarefas, o modelo pode aprender a reconhecer padrões nos dados de treinamento e reproduzir as respostas esperadas.
Para testar esta ideia, os investigadores criaram diversas novas situações de avaliação. Num exemplo, substituíram as instruções originais de múltipla escolha, que indicavam tarefas psicológicas específicas, por “Por favor, escolha a opção A”. Se o modelo realmente entendesse a tarefa, deveria ter escolhido consistentemente A. Em vez disso, o Centaur continua a escolher a “resposta correta” do conjunto de dados original.
Esse comportamento sugere que o modelo não estava explicando o significado da consulta. Em vez disso, depende de padrões estatísticos aprendidos para “adivinhar” a resposta. Os pesquisadores compararam isso a um aluno que obteve bons resultados ao memorizar formatos de testes sem realmente compreender o material.
Por que é importante para a avaliação de IA
Os resultados destacam a necessidade de cautela ao avaliar a capacidade de grandes modelos de linguagem. Embora estes sistemas possam ser extremamente eficazes no ajuste de dados, a sua natureza de “caixa negra” torna difícil saber como chegam aos seus resultados. Isso pode causar problemas como alucinações ou interpretações errôneas. Testes cuidadosos e variados são essenciais para determinar se um modelo realmente possui habilidade.
O verdadeiro desafio: compreender a língua
Embora o Centaur tenha sido apresentado como um modelo capaz de simular a cognição, sua maior limitação parece estar na compreensão da linguagem. Especificamente, luta para reconhecer e responder à intenção por trás das perguntas. A pesquisa sugere que alcançar a verdadeira compreensão da linguagem pode ser um dos desafios mais importantes no desenvolvimento de sistemas de IA que possam modelar de forma mais completa a cognição humana.



