Com base na inteligência artificial (IA), agentes, barcos de chat e outros equipamentos são cada vez mais usados em muitos crescendo muitos. O agente baseado em Modelo de Linguagem de Grande Linguagem (LLM), como Chatzpt e Lama, tornou -se impressionantemente fluente nas reações que eles formam, mas muitas vezes o confinamento ainda fornece informações erradas. Pesquisadores da Universidade de Tóquio atraem um paralelo entre um distúrbio da linguagem humana conhecida como Affasia, onde as vítimas podem falar sem sentido, mas podem fazer uma declaração de sem sentido ou estritamente. Essa analogia pode apontar para melhores formas de diagnóstico para a Affasia e, mesmo que você queira melhorar os agentes baseados em LLM, a IA fornece informações para os engenheiros.
Este artigo foi escrito por um homem, mas o uso da IA baseada em texto está aumentando em muitos casos. Como mais pessoas passam a usar e confiar nessas coisas, essas ferramentas são necessárias para garantir que seus usuários forneçam resposta e informação adequadas e consistentes. Muitos equipamentos familiares, incluindo o Chatzpt e outros, oferecem muito simples no que fornecem. No entanto, suas reações nem sempre podem confiar na quantidade de conteúdo de maquiagem que produzem. Se o usuário não for sábio o suficiente sobre o conteúdo da pergunta, ele não poderá assumir facilmente que essas informações estão corretas, especialmente devido às altas dimensões de confiança e altas doses da demonstração de outras pessoas.
O professor Takamitsu Watanab, do International Research Center for Neurutennory (WLIRCN) da Universidade de Tóquio, disse: “Ainda assim, alguns sistemas de IA podem não deixar de ver com que clareza isso pode aparecer ao cometer erros”. “Mas o que minha equipe machucou e eu tive uma semelhança entre as pessoas que estavam sofrendo com esse comportamento e avisaram, onde essas pessoas falam claramente, mas nem sempre significam muito. Isso nos surpreendeu se os processos internos desses sistemas podem ser semelhantes ao cérebro humano infectado pela afasia e que assim, o que pode ser”.
Para explorar esse conceito, o partido usou um método chamado Análise de Paisagem Energética, que é basicamente uma técnica desenvolvida pelos médicos para imaginar os estados de poder em metal magnético, mas foi recentemente adaptado para a neurociência. Eles examinam os restaurantes do cérebro para descansar as atividades cerebrais de diferentes tipos de aflições e comparam dados internos de vários LLMs disponíveis ao público. E em sua análise, a equipe descobriu algumas semelhanças interessantes. Esse modelo de IA é de perto a maneira como as informações ou sinais digitais estão por perto e manipularam alguns sinais cerebrais em um cérebro humano com um certo tipo de afasia, incluindo a afasia, manipulada.
“Você pode imaginar a paisagem energética como uma superfície com uma bola. Quando uma curva, a bola pode descer e descansar, mas quando a curva é rasa, a bola pode girar em torno do caos”, disse Wanteebe. “Na Affasia, a bola representa a condição cerebral da pessoa. No LLM, representa o padrão de sinal contínuo no modelo com base em suas instruções e dados internos”.
O estudo tem vários efeitos. Para a neurociência, ele fornece apenas novas maneiras de classificar e monitorar condições como a apasia com base nas atividades internas do cérebro, em vez de sintomas externos. Para a IA, pode levar a um melhor equipamento de diagnóstico que ajuda os engenheiros a melhorar a arquitetura dos sistemas de IA do interior. Embora, apesar da semelhança que os pesquisadores inventaram, eles solicitaram um aviso para não adivinhar muito.
“Não estamos dizendo que os danos cerebrais do chattbut”, disse Watanabe. “Mas eles podem ser bloqueados em um tipo de padrão interno rígido que limita o quão flexível eles podem recorrer ao conhecimento da aflição armazenada. Se os modelos futuros podem ou não superar esse limite, mas essas paralelas interiores podem ser o primeiro passo em direção à IA inteligente e mais credível”.