Início Ciência e tecnologia Energia e memória: pais de uma nova rede neural

Energia e memória: pais de uma nova rede neural

74
0

Ouça a primeira nota de uma música antiga e favorita. Você pode nomear esta música? Parabéns, se puder, parabéns – esta é uma vitória de seu colega memória, onde uma informação (primeiras notas) aciona todo o padrão da música (música), você não ouve o resto da música novamente. Aprendemos esse processo neural simples, lembre -se, resolvemos problemas e geralmente navegamos em nossa realidade.

“Este é um efeito de rede”, o professor de engenharia mecânica da UC Santa Barbara, Francesco Bulo, diz que as memórias associadas não são armazenadas em células cerebrais únicas. “Armazenamento de memória e recuperação de memória é o processo dinâmico que ocorre em toda a rede de neurônios” “

Em 1982, o físico John Hopfield traduziu o conceito de neurociência teórica para o estado da inteligência artificial, com a formação da rede Hopfield. Para fazer isso, ele não apenas fornece uma estrutura matemática para entender o armazenamento e a recuperação da memória para o cérebro humano, como também desenvolveu uma das redes neurais artificiais repetitivas – a rede Hopfield – conhecida por recuperar padrões completos de entradas barulhentas ou incompletas. Hopfield ganhou o Prêmio Nobel por seu trabalho em 2024.

No entanto, de acordo com Simon Betti, Bulo e o associado Simone Betty, Ziacomo Baggio e Sandro Jampi de Pádua na Itália, o modelo tradicional de rede Hopfield é forte, mas não conta toda a história de como ele guia a recuperação de novas informações da informação. “Significativamente”, disseram eles em um estudo publicado no Journal of Science Advances, “o papel dos insumos externos tem sido amplamente imprevisível, como eles iniciam seus efeitos para facilitar a recuperação eficaz da memória de seu impacto na velocidade neurológica”. Os pesquisadores sugerem um modelo de recuperação de memória, eles dizem que somos mais descritivos de como sentimos memórias.

“A versão moderna dos sistemas de aprendizado de máquina, esses grandes modelos de linguagem – eles realmente não modelam as memórias”, explicou Bulo. “Você deixou um aviso e obteve uma produção, mas não é da mesma maneira que entendemos e gerenciamos as memórias do mundo animal”. Embora as reações do LLM possam retornar as reações que podem parecer inteligentes com a incisão, elas podem desenhar padrões de linguagens de alimentação, mas seus animais não têm a lógica e a experiência inerentes ao mundo físico.

“A maneira como experimentamos o mundo é uma coisa que é mais contínua e de baixa partida-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o-o —-. A maior parte do tratamento no modelo de Hopfield mostrou a tendência do cérebro de tratar o cérebro de tal maneira que era um computador, com uma perspectiva muito mecânica. “Em vez disso, como estamos trabalhando em um modelo de memória, queremos começar com a perspectiva de um homem” “

A pergunta inspiradora teórica foi: ao sentirmos o mundo que cercamos, como os sinais que recebemos permitem recuperar nossas memórias?

Como o Hopfield imaginava, ajuda a imaginar a recuperação da memória no cenário de uma energia, onde os vales são os mínimos de energia que apresenta memórias. A recuperação da memória é como explorar esse cenário; Reconhecido quando você cai em um vale. Sua posição inicial na paisagem é sua condição principal.

“Imagine que você veja a cauda de um gato”, disse Bulo. “Todo o gato, não apenas a cauda. Um sistema de memória associado deve ser capaz de recuperar a memória de todo o gato” “De acordo com o modelo tradicional de hopfield, a cauda do gato (estímulo) é suficiente para mantê -lo mais próximo do vale” Cat “rotulado, ele explicou como a condição inicial como a primeira condição.

Bulo disse: “O modelo clássico de Hopfield não explica cuidadosamente como a cauda do gato cai pela colina e o coloca no lugar certo para atingir a energia mínima”. “Como você vaga pela atividade nervosa, onde está salvando essas memórias? Não está claro.”

O objetivo do modelo de plasticidade de entrada dos pesquisadores (IDP) é resolver essa falta de precisão com um método que integra gradualmente as informações passadas e novas, lidera o processo de recuperação de memória à memória correta. Em vez de aplicar a recuperação de memória algorítmica no cenário de energia estática, em vez do modelo original de rede Hopfield, os pesquisadores descrevem um processo dinâmico e orientado por entrada.

Bulo disse: “Apoiamos essa idéia de que o estímulo do mundo externo (por exemplo, a imagem da cauda do gato), ao mesmo tempo muda a paisagem”, disse Bulo. “O estímulo facilita o cenário de energia para que sua posição primária, você role na memória certa do gato” “, dizem que o modelo de IDP é visto para palavras – uma situação em que a entrada é obscura, vaga ou parcialmente obscura – e na realidade, a pessoa menos estável é a única pessoa estável.

“Começamos com o fato de que, quando você olha para uma cena, é transferido para os diferentes elementos da cena à sua vista”, disse Betty. “Então, a cada instante, escolha o que você deseja se concentrar, mas há muitas palavras ao seu redor”

Escolhendo o que se concentrar na atenção de alias, é o principal processo por trás de outra arquitetura de rede neural, Transformer, que se tornou o coração de um grande modelo de linguagem como o Chatzpt. Embora o modelo IDP propô os pesquisadores, “começa com um objetivo diferente de um ponto inicial diferente”, disse Bulo, disse que os futuros sistemas de aprendizado de máquina do modelo têm muito potencial para serem úteis no design.

“Vemos uma conexão entre os dois e o artigo descreve”, disse Bulo. “Este não é o foco original do artigo, mas há uma maravilhosa esperança de que esses colegas sistemas de memória e grandes modelos de idiomas possam ser reunidos”.

Source link