A memória da IA ​​pode competir com a memória humana? Um estudo acredita que pode

Pesquisadores de Hong Kong descobriram que a inteligência artificial na forma de modelos de linguagem em larga escala (LLM) tem capacidades de memória semelhantes às dos humanos.

De acordo com A papel por especialistas em informática da Universidade Politécnica de Hong Kong, existem vários fatores-chave na capacidade de raciocínio. Isso inclui conhecimento aprendido, informações específicas e a capacidade de alcançar resultados consistentes com o conhecimento aprendido.

Eles dizem: “De acordo com esta definição, as habilidades de memória do LLM também podem ser consideradas uma forma de raciocínio.”

A memória AI funciona da mesma maneira que a memória humana?

Usando as coleções disponíveis em Hugging Face, milhares de poemas chineses foram analisados ​​e memorizados. Vários conjuntos de dados foram capazes de lembrar cerca de 1.900 poemas. Em resposta, eles disseram: “Esses resultados são interessantes. Uma pessoa, sem treinamento especial de memória, teria dificuldade para memorizar até 100 poemas sob tais condições, enquanto os LLMs eram capazes de memorizar quase 100% de 2.000 poemas.”

Diz-se que houve algumas limitações na previsão da parte posterior do poema, foram cometidos alguns erros, que são atribuídos à natureza complexa da linguagem. Porém, mesmo que as previsões nem sempre fossem precisas, as respostas ainda apareciam com as convenções linguísticas corretas, sugerindo uma forma de criatividade e raciocínio.

Portanto, o estudo descreve o conceito de memória de IA como “memória de Schrödinger”. O termo é inspirado no paradoxo da teoria quântica, em que o estado de um objeto é indeterminado até ser observado.

Para os LLMs, dizem que a memória só pode ser avaliada depois de fazer uma pergunta específica, assim como a memória de uma pessoa é avaliada ao responder a uma pergunta específica. Por exemplo, as pessoas não conseguem lembrar exatamente quantos poemas conhecem, mas se lembrarão de um poema específico se solicitado.

Os pesquisadores explicam que tanto o cérebro humano quanto os LLMs geram resultados dinamicamente com base nas entradas. A arquitetura dos LLMs, baseada no modelo Transformer, pode ser vista como uma versão simplificada de como funciona o cérebro humano.

OpenAI está entre aqueles que exploram essa ideia. Em fevereiro, ReadWrite informou que um recurso de “memória” seria adicionado ao ChatGPT que permitiria à IA armazenar informações sobre os usuários ao longo do tempo.

Naquele mesmo mês, pesquisadores do MIT descobriram uma maneira de os chatbots de IA manterem conversas contínuas, sem travamentos ou lentidão, armazenando pontos de dados iniciais em sua memória.

Imagem em destaque: Ideograma

Post A memória da IA ​​está rivalizando com a memória humana? Um estudo acredita que pode aparecer primeiro no ReadWrite.

Fonte