Driscoll et al. (2024) investigaram como redes neurais artificiais recorrentes (RNAs) realizam múltiplas tarefas com flexibilidade. Os autores treinaram RNAs para executar 15 tarefas cognitivas diferentes e analisaram as dinâmicas das redes durante a execução das tarefas. Eles descobriram que as RNAs aprenderam a realizar essas tarefas reutilizando e recombinando um conjunto de “motivos dinâmicos” – padrões de atividade neural que implementam cálculos específicos.
Esses motivos dinâmicos foram compartilhados entre tarefas que exigiam elementos computacionais semelhantes, como memória, categorização e resposta atrasada. Por exemplo, tarefas que exigiam a memória de uma variável circular contínua reutilizavam o mesmo atrator em anel, um padrão de atividade neural que mantém a representação da variável ao longo do tempo.
Os autores também descobriram que os motivos dinâmicos eram implementados por grupos de unidades neurais, e que lesões nesses grupos causavam déficits de desempenho modular, ou seja, prejudicavam apenas as tarefas que dependiam do motivo dinâmico lesionado.
Este estudo lança luz sobre como as redes neurais artificiais podem alcançar a flexibilidade cognitiva, um marco do comportamento inteligente. A descoberta de motivos dinâmicos compartilhados sugere que a modularidade e a reutilização de componentes computacionais podem ser princípios fundamentais da computação neural, tanto em cérebros biológicos quanto em redes artificiais.
Referência:
DRISCOLL, Laura N. et al. Flexible multitask computation in recurrent networks utilizes shared dynamical motifs. Nature Neuroscience, v. 27, p. 1118-1133, 2024.
Foto de Moritz Kindler na Unsplash