28 Sep 2022

Descubren por qué una arquitectura cerebral en constante cambio permitiría almacenar más memorias

Según un nuevo modelo computacional, modificar el entramado de conexiones entre neuronas en función de las memorias ya guardadas explica por qué podemos tener tantos recuerdos. Emilio Kropff, jefe del Laboratorio de Fisiología y Algoritmos del Cerebro de la FIL, es el autor principal del estudio publicado en Frontiers in Systems Neuroscience.

Facundo Emina y Emilio Kropff, autores del artículo publicado en Frontiers in Systems Neuroscience.
La memoria es una función del cerebro que nos permite registrar y conservar experiencias, pero también recuperar información y recordar. Los caminos que nos llevan a evocar son múltiples y, muchas veces, misteriosos si queremos explicarlos con palabras. Pero subyacen mecanismos neuronales que trabajan sin descanso. 

Para comprender ese funcionamiento, los científicos utilizan modelos computacionales que buscan emular lo que ocurre en nuestras cabezas, aunque, como toda simulación, presentan limitaciones y no son un calco fiel de la realidad. Ahora, un equipo de investigadores de la Fundación Instituto Leloir (FIL) propuso en la revista Frontiers in Systems Neuroscience una estrategia para aumentar la capacidad de los modelos y descubrió por esa vía que una arquitectura cerebral en movimiento incrementa las memorias que pueden ser almacenadas.  

“Como uno puede guardar memorias hasta un cierto límite, es muy interesante entender cuál es y de qué depende ese límite. Y uno de los grandes desafíos para pensar el cerebro humano o el de cualquier animal, es que el límite depende de la cantidad de conexiones por neurona. En una red normal, se puede guardar un número de memorias equivalente a entre el 1% y el 10% de las conexiones por neurona”, explica el físico Emilio Kropff, jefe del Laboratorio de Fisiología y Algoritmos del Cerebro de la FIL y autor principal del estudio. 

“Nuestro cerebro es enorme. Contiene 100 mil millones de neuronas, pero solamente se producen 10 mil conexiones por neurona. El 1% o el 10% de eso equivale a entre 100 y 1000 memorias, lo que es muy poco”, agrega el investigador, quien junto a un becario posdoctoral de su laboratorio, Facundo Emina, determinó que, si en lugar de dejar que las neuronas se conecten de una manera aleatoria, uno dirige la conectividad en base a las memorias ya almacenadas, se pueden guardar 10 veces más memorias.

Kropff explica que el cerebro utiliza un modelo de aprendizaje llamado “Hebbiano”, esto es, que la conexión entre las neuronas se refuerza si están activas al mismo tiempo. Cuando esta regla se aplica en millones de conexiones sinápticas al mismo tiempo ocurre un fenómeno emergente: se generan estados de actividad preferenciales, también llamados atractores, cada uno representando alguna experiencia pasada. Esa red de neuronas que puede ser estimulada de distintas formas, siempre va a preferir responder de ciertas maneras. A eso se llama memoria. “Si siento el olor de la casa de mi abuela, de pronto me aparece un recuerdo por asociación. Eso es lo que logran hacer los atractores”, grafica Kropff, cuyo trabajo se basó precisamente en modelos de atractores. En casos extremos, el fenómeno explicaría la catarata de recuerdos que despierta en el protagonista de “En busca del tiempo perdido”, de Marcel Proust, el probar una magdalena mojada en el té. 

“La plasticidad de las neuronas, lo que tiene que ver con las fuerzas de las conexiones entre ellas, no la tocamos en nuestro modelo. Lo que hicimos fue decidir cómo conectarlas y vimos que, si uno dirige quién se conecta con quién, multiplica por 10 la capacidad de almacenamiento del modelo”, asegura el investigador. Y agrega: “Encontramos por primera vez que se puede ganar muchísimo en la capacidad de una red de memorias si cambiamos la arquitectura de esa red. Y eso podría dar una pista de por qué el cerebro cambia permanentemente”. 
Para el estudio, los investigadores se preguntaron qué pasaría si una red empieza a recibir memorias y las almacena con la posibilidad de poder ir recortando o creando nuevas conexiones en todo momento para optimizar lo que ya tiene almacenado. 

“Lo que vimos es que sigue un patrón similar al que se observa en el desarrollo del cerebro humano: al principio del proceso se produce una generación neta de conexiones –en los humanos ocurre hasta los 5 años, cuando llega al máximo–, y después viene una cola larga de descenso hasta que se estabiliza en un lugar”, resalta Kropff, quien concluye: “Esto quiere decir que es un sistema muy robusto”.