Nueva hipótesis sobre cómo nuestras redes neuronales logran albergar tantos recuerdos

Es un modelo matemático desarrollado por dos investigadores argentinos; sus simulaciones numéricas reproducen procesos que se dan en el cerebro humano

02 de octubre, 2022 | 10.32

A la hora de definirnos, suele recurrirse a una frase de Shakespeare en La Tempestad: “Estamos hechos de la misma materia que los sueños”. Otros, la parafrasean y aluden a nuestra mortalidad diciendo que estamos “hechos de tiempo”. Igualmente cierto sería afirmar que estamos “hechos de recuerdos”. La memoria es una condición cardinal de nuestro ser humanos y a la vez una de las áreas de investigación más desafiantes. Dónde y cómo se almacenan los recuerdos es todavía una pregunta abierta para los neurocientíficos. La hipótesis prevaleciente es que cada recuerdo no se guarda en una sola neurona, es una propiedad emergente de una red en la que cada una de ellas es una unidad de procesamiento independiente de las demás.

Las neuronas individuales se comunican a través de las sinapsis. “Cuando están haciendo más o menos lo mismo, tienden a asociarse; o sea, a aumentar la fuerza con que una neurona le 'habla' a la otra –explica el físico Emilio Kropff, director del Laboratorio de Fisiología y Algoritmos del Cerebro de la Fundación Instituto Leloir–. Esa es una regla de aprendizaje muy local, que cuando se aplica en miles y miles de conexiones neuronales, genera esta propiedad emergente. Como resultado, hay estados de la red que son ‘preferidos’, sectores de activación que corresponden a las experiencias que tuvo en el pasado. Y esa es la base de las ‘memorias’. El olor de la casa de mi abuela me hace evocar todas las cosas que están asociadas con la casa de mi abuela”. Esta es una propiedad de la memoria: una clave dispara el recuerdo completo aunque uno no lo tenga delante suyo. Otra muy interesante es que estos sistemas tienden a interpretar el presente en función de los estados de actividad que tuvieron en el pasado. Lo que uno ve en el presente tiende a explicarlo sobre la base de lo que experimentó antes. Y estos estados preferenciales de activación de la red se llaman ‘atractores’”.

La dinámica y funcionalidad de las redes neurales, tanto las artificiales como las biológicas están muy incluidas por la configuración y arquitectura de las conexiones. La capacidad de la red de modificar el peso de sus sinapsis juega un rol prioritario en el aprendizaje y la memoria. Hasta el momento, se habían desarrollado modelos computacionales de “atractores” que intentaban simular su funcionamiento, pero chocaban contra un problema: la capacidad para almacenar recuerdos que se lograba era muy pequeña. “Estos modelos nos explican bastante bien cómo funciona la memoria, pero el número de recursos que permiten albergar es muy chico –destaca Kropff–. Hay algo cuantitativo que no estamos terminando de entender. El cerebro humano es mejor que nuestros modelos”.

Para superar este obstáculo, Kropff y su posdoctorando, Facundo Emina, se preguntaron qué pasaría si en lugar de asociarse aleatoriamente, las neuronas lo hicieran en forma selectiva. El trabajo firmado por Kropff y Emina se publica en la última edición de Frontiers in Systems Neuroscience (https://www.frontiersin.org/articles/10.3389/fnsys.2022.983147/full).

“Hasta ahora, en todas estas simulaciones de atractores no queda muy claro cuál es la la conexión entre neuronas; o sea, cuál es la regla que determina cómo se conectan, ya que tenemos un montón, pero no todas ‘conversan’ con todas –destaca Kropff–. De hecho, tenemos 1011 neuronas en nuestro cerebro (un 1 seguido de 11 ceros), pero solamente 104 (o sea, 10.000) se conectan con una en particular. La proporción a la que tiene acceso una neurona determinada es muy baja. Si uno se preguntara cuál es el peso de las neuronas y cuál el peso de las conexiones dentro del cerebro, la cuenta daría más o menos 50% y 50%. Y no podríamos tener más, porque para tener más conexiones deberíamos tener una cabeza enorme”.

Para explicar el número de recuerdos que guardan las neuronas  había que buscar por otro lado. Lo que hicieron los autores fue tomar como ejemplo la cantidad de palabras que usamos en forma cotidiana (alrededor de 20.000 o 30.000) o de caras (algo similar), pero en los modelos tradicionales lo que se puede almacenar y después recuperar tiene un límite y es una fracción de la cantidad de conexiones por neurona; es decir, mil  o 100.

“Hay algo cuantitativo que no estamos entendiendo –insiste Kropff–. En general, los modelos clásicos plantean que las neuronas ‘eligen’ al azar con cuáles se conectan y así llegan a cierto límite de cuántas memorias se pueden guardar. Nosotros lo que nos preguntamos fue si no es posible que la conectividad vaya cambiando de acuerdo con las memorias que ya tenemos guardadas, que esa arquitectura se vaya optimizando para incorporar más cosas.

Y eso es interesante porque se sabe que en el cerebro humano las grandes ‘autopistas’ son más o menos estables, pero lo que serían las ‘calles de barrio’ en una determinada área del cerebro están cambiando todo el tiempo. Está estudiado en mamíferos y en particular en el cerebro humano, que la cantidad de conexiones por neurona aumenta durante la niñez, llega más o menos a su límite hacia los cinco años y después empieza a decrecer hasta llegar a una situación más o menos estable”.

Lo primero que encontraron fue que sí se puede. ¿Cuánto? Hasta diez veces más. “Nos hubiera gustado llegar, por ejemplo, a mil veces más, pero… bueno, las ideas que tuvimos nos acercan a lo que se estima que ocurre en la realidad: estábamos entre 100 y mil, y ahora estamos entre mil y 10.000. Nos aproximamos un poco a las 50.000 memorias que desearíamos para una red”.

El segundo resultado que arrojó el trabajo los sorprendió. Simularon una red neuronal que va adquiriendo recuerdos como si fuera un chico cuyo cerebro está en desarrollo, y corta o agrega conexiones según le convenga para optimizar su capacidad de almacenamiento. “Vimos que se repite lo que ocurre con el cerebro humano: al principio prevalece la suma de conexiones hasta llegar a un máximo y a partir de ese momento domina el ‘recorte’ de conexiones [algo que los neurocientíficos conocen con la palabra en inglés ‘pruning’ o ‘poda'), y luego se estaciona en un estado de equilibrio en el que se agregan y se anulan por partes iguales”.

Por supuesto, estos son modelos matemáticos que orientan sobre cómo puede funcionar la memoria cuando es difícil probarlo en forma empírica, ya que no se puede saber a qué responde el hecho de que se creen o se corten conexiones neuronales. Se necesita una buena hipótesis teórica de este proceso para que después pueda plantearse cuál es el experimento que permitiría probarlo.

La memoria está guardada en las conexiones sinápticas, en esas asociaciones de neuronas. “El hecho de que se refuerce o se debiliten determinadas sinapsis está asociado con el almacenamiento de información –explica Kropff–, que no se encuentra en un único lugar, sino distribuida en varias. Eso es lo que permite que, si en algún momento, uno pierde una neurona, no pierda el recuerdo, porque la misma información está replicada en muchos lugares. Lo singular de esto es que hay veces en las que perder conexiones ayuda a conservar las memorias. Porque lo que vemos en nuestros modelos y creemos que se verifica en el cerebro, es que las distintas memorias interfieren entre sí. O sea, todas las que vamos guardando son una especie de ‘ruido’ que molesta cuando queremos recuperar una en particular. Y esto tiene que ver con las mismas asociaciones: un olor de pronto me hace acordar a la casa de mi abuela, pero otro parecido por ahí me hace acordar a algo completamente distinto. Lo que hicimos fue tratar de ver cómo, al elegir las conexiones entre neuronas, también minimizamos las interferencias”.

Así, cada experiencia se representaría en el cerebro a través de un grupo de neuronas que se activan. Si esas neuronas, además de activarse juntas, se asocian, en el futuro tendrán también más probabilidad de activarse juntas. “Pero una misma neurona puede participar de muchos ‘atractores’ diferentes, de muchas memorias y de muchas experiencias distintas –subraya Kropff–. Al mismo tiempo, distintas memorias pueden ser almacenadas en una misma red. De ahí que sea tan rico y lleno de color el procesamiento de información que es capaz de realizar el cerebro. Es un procesamiento distribuido y paralelo, no como el de las computadoras, más lineal y ordenado”. 

La “asociación preferencial” entre neuronas se daría eliminando las conexiones que generan demasiado ruido y dejando las menos ruidosas. “Eso va guiando una arquitectura que es óptima para las memorias que ya tengo guardadas –dice Kropff–. La que mejor sirve para que no haya interferencia entre ese conjunto de memorias que adquirí a lo largo de la vida”.

Para Pedro Bekinschtein, investigador especializado en el estudio de la memoria y director del Instituto de Neurociencias Cognitivas y Traslacionales (de triple dependencia, Ineco-Conicet-Fundación Favaloro), que no participó en el estudio, “el artículo es súper interesante, porque propone un modelo matemático para entender cómo es posible aprender tantas cosas, algo que simulaciones anteriores no lograban hacer. Está planteado sobre la base de estudios reales de electrofisiología de actividad neuronal y se simula cómo podría ser una red de aprendizaje para ver cuánto puede aprender”.