Enero 20, 2016

La capacidad de memoria del cerebro es 10 veces mayor de lo que se pensaba

Los datos del Instituto Salk muestran que la capacidad de memoria del cerebro está en el rango de petabytes, tanto como toda la Web.

Noticias Salk


La capacidad de memoria del cerebro es 10 veces mayor de lo que se pensaba

Los datos del Instituto Salk muestran que la capacidad de memoria del cerebro está en el rango de petabytes, tanto como toda la Web.

LA JOLLA—Los investigadores y colaboradores de Salk han logrado una comprensión crítica del tamaño de las conexiones neuronales, poniendo la capacidad de memoria del cerebro mucho más alta que las estimaciones comunes. El nuevo trabajo también responde a una pregunta de larga data sobre cómo el cerebro es tan eficiente energéticamente y podría ayudar a los ingenieros a construir computadoras que son increíblemente poderosas pero que también conservan energía.

“Esto es un verdadero bombazo en el campo de la neurociencia”, dice terry sejnowski, profesor de Salk y coautor principal del artículo, que se publicó en ELIFE. “Descubrimos la clave para desbloquear el principio de diseño de cómo funcionan las neuronas del hipocampo con poca energía pero con un alto poder de cómputo. Nuestras nuevas mediciones de la capacidad de memoria del cerebro aumentan las estimaciones conservadoras en un factor de 10 a al menos un petabyte, en el mismo estadio que la World Wide Web”.

Nuestros recuerdos y pensamientos son el resultado de patrones de actividad eléctrica y química en el cerebro. Una parte clave de la actividad ocurre cuando las ramas de las neuronas, como un cable eléctrico, interactúan en ciertas uniones, conocidas como sinapsis. Un 'cable' de salida (un axón) de una neurona se conecta a un 'cable' de entrada (una dendrita) de una segunda neurona. Las señales viajan a través de la sinapsis como sustancias químicas llamadas neurotransmisores para decirle a la neurona receptora si debe transmitir una señal eléctrica a otras neuronas. Cada neurona puede tener miles de estas sinapsis con miles de otras neuronas.

"Cuando reconstruimos por primera vez cada dendrita, axón, proceso glial y sinapsis de un volumen de hipocampo del tamaño de un solo glóbulo rojo, nos desconcertó un poco la complejidad y diversidad entre las sinapsis", dice Kristen Harris, co-senior autor de la obra y profesor de neurociencia en la Universidad de Texas, Austin. “Aunque esperaba aprender los principios fundamentales sobre cómo se organiza el cerebro a partir de estas reconstrucciones detalladas, me ha sorprendido mucho la precisión obtenida en los análisis de este informe”.

Las sinapsis siguen siendo un misterio, aunque su disfunción puede causar una variedad de enfermedades neurológicas. Las sinapsis más grandes, con más área de superficie y vesículas de neurotransmisores, son más fuertes, lo que las hace más propensas a activar las neuronas circundantes que las sinapsis medianas o pequeñas.

El equipo de Salk, mientras construía una reconstrucción en 3D del tejido del hipocampo de rata (el centro de la memoria del cerebro), notó algo inusual. En algunos casos, un solo axón de una neurona formaba dos sinapsis que llegaban a una sola dendrita de una segunda neurona, lo que significaba que la primera neurona parecía estar enviando un mensaje duplicado a la neurona receptora.

Al principio, los investigadores no pensaron mucho en esta duplicidad, que ocurre alrededor del 10 por ciento del tiempo en el hipocampo. Pero Tom Bartol, un científico del personal de Salk, tuvo una idea: si pudieran medir la diferencia entre dos sinapsis muy similares como estas, podrían obtener información sobre los tamaños sinápticos, que hasta ahora solo se habían clasificado en el campo como pequeños, medianos. y largo.

pair_c.elife_striking_image
En una reconstrucción computacional del tejido cerebral en el hipocampo, los científicos de Salk y los científicos de UT-Austin encontraron la ocurrencia inusual de dos sinapsis del axón de una neurona (franja negra translúcida) formando dos espinas en la misma dendrita de una segunda neurona (franja amarilla ). Se muestran terminales separados del axón de una neurona en contacto sináptico con dos espinas (flechas) en la misma dendrita de una segunda neurona en el hipocampo. Los volúmenes de la cabeza de la columna vertebral, las áreas de contacto sináptico (rojo), los diámetros del cuello (gris) y el número de vesículas presinápticas (esferas blancas) de estas dos sinapsis son casi idénticos.

Haga clic aquí para una imagen de alta resolución.

Crédito: Instituto Salk

Para hacer esto, los investigadores utilizaron microscopía avanzada y algoritmos computacionales que habían desarrollado para obtener imágenes de cerebros de ratas y reconstruir la conectividad, las formas, los volúmenes y el área de superficie del tejido cerebral hasta un nivel nanomolecular.

Los científicos esperaban que las sinapsis tuvieran un tamaño más o menos similar, pero se sorprendieron al descubrir que las sinapsis eran casi idénticas.

“Nos sorprendió descubrir que la diferencia en los tamaños de los pares de sinapsis era muy pequeña, en promedio, solo alrededor del ocho por ciento de tamaño diferente. Nadie pensó que sería una diferencia tan pequeña. Esta fue una bola curva de la naturaleza”, dice Bartol.

Debido a que la capacidad de memoria de las neuronas depende del tamaño de la sinapsis, esta diferencia del ocho por ciento resultó ser un número clave que el equipo pudo luego conectar a sus modelos algorítmicos del cerebro para medir cuánta información podría almacenarse potencialmente en las conexiones sinápticas.

Antes se sabía que el rango de tamaños entre las sinapsis más pequeñas y las más grandes era un factor de 60 y que la mayoría son pequeñas.

Pero armado con el conocimiento de que las sinapsis de todos los tamaños pueden variar en incrementos tan pequeños como el ocho por ciento entre tamaños dentro de un factor de 60, el equipo determinó que podría haber alrededor de 26 categorías de tamaños de sinapsis, en lugar de solo unas pocas.

“Nuestros datos sugieren que hay 10 veces más tamaños discretos de sinapsis de lo que se pensaba anteriormente”, dice Bartol. En términos informáticos, 26 tamaños de sinapsis corresponden a unos 4.7 "bits" de información. Anteriormente, se pensaba que el cerebro era capaz de solo uno o dos bits para el almacenamiento de memoria a corto y largo plazo en el hipocampo.

"Esto es aproximadamente un orden de magnitud de precisión más de lo que nadie jamás haya imaginado", dice Sejnowski.

Lo que hace que esta precisión sea desconcertante es que las sinapsis del hipocampo son notoriamente poco fiables. Cuando una señal viaja de una neurona a otra, normalmente activa esa segunda neurona solo entre el 10 y el 20 por ciento de las veces.

“A menudo nos habíamos preguntado cómo la notable precisión del cerebro puede surgir de unas sinapsis tan poco fiables”, dice Bartol. Una respuesta, al parecer, está en el ajuste constante de las sinapsis, promediando sus tasas de éxito y fracaso a lo largo del tiempo. El equipo utilizó sus nuevos datos y un modelo estadístico para averiguar cuántas señales necesitaría un par de sinapsis para llegar a esa diferencia del ocho por ciento.

Los investigadores calcularon que para las sinapsis más pequeñas, alrededor de 1,500 eventos provocan un cambio en su tamaño/capacidad (20 minutos) y para las sinapsis más grandes, solo un par de cientos de eventos de señalización (1 a 2 minutos) provocan un cambio.

“Esto significa que cada 2 o 20 minutos, tus sinapsis suben o bajan al siguiente tamaño. Las sinapsis se van ajustando según las señales que reciben”, dice Bartol.

Terry Sejnowski_Cailey Bromer_Tom Bartol_IMG_9865
Desde la izquierda: Terry Sejnowski, Cailey Bromer y Tom Bartol

Haga clic aquí para una imagen de alta resolución.

Crédito: Instituto Salk

“Nuestro trabajo anterior había insinuado la posibilidad de que las espinas y los axones que hacen sinapsis tuvieran un tamaño similar, pero la realidad de la precisión es realmente notable y sienta las bases para formas completamente nuevas de pensar sobre el cerebro y las computadoras”, dice Harris. “El trabajo resultante de esta colaboración ha abierto un nuevo capítulo en la búsqueda de mecanismos de aprendizaje y memoria”. Harris agrega que los hallazgos sugieren más preguntas para explorar, por ejemplo, si se aplican reglas similares para las sinapsis en otras regiones del cerebro y cómo esas reglas difieren durante el desarrollo y a medida que las sinapsis cambian durante las etapas iniciales del aprendizaje.

“Las implicaciones de lo que encontramos son de gran alcance”, agrega Sejnowski. "Oculto bajo el aparente caos y desorden del cerebro hay una precisión subyacente en el tamaño y las formas de las sinapsis que nos estaba oculta".

Los hallazgos también ofrecen una valiosa explicación de la sorprendente eficiencia del cerebro. El cerebro adulto despierto genera solo unos 20 vatios de potencia continua, tanto como una bombilla de luz muy tenue. El descubrimiento de Salk podría ayudar a los científicos informáticos a construir computadoras ultraprecisas, pero energéticamente eficientes, particularmente aquellas que emplean "aprendizaje profundo" y redes neuronales artificiales, técnicas capaces de un aprendizaje y análisis sofisticados, como el habla, el reconocimiento de objetos y la traducción.

“Este truco del cerebro apunta absolutamente a una forma de diseñar mejores computadoras”, dice Sejnowski. “El uso de la transmisión probabilística resulta ser igual de preciso y requiere mucha menos energía tanto para las computadoras como para el cerebro”.

Otros autores del artículo fueron Cailey Bromer del Instituto Salk; Justin Kinney de la Instituto McGovern para la investigación del cerebro; y Michael A. Chirillo y Jennifer N. Bourne de la Universidad de Texas, Austin.

El trabajo fue apoyado por el NIH y del Instituto Médico Howard Hughes.

INFORMACIÓN DE LA PUBLICACIÓN

PERIODICO

ELIFE

TÍTULO

Límite superior nanoconectómico en la variabilidad de la plasticidad sináptica

AUTORES

Thomas M. Bartol, Cailey Bromer, Justin Kinney, Michael A. Chirillo, Jennifer N. Bourne, Kristen M. Harris, Terrence J. Sejnowski

Áreas de investigación

Para más información

Oficina de Comunicaciones
Tel: (858) 453-4100
prensa@salk.edu

El Instituto Salk de Estudios Biológicos:

Descubrir los secretos de la vida misma es la fuerza impulsora detrás del Instituto Salk. Nuestro equipo de científicos galardonados de clase mundial traspasa los límites del conocimiento en áreas como neurociencia, investigación del cáncer, envejecimiento, inmunobiología, biología vegetal, biología computacional y más. Fundado por Jonas Salk, desarrollador de la primera vacuna contra la polio segura y eficaz, el Instituto es una organización de investigación independiente y sin fines de lucro y un hito arquitectónico: pequeño por elección, íntimo por naturaleza y valiente ante cualquier desafío.