22 mai 2024

Améliorer le stockage cérébral : quantifier la quantité d'informations que nos synapses peuvent contenir

Les scientifiques de Salk développent une nouvelle technique pour mesurer la force et la plasticité des synapses, soutenant ainsi de nouvelles recherches sur l'apprentissage et la mémoire et sur la manière dont ces processus diminuent avec le vieillissement et la maladie.

Actualités Salk


Améliorer le stockage cérébral : quantifier la quantité d'informations que nos synapses peuvent contenir

Les scientifiques de Salk développent une nouvelle technique pour mesurer la force et la plasticité des synapses, soutenant ainsi de nouvelles recherches sur l'apprentissage et la mémoire et sur la manière dont ces processus diminuent avec le vieillissement et la maladie.

LA JOLLA—À chaque fois que vous parcourez un jeu de cartes mémoire de mots de vocabulaire, leurs définitions apparaissent plus rapidement et plus facilement. Ce processus d’apprentissage et de mémorisation de nouvelles informations renforce les connexions importantes dans votre cerveau. Se souvenir plus facilement de ces nouveaux mots et définitions avec la pratique est la preuve que ces connexions neuronales, appelées synapses, peuvent devenir plus fortes ou plus faibles avec le temps – une caractéristique connue sous le nom de plasticité synaptique.

De gauche à droite : Terrence Sejnowski, Mohammad Samavat et Thomas Bartol
De gauche à droite : Terrence Sejnowski, Mohammad Samavat et Thomas Bartol.

Cliquez ici pour une image haute résolution.
Crédit: Salk Institute

Quantifier la dynamique des synapses individuelles peut être un défi pour les neuroscientifiques, mais les récentes innovations informatiques de l'Institut Salk pourraient changer cela et révéler de nouvelles connaissances sur le cerveau en cours de route.

Pour comprendre comment le cerveau apprend et retient les informations, les scientifiques tentent de quantifier à quel point une synapse est devenue plus forte grâce à l'apprentissage, et à quel point elle est devenue plus forte. vous obtenir. La force synaptique peut être mesurée en examinant les caractéristiques physiques des synapses, mais il est beaucoup plus difficile de mesurer la force synaptique. précision de la plasticité (si les synapses s'affaiblissent ou se renforcent d'une quantité constante) et la quantité d'informations qu'une synapse peut stocker.

Les scientifiques de Salk ont ​​établi une nouvelle méthode pour explorer la force synaptique, la précision de la plasticité et la quantité de stockage d'informations. La quantification de ces trois caractéristiques synaptiques peut améliorer la compréhension scientifique de la manière dont les humains apprennent et se souviennent, ainsi que de la manière dont ces processus évoluent au fil du temps ou se détériorent avec l'âge ou la maladie. Les résultats ont été publiés dans Calcul neuronal sur Avril 23, 2024.

"Nous parvenons à identifier exactement où et comment les neurones individuels sont connectés les uns aux autres, mais nous avons encore beaucoup à apprendre sur la dynamique de ces connexions", explique le professeur. Terrence Sejnowski, auteur principal de l'étude et titulaire de la chaire Francis Crick à Salk. "Nous avons maintenant créé une technique pour étudier la force des synapses, la précision avec laquelle les neurones modulent cette force et la quantité d'informations que les synapses sont capables de stocker, ce qui nous amène à découvrir que notre cerveau peut stocker 10 fois plus d’informations que nous ne le pensions auparavant.

Deux neurones, un en entier (à gauche, violet clair) et un partiellement hors cadre (à droite, bleu clair) sur un fond de zéros et de uns pour symboliser l'unité de bits utilisée pour quantifier le stockage des informations dans les synapses. Le neurone de gauche envoie des messages au neurone de droite. Le processus d’impulsion électrique des synapses
Deux neurones, un en entier (à gauche, violet clair) et un partiellement hors cadre (à droite, bleu clair) sur un fond de zéros et de uns pour symboliser l'unité de bits utilisée pour quantifier le stockage des informations dans les synapses. Le neurone de gauche envoie des messages au neurone de droite. L'impulsion électrique des synapses qui traitent et envoient les informations est représentée par des éclairs jaunes à l'endroit où les deux neurones se rencontrent.

Cliquez ici pour une image haute résolution.
Crédit: Salk Institute

Lorsqu’un message traverse le cerveau, il passe d’un neurone à l’autre, passant de l’extrémité d’un neurone aux vrilles tendues, appelées dendrites, d’un autre. Chaque dendrite d'un neurone est recouverte de minuscules appendices bulbeux, appelés épines dendritiques, et à l'extrémité de chaque épine dendritique se trouve la synapse, un petit espace où les deux cellules se rencontrent et où un signal électrochimique est transmis. Différentes synapses sont activées pour envoyer différents messages.

Certains messages activent des paires de synapses, qui vivent les unes à côté des autres sur la même dendrite. Ces paires de synapses constituent un outil de recherche fantastique : si deux synapses ont des historiques d'activation identiques, les scientifiques peuvent comparer la force de ces synapses pour tirer des conclusions sur la précision de la plasticité. Puisque le même type et la même quantité d’informations ont traversé ces deux synapses, ont-elles chacune changé en force dans la même quantité ? Si tel est le cas, leur précision de plasticité est élevée.

L'équipe Salk a appliqué les concepts de la théorie de l'information pour analyser les paires de synapses d'un hippocampe de rat (une partie du cerveau impliquée dans l'apprentissage et la mémoire) pour déterminer la force, la plasticité et la précision de la plasticité. La théorie de l’information est une manière mathématique sophistiquée de comprendre le traitement de l’information comme une entrée traversant un canal bruyant et étant reconstruite à l’autre extrémité.

Flèches blanches pointant vers deux synapses (rouges) sur la même dendrite (jaune), partageant le même axone (tube noir tacheté).
Flèches blanches pointant vers deux synapses (rouges) sur la même dendrite (jaune), partageant le même axone (tube noir tacheté).

Cliquez ici pour une image haute résolution.
Crédit: Salk Institute

Surtout, contrairement aux méthodes utilisées dans le passé, la théorie de l'information prend en compte le bruit des nombreux signaux et cellules du cerveau, en plus d'offrir une unité d'information discrète (un peu) pour mesurer la quantité d'informations stockées au niveau d'une synapse.

"Nous avons divisé les synapses par force, parmi lesquelles il y avait 24 catégories possibles, puis comparé des paires de synapses spéciales pour déterminer avec quelle précision la force de chaque synapse est modulée", explique Mohammad Samavat, premier auteur de l'étude et chercheur postdoctoral dans le laboratoire de Sejnowski. "Nous étions ravis de constater que les paires avaient des tailles d'épines dendritiques et des forces synaptiques très similaires, ce qui signifie que le cerveau est très précis lorsqu'il affaiblit ou renforce les synapses au fil du temps."

En plus de noter les similitudes dans la force des synapses au sein de ces paires, ce qui se traduit par un haut niveau de précision de plasticité, l'équipe a également mesuré la quantité d'informations contenues dans chacune des 24 catégories de force. Malgré les différences dans la taille de chaque épine dendritique, chacune des 24 catégories de force synaptique contenait une quantité similaire (entre 4.1 et 4.6 bits) d'informations.

Par rapport aux techniques plus anciennes, cette nouvelle approche utilisant la théorie de l'information est 1) plus approfondie, représentant 10 fois plus de stockage d'informations dans le cerveau qu'on ne le pensait auparavant, et 2) évolutive, ce qui signifie qu'elle peut être appliquée à des ensembles de données divers et volumineux pour collecter des informations. sur les autres synapses.

"Cette technique va être d'une aide considérable pour les neuroscientifiques", déclare Kristen Harris, professeur à l'Université du Texas à Austin et auteur de l'étude. "Avoir cet examen détaillé de la force et de la plasticité synaptiques pourrait vraiment propulser la recherche sur l'apprentissage et la mémoire, et nous pouvons l'utiliser pour explorer ces processus dans toutes les différentes parties du cerveau humain, du cerveau animal, du cerveau jeune et du cerveau âgé."

Sejnowski affirme que les travaux futurs de projets tels que l'initiative BRAIN des National Institutes of Health, qui ont établi un Atlas des cellules du cerveau humain en octobre 2023, bénéficieront de ce nouvel outil. En plus des scientifiques qui cataloguent les types et les comportements des cellules cérébrales, la technique est intéressante pour ceux qui étudient les problèmes de stockage des informations, comme dans La maladie d'Alzheimer.

Dans les années à venir, les chercheurs du monde entier pourraient utiliser cette technique pour faire des découvertes passionnantes sur la capacité du cerveau humain à acquérir de nouvelles compétences, à se souvenir des actions quotidiennes et à stocker des informations à court et à long terme.

Le document a également été rédigé par Thomas Bartol de Salk.

Le travail a été soutenu par la National Science Foundation (DBI-1707356, DBI-2014862, 2219894, IIS-2219979) et les National Institutes of Health (P41GM103712, MH095980-07, MH115556, MH129066).

DOI: 10.1162/neco_a_01659

INFORMATIONS SUR LA PUBLICATION

BLOG

Calcul neuronal

TITRE

Capacité de stockage d'informations synaptiques mesurée avec la théorie de l'information

AUTEURS

Mohammad Samavat, Thomas M. Bartol, Kristen M. Harris, Terrence J. Sejnowski

Pour plus d'informations

Bureau des communications
Tél: (858) 453-4100
presse@salk.edu

L'Institut Salk d'études biologiques:

Percer les secrets de la vie elle-même est la force motrice du Salk Institute. Notre équipe de scientifiques primés de classe mondiale repousse les limites des connaissances dans des domaines tels que les neurosciences, la recherche sur le cancer, le vieillissement, l'immunobiologie, la biologie végétale, la biologie computationnelle et bien plus encore. Fondé par Jonas Salk, développeur du premier vaccin sûr et efficace contre la polio, l'Institut est un organisme de recherche indépendant à but non lucratif et un monument architectural : petit par choix, intime par nature et intrépide face à tout défi.