22 mai 2024

Améliorer le stockage cérébral : quantifier la quantité d'informations que nos synapses peuvent contenir

Les scientifiques de Salk développent une nouvelle technique pour mesurer la force et la plasticité des synapses, soutenant de nouvelles recherches sur l'apprentissage et la mémoire et la façon dont ces processus déclinent avec le vieillissement et la maladie

Actualités Salk


Améliorer le stockage cérébral : quantifier la quantité d'informations que nos synapses peuvent contenir

Les scientifiques de Salk développent une nouvelle technique pour mesurer la force et la plasticité des synapses, soutenant de nouvelles recherches sur l'apprentissage et la mémoire et la façon dont ces processus déclinent avec le vieillissement et la maladie

LA JOLLA — À chaque feuilletage d'un jeu de fiches de vocabulaire, leurs définitions vous viennent plus vite et plus facilement. Ce processus d'apprentissage et de mémorisation renforce les connexions cérébrales importantes. Se souvenir plus facilement de ces nouveaux mots et définitions avec la pratique prouve que ces connexions neuronales, appelées synapses, peuvent se renforcer ou s'affaiblir avec le temps – une caractéristique connue sous le nom de plasticité synaptique.

De gauche à droite : Terrence Sejnowski, Mohammad Samavat et Thomas Bartol
De gauche à droite : Terrence Sejnowski, Mohammad Samavat et Thomas Bartol.

Cliquez ici pour une image haute résolution.
Crédit : Salk Institute

Quantifier la dynamique des synapses individuelles peut être un défi pour les neuroscientifiques, mais les récentes innovations informatiques du Salk Institute pourraient changer cela et révéler de nouvelles perspectives sur le cerveau en cours de route.

Pour comprendre comment le cerveau apprend et retient l'information, les scientifiques tentent de quantifier à quel point une synapse est devenue plus forte grâce à l'apprentissage, et à quel point elle l'est. Vous pouvez obtenir. La force synaptique peut être mesurée en examinant les caractéristiques physiques des synapses, mais il est beaucoup plus difficile de mesurer la précision de la plasticité (si les synapses s'affaiblissent ou se renforcent de manière constante) et de la quantité d'informations qu'une synapse peut stocker.

Les scientifiques de Salk ont mis au point une nouvelle méthode pour explorer la force synaptique, la précision de la plasticité et la quantité d'informations stockées. La quantification de ces trois caractéristiques synaptiques peut améliorer la compréhension scientifique de la façon dont les humains apprennent et se souviennent, ainsi que de la façon dont ces processus évoluent au fil du temps ou se dégradent avec l'âge ou la maladie. Les résultats ont été publiés dans Calcul neuronal sur Avril 23, 2024.

« Nous parvenons à identifier plus précisément où et comment les neurones individuels sont connectés les uns aux autres, mais nous avons encore beaucoup à apprendre sur la dynamique de ces connexions », explique le professeur Terrence Sejnowski, auteur principal de l'étude et titulaire de la chaire Francis Crick à Salk. « Nous avons désormais créé une technique permettant d'étudier la force des synapses, la précision avec laquelle les neurones modulent cette force et la quantité d'informations que les synapses sont capables de stocker, ce qui nous amène à découvrir que notre cerveau peut stocker 10 fois « Plus d’informations que nous ne le pensions auparavant. »

Deux neurones, l'un en plein champ (à gauche, violet clair) et l'autre partiellement hors champ (à droite, bleu clair), sur un fond de zéros et de uns symbolisant l'unité de bits utilisée pour quantifier le stockage de l'information dans les synapses. Le neurone de gauche envoie des messages au neurone de droite. L'impulsion électrique du processus synaptique
Deux neurones, l'un en plein champ (à gauche, violet clair) et l'autre partiellement hors champ (à droite, bleu clair), sur un fond de zéros et de uns symbolisant l'unité de bits utilisée pour quantifier le stockage de l'information dans les synapses. Le neurone de gauche envoie des messages au neurone de droite. L'impulsion électrique des synapses traitant et transmettant l'information est représentée par des éclairs jaunes à la jonction des deux neurones.

Cliquez ici pour une image haute résolution.
Crédit : Salk Institute

Lorsqu'un message circule dans le cerveau, il passe d'un neurone à l'autre, passant de l'extrémité d'un neurone aux dendrites, les vrilles déployées d'un autre neurone. Chaque dendrite d'un neurone est recouverte de minuscules appendices bulbeux, appelés épines dendritiques. À l'extrémité de chaque épine dendritique se trouve la synapse, un minuscule espace où les deux cellules se rencontrent et où un signal électrochimique est transmis. Différentes synapses sont activées pour envoyer différents messages.

Certains messages activent des paires de synapses situées à proximité l'une de l'autre sur la même dendrite. Ces paires de synapses constituent un formidable outil de recherche : si deux synapses présentent des historiques d'activation identiques, les scientifiques peuvent comparer leur force et tirer des conclusions sur la précision de leur plasticité. Puisque le même type et la même quantité d'informations ont transité par ces deux synapses, leur force a-t-elle changé de la même intensité ? Si oui, leur plasticité est très précise.

L'équipe Salk a appliqué des concepts de la théorie de l'information pour analyser la force, la plasticité et la précision de paires de synapses issues de l'hippocampe d'un rat – une partie du cerveau impliquée dans l'apprentissage et la mémoire. La théorie de l'information est une méthode mathématique sophistiquée permettant de comprendre le traitement de l'information comme une entrée transitant par un canal bruyant et reconstruite à son extrémité.

Flèches blanches pointant vers deux synapses (rouge) sur la même dendrite (jaune), partageant le même axone (tube noir tacheté).
Flèches blanches pointant vers deux synapses (rouge) sur la même dendrite (jaune), partageant le même axone (tube noir tacheté).

Cliquez ici pour une image haute résolution.
Crédit : Salk Institute

Fondamentalement, contrairement aux méthodes utilisées dans le passé, la théorie de l'information prend en compte le bruit des nombreux signaux et cellules du cerveau, en plus d'offrir une unité d'information discrète - un bit - pour mesurer la quantité d'informations stockées dans une synapse.

« Nous avons classé les synapses par force, parmi lesquelles 24 catégories possibles, puis comparé des paires de synapses spécifiques afin de déterminer avec quelle précision la force de chaque synapse est modulée », explique Mohammad Samavat, premier auteur de l'étude et chercheur postdoctoral au laboratoire de Sejnowski. « Nous avons été ravis de constater que les paires présentaient des tailles d'épines dendritiques et des forces synaptiques très similaires, ce qui signifie que le cerveau est très précis lorsqu'il affaiblit ou renforce les synapses au fil du temps. »

Outre les similitudes de force synaptique au sein de ces paires, qui se traduisent par une grande précision de plasticité, l'équipe a également mesuré la quantité d'information contenue dans chacune des 24 catégories de force. Malgré les différences de taille de chaque épine dendritique, chacune des 24 catégories de force synaptique contenait une quantité d'information similaire (entre 4.1 et 4.6 bits).

Par rapport aux techniques plus anciennes, cette nouvelle approche utilisant la théorie de l'information est 1) plus complète, représentant 10 fois plus de stockage d'informations dans le cerveau que ce qui était supposé auparavant, et 2) évolutive, ce qui signifie qu'elle peut être appliquée à des ensembles de données divers et volumineux pour recueillir des informations sur d'autres synapses.

« Cette technique sera d'une aide précieuse pour les neuroscientifiques », déclare Kristen Harris, professeure à l'Université du Texas à Austin et auteure de l'étude. « Cet examen détaillé de la force et de la plasticité synaptiques pourrait véritablement propulser la recherche sur l'apprentissage et la mémoire, et nous pourrions l'utiliser pour explorer ces processus dans toutes les parties du cerveau humain, animal, jeune et âgé. »

Sejnowski affirme que les travaux futurs de projets tels que l'initiative BRAIN des National Institutes of Health, qui a établi un atlas des cellules du cerveau humain En octobre 2023, bénéficieront de ce nouvel outil. Outre les scientifiques qui cataloguent les types et les comportements des cellules cérébrales, cette technique est passionnante pour ceux qui étudient les dysfonctionnements du stockage de l'information, comme dans La maladie d'Alzheimer.

Dans les années à venir, les chercheurs du monde entier pourraient utiliser cette technique pour faire des découvertes passionnantes sur la capacité du cerveau humain à acquérir de nouvelles compétences, à se souvenir des actions quotidiennes et à stocker des informations à court et à long terme.

L’article a également été rédigé par Thomas Bartol de Salk.

Le travail a été soutenu par la National Science Foundation (DBI-1707356, DBI-2014862, 2219894, IIS-2219979) et les National Institutes of Health (P41GM103712, MH095980-07, MH115556, MH129066).

DOI: 10.1162/neco_a_01659

INFORMATIONS DE PUBLICATION

BLOG

Calcul neuronal

TITRE

Capacité de stockage d'informations synaptiques mesurée avec la théorie de l'information

AUTEURS

Mohammad Samavat, Thomas M. Bartol, Kristen M. Harris, Terrence J. Sejnowski

Pour plus d'informations

Bureau des communications
Tél: (858) 453-4100
presse@salk.edu

L'Institut Salk pour les études biologiques :

Percer les secrets de la vie est la force motrice de l'Institut Salk. Notre équipe de scientifiques de renommée mondiale et primés repousse les limites de la connaissance dans des domaines tels que les neurosciences, la recherche sur le cancer, le vieillissement, l'immunobiologie, la biologie végétale, la biologie computationnelle et bien d'autres. Fondé par Jonas Salk, développeur du premier vaccin antipoliomyélitique sûr et efficace, l'Institut est un organisme de recherche indépendant à but non lucratif et un monument architectural : petit par choix, intime par nature et courageux face à tous les défis.