20. Januar 2016

Die Gedächtniskapazität des Gehirns ist zehnmal größer als bisher angenommen

Daten des Salk Institute zeigen, dass die Speicherkapazität des Gehirns im Petabyte-Bereich liegt, so viel wie die des gesamten Webs

Salk-Nachrichten


Die Gedächtniskapazität des Gehirns ist zehnmal größer als bisher angenommen

Daten des Salk Institute zeigen, dass die Speicherkapazität des Gehirns im Petabyte-Bereich liegt, so viel wie die des gesamten Webs

LA JOLLA – Salk-Forscher und Mitarbeiter haben entscheidende Einblicke in die Größe neuronaler Verbindungen gewonnen und die Gedächtniskapazität des Gehirns weit über gängige Schätzungen geschätzt. Die neue Arbeit beantwortet auch eine seit langem gestellte Frage, wie das Gehirn so energieeffizient ist, und könnte Ingenieuren dabei helfen, Computer zu bauen, die unglaublich leistungsfähig sind, aber auch Energie sparen.

„Das ist eine echte Bombe auf dem Gebiet der Neurowissenschaften“, sagt er Terry Sejnowski, Salk-Professor und Co-Senior-Autor des Artikels, der in veröffentlicht wurde eLife. „Wir haben den Schlüssel zur Entschlüsselung des Designprinzips dafür entdeckt, wie Hippocampus-Neuronen mit geringer Energie, aber hoher Rechenleistung funktionieren. Unsere neuen Messungen der Gedächtniskapazität des Gehirns erhöhen konservative Schätzungen um den Faktor 10 auf mindestens ein Petabyte und liegen damit auf demselben Niveau wie das World Wide Web.“

Unsere Erinnerungen und Gedanken sind das Ergebnis elektrischer und chemischer Aktivitätsmuster im Gehirn. Ein wesentlicher Teil der Aktivität findet statt, wenn Äste von Neuronen, ähnlich wie elektrische Drähte, an bestimmten Verbindungsstellen, den sogenannten Synapsen, interagieren. Ein Ausgangs-„Draht“ (ein Axon) von einem Neuron verbindet sich mit einem Eingangs-„Draht“ (einem Dendrit) eines zweiten Neurons. Signale wandern über die Synapse als Chemikalien, sogenannte Neurotransmitter, um dem empfangenden Neuron mitzuteilen, ob es ein elektrisches Signal an andere Neuronen weiterleiten soll. Jedes Neuron kann Tausende dieser Synapsen mit Tausenden anderen Neuronen haben.

„Als wir zum ersten Mal jeden Dendriten, jedes Axon, jeden Gliafortsatz und jede Synapse aus einem Hippocampusvolumen von der Größe eines einzelnen roten Blutkörperchens rekonstruierten, waren wir etwas verwirrt über die Komplexität und Vielfalt der Synapsen“, sagt Kristen Harris, Co-Seniorin Autor der Arbeit und Professor für Neurowissenschaften an der Universität von Texas, Austin. „Obwohl ich gehofft hatte, aus diesen detaillierten Rekonstruktionen grundlegende Prinzipien über die Organisation des Gehirns zu lernen, war ich wirklich erstaunt über die Präzision, die in den Analysen dieses Berichts erzielt wurde.“

Synapsen sind immer noch ein Rätsel, obwohl ihre Fehlfunktion eine Reihe von Problemen verursachen kann neurologische Erkrankungen. Größere Synapsen – mit mehr Oberfläche und Vesikeln mit Neurotransmittern – sind stärker, wodurch sie mit größerer Wahrscheinlichkeit die umliegenden Neuronen aktivieren als mittlere oder kleine Synapsen.

Beim Aufbau einer 3D-Rekonstruktion des Hippocampusgewebes der Ratte (dem Gedächtniszentrum des Gehirns) bemerkte das Salk-Team etwas Ungewöhnliches. In einigen Fällen bildete ein einzelnes Axon eines Neurons zwei Synapsen, die zu einem einzelnen Dendrit eines zweiten Neurons reichten, was bedeutete, dass das erste Neuron offenbar eine doppelte Nachricht an das empfangende Neuron sendete.

Von dieser Doppelzüngigkeit, die im Hippocampus in etwa 10 Prozent der Fälle vorkommt, hielten die Forscher zunächst nicht viel. Aber Tom Bartol, ein wissenschaftlicher Mitarbeiter bei Salk, hatte eine Idee: Wenn sie den Unterschied zwischen zwei sehr ähnlichen Synapsen wie diesen messen könnten, könnten sie Einblicke in die Synapsengrößen gewinnen, die bisher in der Fachwelt nur als klein und mittel klassifiziert wurden und groß.

pair_c.elife_striking_image
Bei einer computergestützten Rekonstruktion des Gehirngewebes im Hippocampus fanden Salk-Wissenschaftler und UT-Austin-Wissenschaftler das ungewöhnliche Vorkommen zweier Synapsen vom Axon eines Neurons (durchscheinender schwarzer Streifen), die sich zu zwei Stacheln auf demselben Dendriten eines zweiten Neurons (gelb) formten ). Separate Enden des Axons eines Neurons sind in synaptischem Kontakt mit zwei Stacheln (Pfeile) am gleichen Dendriten eines zweiten Neurons im Hippocampus dargestellt. Die Volumina des Wirbelsäulenkopfes, die synaptischen Kontaktbereiche (rot), die Halsdurchmesser (grau) und die Anzahl der präsynaptischen Vesikel (weiße Kugeln) dieser beiden Synapsen sind nahezu identisch.

Hier klicken für ein hochauflösendes Bild.

Bildnachweis: Salk Institute

Zu diesem Zweck verwendeten die Forscher fortschrittliche Mikroskopie und von ihnen entwickelte Rechenalgorithmen, um Rattengehirne abzubilden und die Konnektivität, Formen, Volumina und Oberfläche des Gehirngewebes bis auf nanomolekulare Ebene zu rekonstruieren.

Die Wissenschaftler gingen davon aus, dass die Synapsen ungefähr gleich groß sein würden, waren jedoch überrascht, als sie feststellten, dass die Synapsen nahezu identisch waren.

„Wir waren erstaunt, dass der Unterschied in der Größe der Synapsenpaare sehr gering war, im Durchschnitt nur etwa acht Prozent unterschiedlich groß. Niemand hätte gedacht, dass es so ein kleiner Unterschied sein würde. „Das war eine Kuriosität der Natur“, sagt Bartol.

Da die Speicherkapazität von Neuronen von der Synapsengröße abhängt, erwies sich dieser Unterschied von acht Prozent als Schlüsselzahl, die das Team dann in seine algorithmischen Modelle des Gehirns einbinden konnte, um zu messen, wie viele Informationen möglicherweise in synaptischen Verbindungen gespeichert werden könnten.

Früher war bekannt, dass der Größenunterschied zwischen der kleinsten und der größten Synapse einen Faktor 60 beträgt und die meisten davon klein sind.

Aber mit dem Wissen, dass Synapsen aller Größen in Schritten von nur acht Prozent zwischen den Größen innerhalb eines Faktors von 60 variieren können, stellte das Team fest, dass es etwa 26 Kategorien von Synapsengrößen geben könnte und nicht nur einige wenige.

„Unsere Daten deuten darauf hin, dass es zehnmal mehr diskrete Synapsengrößen gibt als bisher angenommen“, sagt Bartol. Computertechnisch gesehen entsprechen 10 Synapsengrößen etwa 26 „Bits“ an Informationen. Bisher ging man davon aus, dass das Gehirn nur ein bis zwei Bits für die Kurz- und Langgedächtnisspeicherung im Hippocampus in der Lage sei.

„Das ist ungefähr eine Größenordnung größerer Präzision, als irgendjemand jemals gedacht hätte“, sagt Sejnowski.

Was diese Präzision rätselhaft macht, ist die notorische Unzuverlässigkeit der Hippocampus-Synapsen. Wenn ein Signal von einem Neuron zum anderen wandert, aktiviert es dieses zweite Neuron normalerweise nur in 10 bis 20 Prozent der Fälle.

„Wir haben uns oft gefragt, wie aus solch unzuverlässigen Synapsen die bemerkenswerte Präzision des Gehirns entstehen kann“, sagt Bartol. Eine Antwort scheint in der ständigen Anpassung der Synapsen zu liegen und deren Erfolgs- und Misserfolgsraten über die Zeit zu mitteln. Das Team nutzte seine neuen Daten und ein statistisches Modell, um herauszufinden, wie viele Signale ein Synapsenpaar benötigen würde, um diesen Unterschied von acht Prozent zu erreichen.

Die Forscher errechneten, dass bei den kleinsten Synapsen etwa 1,500 Ereignisse eine Veränderung ihrer Größe/Fähigkeit bewirken (20 Minuten) und bei den größten Synapsen nur ein paar hundert Signalereignisse (1 bis 2 Minuten) eine Veränderung bewirken.

„Das bedeutet, dass sich Ihre Synapsen alle 2 oder 20 Minuten auf die nächste Größe vergrößern oder verkleinern. Die Synapsen passen sich den empfangenen Signalen an“, sagt Bartol.

Terry Sejnowski_Cailey Bromer_Tom Bartol_IMG_9865
Von links: Terry Sejnowski, Cailey Bromer und Tom Bartol

Hier klicken für ein hochauflösendes Bild.

Bildnachweis: Salk Institute

„Unsere früheren Arbeiten hatten die Möglichkeit angedeutet, dass Stacheln und Axone, die Synapsen miteinander verbinden, ähnlich groß sein könnten, aber die tatsächliche Präzision ist wirklich bemerkenswert und legt den Grundstein für völlig neue Denkweisen über Gehirne und Computer“, sagt Harris. „Die aus dieser Zusammenarbeit resultierende Arbeit hat ein neues Kapitel in der Suche nach Lern- und Gedächtnismechanismen aufgeschlagen.“ Harris fügt hinzu, dass die Ergebnisse weitere Fragen aufwerfen, die es zu untersuchen gilt, beispielsweise ob ähnliche Regeln für Synapsen in anderen Regionen des Gehirns gelten und wie sich diese Regeln während der Entwicklung und bei der Veränderung von Synapsen in den Anfangsphasen des Lernens unterscheiden.

„Die Auswirkungen unserer Erkenntnisse sind weitreichend“, fügt Sejnowski hinzu. „Unter dem scheinbaren Chaos und der Unordnung des Gehirns verbirgt sich eine zugrunde liegende Präzision der Größe und Form von Synapsen, die uns verborgen blieb.“

Die Ergebnisse liefern auch eine wertvolle Erklärung für die überraschende Leistungsfähigkeit des Gehirns. Das Gehirn eines wachen Erwachsenen erzeugt nur etwa 20 Watt Dauerleistung – so viel wie eine sehr schwache Glühbirne. Die Salk-Entdeckung könnte Informatikern dabei helfen, ultrapräzise, ​​aber energieeffiziente Computer zu bauen, insbesondere solche, die „Deep Learning“ und künstliche neuronale Netze nutzen – Techniken, die anspruchsvolles Lernen und Analysen ermöglichen, wie etwa Sprache, Objekterkennung und Übersetzung.

„Dieser Trick des Gehirns weist absolut auf einen Weg hin, bessere Computer zu entwickeln“, sagt Sejnowski. „Die Verwendung der probabilistischen Übertragung erweist sich als genauso genau und erfordert viel weniger Energie sowohl für Computer als auch für Gehirne.“

Weitere Autoren des Artikels waren Cailey Bromer vom Salk Institute; Justin Kinney von der McGovern Institut für Hirnforschung; und Michael A. Chirillo und Jennifer N. Bourne von der University of Texas, Austin.

Die Arbeit wurde unterstützt durch die NIH und der Howard Hughes Medical Institute.

INFORMATIONEN ZUR VERÖFFENTLICHUNG

JOURNAL

eLife

TITEL

Nanokonnektomische Obergrenze für die Variabilität der synaptischen Plastizität

AUTOREN

Thomas M. Bartol, Cailey Bromer, Justin Kinney, Michael A. Chirillo, Jennifer N. Bourne, Kristen M. Harris, Terrence J. Sejnowski

Für mehr Informationen

Büro für Kommunikation
Tel: (858) 453-4100
press@salk.edu

Das Salk-Institut für biologische Studien:

Die Geheimnisse des Lebens selbst zu entschlüsseln, ist die treibende Kraft hinter dem Salk Institute. Unser Team aus erstklassigen, preisgekrönten Wissenschaftlern verschiebt die Grenzen des Wissens in Bereichen wie Neurowissenschaften, Krebsforschung, Alterung, Immunbiologie, Pflanzenbiologie, Computerbiologie und mehr. Das von Jonas Salk, dem Entwickler des ersten sicheren und wirksamen Polio-Impfstoffs, gegründete Institut ist eine unabhängige, gemeinnützige Forschungsorganisation und ein architektonisches Wahrzeichen: klein durch Wahl, intim von Natur aus und furchtlos angesichts jeder Herausforderung.