Information

Speicherkapazität des menschlichen Gehirns in Bytes?

Speicherkapazität des menschlichen Gehirns in Bytes?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Gibt es eine Schätzung, wie viel Speicher (in Bytes) ein durchschnittliches menschliches Gehirn haben kann? Gibt es eine physikalische Grenze?


'Bombshell'-Studie zeigt, dass unser Gehirn noch großartiger ist, als wir dachten

In einem Ergebnis, das sie eine "echte Bombe auf dem Gebiet der Neurowissenschaften" nennen, haben Forscher Beweise dafür gefunden, dass die Gedächtniskapazität des menschlichen Gehirns um eine Größenordnung größer ist als bisher angenommen.

"Unsere neuen Messungen der Gedächtniskapazität des Gehirns erhöhen konservative Schätzungen um den Faktor 10 auf mindestens ein Petabyte", Dr. Terry Sejnowski, Professor am Salk Institute in La Jolla, Kalifornien, und Co-Senior-Autor einer Veröffentlichung, die die Forschung, sagte in einer schriftlichen Erklärung.

Mit anderen Worten, das menschliche Gehirn kann möglicherweise ein Petabyte an Daten speichern, was einer Billiarde Byte entspricht. Das ist genug Speicher, um 13,3 Jahre HD-Video zu speichern.

Das kürzlich in der Zeitschrift eLife veröffentlichte Ergebnis gilt als vorläufig und muss durch zukünftige Forschungen bestätigt werden. Aber es stellt einen bedeutenden Fortschritt in unserem Verständnis der Neuroanatomie dar und könnte sich als Schritt zur Erstellung eines vollständigen "Schaltplans" des menschlichen Gehirns erweisen, sagte Sejnowsky der Huffington Post.

Darüber hinaus könnte die Erkenntnis den Weg zu einer neuen Generation von Computern weisen, die enorme Rechenleistung mit geringem Energieverbrauch kombinieren. Solche "probabilistischen" Computergeräte - so genannt, weil sie Daten intuitiver verarbeiten als herkömmliche Computer - gelten als bahnbrechend für Anwendungen, die von der Übersetzung bis zum maschinellen Sehen reichen.

Sejnowski und seine Mitarbeiter in Salk und der University of Texas in Austin machten die Entdeckung im Rahmen einer detaillierten anatomischen Untersuchung und anschließenden 3D-Computerrekonstruktion der Zellen in einem winzigen Gewebeabschnitt aus dem Gehirn einer Ratte.

Die Rekonstruktion zeigte, dass die Variation in der Größe der Synapsen innerhalb der Probe – die winzigen Lücken zwischen Gehirnzellen, von denen bekannt ist, dass sie der Schlüssel zur Gedächtnisbildung und -speicherung sind – viel geringer waren, als frühere Forschungen nahegelegt hatten. Tatsächlich variierten die Synapsen in der Größe nur um etwa 8 Prozent. (Es wird angenommen, dass Synapsen im Rattenhirn denen im menschlichen Gehirn ähnlich sind.)

"Niemand hätte gedacht, dass es ein so kleiner Unterschied sein würde", sagte Dr. Tom Bartol, ein wissenschaftlicher Mitarbeiter des Instituts und einer der Forscher, in der Erklärung. "Das war ein Curveball aus der Natur."

Als die Forscher die 8-Prozent-Zahl in ihr Computermodell des Gehirns einfügten, stellten sie fest, dass es mehr als zwei Dutzend diskreter Synapsengrößen geben muss und nicht nur wenige. Diese größere Zahl bedeutete wiederum, dass die Synapsen in der Lage sein mussten, weit mehr Informationen zu speichern, als irgendjemand wusste.

Mehr "Bits" pro Synapse zu haben, ist ein bisschen wie ein High-Definition-Fernseher mit mehr Bits pro Pixel als ein herkömmlicher Fernseher, sagte Sejnowski und fügte hinzu: "Wir glauben, dass das Gehirn jetzt hochauflösend ist."

Oder in einer anderen Metapher sagte er: "Wir müssen uns das Gehirn nicht als alte Standuhr vorstellen, sondern als hochpräzise Uhr."

Einige Wissenschaftler glauben, dass das menschliche Gehirn noch mehr Informationen speichern kann. Die wahre Gedächtniskapazität des Gehirns könnte sogar noch größer sein – bis zu 3 bis 5 Petabyte, sagte Dr. Paul Reber, Direktor des Brain, Behavior, & Cognition-Programms in der Psychologieabteilung der Northwestern University, der San Diego Union-Tribune.


Das Gedächtnis des menschlichen Gehirns könnte das gesamte Internet speichern

Das menschliche Gehirn kann möglicherweise so viele Informationen in seinem Gedächtnis speichern, wie das gesamte Internet enthält, legen neue Forschungsergebnisse nahe.

Forscher entdeckten, dass eine Gehirnzelle im Gegensatz zu einem klassischen Computer, der Informationen als Nullen und Einsen kodiert, 26 verschiedene Arten verwendet, um ihre "Bits" zu kodieren. Sie berechneten, dass das Gehirn 1 Petabyte (oder eine Billiarde Byte) an Informationen speichern könnte.

"Dies ist eine echte Bombe auf dem Gebiet der Neurowissenschaften", sagte Terry Sejnowski, Biologe am Salk Institute in La Jolla, Kalifornien, in einer Erklärung. "Unsere neuen Messungen der Gedächtniskapazität des Gehirns erhöhen die konservativen Schätzungen um den Faktor 10."

Erstaunlicher Computer

Darüber hinaus kann das menschliche Gehirn diese unglaubliche Menge an Informationen speichern, während es gerade genug Strom trinkt, um eine schwache Glühbirne zu betreiben. [Top 10 Geheimnisse des Geistes]

Im Gegensatz dazu würde ein Computer mit der gleichen Speicher- und Verarbeitungsleistung 1 Gigawatt Leistung benötigen, oder "im Grunde ein ganzes Atomkraftwerk, um einen Computer zu betreiben, der das tut, was unser 'Computer' mit 20 Watt macht", sagte Studien-Co-Autor Tom Bartol, Neurowissenschaftler am Salk Institute.

Insbesondere wollte das Team den Hippocampus genauer unter die Lupe nehmen, eine Hirnregion, die eine Schlüsselrolle für das Lernen und das Kurzzeitgedächtnis spielt.

Um die Geheimnisse des Geistes zu entwirren, nahm das Forschungsteam eine winzige Scheibe des Hippocampus einer Ratte, legte sie in eine Einbalsamierungsflüssigkeit und schnitt sie dann mit einem extrem scharfen Diamantmesser in dünne Scheiben, ein Vorgang, der dem „Schneiden einer Orange“ ähnelte, sagte Bartol. (Obwohl das Gehirn einer Ratte nicht mit einem menschlichen Gehirn identisch ist, sind die grundlegenden anatomischen Merkmale und die Funktion von Synapsen bei allen Säugetieren sehr ähnlich.) Anschließend bettete das Team das dünne Gewebe in Plastik ein, betrachtete es unter einem Mikroskop und erstellte digitale Bilder.

Als nächstes verbrachten die Forscher ein Jahr damit, mit Stift und Papier jede Art von Zelle zu verfolgen, die sie sahen. Nach all diesen Bemühungen hatte das Team alle Zellen in der Probe aufgespürt, ein erstaunlich kleines Gewebevolumen. [Bildergalerie: Einsteins Gehirn]

"Sie könnten 20 dieser Proben über die Breite eines einzelnen menschlichen Haares passen", sagte Bartol gegenüber Live Science.

Größenverteilung

Als nächstes zählte das Team alle vollständigen Neuronen oder Gehirnzellen im Gewebe zusammen, insgesamt 450. Von diesen wiesen 287 die vollständigen Strukturen auf, an denen die Forscher interessiert waren.

Neuronen sehen ein bisschen aus wie geschwollene, unförmige Ballons, mit langen Ranken, die Axone genannt werden, und Dendriten, die sich aus dem Zellkörper schlängeln. Axone fungieren als Ausgangsdraht der Gehirnzelle und senden eine Flut von Molekülen aus, die Neurotransmitter genannt werden, während winzige Stacheln auf Dendriten die chemischen Botschaften empfangen, die das Axon über eine schmale Lücke, die sogenannte Synapse, sendet. (Die spezifische Stelle auf dem Dendriten, an der diese chemischen Botschaften über die Synapse übertragen werden, wird als dendritische Wirbelsäule bezeichnet.) Die empfangende Gehirnzelle kann dann ihren eigenen Cache von Neurotransmittern abfeuern, um diese Botschaft an andere Neuronen weiterzuleiten, obwohl dies meistens der Fall ist reagiert nichts.

Frühere Arbeiten hatten gezeigt, dass die größten Synapsen die kleinsten um den Faktor 60 in den Schatten stellen. Dieser Größenunterschied spiegelt die Stärke der zugrunde liegenden Verbindung wider - während das durchschnittliche Neuron eingehende Signale etwa 20 Prozent der Zeit weiterleitet, kann dieser Prozentsatz im Laufe der Zeit zunehmen. Je mehr ein Gehirnkreislauf trainiert wird (dh je mehr ein Netzwerk von Neuronen aktiviert wird), desto höher sind die Chancen, dass ein Neuron in diesem Kreislauf feuert, wenn ein anderes ihm ein Signal sendet. Der Prozess der Stärkung dieser neuronalen Netzwerke scheint den physischen Kontaktpunkt an den Synapsen zu vergrößern und die Menge an Neurotransmittern zu erhöhen, die sie freisetzen können, sagte Bartol.

Wenn Neuronen im Wesentlichen über eine Synapse miteinander chatten, dann hat eine Gehirnzelle, die über eine größere Synapse kommuniziert, eine lautere Stimme als eine, die über eine kleinere Synapse kommuniziert, sagte Bartol.

Aber die Wissenschaftler haben nicht viel darüber verstanden, wie viele Neuronen es gab und wie sie sich als Reaktion auf Signale veränderten.

Dann bemerkten Bartol, Sejnowski und ihre Kollegen etwas Lustiges in ihrer Hippocampusscheibe. Ungefähr 10 Prozent der Zeit schlängelte sich ein einzelnes Axon heraus und verband sich mit demselben Dendriten an zwei verschiedenen dendritischen Dornen. Diese seltsamen Axone sendeten genau den gleichen Input an jeden der Flecken auf dem Dendriten, aber die Größe der Synapsen, wo Axone mit Dendriten "sprechen", variierte um durchschnittlich 8 Prozent. Das bedeutete, dass die natürliche Varianz, wie stark eine Nachricht zwischen den beiden die zugrunde liegende Synapse veränderte, 8 Prozent betrug.

Das Team fragte dann: Wenn sich Synapsen in der Größe um den Faktor 60 unterscheiden können und die Größe einer Synapse rein zufällig um etwa 8 Prozent variiert, wie viele verschiedene Arten von Synapsengrößen könnten in diesen Größenbereich passen und erkannt werden? wie anders durch das Gehirn?

Durch die Kombination dieser Daten mit der Signalerkennungstheorie, die vorschreibt, wie unterschiedlich zwei Signale sein müssen, bevor das Gehirn einen Unterschied zwischen ihnen erkennen kann, fanden die Forscher heraus, dass Neuronen in 26 verschiedenen Größenbereichen vorkommen könnten. Dies zeigte im Wesentlichen, wie viele verschiedene Volumina von "Stimmen" Neuronen verwenden, um miteinander zu plaudern. Bisher dachten Forscher, dass diese Gehirnzellen nur wenige Größen haben.

Von dort aus könnten sie genau berechnen, wie viele Informationen zwischen zwei beliebigen Neuronen übertragen werden könnten. Computer speichern Daten als Bits, die zwei mögliche Werte haben können – 0 oder 1. Aber diese binäre Nachricht von einem Neuron (auslösen oder nicht) kann 26 verschiedene Größen von Neuronen erzeugen. Also nutzten sie die grundlegende Informationstheorie, um zu berechnen, wie viele Datenbits jedes Neuron aufnehmen kann.

"Um die Zahl 26 in Biteinheiten umzuwandeln, sagen wir einfach 2 hoch n gleich 26 und lösen nach n auf. In diesem Fall ist n gleich 4,7 Bit", sagte Bartol.

Diese Speicherkapazität entspricht etwa dem Zehnfachen dessen, was bisher angenommen wurde, berichteten die Forscher online in der Zeitschrift eLife.

Unglaublich effizient

Die neuen Erkenntnisse geben auch Aufschluss darüber, wie das Gehirn Informationen speichert, während es ziemlich aktiv bleibt. Die Tatsache, dass die meisten Neuronen nicht als Reaktion auf eingehende Signale feuern, der Körper jedoch diese Signale hochpräzise in die physischen Strukturen umsetzt, erklärt zum Teil, warum das Gehirn effizienter ist als ein Computer: Die meisten seiner Schwerlaster sind es nicht die meiste Zeit etwas tun.

Aber selbst wenn die durchschnittliche Gehirnzelle 80 Prozent der Zeit inaktiv ist, erklärt das immer noch nicht, warum ein Computer 50 Millionen Mal mehr Energie benötigt, um die gleichen Aufgaben wie ein menschliches Gehirn zu erledigen.

„Der andere Teil der Geschichte könnte damit zu tun haben, wie Biochemie im Vergleich zu Elektronen in einem Computer funktioniert. Computer verwenden Elektronen, um die Berechnungen durchzuführen, und Elektronen, die in einem Draht fließen, erzeugen viel Wärme, und diese Wärme ist verschwendete Energie.“ “, sagte Bartol. Biochemische Wege könnten einfach viel effizienter sein, fügte er hinzu.


Wie viel kann unser Gehirn speichern? GB..TB… oder mehr?

Laut Paul Reber, Professor für Psychologie an der Northwestern University, besteht das menschliche Gehirn aus etwa einer Milliarde Neuronen. Jedes Neuron bildet etwa 1.000 Verbindungen zu anderen Neuronen, das sind mehr als eine Billion Verbindungen. Wenn jedes Neuron nur dazu beitragen könnte, einen einzelnen Speicher zu speichern, wäre der Platz knapp. Möglicherweise haben Sie nur wenige Gigabyte Speicherplatz, ähnlich dem Speicherplatz auf einem iPod oder einem USB-Flash-Laufwerk. Neuronen verbinden sich jedoch so, dass jedes einzelne bei vielen Erinnerungen gleichzeitig hilft und die Speicherkapazität des Gehirns exponentiell auf etwa 2,5 Petabyte (oder eine Million Gigabyte) erhöht. Zum Vergleich: Wenn Ihr Gehirn wie ein digitaler Videorekorder in einem Fernseher funktionieren würde, würden 2,5 Petabyte ausreichen, um drei Millionen Stunden Fernsehsendungen aufzunehmen. Sie müssten den Fernseher mehr als 300 Jahre lang ununterbrochen laufen lassen, um den gesamten Speicher zu verbrauchen.

Hollywood von Steven Wiltshire

Das menschliche Gehirn war schon immer eines der faszinierendsten Geheimnisse der Welt. Treffen Sie Steven Wiltshire, auch bekannt als die menschliche Kamera. Als er 11 Jahre alt war, zeichnete er nach einem Helikopterflug eine perfekte Luftaufnahme von London.

Schau dir das an lebende Kamera in Aktion in diesem erstaunlichen Video, in dem er nach einem einstündigen Helikopterflug einen Panoramablick auf die Stadt Rom aus dem Gedächtnis zeichnet. Wunder wie Steven haben im Laufe der Geschichte mehrere Namen bekommen. Aber erst heute beginnen Wissenschaftler, das Gehirn beim Denken zu beobachten und die Geheimnisse zu lüften, die es birgt.


Die Gedächtniskapazität des Gehirns ist 10-mal höher als bisher angenommen

Salk-Forscher und Mitarbeiter haben kritische Einblicke in die Größe neuronaler Verbindungen gewonnen, wodurch die Gedächtniskapazität des Gehirns weit über den üblichen Schätzungen liegt. Die neue Arbeit beantwortet auch eine seit langem gestellte Frage, wie das Gehirn so energieeffizient ist und Ingenieuren helfen könnte, Computer zu bauen, die unglaublich leistungsstark sind, aber auch Energie sparen.

"Dies ist eine echte Bombe im Bereich der Neurowissenschaften", sagt Terry Sejnowski, Salk-Professor und Co-Senior-Autor des Papiers, das in . veröffentlicht wurde eLife. „Wir haben den Schlüssel zum Entschlüsseln des Konstruktionsprinzips für die Funktionsweise von Hippocampus-Neuronen mit niedriger Energie, aber hoher Rechenleistung entdeckt. Unsere neuen Messungen der Gedächtniskapazität des Gehirns erhöhen die konservativen Schätzungen um den Faktor 10 auf mindestens ein Petabyte, im gleichen Bereich wie das Internet."

Unsere Erinnerungen und Gedanken sind das Ergebnis von Mustern elektrischer und chemischer Aktivität im Gehirn. Ein wichtiger Teil der Aktivität findet statt, wenn Zweige von Neuronen, ähnlich wie elektrische Drähte, an bestimmten Verbindungsstellen, den sogenannten Synapsen, interagieren. Ein Ausgangs-'Draht' (ein Axon) von einem Neuron verbindet sich mit einem Eingangs-'Draht' (ein Dendriten) eines zweiten Neurons. Signale wandern über die Synapse als Chemikalien, die Neurotransmitter genannt werden, um dem empfangenden Neuron mitzuteilen, ob es ein elektrisches Signal an andere Neuronen weiterleiten soll. Jedes Neuron kann Tausende dieser Synapsen mit Tausenden anderer Neuronen haben.

„Als wir zum ersten Mal alle Dendriten, Axone, Gliafortsätze und Synapsen aus einem Hippocampusvolumen von der Größe eines einzelnen roten Blutkörperchens rekonstruierten, waren wir etwas verwirrt über die Komplexität und Vielfalt der Synapsen“, sagt Kristen Harris, Co-Senior Autor der Arbeit und Professor für Neurowissenschaften an der University of Texas, Austin. "Obwohl ich gehofft hatte, aus diesen detaillierten Rekonstruktionen grundlegende Prinzipien über die Organisation des Gehirns zu lernen, war ich wirklich erstaunt über die Präzision, die in den Analysen dieses Berichts erzielt wurde."

Synapsen sind immer noch ein Rätsel, obwohl ihre Dysfunktion eine Reihe von neurologischen Erkrankungen verursachen kann. Größere Synapsen – mit mehr Oberfläche und Vesikel von Neurotransmittern – sind stärker, wodurch sie ihre umgebenden Neuronen eher aktivieren als mittlere oder kleine Synapsen.

Das Salk-Team bemerkte beim Aufbau einer 3D-Rekonstruktion des Hippocampus-Gewebes von Ratten (dem Gedächtniszentrum des Gehirns) etwas Ungewöhnliches. In einigen Fällen bildete ein einzelnes Axon eines Neurons zwei Synapsen, die sich zu einem einzelnen Dendriten eines zweiten Neurons erstreckten, was bedeutet, dass das erste Neuron eine doppelte Nachricht an das empfangende Neuron zu senden schien.

Anfangs hielten die Forscher nicht viel von dieser Duplizität, die etwa 10 Prozent der Zeit im Hippocampus auftritt. Aber Tom Bartol, ein Salk-Mitarbeiter, hatte eine Idee: Wenn sie den Unterschied zwischen zwei sehr ähnlichen Synapsen wie dieser messen könnten, könnten sie Einblicke in die Synapsengrößen gewinnen, die in der Praxis bisher nur als klein, mittel eingestuft wurden und groß.

Dazu verwendeten die Forscher fortschrittliche Mikroskopie und Computeralgorithmen, die sie entwickelt hatten, um Rattengehirne abzubilden und die Konnektivität, Formen, Volumen und Oberfläche des Hirngewebes bis auf nanomolekulare Ebene zu rekonstruieren.

Die Wissenschaftler erwarteten, dass die Synapsen ungefähr gleich groß sein würden, waren jedoch überrascht, dass die Synapsen fast identisch waren.

„Wir waren erstaunt, als wir feststellten, dass der Unterschied in der Größe der Synapsenpaare sehr gering war, im Durchschnitt nur etwa acht Prozent in der Größe. Niemand hätte gedacht, dass es ein so kleiner Unterschied sein würde. “, sagt Bartol.

Da die Gedächtniskapazität von Neuronen von der Synapsengröße abhängt, stellte sich heraus, dass dieser Unterschied von acht Prozent eine Schlüsselzahl war, die das Team dann in seine algorithmischen Modelle des Gehirns einbinden konnte, um zu messen, wie viele Informationen möglicherweise in synaptischen Verbindungen gespeichert werden könnten.

Zuvor war bekannt, dass der Größenbereich zwischen der kleinsten und der größten Synapse einen Faktor von 60 beträgt und die meisten klein sind.

Ausgestattet mit dem Wissen, dass Synapsen aller Größen in Schritten von nur acht Prozent zwischen den Größen innerhalb eines Faktors von 60 variieren können, stellte das Team fest, dass es nicht nur wenige, sondern etwa 26 Kategorien von Synapsengrößen geben könnte.

„Unsere Daten deuten darauf hin, dass Synapsen zehnmal diskreter sind als bisher angenommen“, sagt Bartol. Computertechnisch entsprechen 26 Synapsengrößen etwa 4,7 „Bits“ an Information. Bisher ging man davon aus, dass das Gehirn im Hippocampus nur ein bis zwei Bits für die Speicherung von Kurz- und Langzeitgedächtnis bereitstellt.

„Das ist ungefähr eine Größenordnung an Präzision mehr, als sich irgendjemand jemals vorgestellt hat“, sagt Sejnowski.

Was diese Präzision rätselhaft macht, ist, dass Hippocampus-Synapsen notorisch unzuverlässig sind. Wenn ein Signal von einem Neuron zum anderen wandert, aktiviert es dieses zweite Neuron normalerweise nur in 10 bis 20 Prozent der Fälle.

„Wir hatten uns schon oft gefragt, wie aus solch unzuverlässigen Synapsen die bemerkenswerte Präzision des Gehirns entstehen kann“, sagt Bartol. Eine Antwort, so scheint es, liegt in der ständigen Anpassung der Synapsen, indem der Durchschnitt ihrer Erfolgs- und Misserfolgsraten über die Zeit ermittelt wird. Das Team verwendete ihre neuen Daten und ein statistisches Modell, um herauszufinden, wie viele Signale ein Synapsenpaar braucht, um diese Differenz von acht Prozent zu erreichen.

Die Forscher berechneten, dass bei den kleinsten Synapsen etwa 1.500 Ereignisse eine Veränderung ihrer Größe/Fähigkeit (20 Minuten) und bei den größten Synapsen nur ein paar hundert Signalereignisse (1 bis 2 Minuten) eine Veränderung bewirken.

„Das bedeutet, dass Ihre Synapsen alle 2 oder 20 Minuten auf die nächste Größe nach oben oder unten gehen. Die Synapsen passen sich an die Signale an, die sie empfangen“, sagt Bartol.

"Unsere frühere Arbeit hatte die Möglichkeit angedeutet, dass Dornen und Axone, die zusammen synapsen, eine ähnliche Größe haben, aber die Realität der Präzision ist wirklich bemerkenswert und legt die Grundlage für ganz neue Denkweisen über Gehirn und Computer", sagt Harris. "Die aus dieser Zusammenarbeit resultierende Arbeit hat ein neues Kapitel in der Suche nach Lern- und Gedächtnismechanismen aufgeschlagen." Harris fügt hinzu, dass die Ergebnisse weitere Fragen aufwerfen, die untersucht werden sollten, zum Beispiel, ob ähnliche Regeln für Synapsen in anderen Regionen des Gehirns gelten und wie sich diese Regeln während der Entwicklung unterscheiden und wenn sich Synapsen in der Anfangsphase des Lernens ändern.

„Die Implikationen dessen, was wir gefunden haben, sind weitreichend“, fügt Sejnowski hinzu. "Unter dem scheinbaren Chaos und der Unordnung des Gehirns versteckt sich eine zugrunde liegende Präzision der Größe und Form von Synapsen, die vor uns verborgen war."

Die Ergebnisse liefern auch eine wertvolle Erklärung für die überraschende Leistungsfähigkeit des Gehirns. Das wache erwachsene Gehirn erzeugt nur etwa 20 Watt Dauerleistung – so viel wie eine sehr schwache Glühbirne. Die Entdeckung von Salk könnte Informatikern helfen, ultrapräzise, ​​aber energieeffiziente Computer zu bauen, insbesondere solche, die "Deep Learning" und künstliche neuronale Netze verwenden - Techniken, die zu anspruchsvollem Lernen und Analyse fähig sind, wie Sprache, Objekterkennung und Übersetzung.

„Dieser Trick des Gehirns weist absolut auf einen Weg hin, um bessere Computer zu entwickeln“, sagt Sejnowski. "Die Verwendung probabilistischer Übertragung erweist sich als genauso genau und erfordert viel weniger Energie für Computer und Gehirn."


DAS MENSCHLICHE GEDÄCHTNIS

Seit jeher versuchen Menschen zu verstehen, was Gedächtnis ist, wie es funktioniert und warum es schief geht. Es ist ein wichtiger Teil dessen, was uns wirklich menschlich macht, und doch ist es eine der schwer fassbaren und am meisten missverstandenen menschlichen Eigenschaften.

Das populäre Bild der Erinnerung ist eine Art winziges Aktenschrank voller individueller Speicherordner, in denen Informationen gespeichert werden, oder vielleicht als neurale Supercomputer von enorme Kapazität und Geschwindigkeit. Angesichts des modernen biologischen und psychologischen Wissens sind diese Metaphern jedoch möglicherweise nicht ganz nützlich, und Experten glauben heute, dass das Gedächtnis tatsächlich viel komplexer und subtil als das

Es scheint, dass sich unser Gedächtnis nicht an einer bestimmten Stelle im Gehirn befindet, sondern an einer hirnweiter Prozess in denen mehrere verschiedene Bereiche des Gehirns zusammenwirken (manchmal auch als bezeichnet) verteilte Verarbeitung). Zum Beispiel wird der einfache Akt des Fahrradfahrens aktiv und nahtlos vom Gehirn aus vielen rekonstruiert verschiedene Bereiche: Die Erinnerung daran, wie man das Fahrrad bedient, kommt von einem Bereich, die Erinnerung daran, wie man von hier bis zum Ende des Blocks kommt, von einem anderen, die Erinnerung an die Fahrradsicherheitsregeln von einem anderen und das nervöse Gefühl, wenn ein Auto gefährlich abbiegt nah kommt von noch einem anderen. Jedes Element einer Erinnerung (Bilder, Geräusche, Worte, Emotionen) ist in demselben Teil des Gehirns kodiert, der ursprünglich dieses Fragment erzeugt hat (visueller Kortex, motorischer Kortex, Sprachbereich usw.), und der Abruf einer Erinnerung reaktiviert effektiv das neuronale Muster, die während der ursprünglichen Kodierung erzeugt wurden. Ein besseres Bild könnte also das von a . sein komplexes Netz, in dem die Fäden die verschiedenen Elemente einer Erinnerung symbolisieren, die sich zu verbinden Knoten oder Schnittpunkte, um eine ganze abgerundete Erinnerung an eine Person, einen Gegenstand oder ein Ereignis zu bilden. Diese Art von verteilter Speicher stellt sicher, dass selbst wenn ein Teil des Gehirns beschädigt ist, einige Teile einer Erfahrung noch übrig bleiben können. Neurologen beginnen erst zu verstehen, wie die Teile wieder zu einem zusammenhängenden Ganzen zusammengesetzt werden.

Das menschliche Gehirn, eine der komplexesten lebenden Strukturen im Universum, ist der Sitz des Gedächtnisses

Das Gedächtnis ist auch kein einheitlicher Prozess, sondern es gibt verschiedene Arten von Gedächtnis. Unsere Kurz- und Langzeitgedächtnisse werden auf unterschiedliche Weise kodiert und gespeichert verschiedene Teile des Gehirns, aus Gründen, die wir gerade erst erahnen. Jahre von Fallstudien der Patienten mit Unfällen und hirnbedingten Erkrankungen und anderen Störungen (insbesondere bei älteren Menschen) haben begonnen, auf einige der Komplexitäten der Gedächtnisprozesse hinzuweisen, und es wurden große Fortschritte gemacht Neurowissenschaften und kognitive Psychologie, aber viele der genauen beteiligten Mechanismen bleiben schwer fassbar.

Diese Website, die von einem Laien für den Laien geschrieben wurde, versucht, einiges von dem zusammenzufügen, was wir TUN Wissen Sie über das Rätsel, das ist…Das menschliche Gedächtnis.Hypertonie beeinflusst das Herz-Kreislauf-System sowie die Durchblutung des Gehirns. Dies kann viele Symptome verursachen, einschließlich Gedächtnisverlust.


Speicherkapazität des menschlichen Gehirns in Bytes? - Biologie

Im Gegensatz zu Digitalkameras mit vollen Speicherkarten, die keine Bilder mehr aufnehmen können, scheint unserem Gehirn nie der Platz auszugehen. Es entzieht sich jedoch der Logik, dass ein erwachsenes menschliches Gehirn – ein „blutgetränkter Schwamm“, wie der Schriftsteller Kurt Vonnegut es formuliert – in der Lage sein sollte, grenzenlos neue Fakten und Erfahrungen aufzuzeichnen.

Neurowissenschaftler haben lange versucht, unser maximales mentales Volumen zu messen. Was jedoch jede einfache Berechnung der Gedächtniskapazität durcheinander bringt, sind die erstaunlichen kognitiven Leistungen, die von engagierten Menschen und Menschen mit atypischen Gehirnen erzielt werden.

Vielen von uns fällt es schwer, sich eine Telefonnummer zu merken. Wie wäre es mit 67.980 Stellen? So viele Stellen von Pi rezitierte Chao Lu aus China, ein damals 24-jähriger Student im Aufbaustudium, im Jahr 2005. Chao sprach die Zahlenfolge während einer 24-Stunden-Strecke ohne auch nur eine Toilettenpause aus und brach die Weltrekord.

Savants haben wohl noch erstaunlichere Leistungen vollbracht, die erstaunliche Erinnerungsleistungen erbringen können, von Namen und Daten bis hin zu den Details komplexer visueller Szenen. Und in seltenen Fällen haben Verletzungen von zuvor gesunden Menschen scheinbar das "erworbene Savant-Syndrom" ausgelöst. Als Orlando Serrell beispielsweise zehn Jahre alt war, wurde er von einem Baseball in die linke Kopfhälfte getroffen. Er stellte plötzlich fest, dass er sich an unzählige Nummernschilder erinnern und komplexe kalendarische Elemente berechnen konnte, beispielsweise auf welchen Wochentag ein Datum von vor Jahrzehnten fiel.

Wie kommt es, dass die Nudeln dieser Leute das Gedächtnis des durchschnittlichen Gehirns beschämen? Und was sagen die Fähigkeiten von Pi-Rezitatoren und Gelehrten über die wahre Leistungsfähigkeit des menschlichen Gehirns aus?

Gehirnbytes

Auf einer quantifizierbaren Ebene muss unsere Gedächtniskapazität eine Grundlage in der Physiologie des Gehirns haben. Eine grobe, aber vielleicht nützliche Metrik in dieser Hinsicht: die ungefähr 100 Milliarden Neuronen, aus denen unser Gehirn besteht. Beim Langzeitgedächtnis spielen jedoch nur etwa eine Milliarde eine Rolle – sie werden Pyramidenzellen genannt.

Wenn Sie davon ausgehen, dass ein Neuron lediglich eine einzelne "Einheit" des Gedächtnisses speichern kann, dann würde sich unser Gehirn bis zum Rand füllen. "Wenn man so viele Erinnerungen wie Neuronen haben könnte, ist das keine sehr große Zahl", sagt Paul Reber, Professor für Psychologie an der Northwestern University. "Dir würde ziemlich schnell der Platz in deinem Gehirn ausgehen."

Könnte es möglich sein, verborgene Gedächtnistalente freizuschalten? (Bildnachweis: Getty Images)

Stattdessen glauben Forscher, dass sich Erinnerungen in den Verbindungen zwischen Neuronen und über neuronale Netze hinweg bilden. Jedes Neuron sprießt Verlängerungen wie Bahnlinien von einem Pendlerknotenpunkt und schleift ungefähr tausend andere Nervenzellenneuronen ein. Diese Architektur, so wird angenommen, macht die Elemente der Erinnerungen im gesamten verworrenen Netz verfügbar. So kann beispielsweise das Konzept eines blauen Himmels in unzähligen, gedanklich diskreten Erinnerungen an Außenszenen auftauchen.

Reber nennt diesen Effekt "exponentielle Speicherung", und damit geht die Gedächtnisleistung des Gehirns "durch die Decke".

"Bei vernünftiger Vermutung liegt es im Bereich von mehreren Petabyte", sagt Reber. Ein Petabyte entspricht 2.000 Jahren MP3-Songdateien. Wir wissen natürlich noch nicht genau, wie viele Anschlüsse ein einzelner Speicher braucht – oder ob sein Speicher überhaupt mit einem digitalen Computer zu vergleichen ist – daher sind solche Vergleiche vielleicht mit Vorsicht zu genießen. Es genügt zu sagen, so Reber: "Sie haben Tonnen und Tonnen an Platz."

Mehr oben?

Könnten Menschen mit Super-Erinnerungen also außergewöhnliche Gehirne haben?

Die kurze Antwort: Nein. Pi-Rekordhalter wie Lu sowie die meisten Gewinner von Gedächtnismeisterschaften schwören, dass sie ganz normale Leute sind, die sich dem Training ihres Gehirns verschrieben haben, um ausgewählte Informationen zu halten und abzurufen.

Nelson Dellis, ein Gewinner der USA Memory Championship, sagt, dass sein Gedächtnis eigentlich schrecklich war, bevor er ein mentaler Leistungssportler wurde. Die Praxis machte den Unterschied. "Innerhalb von Wochen Training, vielleicht sogar noch weniger, tun Sie etwas, das dem normalen Menschen fast unmöglich erscheint", sagt Dellis. "Wir alle haben diese Fähigkeit in uns."

Als Dellis vor einigen Jahren mit seinem Gehirntraining begann, brauchte er 20 Minuten, um sich ein Kartenspiel einzuprägen. Heute kann er alle 52 Karten in weniger als 30 Sekunden speichern – also in einem Durchgang. Dellis wird vor seiner erfolgreichen Titelverteidigung bei der USA Memory Championship 2015 am 29. März in New York City bis zu fünf Stunden täglich im Kartenzählen und anderen Gedächtniswettbewerben trainiert.

Einige Leute können sich in 30 Sekunden an die Reihenfolge eines gemischten Kartenspiels erinnern (Quelle: Thinkstock)


Wie ist das menschliche Gehirn im Vergleich zu einem Computer?

Wir leben in einer Welt, in der Computer die Menschen bei Schach, Go und sogar Jeopardy übertreffen können. Künstliche Intelligenz und maschinelles Lernen schaffen immer wieder neue Durchbrüche und lassen uns fragen, ob wir bald in einer technologischen Utopie leben oder gegen einen Cyborg Arnold Schwarzenegger ums Überleben kämpfen.

Aber übertreffen Computer das menschliche Gehirn insgesamt? Lass es uns herausfinden.

Für die Zwecke dieses Artikels definieren wir einen Computer als persönlichen Desktop für den nicht professionellen Gebrauch (d. h. kein Server, der rund um die Uhr läuft).

Und der Einfachheit halber beschränken wir die Vergleiche auf vier Bereiche:

Lagerung

Für den täglichen Gebrauch kommen die meisten Computerbenutzer mit 500 GB Speicher aus. Kreative, Gamer und andere datenintensive Benutzer verlassen sich oft auf zusätzlichen Speicher in der Cloud oder auf einer tragbaren SSD. Aus Gründen der Argumentation geben wir dem Computer durchschnittlich 1 TB Speicherplatz.

Wie steht es um die Speicherkapazität des Gehirns? Nun, es ist kompliziert.

Die Schätzungen darüber, wie viele Nervenzellen oder Neuronen in einem typischen Gehirn existieren, variieren. Viele Studien stützen sich auf 100 Milliarden Neuronen, während eine Studie der Stanford University schätzt, dass das Gehirn tatsächlich über 200 Milliarden Neuronen verfügt.

Sie denken vielleicht: „Warte, der Computer hat Bytes und das Gehirn hat Neuronen. Wie vergleichen wir die beiden?“

Ein deutlicher Unterschied zwischen dem menschlichen Gehirn und dem Computer-Flash-Speicher ist die Fähigkeit von Neuronen, sich miteinander zu verbinden, um die Erstellung und Speicherung von Erinnerungen zu unterstützen. Jedes Neuron hat ungefähr tausend Verbindungen zu anderen Neuronen. Mit über einer Billion Verbindungen in einem durchschnittlichen menschlichen Gehirn erzeugt dieser Überlappungseffekt eine exponentiell größere Speicherkapazität.

Basierend auf unserem heutigen Verständnis von Neuronen, das sehr begrenzt ist, würden wir die Speicherkapazität des Gehirns auf 1 Petabyte schätzen, was über tausend 1-TB-SSDs entspricht.

Vorteil: Menschliches Gehirn.

Speicher

Bisher ist es ein ausgeglichener Wettbewerb. Das menschliche Gehirn hat deutlich mehr Speicher als ein durchschnittlicher Computer. Und ein Computer kann Informationen exponentiell schneller verarbeiten als ein menschliches Gehirn.

Wie wäre es mit dem Zugriff auf den Speicher? Kann sich ein Mensch Informationen besser merken als ein Computer?

Nun, es hängt davon ab, über welche Art von Informationen wir sprechen.

Für grundlegende Fakten lautet die Antwort eindeutig nein. Wenn ein Computer „weiß“, dass die Hauptstadt von Nevada Carson City ist, wird diese Tatsache immer zugänglich sein. Ein Mensch hingegen kann mit der Zeit verwirrt sein oder diese Tatsache vergessen, insbesondere nach einem langen Wochenende in Vegas.

Wo Computer den Menschen hinterherhinken, ist die Fähigkeit, Informationen qualitative Rankings zuzuordnen. Für einen Computer sind alle Informationen genau gleich. Menschen hingegen haben viele verschiedene Arten von Erinnerungen und priorisieren Erinnerungen nach ihrer Bedeutung. Sie werden sich sicherlich an zahlreiche Details Ihres Hochzeitstages erinnern, aber wahrscheinlich haben Sie vergessen, was Sie letzten Donnerstag zu Mittag gegessen haben. (Es war ein Thunfisch-Sandwich auf Roggen, falls Sie sich fragen.)

Menschen verbinden auch Erinnerungen miteinander, sodass Ihre Erinnerung an Silvester im Laufe Ihres Lebens an all Ihre anderen Neujahrsfeiern knüpfen wird. Einem Computer fehlt diese Fähigkeit, zumindest vorerst.

Energieeffizienz

Der Wettbewerb ist immer noch ein Toss-up. Computer sind schneller und präziser, während Menschen mehr Speicherkapazität und Nuancen beim Zugriff auf Erinnerungen haben.

Wie steht es um die Energieeffizienz? Hier wird es richtig lustig.

Ein typischer Computer läuft mit etwa 100 Watt Leistung. Ein menschliches Gehirn benötigt dagegen etwa 10 Watt. Das ist richtig, Ihr Gehirn ist zehnmal energieeffizienter als ein Computer. Das Gehirn benötigt weniger Strom als eine Glühbirne.

Wir sind vielleicht nicht die hellsten Glühbirnen in der Box, aber das müssen wir auch nicht sein.

Vorteil: Menschliches Gehirn

Abschluss

Letztlich gibt es insgesamt keinen klaren Sieger. Mensch und Computer haben je nach Kategorie ihre eigenen Vorteile. Wenn Sie Präzision und rohe Verarbeitungsgeschwindigkeit wünschen, ist ein Computer die klare Wahl. If you want creativity, energy efficiency, and prioritization, a human is your best bet.

The good news is that we don’t have to choose. It doesn’t have to be a contest of humans against computers. We can work together and enjoy the best of both worlds. That is, until Skynet becomes self-aware.


Memory-related brain lateralisation in birds and humans

Visual imprinting in chicks and song learning in songbirds are prominent model systems for the study of the neural mechanisms of memory. In both systems, neural lateralisation has been found to be involved in memory formation. Although many processes in the human brain are lateralised--spatial memory and musical processing involves mostly right hemisphere dominance, whilst language is mostly left hemisphere dominant--it is unclear what the function of lateralisation is. It might enhance brain capacity, make processing more efficient, or prevent occurrence of conflicting signals. In both avian paradigms we find memory-related lateralisation. We will discuss avian lateralisation findings and propose that birds provide a strong model for studying neural mechanisms of memory-related lateralisation.

Schlüsselwörter: Auditory-vocal learning Avian brain Domestic chick Hemispheric dominance Human language lateralisation Imprinting Lateralisation Learning Memory Memory consolidation Memory formation Sensory learning Song learning Songbirds.


Conclusion and Perspectives

The MeshCODE theory presented here provides an original concept for the molecular basis of memory storage. I propose that memory is biochemical in nature, written in the form of different protein conformations in each of the trillions of synapses. This concept is based on the discovery of a complex network of mechanical switches in proteins like talin (Yao et al., 2016 Goult et al., 2018 Figure 2) that are built into the scaffolds of every synapse (Park and Goda, 2016 Lilja and Ivaska, 2018 Figure 3). These binary switches can be operated by the force-generation machinery of the cells cytoskeleton, offering a new view of the brain as a mechanical computer.

The capacity for storage of data in a binary form in each synapse identifies an addressable read-write memory mechanism, clearly pointing to a way, in which the brain might carry information forward in time and perform computation. Data written in binary, symbolic form would provide a basis for how the brain might function as an input-output system, in which its computation and data processing systems are founded on physical and mathematical principles (Gallistel and King, 2009). Remarkably, humankind’s efforts to produce optimal computation in silico may have led to architectures that bear a striking similarity to what nature might already have arrived at in vivo.

Sensory inputs are processed by the brain and trigger the appropriate motor responses as outputs allowing the animal to interact with the world. Action potential spike trains are well established as an organism’s way of sending information over long distances (Perkel et al., 1967 Strong et al., 1998 Fellous et al., 2004), similar to how electrical pulses carry information in electronic systems, yet quite how these voltage spikes that travel down axons carry information is not yet fully understood. In the MeshCODE framework proposed here, these spikes transfer information by altering the mechanical coding of both the sender and receiver cell. Diverse input signals, including visual, auditory, olfactory, temporal cues, self-movement (idiothetic), among others, are converted into electrical signals in the form of spike trains, and the precise patterns of these spikes trigger exact changes to the neurons. These changes include cytoskeletal alterations (Yao et al., 2006 Cingolani and Goda, 2008) which in the MeshCODE framework would update the switch patterns, such that the information the spike trains carry is integrated into the organism’s binary coding. This complex mechanical coding amounts to a machine code that is constantly running in all animals. From an initial state at birth, the life experiences and environmental conditions of the animal would be written into the code, creating a constantly updating, mathematical representation of the animal’s unique life. It is possible that consciousness is simply an emergent property arising from the interconnectedness of electrical signals connecting all these MeshCODEs, forming a complete mathematical representation of the world that gives rise to precise electrical signals that coordinate an entire biochemical organism in the context of its world.

The key to biochemical data storage would be the precise conformations of each mechanical switch in each and every synaptic adhesion. These conformations are mostly unmeasurable with existing technologies using microscopy the talin visible in adhesions will not appear to change, even as the conformations of each alters during memory formation. However, as the size and composition of each synaptic adhesion complex will change in response to these altered patterns then observation of the adhesions themselves, identification of the ligands that engage them, and correlating these with the synapses activity should provide a readout of the process. Visualising these complexes is further complicated as any perturbation of the system will result in altered MeshCODE arrangements. However, the technical capabilities to observe protein states and forces acting on proteins in cells are advancing rapidly (Kumar et al., 2016 Ringer et al., 2017 Lemke et al., 2019) and used in conjunction with super-resolution microscopy techniques (Leterrier et al., 2017 Schnitzbauer et al., 2017 Jacquemet et al., 2020), optogenetic techniques (Liu et al., 2012), and the well-established strategies for studying neurotransmission (reviewed in Kandel et al., 2014) such conformational changes during memory formation should be detectable. Further, a number of talin-binding compounds have recently been identified (Yang et al., 2017 Bryce et al., 2019) and the effect of such compounds on learning and memory in animal systems might provide opportunities to pharmaceutically modulate these processes.

As a final comment, physical storage of memory would have significant potential future implications, not least that it might make the stuff of science fiction possible. If memory and consciousness are biochemical in nature, it is possible that one day we will fully decipher how the MeshCODE stores and computes information to form a mathematical representation of the world. In doing so we may not only understand the computations of the human mind, but also allow the transfer of the human mind from neural networks onto silicon chips running the human Operating System. A biochemical basis of memory storage also raises the possibility to not only read the memory of the living, but also the dead. Although short term memory might be accessible only transiently after death, long term MeshCODEs that are “write protected” might be possible to read for the duration of the integrity of the brain.


Schau das Video: Arbejdshukommelse - Hurtig guide (August 2022).