Information

Modelle, die das Feuern von Neuronen mit der oszillatorischen Dynamik in Beziehung setzen

Modelle, die das Feuern von Neuronen mit der oszillatorischen Dynamik in Beziehung setzen

Viele veröffentlichte Arbeiten scheinen sich auf Oszillationen zu konzentrieren, um die Synchronisation und Kommunikation zwischen verschiedenen Gehirnbereichen zu charakterisieren. Dieses Papier von Voytek et. al, wo die Kommunikation zwischen Hirnarealen mit der Abstraktion der Aufgabe zunimmt.

Gibt es Modelle, die das Neuronenfeuern mit diesen Arten von oszillatorischen Messwerten in Verbindung bringen? Mit anderen Worten, wäre es bei gegebenen Daten und der Position eines Neuronenensembles möglich, die Arten von Schwingungen zu modellieren, die gelesen werden könnten?


Es wird angenommen, dass die durch EEG, ECoG und MEG gemessenen Oszillationen aus den schwankenden Potentialen der apikalen Dendriten stammen. Versuchen Sie, das Vorwärtsproblem des EEG zu untersuchen. Wie das inverse Problem, aber umgekehrt. Bei einem bekannten Quellenpotential (anscheinend ist es sehr üblich, das LFP von kortikalen Neuronen als Verteilung von Stromdipolen zu modellieren?) löst man die Poisson-Gleichung, um das Potential an der Aufzeichnungselektrode zu erhalten. Ich lese gerade diese Rezension durch und sie ist sehr interessant: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2234413/.

Andere Wege, die interessant erscheinen, sind Modelle der neuronalen Masse/des neuronalen Feldes, insbesondere Walter Freemans Arbeiten zur Neurodynamik. Siehe: http://www.scholarpedia.org/article/Freeman_K-set.

Etwas abstrahiert von der Biologie gibt es Jack Cowans Feldmodelle und stochastische neuronale Netze. Aber sie sind beide absolut fruchtbar und die Mathematik ist dicht und ich bin mir nicht ganz sicher, wo ich wirklich anfangen soll.


Sie möchten unbedingt das Werk von György Buzsaki lesen. Das kürzlich erschienene Schomburg et al., 2014 ist recht aufschlussreich, wenn auch ziemlich dicht. Versuchen Sie meine F1000-Rezension für den Anfang.
http://f1000.com/prime/contributor/evaluate/article/718892254

Das Originalpapier finden Sie hier
http://www.sciencedirect.com/science/article/pii/S0896627314007818


Dynamik der Zündwahrscheinlichkeit von verrauschten Integrate-and-Fire-Neuronen

Kortikale Neuronen unterliegen in vivo einem kontinuierlichen Bombardement aufgrund der synaptischen Aktivität, die als Hauptrauschquelle fungiert. Hier untersuchen wir die Auswirkungen der Rauschfilterung durch Synapsen mit verschiedenen Realismusebenen auf die Dynamik von Integrate-and-Fire-Neuronen. Der Rauscheingang wird durch weißes (für momentane Synapsen) oder farbiges (für Synapsen mit endlicher Relaxationszeit) Rauschen modelliert. Analytische Ergebnisse für die Modulation der Zündwahrscheinlichkeit als Reaktion auf einen oszillierenden Eingangsstrom werden durch Erweiterung einer Fokker-Planck-Gleichung für kleine Parameter des Problems erhalten – wenn sowohl die Amplitude der Modulation im Vergleich zur Hintergrundzündrate als auch zur synaptischen Zeit klein ist Konstante ist klein im Vergleich zur Membranzeitkonstante. Wir berichten hier über die detaillierten Berechnungen, die zeigen, dass, wenn eine synaptische Abklingzeitkonstante in das synaptische Strommodell einbezogen wird, die Feuerratenmodulation des Neurons aufgrund eines oszillatorischen Inputs im Hochfrequenzlimit ohne Phasenverzögerung endlich bleibt. Darüber hinaus charakterisieren wir das Niederfrequenzverhalten und das Verhalten der Hochfrequenzgrenze für zwischenzeitliche Abklingzeiten. Wir charakterisieren auch die Auswirkungen der Einführung einer Anstiegszeit der synaptischen Ströme und des Vorhandenseins mehrerer synaptischer Rezeptoren mit unterschiedlicher Kinetik. In beiden Fällen bestimmen wir mit numerischen Simulationen eine effektive Abklingzeitkonstante, die die neuronale Antwort vollständig beschreibt.


Diskussion

Unsere Ergebnisse deuten darauf hin, dass das Phänomen der neuronalen Phasenverriegelung in verschiedenen Gehirnregionen von Menschen vorhanden ist, die mit kognitiven Aufgaben beschäftigt sind. Dieses Phänomen, in Verbindung mit der gut untersuchten und vielfältigen Beziehung zwischen Gehirnschwingungen und menschlichem und tierischem Lernen (Berry und Thompson, 1978, Rizzuto et al., 2003 Jacobs et al., 2006), weist darauf hin, dass oszillationsmodulierte zeitliche Kodierung eine Rolle spielt Rolle in der menschlichen Kognition. Darüber hinaus legen unsere Daten nahe, dass Gamma-Oszillationen eine andere Art der Informationscodierung ermöglichen als Delta- oder Theta-Oszillationen. Delta- und Theta-Oszillationen können die phasenbasierte zeitliche Kodierung erleichtern, da wir festgestellt haben, dass einzelne phasenstarre Neuronen stark unterschiedliche bevorzugte Phasen aufweisen. Dies stimmt mit den Beobachtungen überein, dass verschiedene Hippocampus-Neuronen von Nagetieren an unterschiedliche Theta-Phasen phasenverriegelt waren (Fox et al., 1986, O'Keefe und Recce, 1993) und dass die Amplitude der Gamma-Oszillationen entsprechend der momentanen Theta-Phase variiert (Mormann et al.). al., 2005). Im Gegensatz zu Delta- und Theta-Oszillationen hatten Neuronen, die an Gamma-Oszillationen phasenverriegelt waren, durchweg bevorzugte Phasen in der Nähe des Tals der Oszillation, daher scheint es unwahrscheinlich, dass diese Oszillationen die Phasenkodierung erleichtern. Dieses talverriegelte Spiking ähnelt Daten aus Tierstudien, die zeigen, dass Neuronen sowohl im Neocortex als auch im Hippocampus am oder kurz nach dem Tal der Gamma-Oszillationen spitzen (Eeckman und Freeman, 1990 Csicsvari et al., 2003). Es wird angenommen, dass in diesen Systemen Informationen durch die Kombination von Neuronen kodiert werden, die mindestens einmal in jedem Schwingungszyklus spitzen, anstatt durch die Phase jeder Spitze. Somit stimmen unsere Ergebnisse mit der Vorstellung überein, dass menschliche neuronale Netzwerke, die bei Gammafrequenzen schwingen, Informationen durch die Kombination aktiver Neuronen in jedem Schwingungszyklus von 10–50 ms kodieren (Harris et al., 2003 Fries, 2005).

Ein wichtiger Unterschied zwischen unseren Humanergebnissen und der tierexperimentellen elektrophysiologischen Literatur ist unsere Beobachtung von markanten Hippocampus-Oszillationen bei 1–4 Hz (siehe Abb. 1Z.B, 2EIN) statt der 4–8 Hz Theta-Oszillation, die im Hippocampus von Nagetieren vorherrscht (Buzsáki, 2002). Obwohl diese menschliche Hippocampus-Oszillation in den Delta-Bereich (1–4 Hz) fällt, teilt sie mehrere Eigenschaften mit der 4–8 Hz Nagetier-Theta-Oszillation. Wir fanden zum Beispiel heraus, dass einzelne Hippocampus-Neuronen an weit verbreitete Phasen dieser 1–4 Hz-Schwingung phasenstarr waren (Abb. 2D) und dass einige Hippocampus-Neuronen gleichzeitig sowohl an diese 1–4 Hz-Schwingungen als auch an Gamma-Schwingungen phasenstarr sind (Abb. 1E,F). Analoge Trends wurden bei Hippocampus-Theta von Nagetieren beobachtet (Fox et al., 1986, Bragin et al., 1995). Eine zusätzliche Verbindung zwischen diesen beiden oszillatorischen Mustern stammt von Bódizs et al. (2001), die berichten, dass der menschliche Hippocampus während des Schlafs mit schnellen Augenbewegungen robuste 1,5–3 Hz Delta-Band-Oszillationen aufweist, während Tiere in diesem Zustand 4–8 Hz Theta-Oszillationen aufweisen. Basierend auf diesen Beweisen schlagen wir vor, dass sich der Frequenzbereich von menschlichem Hippocampus-Theta bis zu ≈ 1 Hz erstrecken kann.

Die Existenz der neuronalen Phasenverriegelung hilft, verhaltensbezogene Veränderungen in Gehirnaufzeichnungen zu interpretieren. Nachdem Menschen beispielsweise visuelle Reize gesehen haben, werden Theta-Oszillationen als Reaktion auf Aufgabenanforderungen auf bestimmte Phasen zurückgesetzt (Rizzuto et al., 2003). Dieser Phasenreset tritt gleichzeitig in mehreren Gehirnregionen auf und kann daher dazu führen, dass phasenstarre Neuronen im gesamten Gehirn in präzisen zeitlichen Mustern spitzen. Somit legen unsere Ergebnisse nahe, dass das Zurücksetzen der oszillatorischen Phase phasenstarre Neuronen in weit verbreiteten Gehirnregionen zeitlich synchronisiert. Dies steht im Einklang mit Berichten über verhaltensbedingte Veränderungen der Kohärenz von Schwingungen in verschiedenen Hirnregionen (Jones und Wilson, 2005, Hyman et al., 2005). Diese Muster der oszillatorischen Synchronität zwischen den Regionen können ausgefeilt sein, da unsere Ergebnisse darauf hindeuten, dass die neuronale Phasenverriegelung einen breiten Frequenzbereich umfasst (Abb. 2 .).EIN), und dass einige Hirnregionen Schwingungen bei mehreren Frequenzen aufweisen (Abb. 1C,E,F,h) (Chrobak und Buzsáki, 1998). Schließlich zeigten neuere bildgebende Studien, dass die hämodynamische Aktivität eng mit der Stärke der Gamma-Oszillationen und der mittleren neuronalen Feuerrate zusammenhängt (Logothetis et al., 2001 Mukamel et al., 2005 Niessing et al., 2005). Unsere Ergebnisse tragen wesentlich zu diesen Ergebnissen bei, indem sie darauf hinweisen, dass die neuronale Aktivität während Hochleistungs-Gamma-Oszillationen mit diesen Oszillationen phasenstarr verbunden ist. Daher schlagen wir vor, dass Berichte über eine erhöhte hämodynamische Aktivität in Regionen, in denen sie mit der Amplitude von Gamma-Oszillationen korreliert sind, sowohl im Sinne eines erhöhten neuronalen Feuers als auch einer erhöhten neuronalen Gammaband-Synchronität interpretiert werden sollten.


Trends

Die präfrontale oszillatorische Dynamik koordiniert kortikale und subkortikale großräumige Netzwerke, bietet eine funktionale Grundlage für eine flexible kognitive Kontrolle von zielgerichtetem Verhalten und stellt kein Epiphänomen von Spiking-Aktivität dar.

Nichtlineare Dynamiken, einschließlich Phasenrückstellung, endogenes Mitreißen und CFC, unterstützen die raumzeitliche Organisation funktionaler Netzwerke und sagen das Verhalten auf Einzelversuchsebene vorher.

Neuronale Oszillationen bilden den zeitlichen Bezugsrahmen für die aktivitätsstille Kodierung in neuronalen Baugruppen, was die Ansicht ergänzt, dass das Neuron die strukturelle und funktionelle Einheit des Nervensystems ist.

Das Multiplexen auf verschiedenen zeitlichen Kanälen spiegelt unterschiedliche kanonische Berechnungen wider und erhöht die kortikale Kodierungskapazität.

Direktionalitätsanalysen zeigen das Timing des Informationsflusses entlang etablierter anatomischer Pfade.

Der präfrontale Kortex (PFC) bildet die strukturelle Grundlage für zahlreiche höhere kognitive Funktionen. Es ist jedoch noch weitgehend unbekannt, welche Mechanismen die funktionelle Grundlage für eine flexible kognitive Steuerung zielgerichteten Verhaltens bilden. Hier fassen wir neuere Ergebnisse zusammen, die darauf hindeuten, dass die funktionale Architektur der Kognition zutiefst rhythmisch ist, und schlagen vor, dass der PFC als Dirigent dient, um aufgabenrelevante große Netzwerke zu orchestrieren. Wir heben mehrere Studien hervor, die gezeigt haben, dass oszillatorische Dynamiken wie Phasenrückstellung, Cross-Frequency-Kopplung (CFC) und Entrainment die PFC-abhängige Rekrutierung aufgabenrelevanter Regionen in kohärente funktionale Netzwerke unterstützen. Wichtig ist, dass diese Ergebnisse die Annahme unterstützen, dass unterschiedliche spektrale Signaturen unterschiedliche kortikale Berechnungen widerspiegeln, die ein effektives Multiplexing auf verschiedenen zeitlichen Kanälen entlang derselben anatomischen Bahnen unterstützen.


Materialen und Methoden

Modellübersicht

Das Modell verwendet zwei Populationen von Neuronen, die von experimentellen Daten inspiriert wurden. Eine Population repräsentiert Gitterzellen ohne Selektivität der Kopfrichtung im medialen entorhinalen Kortex, wie ursprünglich im Moser-Labor beschrieben (Fyhn et al., 2004 Moser und Moser, 2008). Zellen in der zweiten Population werden als Kurswinkelzellen bezeichnet und sind von konjunktiven Zellen inspiriert, die die Empfindlichkeit gegenüber der Kopfrichtung mit dem räumlich periodischen Auslösen von Gitterzellen kombinieren, wie im Moser-Labor (Sargolini et al., 2006) entdeckt und in . repliziert spätere Arbeiten (Hafting et al., 2008 Brandon et al., 2011). Ähnlich wie konjunktive Zellen enthält diese zweite Population im Modell Zellen, die ihre Aktivität erhöhen, wenn sich die Ratte bewegt und der aktuelle Kopfrichtungswinkel ihrer bevorzugten Kopfrichtung entspricht, aber sie haben auch ein Hintergrundaktivitätsniveau für alle aktuellen Kopfrichtungen. Diese Population hat feste, unveränderliche Verbindungen mit der Rasterzellenpopulation mit einem Verbindungsmuster, das vom bevorzugten Kurswinkel der einzelnen Zellen in der Umgebung abhängt. Der Grund für diese Neuronen ist, dass die Fähigkeit, die Gitterzellendarstellung für eine Bewegung in einem beliebigen Kurs zu verschieben, aus Übergängen zwischen Kurswinkelzellen entstehen könnte, die sequentielle räumliche Phasen entlang dieses Kurses kodieren. Die Gitterzellenpopulation weist feste, unveränderliche Verbindungen zurück zu den Kurswinkelzellen auf, so dass Gitterzellen, die eine spezifische räumliche Phase von Orten kodieren, mit einem Array von Kurswinkelzellen verbunden sind, die dieselbe räumliche Phase kodieren.

Kurswinkelzellen

Im Modell werden die Kurswinkelzellen in separate Unterpopulationen unterteilt, die hier als Arrays bezeichnet werden. Jedes Array von Kurswinkelzellen kodiert eine spezifische räumliche Phase, die durch räumliche Phasenindizes bezeichnet wird x und ja. Räumliche Phasen haben ganzzahlige Werte x = [1, 2�] und ja = [1,2�] für insgesamt 900 Arrays von Kurswinkelzellen. In jedem Kurswinkel-Zellenarray gibt es Zellen, die einen vollen Bereich von 24 Kurswinkeln (in Intervallen von 15°) kodieren, und jeder Kurswinkel wird durch 10 Zellen kodiert, die mit unterschiedlichen zeitlichen Phasen oszillieren. Diese Zellen haben feste, unveränderliche Matrizen von synaptischen Verbindungen zu einer Population von Gitterzellen, die eine einzelne Gitterzelle enthält, die jede räumliche Phase codiert (d. h. insgesamt 900 Gitterzellen).

Das feste Muster synaptischer Verbindungen von Kurswinkelzellen zu Gitterzellen basiert auf dem allozentrischen Kurswinkel ϕ, der durch einzelne Kurswinkelzellen codiert wird, zum Beispiel nach Osten (0° Kurswinkel) oder Nordosten (45° .). Kurswinkel). Die Struktur des Modells ist in den Abbildungen ​ Abbildungen1 1 und ​ und2 zusammengefasst. 2. In den Figuren wird die Aktivität der Kurswinkelzellen normalerweise als das Muster der synaptischen Ausgabe an die Gitterzellenpopulation von einzelnen Kurswinkelarrays gezeigt, gefiltert durch das feste Muster der synaptischen Konnektivität zwischen dem Kurswinkelarray und der Gitterzellenpopulation. In den Abbildungen werden die Neuronen entsprechend der Abbildung ihrer räumlichen Phase auf die Umgebung aufgetragen, dies bedeutet jedoch nicht, dass Neuronen mit anatomischer Topographie innerhalb des entorhinalen Kortex angeordnet sind, wie die Daten zeigen, dass dies nicht der Fall ist (Hafting et al., 2005).

Übersicht der Modellkomponenten für eine einzelne räumliche Phase. (A1�). Drei Gruppen von Kurswinkelzellen, beschrieben durch Gl. 1 zeigt Schwingungen über die Zeit mit unterschiedlichen zeitlichen Phasen (sechs Phasen gezeigt). (B1�) Die drei Gruppen projizieren auf Gitterzellen mit synaptischer Konnektivität, die von den sechs verschiedenen Zeitphasen und den Kurswinkeln von 180° . abhängt (B1), 135° (B2), und 90° (B3). Es werden nur 3 von 24 Kurswinkeln angezeigt. Die Konnektivität hängt auch von der räumlichen Phase ab. Die gezeigten Gruppen kodieren alle eine einzelne räumliche Phase. (C1�) Auf einmal T, enthält die synaptische Eingabe in die Gitterzellenpopulation aus einem vollständigen Satz zeitlicher Phasen, die einen individuellen Kurswinkel und eine räumliche Phase codieren, Bänder höherer Amplitude (schwarz). Die Polardiagramme auf der rechten Seite zeigen, wie sich die Ausgabeamplitude für jeden Kurswinkel in Abhängigkeit von der Bewegungsrichtung ändert. (D1�) Der für ein 7 mal 7 Array von synaptischen Eingängen aufgetragene Vollzeitverlauf zeigt, dass sie mit unterschiedlichen zeitlichen Phasen über die Zeit oszillieren und sich ausrichten, um unterschiedliche räumliche Bänder zu bilden. Unterschiedliche räumliche Phasen erreichen zu unterschiedlichen Zeiten den Höhepunkt der Schwingung, was zu einer zeitlichen Verschiebung der Bänder in Richtung der grauen Pfeile führt. (E) Die synaptische Eingabe in ein 7-mal-7-Array von Gitterzellen wird über alle Kurswinkel für eine Gruppe von Zellen summiert angezeigt, die die räumliche Phase in der Mitte der Gitterzellenebene kodieren (x =�, ja =�). (F) Zu einem einzigen Zeitpunkt hat für diese einzelne räumliche Phase die Verteilung der synaptischen Eingabe auf das gesamte 30-mal-30-Array der Gitterzellenebene, wenn sie über alle Kurswinkel summiert wird, ein kreissymmetrisches Muster.

Eingabe des Kurswinkels über den gesamten Bereich der räumlichen Phasen. (EIN) Jede räumliche Phase (x, ja) wird durch ein Kurswinkelarray kodiert, das 24 verschiedene Kurswinkel mit 10 verschiedenen zeitlichen Phasen in jedem Kurswinkel umfasst. Beispiele zeigen 3 von 24 Winkeln für einzelne Raumphasen ja =�, 14, 15 und x =�, 20, mit 10 zeitlichen Phasen (gestrichelte Linien) für jeden Winkel. (B1,B2) Beispiele zeigen die synaptische Ausgabe an die Gitterzellenebene aus verschiedenen Kurswinkel-Zellengruppen, die 5 von 24 Winkeln für eine einzelne räumliche Phase zu einem einzigen Zeitpunkt kodieren T, mit schwarz dargestellten Bändern mit synaptischem Eingang höherer Amplitude. (B1) Zeigt eine Beispielausgabe für ein einzelnes Paar räumlicher Phasen x =�, ja =� und (B2) zeigt die Ausgabe für x =�, ja =�. (C1) Summe aller gleichzeitig geplotteten Kurswinkelausgaben T für eine einzelne räumliche Phase (x =�, ja =�). Die Summe über die Kurswinkel erzeugt ein Amplitudenmuster von Kreisen in der Gitterzellenebene, die auf der räumlichen Phase der Gitterzelle zentriert ist x =�, ja =�. (C2) Die Summe der synaptischen Ausgabe über alle Kurswinkel für die räumliche Phase x =�, ja =�. (D) Beispiele zeigen die synaptische Ausgabe für eine Reihe unterschiedlicher räumlicher Phasen (links: ja =𠂕, x =𠂕, 15, 25 Mitte: ja =�, x =𠂕, 15, 25 rechts: ja =�, x =𠂕, 15, 25). (E) Die synaptische Ausgabe von Kurswinkeln wird über alle räumlichen Phasen in der Gitterzellenebene summiert. Das Beispiel zeigt, dass Unterschiede in der relativen Amplitude der Kurswinkeleingabe zu einem Gitterzellenmuster führen. Pfeile zeigen Beispiele für Rückmeldungen von einzelnen Gitterzellen in der Gitterzellenebene, die nach hinten projizieren, um die Eingabe von der Codierung von Kurswinkelzellen-Arrays zu regulieren x =�, ja =� (durchgezogene Linie) und x =�, ja =� (gestrichelte Linie).

Beachten Sie, dass das Modell die Kopfrichtung mit der Bewegungsrichtung der Ratte gleichsetzt, wobei davon ausgegangen wird, dass die Kopfrichtung der Ratte normalerweise in Bewegungsrichtung ist. Im Gegensatz zu vielen oszillatorischen Interferenzmodellen konzentriert sich dieses Modell nicht auf Kurswinkel, die in Intervallen von 60° fallen. Stattdessen verwendet dieses Modell Neuronen, die in regelmäßigen Abständen (in Intervallen von 15°) eine große Anzahl von Kurswinkeln codieren. Die räumlichen Phasen jedes Arrays von Kurswinkelzellen ähneln den räumlichen Phasen der Feuerfelder von konjunktiven Zellen (Sargolini et al., 2006 Brandon et al., 2011).Dies entspricht der relativen Position, die durch die Kurswinkelzelle in der Umgebung codiert wird, aber da die Codierung periodisch ist, begrenzt sie nicht den räumlichen Bereich, der durch das Netzwerk codiert werden kann.

Die Kurswinkelzellen bei jeder räumlichen Phase x, y, und jeder Kurswinkel ϕich haben eine zeitliche Dynamik ihres Membranpotentials B(T) durch eine Differenzengleichung beschrieben:

Diese Differenzengleichung modelliert die Persistenz der Aktivität aus dem vorherigen Zeitschritt nach tau (τ=𠂐.2). Die Gleichung beinhaltet auch oszillatorischen Input vom medialen Septum mit einer zeitlichen Frequenz F die auf 4 Hz gesetzt wurde, um die Eigenschaften des Theta-Zyklus-Überspringens zu replizieren, sodass die Gitterzellenpopulation eine Frequenz von 8 Hz erzeugen würde, wie unten beschrieben. Für jedes Paar räumlicher Phasen x, y, und Kurswinkel ϕich (mit Index i) gibt es ein vollständiges Array von Neuronen mit unterschiedlichen zeitlichen Phasen φk beschrieben durch den Index k. Die zeitliche Phase φk, die räumlichen Phasen x, y, und der Kurswinkel ϕich alle bestimmen das Konnektivitätsmuster einer gegebenen Kurswinkelzelle mit dem Array von Gitterzellen. Die zeitliche Phase bestimmt die Position entlang jedes Kurswinkels für Verbindungen zum Gitterzellenfeld. Die durch Gleichung 1 beschriebene oszillatorische Aktivität ist in den Abbildungen ​ Figures1A1� für verschiedene zeitliche Phasen dargestellt. 1 A1�. Die Abbildung zeigt auch die synaptische Ausgabe dieser Zellen, die weiter unten im Abschnitt zur Konnektivität mit Gitterzellen beschrieben wird.

Gleichung 1 für die Aktivität von Kurswinkelzellen enthält auch Rückmeldungen von der Gitterzellenpopulation g(T), wobei jedes Array von Kurswinkelzellen eine bestimmte räumliche Phase codiert x, y ihren oszillatorischen Input mit der entsprechenden Aktivität der Gitterzelle multiplizieren gx,y. Das heißt, die Gitterzelle mit räumlichen Phasenkoordinaten x,y regelt die Aktivität des Arrays von Kurswinkelzellen mit räumlichen Phasenkoordinaten x,y. Wenn die Aktivität beider Regionen als Vektoren ausgelegt wäre, wäre die Konnektivität eine Identitätsmatrix. Das Feedback von Gitterzellen hat eine lineare Input-Output-Schwellenfunktion, die mit [] bezeichnet ist.+ das nimmt den Wert der Gitterzellenaktivität an g(T) − λg wenn es über dem Schwellenwert liegt λg =𠂐.6 und bleibt unter dem Schwellenwert bei Null. Außerdem wurde die Gitterzellenausgabe manchmal auf das maximale Aktivitätsniveau der einzelnen Gitterzellen max normiertx,y(g(T)) zum Zeitpunkt T gemessen über alle räumlichen Phasen x,y. Diese Normalisierung hilft zu verhindern, dass das System bei Aktivität explodiert oder abstirbt. Diese Normalisierung wurde in Abbildung ​ Abbildung 5 verwendet, um eine größere Stabilität während der Bewegung zu gewährleisten, wurde jedoch in den anderen Abbildungen nicht verwendet, um die Zeitverläufe in den Diagrammen in Abbildung ​ Abbildung 7 besser sichtbar zu machen. 7. Dieser Effekt könnte durch Rückkopplungshemmung vermittelt werden.

Bewegung der Gitterzellenaktivität induziert durch Geschwindigkeitsmodulation der Kopfrichtungseingabe. (EIN) Bei konstanter Geschwindigkeit und mit nach Westen weisender Kursrichtung erhält das Netzwerk einen größeren Input von der Kurswinkelliniencodierung West. Dies verursacht eine fortschreitende Verschiebung der Populationsaktivität der Gitterzellenebene, was dazu führt, dass sich das hexagonale Muster nach Westen verschiebt. (B) Diese Verschiebung tritt aufgrund der Verzerrung im kreisförmigen Muster der synaptischen Eingabe auf. Die synaptischen Gewichte ändern sich nicht, aber die größere Amplitude der Oszillationen in Richtungswinkelzellen, die Winkel näher an West codieren, verzerrt die Größe der synaptischen Eingabe von jedem Array von Richtungswinkelzellen, was zu einer fortschreitenden Verschiebung der Gitterzellenaktivität nach Westen führt. Die Rückkopplung von der Gitterzellenebene zur Richtungswinkelebene bewirkt eine progressive Verschiebung der synaptischen Eingabe. (C) Die Expansion des synaptischen Inputs von den Heading Angle Neuronen, die eine einzelne räumliche Phase kodieren, zeigt, dass die Kreise in aufeinanderfolgenden Zeitschritten 11� eine Verzerrung nach Westen zeigen. Eine rhythmische Regulierung des Netzes verhindert Aktivität während der Periode, in der die gleiche Kurswinkeleingabe das Muster in Richtung Osten verzerren würde. (D1) Ein Polardiagramm zeigt die Amplitude der Reaktion einer Kurswinkelzelle mit einem Winkel von 180° (West). Der Pfeil zeigt, wie die Eingangsgeschwindigkeit eine maximale Amplitudenänderung (3.0) für diese Kurswinkelzelle bewirkt. (D2) Eine Kurswinkelzelle mit einem Winkel von 135° (Nordwesten) hat eine kleinere Amplitudenänderung (2,4). (D3) Eine Kurswinkelzelle mit einem Winkel von 90° (Nord) zeigt keine Änderung der Reaktion für diese Geschwindigkeit, behält jedoch die Hintergrundamplitude (1,0) bei.

Diagramme der neuronalen Aktivität im Zeitverlauf. (EIN) Zeitlicher Aktivitätsverlauf der Kurswinkelzellen in Gruppe (EIN) Darstellung verschiedener Winkel für ein 7 mal 7 Array von Kurswinkel-Raumphasen vom Zentrum der Bevölkerung, die in den Abbildungen ​ Abbildungen3 3 – 4 verwendet werden. (B) Zeitlicher Aktivitätsverlauf der Kurswinkelzellen in Gruppe (B) die die gleichen Winkel und räumlichen Phasen darstellen, aber so reguliert sind, dass sie in unterschiedlichen zeitlichen Phasen aktiv sind (siehe Text). (C) Zeitlicher Verlauf des gesamten synaptischen Inputs für die Gitterzellenpopulation mit Oszillationen, die doppelt so häufig sind wie die Oszillationen in Gruppe (EIN) und Gruppe (B). Die Aktivität in (A,B) zeigt das Überspringen des Theta-Zyklus relativ zur Aktivität in (C).

Konnektivität mit Rasterzellen

Die Kurswinkelzellen projizieren auf die Gitterzellen über Muster synaptischer Verbindungen, die von den Kurswinkelzelleneigenschaften abhängen, einschließlich der zugewiesenen räumlichen Phase, des Kurswinkels und der zeitlichen Phase. Wie in Abbildung ​ Abbildung 1B, 1 B gezeigt, sendet jede Kurswinkelzelle Verbindungen zu Gitterzellen, die in Linien in der Gitterzellenebene mit Winkeln über die Ebene angeordnet sind, die vom Kurswinkel der Ursprungszelle abhängen. Die Verbindungen aus dem Kurswinkel-Zellen-Array B zur Rasterzellenpopulation g wird durch eine mehrdimensionale Matrix beschrieben Wgb. Dies kann als eine Anordnung einzelner Matrizen betrachtet werden, von denen jede einen Vektor von Kurswinkelzellen mit unterschiedlichen zeitlichen Phasen (aber derselben räumlichen Phase und demselben Kurswinkel) mit Gitterzellen mit unterschiedlichen räumlichen Phasen verbindet x, ja. Die synaptischen Gewichte haben Werte von 0 oder 1. Der Index k für auf 1 zu setzende Gewichte wird durch die folgende Gleichung bestimmt:

wo x, ja beschreiben die räumliche Phase in der Rasterzellenpopulation. Für die Berechnung der Konnektivität aus der Zellpopulation des Kurswinkels beschreiben px und py die räumliche Phase in dieser Gleichung, ϕich beschreibt den Kurswinkel. Der Wert k ist der Index für die Kurswinkelzelle mit zeitlicher Phase φk und K ist die Gesamtzahl verschiedener zeitlicher Phasen der Kurswinkelzellen, die eine bestimmte räumliche Phase kodieren px, py, und Kurswinkel ϕich. Der Wert FS ist die räumliche Frequenz, die in den hier gezeigten Simulationen zwischen drei und fünf Zyklen über die gesamte Bandbreite der räumlichen Phasen in der Population lag. x ist die Gesamtzahl diskreter räumlicher Phasen entlang der räumlichen Phasendimension, indiziert durch x (und px), und Ja ist die Gesamtzahl der diskreten räumlichen Phasen entlang der Dimension der räumlichen Phase, indiziert durch ja (und py). Die Verwendung der mod-Funktion mod() stellt sicher, dass Werte außerhalb des Bereichs der Matrix wieder in die Matrix abgebildet werden.

Gleichung 2 ist nicht besonders intuitiv, aber das Konnektivitätsmuster ist relativ einfach, wie in Abbildung ​ Abbildung 1B gezeigt. 1 B. Jede Zelle für den Kurswinkel ist mit der Ebene der Gitterzellen in Bändern verbunden, die den Kurswinkel ϕ . habenich, ein räumlicher Phasenversatz px, py, und eine Position innerhalb jedes Zyklus der räumlichen Phase, die von der zeitlichen Phase abhängt φk. Die Verbindungen für sechs Kurswinkelzellen mit unterschiedlichen zeitlichen Phasen sind in Abbildung ​ Abbildung1B1 1 B1 (für Zellen mit Kurswinkel 180), in Teil B2 für Zellen mit Kurswinkel 135° und in Teil B3 für Zellen mit Kurs dargestellt Winkel von 90°. Dies führt zu einer synaptischen Ausgabe mit Bändern gemeinsamer Phase zur Gitterzellenebene (Abbildungen ​ (Abbildungen 1 1 C, D).

Abbildung ​ Abbildung1 1 zeigt, wie die einzelnen Sätze von Kurswinkelzellen unterschiedliche zeitliche Phasen für unterschiedliche relative Positionen entlang eines einzelnen Kurswinkels aufweisen. Bei Neuronen mit unterschiedlichen zweidimensionalen räumlichen Phasen ist die Lage dieser zeitlichen Phasen versetzt. Wie in Abbildung ​ Abbildung1C, 1C gezeigt, wird jeder Satz aktiver Zellen mit der festen synaptischen Konnektivitätsmatrix multipliziert Wgb erzeugt eine synaptische Ausgabe mit zeitlichen Schwingungsphasen, die in Bändern in der Umgebung erscheinen, die senkrecht zum bevorzugten Kurswinkel sind. Jedes Quadrat in Abbildung ​ Abbildung 1C 1 C zeigt das Ergebnis der Multiplikation der synaptischen Konnektivitätsmatrizen in Abbildung ​ Abbildung 1 B 1 B mit dem Vektor der Kurswinkelzellen mit unterschiedlichen zeitlichen Phasen, die eine individuelle räumliche Phase mit einem individuellen Kurswinkel kodieren. Für eine einzelne Momentaufnahme, wie in Abbildung ​ Abbildung 1C, 1 C gezeigt, führen die Unterschiede in der zeitlichen Phase zu Bändern mit höherer Amplitude, die senkrecht zum bevorzugten Kurswinkel verlaufen. Ein Film dieser Aktivität im Zeitverlauf zeigt Aktivitätswellen, die sich über die Ebene der räumlichen Phasen in Richtung des Kurswinkels bewegen, wie durch die grauen Pfeile in Abbildung ​ Abbildung 1D angezeigt. 1 D. Wenn die Ausgabe der Kurswinkelzellen über alle Kurswinkel summiert wird, führt dies zu einem stehenden Wellenmuster konzentrischer Kreise, wie in Abbildung ​ Abbildung1E 1 E und zu einem einzelnen Zeitpunkt in Abbildung ​ gezeigt. x200B Abbildung 1F. 1 F. Die Polardiagramme in Abbildung ​ Abbildung 1C 1 C zeigen, dass die Amplitude der Schwingungen von der Kursrichtung der virtuellen Ratte abhängt. Es gibt eine Hintergrundschwingung der Amplitude Eins für alle Kurswinkel ungeachtet des Kurses der virtuellen Ratte, aber diese Amplitude wird erhöht, wenn die Ratte in einem Kurs läuft, der dem Kurswinkel für einzelne Kurswinkelzellen entspricht. Die Amplitude der Kurswinkelzelle wird auch durch das Feedback von den Gitterzellen beeinflusst, die eine räumliche Periodizität zeigen, so dass diese Kurswinkelzellen Eigenschaften der räumlichen Periodizität, Theta-Rhythmik und Kurswinkelempfindlichkeit ähnlich wie konjunktive Zellen haben (aber mit einer Grundlinienreaktion während aller Bewegungsrichtungen).

Interaktion zwischen Kurswinkelzellen und Gitterzellen

Das Array von Kurswinkelzellen sendet über die Konnektivitätsmatrix Eingaben an das Array von Gitterzellen Wgb. Die Aktivierung der Rasterzellen wird beschrieben durch:

Woher gx,y(T) repräsentiert die Aktivierung einer einzelnen Gitterzelle mit räumlicher Phase beschrieben durch x, ja. Die Aktivität der Gitterzelle zeigt die Persistenz der Aktivität aus dem vorherigen Zeitschritt gemäß dem Parameter tau (τ=𠂐.3). Wie oben beschrieben, für jede Gruppe von Kurswinkelzellen mit einer bestimmten räumlichen Phase px, py und Kurswinkel ϕ, einzelne Kurswinkelzellen mit zeitlicher Phase φ senden Ausgabe an Rasterzellen in periodischen räumlichen Phasen x, y. Die Anzahl der Raumbänder dieser periodischen Ausgabe wird durch die Raumfrequenz bestimmt FS der synaptischen Konnektivität und der Gesamtzahl der räumlichen Phasen x und Ja simuliert wird. Wie in Gl. 3 werden die Eingaben in die Gitterzelle über das Array von Kurswinkeln ϕ (Abbildungen ​ (Abbildungen 1F 1 F und ​ und 2C, D) 2 C, D) und auch über die verschiedenen räumlichen Phasen summiert px,py und der Zellpopulation des Kurswinkels (Abbildung ​ (Abbildung 2E). 2 E). In den meisten Simulationen wird die Aktivität auf die räumliche Phase normiert x,ja mit maximalem Wert zur Zeit T des synaptischen Inputs aus der Kurswinkelebene, der über die Winkel summiert wurde (das Maximum wird aus dem vollständigen Satz möglicher Kombinationen von postsynaptischen Raumphasen entnommen x,ja und präsynaptische Raumphasen px,py). Die Aktivität in der Gitterzellenebene beginnt mit einer zufälligen Aktivität, die aus einer gleichmäßigen Verteilung zwischen 0 und 1 gezogen wird.

Wie zuvor in Gl. 1 erhalten die Kurswinkelzellen Feedback von den Rasterzellen über direkte Eins-zu-Eins-Verbindungen von Rasterzellen, die die entsprechende räumliche Phase kodieren x = px und y = py. Betrachten wir also nur den räumlichen Phasenindex px, py der Kurswinkelzellen und legen Sie sie in einem einzigen Vektor an, dann wäre die Rückkopplungs-Konnektivitätsmatrix von Gitterzellen zu Kurswinkelzellen eine Identitätsmatrix. Die Normalisierung des Feedbacks von der Gitterzellenschicht in Gl. 1 reicht aus, um das Netzwerk in einem stabilen Aktivitätsbereich zu halten, wenn es allein implementiert wird, aber in den meisten Simulationen wurde sowohl in Gleichung 1 als auch in Gleichung 3 eine Normalisierung auf ein Maximum verwendet.

Die Eingabe, die sich aus der Kurswinkelpopulation ergibt, ist in Abbildung ​ Abbildung 2 2 zusammengefasst, die Beispiele für die synaptische Ausgabe für verschiedene Kurswinkel zeigt. Beachten Sie, dass die Abbildungen ​ Abbildungen 1C 1 C und ​ und 2B 2 B die Amplituden zu einem Zeitpunkt des vollständigen Satzes synaptischer Eingaben von jedem Kurswinkel zur Gitterzellenebene darstellen. Dies führt zu einer Eingabe in die Gitterzellenpopulation, die sich im Laufe der Zeit ständig in Richtung des Kurswinkels in der Phase verschiebt (siehe Abbildung ​ Abbildung 6 6 unten), ähnlich den rotierenden Ringattraktoren in Modellen von Blair (Blair et al., 2007 Welday .). et al., 2011). Die unterschiedlichen zeitlichen Phasen führen zu einer konstanten Amplitudenverschiebung des synaptischen Eingangs in alle 24 Richtungen über die Gitterzellenebene. Die Summation dieser Aktivitätswellen über alle 24 verschiedenen Richtungen führt zu einer kreisförmig symmetrischen stehenden Welle synaptischen Inputs in die Gitterzellenebene, wie in den Abbildungen ​ Abbildungen 1F 1 F und ​ und 2C,D dargestellt. 2 C, D. Das Modell schlägt jedoch keine Zellen mit zirkularsymmetrischen Feuerfeldern im medialen entorhinalen Kortex vor. Dies ist nur das Muster der synaptischen Aktivierung, das sich aus der Summation über alle Kurswinkel der synaptischen Eingabe von Kurswinkelzellen ergibt, die eine einzelne räumliche Phase kodieren. Dies ähnelt dem Mechanismus, der verwendet wird, um synaptische Gewichte in einem der Modelle unter Verwendung kontinuierlicher Attraktoren zu erzeugen (Fuhs und Touretzky, 2006), aber die hier verwendete synaptische Konnektivität ist nicht kreisförmig, sondern in Bändern organisiert. Das Zentrum des Kreises der synaptischen Ausgabe hängt von der räumlichen Phase ab, die von den aktiven Zellen in der Kurswinkelpopulation kodiert wird. Somit erzeugt die Summe der Eingaben von Kurswinkelneuronen mit der richtigen Phase synaptische Eingaben, die in der Mitte des Kreises mit den Koordinaten ihren Höhepunkt erreichen x, y.

Zeitliche Dynamik von Kurswinkelzellen und synaptische Eingaben in Gitterzellen. (EIN) Die synaptische Ausgabe von Kurswinkelzellen, die eine räumliche Phase (px =�, py =�) werden für jeden der 10 Zeitschritte angezeigt, wobei jede Spalte die gleichen 6 Überschriften enthält (18 von 24 Überschriften werden nicht angezeigt). Beachten Sie, dass sich das Aktivitätsmuster aufgrund der unterschiedlichen zeitlichen Phasen bei jedem Zeitschritt in Richtung des Kurswinkels verschiebt. (B) Die Summe der synaptischen Eingaben führt zu einer stehenden Welle von Schwingungen mit einem kreissymmetrischen Muster. In den Zeitschritten 1𠄴 weist das Muster maximale Aktivität in der Mitte auf (räumliche Phase px =�, py =�) und hat einen Ring außerhalb der Mitte. In den Zeitschritten 5𠄷 ergibt die Summe der Kurswinkelausgaben das entgegengesetzte Muster. (C) Die Verwendung von zwei getrennten Populationen von Kurswinkelzellen überwindet dieses Problem. Auf Zeitschritten 1𠄴, Gruppe (EIN) zeigt die Ausgabeaktivität mit einem Maximum in der Mitte (px =�, py =�). Auf Zeitschritten 5𠄹, Gruppe (EIN) wird verringert und Gruppe (B) wird in der Aktivität erhöht, um der Gitterzellenpopulation einen ähnlichen synaptischen Input zu geben. (D) Bei zwei Gruppen ist die synaptische Eingabe von den Kurswinkelzellen meistens ähnlich im Muster.

Zu einem einzigen Zeitpunkt kann die synaptische Ausgabe des Kurswinkels unterschiedliche relative räumliche Phasen aufweisen, wie in den Abbildungen ​ Abbildungen 2B1, B2 gezeigt. 2 B1, B2. Eine genauere Betrachtung der Abbildung zeigt, dass die Bänder für jeden Winkel räumliche Phasen aufweisen, die sich zwischen 2B1 (x =�, ja =�) und 2B2 (x =�, ja =�). Wie in den Abbildungen ​, Abbildungen 2C1, C2, 2 C1, C2 und ​ und 2D, 2D gezeigt, erzeugen sie, wenn die synaptischen Ausgaben für verschiedene Winkel im Kurswinkelarray summiert werden, eine Eingabe für die erscheinende Gitterzellenpopulation als konzentrische Kreismuster mit unterschiedlichen räumlichen Phasen. Abbildung ​ Abbildung2C1 2 C1 ist auf die räumliche Phase zentriert x =�, ja =�, und Abbildung ​ Abbildung2C2 2 C2 ist auf die räumliche Phase zentriert x =�, ja =�. Alle Wechselwirkungen im Modell beinhalten die Summierung sowohl über Kurswinkel als auch über räumliche Phasen, aber zum besseren Verständnis des Modells ist die Summierung über Kurswinkel allein in den Abbildungen ​ Abbildungen 1E, F 1 E, F und in Abbildungen ​ Abbildungen 2C . dargestellt ,D 2 C,D bevor die synaptische Ausgabe über alle räumlichen Phasen summiert wird, um die Aktivität in der Gitterzellenpopulation zu erzeugen (z. B. Abbildung ​ Abbildung 2E). 2E). Jede Gitterzelle kodiert eine individuelle räumliche Phase x, ja sendet dann eine Rückmeldung, die die Eingabe von der vollständigen Anordnung von Kurswinkelzellen (einschließlich aller Winkel und zeitlichen Phasen) regelt, die diese individuelle räumliche Phase kodieren.

Zusammenfassend lässt sich sagen, dass die Amplitude der synaptischen Eingabe aus der Population von Kurswinkelzellen zu einem einzigen Zeitpunkt ein bandähnliches Muster aufweist, das analog zu einer Population von Bandzellen aus oszillatorischen Interferenzmodellen erscheinen kann (Burgess et al., 2007). Dies ist jedoch nur zu einem bestimmten Zeitpunkt der Fall. Aufgrund der unterschiedlichen zeitlichen Phasen verschiebt sich die Aktivität durch räumliche Phasen entlang der Richtung jeder einzelnen Kurswinkelebene.Somit haben diese Neuronen eine spezifische zeitliche Phase, die von ihrer eindimensionalen räumlichen Phase abhängt, wie die Zellen, die in den Spiking-Versionen des oszillatorischen Interferenzmodells (Burgess, 2008 Hasselmo, 2008) oder den Ringattraktoren in Modellen von Blair (Blair et al.) verwendet werden ., 2007 Welday et al., 2011). Diese Wellen zeitlicher Phasenverschiebungen bewegen sich gleichzeitig in Richtung aller Kurswinkel. Die Summation über alle Kurswinkel ergibt stehende Wellen mit dem in den Abbildungen ​ Abbildungen 1 und ​ und 2 gezeigten konzentrischen Kreismuster. 2. Diese Muster werden dann über alle räumlichen Phasen summiert, um die Aktivität der Gitterzellenpopulation zu steuern (z. B. Abbildung ​ Abbildung 2E). 2E). Die Rasterzellenpopulation sendet dann eine Rückmeldung, um die Größe der Eingabe basierend auf der räumlichen Phase zu regulieren.


Diskussion

Ein bestimmter Neuronentyp hat nur dann eine funktionelle Bedeutung, wenn er einen erkennbaren Effekt auf den Aktivitätszustand des Netzwerks induzieren kann. Auf der Ebene der Spiking-Aktivität lässt sich die Wirkung neuronaler Parameter durch Veränderungen des Zündmusters (z. B. Bursting und Non-Bursting) beschreiben und Fich Kurve (Abb. 7A). Hier haben wir untersucht, wann und wie neuronales Spike Bursting, einer der häufigsten Deskriptoren für neuronale Typen, eine qualitative Veränderung der Netzwerkaktivität bewirken kann. Unsere theoretische Analyse und numerische Simulationen von neuronalen Netzwerken zeigen, dass die Auswirkung von Spike Bursting vom Aktivitätszustand des Netzwerks abhängig ist (schematisch in Abb. 7B gezeigt).

(EIN) Das Flussdiagramm fasst die Ergebnisse zusammen und zeigt den Zusammenhang zwischen den einzelnen Neuroneneigenschaften und der Netzwerkdynamik (schwarze Linien). Die Beschreibung der Netzwerkeffekte des Zerplatzens durch die beiden Mechanismen wurde erreicht, indem die Wirkung von Fich Kurven von denen der Feuerungsmuster unter Verwendung von SSB-Neuronen. Das von der Netzwerkdynamik abhängige einzelne Neuronenfeuerungsmuster führte zu einer Hysterese. Die grauen Linien zeigen die unerforschten Facetten der Beziehung zwischen den beiden im Manuskript. (B) Dieses Schema fasst zusammen, wie die beiden Mechanismen die oszillatorische Aktivität im Netzwerk steuern. Die Hinzufügung von BS-Neuronen in einem oszillierenden System verursacht ein wiederkehrendes Rauschen und zerstört das feine zeitliche Gleichgewicht zwischen E- und I-Populationen, die zu Schwingungen führen und diese löschen. Mechanismus-II verschiebt die Bifurkationslinie im Phasenraum durch Reduzierung der Jcr unter Hinzufügung von BS-Neuronen.

Die durch die zeitliche Anhäufung von Spikes in BS-Neuronen verursachte Änderung des Netzwerkaktivitätszustands kann anhand von zwei Mechanismen verstanden werden (Abb. 7A,B). Wenn das Netzwerk in einem moderat oszillatorischen Regime arbeitet (spektrale Entropie ≈ 0.5), verzerren Spikebursts die zeitliche Beziehung zwischen der für diese Oszillationen notwendigen Anregung und Hemmung 36,40 und schwächen daher die Oszillationen (Mechanismus-I). In diesem Regime erhöhen BS-Neuronen das Rauschen und schwächen dadurch die Schwingungen (Abb. 4 und 7B). Auf der anderen Seite verringert das Bersten von Spikes die effektive Kupplungsstärke Jcr (siehe Gl. 1), wodurch der asynchrone Aktivitätszustand destabilisiert wird (Mechanismus-II). Das heißt, Bursting reduziert den Bereich im Netzwerkparameterraum, für den die asynchrone Aktivität stabil ist (Fig. 5 und 7B). Diese beiden Mechanismen sind am wirksamsten, wenn sich die Netzwerkaktivität in einer Region im Aktivitätszustandsraum nahe der Grenze zwischen asynchronen und oszillatorischen Zuständen befindet. Im Gegensatz dazu bleiben die hoch asynchronen und vollständig synchronen Zustände von der Änderung des Neuron-Spiking-Verhaltens unberührt, die durch das „Ersetzen“ von FS-Neuronen durch BS-Neuronen verursacht wird.

In unserer Studie haben wir speziell die Wirkung des hemmenden Neuronen-Burstens auf die Netzwerkaktivität untersucht. Unser Ansatz ist jedoch allgemein und könnte erweitert werden, um die Auswirkungen des Berstens in erregenden Neuronen zu untersuchen. Obwohl wir die Netzwerkgröße (5.000 Neuronen) konstant gehalten haben, sind wir zuversichtlich, dass die Ergebnisse auch für größere Netzwerke gelten werden. Wenn wir die Netzwerkgröße skalieren, müssen wir zur Aufrechterhaltung der Stabilität entweder die Anzahl der Verbindungen oder die Verbindungswahrscheinlichkeit festlegen. Im ersten Fall nehmen die Korrelationen aufgrund des geteilten Inputs ab. Im zweiten Fall sind die Schwankungen der Netzwerkaktivität aufgrund der geringeren Gewichtungen geringer. Beide Effekte wirken der Zunahme des Rauschens aufgrund der geringen Dichte entgegen. Zusammengenommen verbessert die Netzwerkskalierung in beiden Fällen die Übereinstimmung zwischen der Mean-Field-Approximation und den numerischen Netzwerksimulationen.

Funktionale Folgen einer Bursting-abhängigen Netzwerkzustandsänderung

Wir zeigten, dass eine schwache oszillatorische Aktivität besonders anfällig für Spike Bursting ist und dass selbst ein geringer Anteil von BS-Neuronen (≈30 %) in der inhibitorischen Population ausreicht, um Oszillationen zu löschen (Mechanismus-I). Ein solcher vorübergehender Anstieg der Aktivität von BS-Neuronen könnte einen wirksamen Mechanismus bilden, um Netzwerkoszillationen zurückzusetzen. Netzschwingungen im γ-Band (30–80 Hz) gelten als Grundlage der selektiven Kommunikation zwischen schwach verbundenen Hirnregionen 31,40 . Die durch das Bersten induzierte Phasenrücksetzung könnte ein wirksamer Mechanismus sein, um eine Kommunikation zwischen zwei solchen Gehirnregionen zu stoppen oder zu starten. Jüngste Experimente zeigen, dass Bursting tatsächlich aufgabenabhängig zunimmt und die Aktivität zwischen verschiedenen Hirnarealen synchronisiert 21 . Unsere Ergebnisse liefern zwei potenzielle Mechanismen, die eine Phasenrückstellung und/oder Phasensynchronisation induzieren können, und liefern daher eine erste theoretische Erklärung für diese experimentellen Ergebnisse.

In unserer Studie haben wir keine spezifische Konnektivität der Bursting-Neuronen berücksichtigt und haben daher möglicherweise die Wirkung von Spike Bursting auf die Netzwerkdynamik unterschätzt. Jüngste experimentelle Daten legen nahe, dass Neuronen, die unterschiedliche Feuerungsmuster aufweisen, Eingaben von unterschiedlichen Quellen erhalten können 45 . Angesichts der Tatsache, dass die neuronale Konnektivität ein entscheidender Faktor für die Wirkung eines bestimmten Neurons auf die gesamte Netzwerkdynamik ist 46,47,48,49 , würden die Auswirkungen von Spike-Bursting auf die Netzwerkaktivität weiter akzentuiert, wenn Bursting-Neuronen spezifischere Verbindungen herstellen, was könnte sich möglicherweise in Netzwerken mit aktivitätsabhängiger synaptischer Plastizität bilden (Abb. 7A).

Netzwerkhysterese

Spike Bursting könnte eine intrinsische Eigenschaft von Neuronen sein 50 oder als Folge von Netzwerkaktivität entstehen 20,21 . Als wir in unseren Simulationen die Burst-Größe von der durchschnittlichen Feuerungsrate im Netzwerk abhängig machten, beobachteten wir ein hystereseähnliches Verhalten für zeitveränderliche Eingänge (Abb. 6). Klassische symmetrische Zufallsnetzwerke verfolgen die Dynamik der externen Eingabe genau und zeigen kein solches Verhalten – tatsächlich ist es ein Kennzeichen ihres Verhaltens, eine beliebig schnelle externe Eingabe zu verfolgen 41 . Interessanterweise wurde die Beschleunigung oder Verlangsamung der Netzwerkdynamik aufgrund des Vorhandenseins von Bursting-Neuronen auch in anderen komplexen Netzwerken mit Bursting-Kommunikationsmustern für bestimmte Netzwerkkonfigurationen beobachtet 51 .

Nach unserem besten Wissen ist dies die erste Demonstration der Hysterese in zufälligen rekurrenten Netzwerkmodellen kortikaler Netzwerke von Erdos-Renyi mit schwachen statischen Synapsen und spärlicher Konnektivität 26,38 . Typischerweise beeinflussen in Netzwerkmodellen niedere Neuronen- und Synapseneigenschaften die Netzwerkdynamik und nicht umgekehrt, wie wir hier gezeigt haben. Bemerkenswerte Ausnahmen sind Netzwerke mit Kunststoffsynapsen 52 und leitfähigkeitsbasierten Synapsen 39 . Daher schlagen wir vor, dass die Suche nach hystereseähnlichem Verhalten in Experimenten ein vielversprechender Ansatz sein könnte, um gegenseitig kausale Einflüsse zwischen niederen Neuroneneigenschaften und hochrangiger Netzwerkdynamik zu identifizieren. Beachten Sie, dass Hysterese zu diesem Zeitpunkt nur in einem Netzwerk mit einem speziell entwickelten Neuronenmodell beobachtet werden konnte, das eine unabhängige Steuerung sowohl seiner Feuerrate als auch seines Spike-Burst-Verhaltens ermöglicht. Bei komplexeren Neuronenmodellen ist es nicht einfach, die Feuerrate und das Burst-Verhalten unabhängig zu steuern, und daher kann eine umfangreichere Parametersuche erforderlich sein, um die hier berichtete Hysterese zu beobachten.

Wenn die Größe des Spitzenbursts und die Netzwerkaktivität wechselseitig abhängig sind, hängt die Netzwerkverstärkung sowohl vom Netzwerkaktivitätsstatus als auch vom Verlauf der Eingabe ab. Dies ist ganz anders als bei herkömmlichen symmetrischen Zufallsnetzwerken, bei denen die Eingangshistorie keine Rolle bei der Bestimmung der Netzwerkverstärkung spielt. Es ist mehr Arbeit erforderlich, um vollständig zu verstehen, wie sich solche eingangshistorienabhängigen Änderungen der Netzverstärkung auf die Verarbeitung von zeitveränderlichen Eingangssignalen auswirken.

Schließlich spekulieren wir, dass die krankheitsbedingte abweichende neuronale Aktivität eine Folge eines erhöhten Anteils an platzenden Neuronen sein könnte, z. bei Morbus Parkinson 22. In diesen Fällen könnten mögliche Behandlungen darauf abzielen, die genauen Mechanismen der Berstaktivität zu identifizieren und ihnen entgegenzuwirken, entweder pharmakologisch oder durch elektrische Stimulation.


Ergebnisse

ORGANICS.

Wir beginnen mit der Beschreibung der grundlegenden Architektur von oszillatorischen rekurrenten Gated Neural Integrator Circuits (ORGaNICs). Die folgenden Unterabschnitte erläutern diese grundlegende Architektur und zeigen, dass diese Architektur eine Vielzahl von Funktionen erfüllen kann, einschließlich Arbeitsgedächtnis und Motorsteuerung.

Ein Beispiel für eine ORGaNICs-Schaltung ist in Abb. 1 dargestellt. Die neuronalen Antworten einer Population von Neuronen werden als dynamische Prozesse modelliert, die sich im Laufe der Zeit entwickeln. Die Ausgabereaktionen hängen von einem Eingabeantrieb (einer gewichteten Summe der Reaktionen einer Population von Eingabeneuronen) und einem wiederkehrenden Antrieb (einer wiederkehrenden gewichteten Summe ihrer eigenen Reaktionen) ab. Die zeitlich veränderlichen Ausgangsantworten werden durch einen Vektor dargestellt ja = (ja1, ja2,…, jaJ,…, jan), wobei der Index J indiziert verschiedene Neuronen in der Population (fettgedruckte Kleinbuchstaben bezeichnen Vektoren und fettgedruckte Großbuchstaben bezeichnen Matrizen.) Die zeitvariablen Eingaben werden durch einen anderen Vektor dargestellt x = (x1, x2,…, xJ,…, xm). Die Ausgangsantworten werden auch durch 2 Populationen von zeitvariablen Modulatoren, rekurrenten Modulatoren, moduliert ein und Eingangsmodulatoren B. (Wir verwenden den Begriff „Modulator“ für eine multiplikative Berechnung, unabhängig davon, ob sie mit Neuromodulatoren implementiert wird oder nicht.) Die rekurrenten und Eingangsmodulatoren sind analog zu den Rücksetz- bzw. Eingangsgattern in LSTMs. Die Modulatoren hängen von den Ein- und Ausgängen ab. Es gibt also 2 verschachtelte wiederkehrende Schaltungen: 1) wiederkehrender Antrieb: Die Ausgangsreaktionen hängen vom wiederkehrenden Antrieb ab, der von einer gewichteten Summe ihrer eigenen Reaktionen abhängt, und 2) multiplikative Modulatoren: die Ausgangsreaktionen werden (multiplikativ) durch die moduliert Reaktionen von 2 anderen Populationen von Neuronen (der Modulatoren), die ebenfalls von den Ausgangsreaktionen abhängen.

ORGaNICs Architektur. (EIN) Anschlussschema am Beispiel ORGaNIC. Durchgezogene Linien/Kurven sind erregend (positive Gewichte) und gestrichelte Kurven sind hemmend (negative Gewichte). Die Grauskala repräsentiert die Stärke der Verbindungen (Gewichtsgröße). Es werden nur einige der Eingangsantriebsverbindungen und wiederkehrenden Laufwerksverbindungen gezeigt, um die Übersichtlichkeit zu minimieren. (B) Okulomotorische verzögerte Reaktionsaufgabe. Schwarzes Fadenkreuz, Fixierpunkt. Schwarzer Kreis, Augenposition zu Beginn eines Versuchs. Blaue Kreise, mögliche Zielorte, von denen jeder eine Eingabe hervorruft.

Insbesondere werden neuronale Antworten durch die folgende dynamische Systemgleichung modelliert: τ ydyjdt = − yj + ( bj + 1 + bj + ) zj + ( 1 1 + aj + ) y ^ j , [1] z = W zxx , y ^ = W y ^ yx , r = W ryy , aj + ≥ 0 und bj + ≥ 0.

Gl. 1 kann mit einem vereinfachten biophysikalischen (äquivalenter elektrischer Schaltkreis) Modell von Pyramidenzellen implementiert werden (siehe SI-Anhang und ref. 46 für Details). Die Variablen (ja, ŷ, x, z, ein, B, und R) sind zum Beispiel jeweils Funktionen der Zeit ja(T), aber wir lassen die explizite Abhängigkeit von T um die Notation zu vereinfachen. Die Antworten ja abhängig von einem Eingangsantrieb z, die als gewichtete Summe der Eingaben berechnet wird x. Die Kodierungsgewichtsmatrix (auch Einbettungsmatrix genannt) Wzx ist ein n × m Gewichtsmatrix wobei n ist die Anzahl der Neuronen in der Schaltung und m ist die Anzahl der Eingänge in die Schaltung. Die Reihen von Wzx sind die Antwortfelder der Neuronen. Die Antworten ja hängen auch von einer wiederkehrenden Fahrt ab ŷ, die als gewichtete Summe der Antworten berechnet wird ja. Die wiederkehrende Gewichtsmatrix Wy ist ein n × n Matrix. Für die in Fig. 1 dargestellte Beispielschaltung weisen die wiederkehrenden Gewichte eine Mitte-Surround-Architektur auf, in der die nächsten wiederkehrenden Verbindungen erregend und die weiter entfernten hemmend sind und die Schaltung eine anhaltende Aktivität zeigt (siehe unten). Bei anderen Wahlmöglichkeiten der wiederkehrenden Gewichtsmatrix kann die Schaltung stabile, andauernde Schwingungen, sequentielle Aktivität oder Wanderwellen der Aktivität aufweisen (siehe unten). Der rekurrente Antrieb und der Eingangsantrieb werden jeweils von 2 anderen Neuronenpopulationen moduliert: den rekurrenten Modulatoren ein und die Eingangsmodulatoren B. Das hochgestellte + ist eine gleichrichtende Ausgabe-Nichtlinearität. Die Einweggleichrichtung ist die einfachste Form dieser gleichrichtenden Nichtlinearität, jedoch könnten andere Ausgangs-Nichtlinearitäten ersetzt werden, beispielsweise Sigmoid, Exponentiation, Halbquadrat (49), Normalisierung (50, 51) und so weiter. Der Wert von τja ist die intrinsische Zeitkonstante der Neuronen. Schließlich werden die Ausgangsantworten mit einer Auslesematrix multipliziert Wry, wo R ist die Anzeige (in der Abbildung nicht dargestellt).

Die zeitlich veränderlichen Werte der Modulatoren ein und B Bestimmen Sie den Zustand der Schaltung, indem Sie die wiederkehrende Verstärkung und die effektive Zeitkonstante steuern. In Zeiten, in denen beide einJ und BJ groß sind (z. einJ = BJ ≫ 1) werden die Reaktionszeitverläufe vom Antrieb dominiert, die Reaktionen weisen also eine kurze effektive Zeitkonstante auf. Wenn beide einJ und BJ klein (∼0) sind, werden die Antworten von der wiederkehrenden Ansteuerung dominiert, sodass die Antworten eine lange effektive Zeitkonstante aufweisen. Wann einJ ist groß und BJ klein ist, wird der wiederkehrende Antrieb abgeschaltet (wie das Reset-Gate in einem LSTM). Ein Leaky Neural Integrator entspricht einem Spezialfall, in dem einJ = BJ ist über die Zeit konstant (siehe SI-Anhang für einen Primer zu neuralen Integratoren).

Die Modulatoren sind selbst dynamische Systeme, die von den Ein- und Ausgängen abhängen: τ a d a d t = − a + W a x x + f ( y ) , [2] τ b d b d t = − b + W b x x . Die Werte von τein und τB sind die intrinsischen Zeitkonstanten der Modulatorneuronen. Der wiederkehrende Modulator ein hängt von einer Funktion der Ausgangsantworten ab F(ja), um wiederkehrende Normalisierungen (Robustheit durch Normalisierung und SI-Anhang). ORGaNICs (analog zu LSTMs) verwenden die Modulatoren, um einen sich dynamisch ändernden Zustand zu codieren. Die Modulatoren hängen von den aktuellen Eingängen und den aktuellen Ausgängen ab, die wiederum von vergangenen Eingängen und Ausgängen abhängen, so dass der Zustand von den aktuellen Eingängen und dem vergangenen Kontext abhängt. Die Modulatoren können für jedes Neuron separat angesteuert werden, sodass jedes Neuron einen anderen Zustand haben kann (unterschiedliche Werte für einJ und BJ) zu jedem Zeitpunkt. Im folgenden Beispiel teilten sich jedoch alle Neuronen in der Schaltung den gleichen Zustand, der sich jedoch im Laufe der Zeit änderte.

ORGaNICs sind von Natur aus ein nichtlineares dynamisches System, da der Eingangsantrieb und der wiederkehrende Antrieb jeweils mit nichtlinearen Funktionen der Modulatoren multipliziert werden (Gl. 1) und weil der rekurrente Modulator nichtlinear von den Ausgangsantworten abhängt (Gl. 2). Es gibt jedoch Umstände, unter denen diese Gleichungen als lineares System analysiert werden können, insbesondere wenn die Modulatoren über die Zeit konstant sind, da die einzige verbleibende Nichtlinearität auf die Normalisierung zurückzuführen ist, die einfach dazu dient, die Antworten neu zu skalieren.

Bei der Formulierung von ORGaNICs besteht eine beträchtliche Flexibilität, wobei verschiedene Varianten unterschiedlichen hypothetischen neuronalen Schaltkreisen entsprechen (SI-Anhang). In einer solchen Variante kann jeder der Modulatoren im Gegensatz zu Gl. 2 in denen nur ein hängt von den Ausgangsantworten ab. In einer anderen Variante haben die 2 Modulatoren analoge Effekte, so dass größere Werte von ein erhöhen die Verstärkung des wiederkehrenden Antriebs, im Gegensatz zu Gl. 1 wobei größere Werte von ein Verringern Sie die Verstärkung des wiederkehrenden Laufwerks. In noch einer anderen Variante sind die 2 Modulatoren koordiniert, um das Gleichgewicht zwischen Eingangsantrieb und wiederkehrendem Antrieb zu regeln.

Die folgenden Unterabschnitte beschreiben einige Beispiele für ORGaNICs. Wir beginnen mit einem vereinfachten Beispiel einer Daueraktivitätsschaltung, modifizieren dann die wiederkehrenden Gewichte, um sequentielle Aktivität und Wanderwellen zu simulieren, und fügen dann mehrere wiederkehrende Terme zur Manipulation hinzu. Die in den Figuren gezeigten simulierten neuronalen Antworten sollen qualitative Aspekte neurophysiologischer Phänomene aufzeigen, d. h. die Modelle wurden (noch) nicht optimiert, um veröffentlichte Daten durch Abstimmung oder Anpassung der Modellparameter zu replizieren. Die Gewichte in den verschiedenen Gewichtungsmatrizen wurden für jede der Simulationen in diesem Papier vorspezifiziert (nicht gelernt) (obwohl ORGaNICs mit modifizierten Versionen von ML-Algorithmen kompatibel sind, siehe SI-Anhang).

Nachhaltige Aktivität.

Wir verwendeten ORGaNICs, um anhaltende Aktivität während einer gedächtnisgesteuerten Sakkadenaufgabe zu simulieren (Abb. 2), wobei die in Abb. 1 dargestellte Schaltung verwendet wurdeEIN. Bei dieser Aufgabe wird ein Ziel kurz angeblitzt, während eine Person die Mitte eines Bildschirms fixiert (Abb. 1B). Nach einer Verzögerungszeit von mehreren Sekunden verschwindet der Fixationspunkt und fordert die Person auf, eine Augenbewegung zu der erinnerten Position des Ziels zu machen.

Nachhaltige Aktivität. (EIN) Kodierungsmatrix (Wzx), von denen jede Zeile dem Antwortfeld eines Neurons entspricht. Diagramm, Antwortfeld entsprechend der mittleren Zeile der Matrix. (B) Wiederkehrende Gewichtsmatrix (Wy), von denen jede Reihe den wiederkehrenden synaptischen Gewichten anderer Neuronen in der Population entspricht.Graph, wiederkehrende Gewichtungen, die der mittleren Zeile der Matrix entsprechen. (C) Eingangsreiz und rekonstruierter Reiz. Blau, Eingangsreiz (x) entsprechend dem Zielort. Orange, rekonstruierter Reiz, berechnet als gewichtete Summe des rekonstruierten Eingangstriebs (D). (D) Antriebsantrieb und rekonstruierter Antriebsantrieb. Blau, Eingangsantrieb (z) an jedes Neuron als Funktion des bevorzugten Zielorts dieses Neurons. Orange, rekonstruierter Eingangsantrieb, berechnet als gewichtete Summe der ausgelesenen (h). (E) Eingangsantrieb (z) im Laufe der Zeit. Jede Farbe entspricht einem anderen Neuron. (F) Modulatorantworten. Oberste Reihe, ein. Untere Reihe, B. (g) Ausgangsantworten (ja). Jede Farbe entspricht einem anderen Neuron. (h) Vorlesen (R). Jede Farbe entspricht einer anderen Komponente der Anzeige.

Die Modulatoren in der Simulation waren während jeder aufeinanderfolgenden Phase der Verhaltensaufgabe konstant. Viele experimentelle Protokolle in der Verhaltensneurowissenschaft umfassen eine Abfolge verschiedener Phasen (einschließlich der okulomotorischen verzögerten Reaktion, siehe Abbildungen unten für weitere Beispiele). Die in das Versuchsprotokoll eingebauten Verhaltenshinweise bestimmen den Zustand der Modulatoren über WAxt und Wbx in Gl. 2, und der Zustand wechselte von einer Phase zur nächsten. Während jeder Phase waren die Modulatoren konstant und die Schaltung auf ein lineares dynamisches System reduziert, wodurch sie mathematisch handhabbar wurde.

Jedes Neuron in der Simulation reagierte selektiv auf die Zielposition, jedes mit einem anderen bevorzugten Polarwinkel (d. h. Sakkadenrichtung) im Gesichtsfeld (Abb. 1 .).B und 2EIN), alle mit derselben bevorzugten radialen Position (d. h. Sakkadenamplitude). Wir haben die Sakkadenamplitude für diese Simulation ignoriert, aber es wäre einfach, die Schaltung für jede von mehreren Sakkadenamplituden zu replizieren. Der Eingangsantrieb z zu jedem Neuron hängt folglich vom Zielort und dem zeitlichen Verlauf der Zielpräsentation ab (Abb. 2 D und E). Die wiederkehrenden Gewichte Wy wurden ausgewählt, um in jeder Reihe eine Center-Surround-Architektur zu haben Wy hatte einen großen positiven Wert entlang der Diagonalen (Selbsterregung), flankiert von kleineren positiven Werten und umgeben von kleinen negativen Werten (Abb. 2B). Alle Neuronen in der Schaltung teilten sich das gleiche Modulatorpaar (einJ = ein und BJ = B), d. h. alle Neuronen hatten zu jedem Zeitpunkt den gleichen Zustand. Die Eingabe in die Schaltung umfasste nicht nur die Zieldarstellung, sondern auch die Zeitverläufe von 2 Hinweisen, von denen einer den Beginn des Versuchs (zum Zeitpunkt 0 ms) und der andere das Ende der Verzögerungszeit (zum Zeitpunkt 3.500 ms). Die Reaktionszeitverläufe der Modulatoren folgten den 2 Cues (Abb. 2F), indem Sie entsprechende Werte in den Gewichtsmatrizen setzen WAxt und Wbx.

Diese Schaltung war in der Lage, während der Verzögerungszeit mit anhaltender Aktivität eine Darstellung des Zielortes aufrechtzuerhalten (Abb. 2 .).g). Die Antworten folgten zunächst dem Antriebsantrieb (vgl. Abb. 2 E und g) weil der Wert des Eingangsmodulators auf gesetzt wurde B = 1 (über Wbx in Gl. 2) durch das Stichwort, das den Beginn des Versuchs anzeigt. Der Wert von B dann auf klein (= 0, entsprechend einer langen effektiven Zeitkonstante) umgeschaltet, bevor das Ziel gelöscht wurde, so dass die Ausgangsantworten anhaltende Aktivität zeigten (Abb. 2g). Schließlich wurde der Wert des rekurrenten Modulators auf gesetzt ein ≈ 1 (über WAxt in Gl. 2) durch den Hinweis, der das Ende des Versuchs anzeigt, wodurch die Ausgabeantworten gelöscht werden.

Die Dynamik der Antworten während der Verzögerungszeit hing von den Eigenwerten und Eigenvektoren der rekurrenten Gewichtsmatrix ab Wy. In dieser speziellen Beispielschaltung ist die wiederkehrende Gewichtsmatrix (Abb. 2B) war eine symmetrische 36 × 36-Matrix (n = 36 war die Anzahl der Neuronen in der Schaltung, d. h. jedes von ja und z waren 36-dimensionale Vektoren). Für diese spezielle wiederkehrende Gewichtungsmatrix waren 19 der Eigenwerte gleich 1 und die anderen hatten Werte kleiner als 1. Es gibt natürlich nichts Besonderes an diesen Zahlen, die Schaltung könnte eine beliebige Anzahl von Neuronen mit einer beliebigen Anzahl von Eigenwerten gleich enthalten zu 1, aber die Angabe dieser Details erleichtert die Visualisierung und das Verständnis. Der kritische Punkt ist, dass die Gewichtungsmatrix so skaliert wurde, dass die größten Eigenwerte gleich 1 waren präzises Tuning durch eingebaute Normalisierung). Die entsprechenden Eigenvektoren definiert ein orthonormales Koordinatensystem (oder Basis) für die Antworten. Die Antworten während der Verzögerungszeit (wenn B = 0) wurden vollständig durch die Projektion der Anfangswerte (die Antworten ganz am Anfang der Verzögerungszeit) auf die Eigenvektoren bestimmt. Eigenvektoren mit entsprechenden Eigenwerten gleich 1 wurden während der gesamten Verzögerungszeit aufrechterhalten. Diejenigen mit Eigenwerten kleiner als 1 zerfielen auf Null (kleinere Eigenwerte zerfielen schneller). Diejenigen mit Eigenwerten größer als 1 wären instabil gewesen und würden unbegrenzt wachsen (weshalb die Gewichtsmatrix so skaliert wurde, dass die größten Eigenwerte = 1). Diese Beispielschaltung hatte eine darstellende Dimensionalität D = 19, weil die rekurrierende Gewichtsmatrix 19 Eigenwerte = 1 hatte. Die neuronale Aktivität in dieser Schaltung war während der Verzögerungsperiode ein 19-dimensionaler kontinuierlicher Attraktor. Es könnte im Prinzip die Positionen und Kontraste von bis zu 19 Zielen beibehalten oder es könnte ein 19-dimensionales Muster von Eingaben beibehalten.

Der Eingangsantrieb und der Zielort wurden aus den Antworten zu jedem Zeitpunkt während der Verzögerungszeit rekonstruiert (Abb. 2 C und D). Dazu wurden die Antworten zunächst mit einer Auslesematrix multipliziert. Die Auslesematrix Wry = V T war eine 19 × 36-Matrix, in der die Zeilen von V T wurden aus den Eigenvektoren der rekurrenten Gewichtsmatrix berechnet Wy. Speziell, V war eine Orthonormalbasis für den 19-dimensionalen Unterraum, der von den Eigenvektoren von aufgespannt wird Wy mit entsprechenden Eigenwerten = 1. Die resultierende Anzeige (Abb. 2h), zu einem beliebigen Zeitpunkt, wurde dann mit einer Decodierungs- (oder Rekonstruktions-)Matrix (SI-Anhang). Das Ergebnis war eine perfekte Rekonstruktion des Eingangsantriebs (Abb. 2D, orange) bis auf einen Skalierungsfaktor (wegen Normalisierung) und eine ungefähre Rekonstruktion des Eingangsreizes (Abb. 2C, orange) mit einem Peak am Zielort. Die Rekonstruktion des Eingangsreizes war unvollkommen, da die Antwortfelder weitgehend auf den Polarwinkel abgestimmt waren. Unabhängig davon wollen wir nicht implizieren, dass das Gehirn versucht, den Reiz aus den Reaktionen zu rekonstruieren. Die Rekonstruktion zeigt lediglich, dass die Antworten und das Auslesen implizit den Zielort repräsentieren. Die Kodierungsmatrix Wzx war eine 36 × 360-Matrix (m = 360 war die Anzahl der Polarwinkelabtastungen im Eingabestimulus). Die Antwortfelder (d. h. die Zeilen der Kodierungsgewichtsmatrix Wzx) wurden basierend auf den gleichen Eigenvektoren entworfen. Damit ist gewährleistet, dass der Eingangsantrieb zu jedem Zeitpunkt während der Verzögerungszeit aus den Antworten perfekt rekonstruiert wurde (Abb. 2D sehen SI-Anhang zur Ableitung).

Robustheit durch Normalisierung.

Der Kreislauf der anhaltenden Aktivität, wie oben beschrieben, hing von genau abgestimmten synaptischen Gewichten ab. Die wiederkehrenden Gewichtsmatrizen wurden so skaliert, dass die Eigenwerte nicht größer als 1 waren. Bei einer linearen wiederkehrenden Schaltung mit Eigenwerten größer als 1 sind die Antworten instabil und wachsen während einer Verzögerungszeit unbegrenzt. Dies ist ein bekanntes Problem für rekurrente neuronale Netze (52 ⇓ –54).

ORGaNICs lösen dieses Problem durch die Integration von Normalisierung. Das Normalisierungsmodell wurde ursprünglich entwickelt, um reiz-evozierte Reaktionen von Neuronen im primären visuellen Kortex (V1) zu erklären (50), wurde aber seitdem zur Erklärung neuronaler Aktivität in einer Vielzahl von neuronalen Systemen angewendet (51). Das definierende Merkmal des Modells besteht darin, dass die Reaktion jedes Neurons durch einen Faktor geteilt wird, der eine gewichtete Summe der Aktivität eines Pools von Neuronen enthält. Das Modell sagt viele gut dokumentierte physiologische Phänomene voraus und erklärt sie, ebenso wie ihre Verhaltens- und Wahrnehmungsanaloga.

Die simulierten neuronalen Schaltkreise verwendeten den rekurrenten Modulator ein Normalisierung durch Feedback zu ermöglichen. Der wiederkehrende Modulator bestimmte den Betrag der wiederkehrenden Verstärkung, es war eine bestimmte nichtlineare Funktion der Antworten: F(ja) in Gl. 2 (sehen SI-Anhang für Details). Für einen Eingangsantrieb z die über einen bestimmten Zeitraum konstant war, erreichten die Ausgangsantworten einen stabilen Zustand, in dem sie normalisiert waren (siehe SI-Anhang zur Ableitung): | y j | 2 = | z j | 2 σ 2 + ∑ | z j | 2. [3] Die Reaktionen waren proportional zum Eingangsantrieb, wenn die Amplitude des Eingangsantriebs klein war (d. h. wenn die Summe der quadrierten Eingangsantriebe ≪ σ 2 war). Die Antworten gesättigt (d. h. abgeflacht), wenn die Amplitude des Eingangsantriebs groß war (≫ σ 2 ). Der Wert von σ (die Halbsättigungskonstante) bestimmte die Eingangsantriebsamplitude, die die Hälfte der maximalen Reaktion erreichte. Trotz Sättigung blieben die relativen Antworten erhalten (siehe SI-Anhang zur Ableitung): | y j | 2 | y j | 2 = | z j | 2 | z j | 2. [4] Das heißt, die normalisierten Antworten repräsentierten ein Verhältnis zwischen dem Eingangsantrieb zu einem einzelnen Neuron und der Amplitude des Eingangsantriebs summiert über alle Neuronen. Folglich sind die Antworten aller Neuronen zusammen gesättigt (bei der gleichen Eingangsantriebsamplitude), obwohl einige Neuronen stark auf die Eingabe reagierten, während andere dies nicht taten.

Die wiederkehrende Normierung machte die Schaltung robust gegenüber Unvollkommenheiten in der wiederkehrenden Gewichtsmatrix (Fig. 3). Ohne Normalisierung hingen die Antworten entscheidend von der Feinabstimmung ab. Zum Beispiel haben wir den Daueraktivitätskreislauf verwendet (Abb. 1 und 2), aber mit F(ja) = 0, sodass die Normalisierung deaktiviert wurde und wir die wiederkehrende Gewichtungsmatrix um den Faktor 1,02 skaliert haben. Die Antworten waren instabil und wuchsen ohne Grenzen (Abb. 3EIN). Einschließlich der Normalisierung stabilisierte sich automatisch die Aktivität der Schaltung (Abb. 3B). Den durch die rekurrierende Gewichtsmatrix (mit den größten Eigenwerten = 1,02) hervorgerufenen Aktivitätszunahmen wurde durch eine Normalisierung entgegengewirkt, so dass die Gesamtaktivität im Kreislauf über die Zeit ungefähr konstant war (||ja|| 2 1). Die Verhältnisse der Antworten wurden beibehalten (Gl. 4), die eine genaue Anzeige während der gesamten Verzögerungszeit ermöglicht. Analoge Ergebnisse wurden mit den anderen unten beschriebenen Beispielschaltungen erhalten, einschließlich derer, die oszillierende und sequentielle Dynamik aufwiesen, da die Normierung von der quadrierten Norm der Antworten abhängt, die während der Verzögerungszeit für jede dieser Beispielschaltungen über die Zeit konstant war. Die Stabilität der normalisierten Antworten hing nicht von der Feinabstimmung irgendeines der anderen synaptischen Gewichte in der Schaltung ab, die diese synaptischen Gewichte durch zufällige Werte innerhalb von ±5% störten, ergaben praktisch identische simulierte Antworten und die Antworten waren stabil, selbst wenn diese synaptischen Gewichte gestört waren durch Zufallswerte von 0,5× bis 2× (siehe SI-Anhang für Details). Wir haben auch eine Verallgemeinerung dieser rekurrenten Normalisierungsschaltung implementiert, bei der die Antwort jedes Neurons durch eine beliebige (nicht negative) gewichtete Summe der anderen Neuronen in der Schaltung normalisiert werden kann.

Normalisierung. (EIN) Ausgangsantworten (ja), entsprechend der in den Fig. 1 und 2 dargestellten Schaltung mit anhaltender Aktivität. 1 und 2, aber mit der wiederkehrenden Gewichtungsmatrix um den Faktor 1,02 skaliert. Jede Farbe entspricht einem anderen Neuron. (Einsatz) Vollständiger Antwortbereich auf einer erweiterten (240×) Ordinate. (B) Ausgabeantworten mit Normalisierung. Gestricheltes Oval, hochfrequente, kohärente, synchronisierte Schwingungen nach dem Einsetzen des Ziels.

Die normalisierten Antworten zeigten hochfrequente Schwingungen nach dem Einsetzen des Ziels, die über alle Neuronen in der Schaltung synchronisiert waren (Abb. 3 .).B, gestricheltes Oval). In ORGaNICs gibt es 2 verschachtelte rekurrente Schaltkreise: 1) den rekurrenten Antrieb und 2) die multiplikativen Modulatoren. Die hochfrequenten Schwingungen entstanden aufgrund der inhärenten Verzögerung in der zweiten dieser wiederkehrenden Schaltungen (d. h. aufgrund des der Normalisierung zugrunde liegenden multiplikativen Modulators). Die Schwingungsfrequenz hing von den Membranzeitkonstanten ab. Für die für Fig. 3 verwendeten Zeitkonstanten zeigten die Antworten Oszillationen im Gamma-Frequenzbereich. Unterschiedliche intrinsische Zeitkonstanten ergaben unterschiedliche Schwingungsfrequenzen. Die Oszillationsfrequenz wäre auch von der Axonlänge abhängig gewesen, wenn wir Leitungsverzögerungen einbeziehen würden.

Die Antworten zeigten während der Verzögerungszeit niederfrequente Schwingungen (Abb. 3B). Diese niederfrequenten Schwingungen entstanden aufgrund des wiederkehrenden Antriebs in Kombination mit der Normalisierung. Die wiederkehrende Gewichtsmatrix wurde auf Eigenwerte größer als 1 skaliert, was dazu führte, dass die Antworten im Laufe der Zeit anstiegen, aber dieser Zunahme wurde durch Normalisierung entgegengewirkt. Diese Schwingungen wurden synchronisiert, so dass die Verhältnisse der Antworten erhalten blieben (Gl. 4), was trotz der Schwingungen eine genaue Ablesung ermöglicht.

Sequentielle Aktivität.

ORGaNICs können verwendet werden, um eine Verzögerungsperiodenaktivität mit komplexer Dynamik zu erzeugen, einschließlich sequentieller Aktivität und Wanderwellen der Aktivität, zusätzlich zu anhaltender Aktivität, und der gleiche theoretische Rahmen wurde verwendet, um sie zu analysieren. Die Schlüsselidee ist, dass die rekurrierende Gewichtsmatrix komplexwertige Eigenvektoren und Eigenwerte haben kann. Dies kann beispielsweise geschehen, wenn die wiederkehrenden Gewichtungen und Ausgabeantworten komplexwertig sind (SI-Anhang, Abb. S4). Die Notation komplexer Zahlen ist nur eine Notation (SI-Anhang). Eine andere Möglichkeit, eine komplexe Dynamik zu erzeugen, besteht darin, dass die rekurrente Gewichtungsmatrix reellwertig, aber asymmetrisch ist, so dass die Antworten reellwertig sind, aber die Eigenvektoren Eigenwerte sind, die komplexwertig sind.

Eine solche Beispielschaltung wurde entworfen, um sequentielle Aktivität zu erzeugen (Fig. 4). In dieser Beispielschaltung gab es wieder 36 Neuronen mit den gleichen Antwortfeldern wie im vorherigen Beispiel (Abb. 2EIN). Die Modulatoren waren ebenfalls die gleichen wie im vorherigen Beispiel, einschließlich der wiederkehrenden Normalisierung. Die wiederkehrende Gewichtsmatrix war reellwertig, aber asymmetrisch (Abb. 4EIN). Aufgrund der Asymmetrie waren die Eigenvektoren und Eigenwerte der rekurrenten Gewichtsmatrix komplexwertig und die Ausgangsantworten wiesen eine oszillatorische Dynamik auf (Abb. 4B). Die rekurrente Gewichtsmatrix wurde so entworfen, dass die rekurrente Konnektivität von der räumlichen Ableitung der neuronalen Aktivität (55) abhing, d. h. dem Aktivitätsunterschied zwischen benachbarten Neuronen (SI-Anhang). Folglich wurde die Aktivität während der Verzögerungszeit von einem Neuron zum nächsten weitergegeben, analog zu einer Synfire-Kette (56 ⇓ ⇓ –59), jedoch mit einer Aktivität, die die Zeit kontinuierlich kachelte (60).

Sequentielle Aktivität. (EIN) Wiederkehrende Gewichtsmatrix (Wy). Graph, wiederkehrende Gewichte, die der mittleren Zeile der Matrix entsprechen. (B) Ausgangsantworten (ja). Jede Farbe entspricht einem anderen Neuron. Aufeinanderfolgende Reihen, Antworten einiger beispielhafter Neuronen. (C) Vorlesen (R +). Jede Farbe entspricht einer anderen Komponente der Anzeige.

Trotz der komplexen Dynamik war die Anzeige über die Zeit konstant (Abb. 4C). Die Auslesematrix wurde wiederum, wie bei der vorhergehenden Daueraktivitätsschaltung (Abb. 2), als unitäre Basis für den von den Eigenvektoren von aufgespannten Unterraum berechnet Wy mit entsprechenden Eigenwerten, die Realteile = 1 hatten. Die Auslesung wurde jedoch berechnet als R + = |Wry y|, dh der Modul (Quadratwurzel der Summe der Quadrate von Real- und Imaginärteil) einer gewichteten Summe der Antworten. Folglich war diese Schaltung in der Lage, einige (aber nicht alle) Informationen über den Eingang während der Verzögerungszeit zu speichern. Im Gegensatz zum vorherigen Beispiel war es nicht möglich, den Eingangsantrieb aus der Auslesung zu beliebigen Zeitpunkten während der Verzögerungszeit zu rekonstruieren. Eine lineare Rekonstruktion (wie im vorherigen Beispiel verwendet) erzeugte eine Kopie des Eingangsantriebs, die sich im Laufe der Zeit wie eine Wanderwelle (SI-Anhang, Abb. S5). Das heißt, die während der Verzögerungszeit gehaltene Information war ausreichend, um einige Eingaben zu unterscheiden (z. B. 2 Ziele mit unterschiedlichen Kontrasten oder 2 Paare von Zielen mit unterschiedlichen Abständen), aber nicht in der Lage, zwischen anderen Eingaben zu unterscheiden (z. B. ein einzelnes Ziel mit demselben Kontrast). an 2 verschiedenen Orten präsentiert).

Motorvorbereitung und Motorsteuerung.

ORGaNICs sind auch in der Lage, Signale zu generieren, wie sie zum Ausführen komplexer Bewegungsabläufe benötigt werden (z.B. Sprache, Vogelgesang, Backside Double McTwist 1260 auf einem Snowboard aus der Halfpipe). Einige Aktionen sind ballistisch (open loop), d. h. sie werden ohne sensorisches Feedback während der Bewegung ausgeführt. Andere haben einen geschlossenen Regelkreis, was bedeutet, dass die Bewegungen auf der Grundlage von sensorischem Feedback im Handumdrehen angepasst werden. ORGaNICs rufen im Laufe der Zeit Aktivitätsmuster hervor, die der Ausführung sowohl von Bewegungen im offenen als auch im geschlossenen Kreislauf zugrunde liegen können.

Ein Beispiel für eine Steuerung mit offenem Regelkreis (Fig. 5) wurde unter Verwendung der oben beschriebenen sequentiellen Aktivitätsschaltung implementiert, jedoch mit einer anderen Auslesung. Die Kodiermatrix und die wiederkehrende Matrix waren mit denen in der sequentiellen Aktivitätsschaltung identisch. Die Modulatoren waren auch die gleichen wie in den vorhergehenden Beispielen, einschließlich der wiederkehrenden Normalisierung. Die Anzeige war anders, einfach die Komponenten summieren, R Σ = Betreff(Wry ja).Unterschiedliche räumliche Muster der Eingaben führten zu unterschiedlichen zeitlichen Dynamiken der Antworten. Wenn der Eingang ausgewählt wurde, um einen bestimmten Eigenvektor anzusteuern (dh weil der Eingangsantrieb orthogonal zu den anderen Eigenvektoren war), dann war die Anzeige während der Motorausführungszeit (gleich wie die Verzögerungszeit in den vorherigen Beispielschaltungen) ein 1- Hz Sinuskurve (Abb. 5EIN). Wenn der Eingang zum Ansteuern eines anderen Eigenvektors gewählt wurde, war die Anzeige eine 8-Hz-Sinuskurve (Abb. 5C). Eine lineare Summe dieser Eingaben rief eine Anzeige hervor, die (wegen der Normalisierung) proportional zur linearen Summe der Anzeigen war (Abb. 5D).

Motorvorbereitung und Motorsteuerung. (EIN) Eingabeantrieb und Anzeige entsprechend dem Eingang, der nur die 1-Hz-Komponente der wiederkehrenden Gewichtsmatrix steuert. (EIN, Links) Eingangsantrieb (z), räumliche Musteraktivität über die 36 Neuronen während des prämotorischen Zeitraums (250 bis 500 ms). (EIN, Rechts) Vorlesen (R Σ ) im Laufe der Zeit. Vertikale gestrichelte Linien, Zeiten entsprechend Kurven in B. (B) Antworten zeigen eine oszillierende Wanderwelle der Aktivität. Verschiedene Farben entsprechen verschiedenen Zeitpunkten, angegeben in EIN. (C) Eingabe Antrieb und Anzeige entsprechend der 8-Hz-Komponente der wiederkehrenden Gewichtsmatrix. Gleiches Format wie EIN. (D) Summieren der Eingaben von EIN und C ruft die Summe der Antworten hervor. (E) Antrieb von EIN wird im Raum verschoben, wodurch eine zeitlich verschobene Anzeige erzeugt wird.

Wie werden diese zeitlichen Aktivitätsprofile erzeugt? Jeder Eigenvektor der rekurrenten Gewichtsmatrix ist mit einer Basisfunktion, einem Aktivitätsmuster über die gesamte Neuronenpopulation und über die Zeit hinweg verbunden. Jede Basisfunktion ist eine komplexe Exponentialfunktion (d. h. bestehend aus Sinus und Cosinus), deren Frequenz durch den Imaginärteil des entsprechenden Eigenwerts angegeben wird: i = ( 1.000 2 π τ y ) Im ( λ i ) . [5] Der Wert von λich ist der imaginäre Teil des ich Eigenwert der rekurrenten Gewichtsmatrix, und ωich ist die entsprechende Schwingungsfrequenz (in Hertz). Der Faktor 1.000 wird benötigt, da die Zeitkonstante τja wird vermutlich in Millisekunden angegeben, aber die Schwingungsfrequenz wird in Hertz (Zyklen pro Sekunde) angegeben. Die Antworten zeigen eine oszillierende Wanderwelle (Abb. 5B) oszilliert die Reaktion jedes einzelnen Neurons mit der Zeit und das gesamte Aktivitätsmuster der gesamten Neuronenpopulation verschiebt sich mit der Zeit (Abb. 5 .).B, orange – gelb – lila – grün – cyan – rot). Bei Eingängen, die unterschiedlichen Eigenvektoren entsprechen, schwingen die Antworten mit entsprechend unterschiedlichen Frequenzen (Abb. 5C). Die Frequenzen der verschiedenen Komponenten, die jedem der Eigenwerte entsprechen, enthielten für diese spezielle wiederkehrende Gewichtungsmatrix eine Reihe anderer Frequenzen zusätzlich zu den in der Figur gezeigten 1- und 8-Hz-Komponenten. Motorsteuersignale mit beliebiger Phase für jede der Frequenzkomponenten können durch Verschieben des Eingangsantriebs erzeugt werden (Abb. 5E). Auf diese Weise können alle Kombinationen von Amplituden, Frequenzen und Phasen erzeugt werden, indem einfach das räumliche Muster der prämotorischen Aktivität mit einer festen, linearen Anzeige geändert wird. Dies deckt sich mit experimentellen Beweisen, die zeigen, dass die Funktion der motorischen Vorbereitung darin besteht, die Anfangsbedingungen festzulegen, die die gewünschte Bewegung erzeugen (61 ⇓ –63), und dass komplexe Bewegungen auf einer Bibliothek von motorischen Primitiven basieren (64, 65).

Die Anzeige für die Steuerung ist im Allgemeinen eine lineare Summe der Antworten R Σ . Die Auslesematrix für das Kurzzeitgedächtnis in der vorhergehenden Schaltung mit anhaltender Aktivität (Fig. 2) umfasste Eigenvektoren der wiederkehrenden Gewichtungsmatrix, um sicherzustellen, dass die Eingabe während der Verzögerungszeit wiederhergestellt wurde. Die Wiederherstellung der Eingabe ist jedoch nicht das Ziel der Steuerung mit offenem Regelkreis. Vielmehr wurde eine Summe der (co)sinusförmigen Basisfunktionen verwendet, um motorische Steuersignale für ballistische (open-loop) Bewegungen zu generieren.

ORGaNICs können auch kompliziertere Steuersignale erzeugen. Die Basisfunktionen sind gedämpfte Oszillatoren, wenn die Modulatoren größer 0, aber gleich sind (ein = B) und über die Zeit konstant und wenn die Eingabe über die Zeit konstant ist. Wenn der Eingang zeitvariabel ist, dann hängen die Antworten von einer Linearkombination der Eingänge und der Basisfunktionen ab, und die Antworten können für eine Regelung verwendet werden. Wenn die Modulatoren auch zeitvariabel und für jedes Neuron unterschiedlich sind, können die Antworten eine breite Palette von Dynamiken aufweisen, mit der Fähigkeit (analog zu LSTMs), relativ anspruchsvolle Aufgaben zu lösen (siehe Einführung für Referenzen).

Manipulation: Räumliche Aktualisierung.

Eine Simulation der zweistufigen Sakkadenaufgabe veranschaulicht, wie ORGaNICs Informationen im Laufe der Zeit sowohl pflegen als auch manipulieren können (Abb. 6). In dieser Aufgabe werden 2 Ziele angezeigt, während eine Person die Mitte eines Bildschirms fixiert (Abb. 6 EIN, Oberer, höher). Dann werden nacheinander zwei Augenbewegungen zu jedem der 2 Ziele ausgeführt. Augenbewegungen werden im Gehirn mit retinotopischen, also augenzentrierten Koordinaten dargestellt (Abb. 6 EIN, Oberer, höher, rote Linien). Folglich muss nach der ersten Augenbewegung der Plan für die zweite Augenbewegung aktualisiert werden (Abb. 6 EIN, Untere die aus dem oberen Feld kopierte durchgehende rote Linie zeigt nicht mehr auf das zweite Ziel). Dies geschieht durch Kombinieren einer Darstellung des Zielortes mit einer Kopie der neuronalen Signale, die die Augenmuskeln steuern (d. h. Folgeausfluss), um die geplante Augenbewegung zu aktualisieren (Abb. 6 .). EIN, Untere, gestrichelte rote Linie).

Räumliche Aktualisierung. (EIN) Doppelschritt-Sakkadenaufgabe. (EIN, Oberteil) Ziele vorgestellt. (EIN, Unterseite) Nach Augenbewegung zum Ziel 1. Weiße Punkte, Ziele. Schwarzes Fadenkreuz, Augenstellung. Durchgezogene rote Linien, geplante Augenbewegungen ohne Aktualisierung. Gestrichelte rote Linie, geplante Augenbewegung nach dem Update. (B) Wiederkehrende Gewichtsmatrizen. (Oberteil) Wiederkehrende Gewichtsmatrix entsprechend Modulator ein1 zum Aufrechterhalten einer Darstellung der Zielorte. (Mitte und Unterseite) Wiederkehrende Gewichtsmatrizen entsprechend Modulatoren ein2 und ein3 zum Aktualisieren der Darstellung mit Augenbewegungen nach links bzw. rechts. (C) Eingangsreiz und rekonstruierter Reiz. Blau, Eingangsreiz (x) entsprechend den 2 Zielpositionen. Orange, rekonstruierter Stimulus, berechnet als gewichtete Summe der ausgelesenen (F). (Oberteil) Vor der Augenbewegung zum Ziel 1. (Unterseite) Nach Augenbewegung zum Ziel 1. (D) Modulatorantworten. (Oberteil) ein1. (Mitte) ein2 (blau) und ein3 (Orange). (Unterseite) B. (E) Ausgangsantworten (ja). (Oberteil) Zeitlicher Aktivitätsverlauf, mit verschiedenen Farben, die verschiedenen Neuronen entsprechen. (Unterseite) Antworten für jeden von mehreren Zeitpunkten (unterschiedliche Farben entsprechen unterschiedlichen Zeitpunkten) während die neuronale Darstellung der Zielorte aktualisiert wird. (F) Vorlesen (R). Gestrichelte vertikale Linien in DF entsprechen den Schnappschüssen in EIN.

Die Beispielschaltung in Abb. 6 erhielt 2 Arten von Eingaben: 1) die Zielorte zu Beginn des Versuchs (Abb. 6 C, Oberteil, blau) und 2) eine Begleitentladung der bevorstehenden Augenbewegung. Es wurde angenommen, dass die Ziele entlang des horizontalen Meridians des Gesichtsfeldes liegen. Es gab wieder 36 Neuronen, aber im Gegensatz zu den vorherigen Beispielen reagierte jedes Neuron selektiv auf eine andere Exzentrizität entlang des horizontalen Meridians des Gesichtsfeldes (d. h. Grad des Sehwinkels weg von der Fixierung), nicht unterschiedliche Polarwinkel um die Fixierung bei einer festen Exzentrizität. Die Kodierungsmatrix Wzx war analog zu dem in den vorhergehenden Beispielen, aber die Neuronen waren selektiv für die Exzentrizität des Ziels anstelle des Polarwinkels. Auslesen und Rekonstruktion waren die gleichen wie für den Daueraktivitätskreislauf (Abb. 2).

Was diese Beispielschaltung von den vorherigen Beispielen unterscheidet, ist, dass es 3 wiederkehrende Gewichtsmatrizen gab (Abb. 6B), die erste zur Beibehaltung einer Darstellung der Zielorte (Abb. 6 B, Oberteil), die zweite zum Wechseln der Darstellung bei Augenbewegungen nach links (Abb. 6 B, Mitte) und das dritte zum Wechseln der Darstellung bei Augenbewegungen nach rechts (Abb. 6 B, Unterseite). Wie in den vorhergehenden Beispielen waren die Modulatoren für jedes Neuron in der Schaltung gleich. Folglich können wir Gl. 1: τ ydydt = − y + ( b + 1 + b + ) z + ( 1 1 + a 1 + ) y ^ 1 + ( a 2 + 1 + a 2 + ) y ^ 2 + ( a 3 + 1 + a 3 + ) y ^ 3 , [6] y ^ k = W y ^ kyy , wobei der Index k Indizes über die 3 wiederkehrenden Gewichtungsmatrizen. Die erste wiederkehrende Gewichtsmatrix war identisch mit der im Daueraktivitätskreislauf (Abb. 2B). Die zweite wiederkehrende Gewichtungsmatrix war eine diskrete Annäherung an die Ableitung der Antworten (SI-Anhang), und drittens war die negative Ableitungsmatrix (d. h. die zweite und dritte rekurrierende Matrizen unterschieden sich um den Faktor −1). Um 2 Dimensionen von Augenbewegungen zu berücksichtigen, würde der Eingangsantrieb von 2-dimensionalen Antwortfeldern abhängen, die das Gesichtsfeld kacheln, und der wiederkehrende Antrieb würde von 5 wiederkehrenden Gewichtsmatrizen abhängen, eine zum Beibehalten der aktuellen Augenposition, ein Paar für die horizontale Komponente von Bewegungen, und ein weiteres Paar für die vertikale Komponente (oder ebenso ein Paar für die Polarwinkelkomponente von Bewegungen und ein weiteres Paar für die radiale Komponente).

Die Modulatoren wurden verwendet, um eine Darstellung der Zielorte zu codieren und zu aktualisieren (Abb. 6D). Wie in den vorherigen Beispielen folgten die Antworten zu Beginn des simulierten Versuchs der Eingangsansteuerung, da der Eingangsmodulator auf . eingestellt war B = 1 (über Wbx in Gl. 2) durch das Stichwort, das den Beginn des Versuchs anzeigt. Der Wert von B dann auf klein (= 0) umgeschaltet, bevor die Ziele gelöscht wurden, so dass die Ausgabeantworten eine anhaltende Aktivität zeigten, die die ursprünglichen Zielorte repräsentierten (Abb. 6 C, Oberteil, Orange). Der Modulator ein1 war für die wiederkehrende Normierung verantwortlich, wie in den vorherigen Beispielschaltungen. Der Modulator ein3 war für einen Zeitraum, der kurz vor der Augenbewegung begann, ungleich Null (Abb. 6 .). D, Mitte, Orange). Die Amplitude von ein3 und die Zeitdauer, während der sie ungleich Null war, bestimmte die Größe der Aktualisierung, d. h. entsprechend der Amplitude der bevorstehenden Sakkade (bei einer Augenbewegung in die entgegengesetzte Richtung die Amplitude von ein2, Anstatt von ein3, wäre ungleich Null gewesen). Schließlich wurde der Wert des rekurrenten Modulators auf gesetzt ein1 ≈ 1 (über WAxt in Gl. 2) durch den Hinweis, der das Ende des Versuchs anzeigt, wodurch die Ausgabeantworten gelöscht werden.

Die ausgegebenen Antworten zeigten während des Zeitraums, in dem die neuronale Darstellung der Ziele aktualisiert wurde, eine Wanderwelle der Aktivität über die topografische Karte der Zielorte (Abb. 6).E). Die Anzeige (Abb. 6F) kodierte die 2 Zielorte sowohl vor als auch nach der Aktualisierung. Die Auslese- und Decodierungsmatrizen waren identisch mit denen im Daueraktivitätskreislauf (Abb. 2). Vor der Augenbewegung wurden die ursprünglichen Zielorte aus der Auslesung rekonstruiert (Abb. 6 C, Oberteil, orange Kurve). Nach der Augenbewegung wurden die aktualisierten Zielorte rekonstruiert (Abb. 6 C, Unterseite).

Manipulation: Zeitverzerrung und Zeitumkehr.

Eine Herausforderung für Modelle der motorischen Steuerung besteht darin, Bewegungen mit unterschiedlichen Geschwindigkeiten zu erzeugen, beispielsweise das Spielen eines Klavierstücks, das Generieren von Sprache (66) oder das Generieren von Vogelgezwitscher (67) in unterschiedlichen Tempi. Ebenso besteht eine Herausforderung für Modelle der sensorischen Verarbeitung darin, dass die Wahrnehmung hinsichtlich der Kompression oder Dilatation von zeitlichen Signalen tolerant sein muss, beispielsweise beim Hören von schneller vs. langsamer Sprache (68). Ein möglicher Mechanismus für die Zeitverzerrung besteht darin, die Zeitkonstanten der Neuronen (69) alle mit demselben Faktor zu skalieren, der die Schwingungsfrequenzen mit dem Kehrwert dieses Skalierungsfaktors skaliert (Gl. 5). Ein fester Wert für den Skalierungsfaktor würde eine lineare Zeitneuskalierung handhaben, bei der das gesamte Eingangs- (und/oder Ausgangssignal) entsprechend komprimiert oder geweitet wird. Eine neuronale Schaltung könnte einen zeitvariablen Wert für den Skalierungsfaktor basierend auf den Eingaben und/oder Ausgaben berechnen, um eine zeitvariable Zeitverzerrung zu handhaben.

Hier bieten wir einen anderen Mechanismus zum Time Warping (auch Time Reversal) unter Verwendung der Modulatoren an. Es wurde ein beispielhafter Motorsteuerkreis mit offenem Regelkreis implementiert, der Zeitverzerrung und Zeitumkehr ermöglichte (Abb. 7). Die Codiermatrix und die wiederkehrende Matrix waren identisch mit denen im Beispiel der räumlichen Aktualisierung (Fig. 6). Die ein1 und B Modulatoren waren auch die gleichen wie im Beispiel der räumlichen Aktualisierung, aber die Zeitverläufe der anderen 2 Modulatoren ein2 und ein3 waren unterschiedlich (Abb. 7EIN). Die Anzeige war die gleiche wie im Motorsteuerkreis (Abb. 5) und summierte sich über die Komponenten R Σ . Der Eingang wurde gewählt, um alle Eigenvektoren mit zufällig gewählten Amplituden und Phasen zu treiben. Unterschiedliche Werte der ein2 und ein3 Modulatoren erzeugten Steuersignale, die zeitverzerrt und/oder zeitumgekehrt waren. Eine Erhöhung der Modulatorantwort von 1 auf 5/3 führte zu einer Geschwindigkeitserhöhung der Auslesung um 25 % (vgl. Abb. 7 B und C) Tempo war proportional zu ein2/(1 + ein2). Ein zeitvariabler Modulator erzeugte eine zeitvariable Zeitverzerrung. Die Schaltung zeigte diese Phänomene, weil die Antworten oszillierende Wanderwellen zeigten (Abb. 5B). Die Auslesung war eine Summe dieser Wanderwellen, und die Geschwindigkeit der Wanderwellen wurde von den Modulatoren (SI-Anhang). Wann ein3 (Anstatt von ein2) ungleich Null war, wurde die Anzeige zeitlich umgekehrt (vgl. Abb. 7 B und D), da sich die Wanderwellen der Aktivität in die entgegengesetzte Richtung bewegten.

Zeitverzerrung und Zeitumkehr. (EIN) Modulatorantworten. (B) Auslesen für ein2 = 1 und ein3 = 0. (C) Zeitverzerrte Anzeige für ein2 = 5/3 und ein3 = 0. (D) Zeitumgekehrte Anzeige für ein2 = 0 und ein3 = 1.


ERGEBNISSE

Unser primäres Ziel war es zu testen, wie der VVP im Laufe der Zeit immer komplexere visuelle und semantische Informationen darstellt. Um dies zu erreichen, haben wir RSA verwendet, um zu testen, ob die visuellen und semantischen Informationen, die aus den Rechenmodellen extrahiert wurden, in raumzeitlichen Mustern der oszillatorischen Phase aus quellenlokalisierten MEG-Signalen dargestellt wurden. Wir analysierten Daten von fünf ROIs, die Okzipital, pVTC und die ATL abdecken, von denen bekannt ist, dass sie hauptsächlich an der Verarbeitung visueller und semantischer Objekteigenschaften beteiligt sind.

Zeit-Frequenz-RSA (TF RSA) zeigte, dass neuronale Muster basierend auf der oszillatorischen Phase eine signifikante Beziehung sowohl zum visuellen als auch zum semantischen Modell aufwiesen. Die Effekte konzentrierten sich auf die ersten 500 ms und wurden über die Theta-, Alpha- und Beta-Frequenzen hinweg beobachtet (Tabelle 1). Wir geben zunächst einen kurzen Überblick über visuelle und semantische Effekte, bevor eine detailliertere Folgeanalyse des Zeitpunkts und der Häufigkeit der Effekte erfolgt.

TF RSA-Ergebnisse

Modelle . ROI . Frequenzen . Mal . Masse . Cluster p .
Visuelle Ebene 1 Okcip 4–50 Hz 0–730 ms 4857 .0002
Visuelle Ebene 1 LpVTC 4–15 Hz 0–610 ms 1392 .0073
Visuelle Ebene 1 RpVTC 4–15 Hz 0–350 ms 1364 .0077
Visuelle Ebene 1 LATL 4–14 Hz 0–410 ms 1379 .0077
Visuelle Ebene 1 RATL 7–15 Hz 10–370 ms 369 .0365
Visuelle Ebene 1 RATL 4–6 Hz 70–350 ms 233 .1001
Visuelle Ebene 2 Okcip 4–34 Hz 0–750 ms 5343 .0002
Visuelle Ebene 2 LpVTC 4–16 Hz 0–630 ms 1522 .0051
Visuelle Ebene 2 RpVTC 4–21 Hz 0–770 ms 2093 .0035
Visuelle Ebene 2 LATL 4–14 Hz 0–390 ms 1378 .0077
Visuelle Ebene 2 RATL 4–15 Hz 0–750 ms 1298 .0079
Visuelle Ebene 3 Okcip 4–32 Hz 0–910 ms 5599 .0001
Visuelle Ebene 3 LpVTC 4–23 Hz 0–690 ms 2301 .0030
Visuelle Ebene 3 RpVTC 4–23 Hz 0–730 ms 3033 .0018
Visuelle Ebene 3 LATL 4–18 Hz 0–590 ms 1955 .0036
Visuelle Schicht 3 RATL 4–17 Hz 0–690 ms 1943 .0036
Frühe Semantik Okcip 5–14 Hz 0–690 ms 701 .0145
Frühe Semantik LpVTC 4–6 Hz 170–450 ms 251 .0843
Frühe Semantik RpVTC 12–21 Hz 110–390 ms 231 .1014
Frühe Semantik LATL 4–8 Hz 0–450 ms 584 .0181
Späte Semantik LpVTC 4–8 Hz 0–630 ms 585 .0181
Späte Semantik LATL 4–7 Hz 0–390 ms 447 .0262
Modelle . ROI . Frequenzen . Mal . Masse . Cluster p .
Visuelle Ebene 1 Okcip 4–50 Hz 0–730 ms 4857 .0002
Visuelle Ebene 1 LpVTC 4–15 Hz 0–610 ms 1392 .0073
Visuelle Ebene 1 RpVTC 4–15 Hz 0–350 ms 1364 .0077
Visuelle Ebene 1 LATL 4–14 Hz 0–410 ms 1379 .0077
Visuelle Ebene 1 RATL 7–15 Hz 10–370 ms 369 .0365
Visuelle Ebene 1 RATL 4–6 Hz 70–350 ms 233 .1001
Visuelle Ebene 2 Okcip 4–34 Hz 0–750 ms 5343 .0002
Visuelle Ebene 2 LpVTC 4–16 Hz 0–630 ms 1522 .0051
Visuelle Ebene 2 RpVTC 4–21 Hz 0–770 ms 2093 .0035
Visuelle Ebene 2 LATL 4–14 Hz 0–390 ms 1378 .0077
Visuelle Ebene 2 RATL 4–15 Hz 0–750 ms 1298 .0079
Visuelle Ebene 3 Okcip 4–32 Hz 0–910 ms 5599 .0001
Visuelle Ebene 3 LpVTC 4–23 Hz 0–690 ms 2301 .0030
Visuelle Ebene 3 RpVTC 4–23 Hz 0–730 ms 3033 .0018
Visuelle Ebene 3 LATL 4–18 Hz 0–590 ms 1955 .0036
Visuelle Schicht 3 RATL 4–17 Hz 0–690 ms 1943 .0036
Frühe Semantik Okcip 5–14 Hz 0–690 ms 701 .0145
Frühe Semantik LpVTC 4–6 Hz 170–450 ms 251 .0843
Frühe Semantik RpVTC 12–21 Hz 110–390 ms 231 .1014
Frühe Semantik LATL 4–8 Hz 0–450 ms 584 .0181
Späte Semantik LpVTC 4–8 Hz 0–630 ms 585 .0181
Späte Semantik LATL 4–7 Hz 0–390 ms 447 .0262

Fettdruck zeigt an P < .05.

Visuelle Modelle

TF-RSA-Effekte wurden für alle drei visuellen Modelle in jedem ROI über Theta-, Alpha- und Beta-Frequenzen gesehen und am stärksten im okzipitalen ROI (Abbildung 2). Es wird vorhergesagt, dass frühe oder mittlere visuelle Schichten die besten Prädiktoren für okzipitale Reaktionen sind und mehr anteriore Regionen am besten von der letzten visuellen Schicht erfasst werden.Geplante Kontraste zeigten, dass die Effekte für visuelle Ebene 2 signifikant größer waren als für visuelle Ebene 1 (T = 4.56, P < .001) ohne Unterschied zwischen den visuellen Ebenen 2 und 3 (T = 0,27). In höheren Regionen entlang des ventralen Stroms hatte die visuelle Ebene 3 eine signifikant bessere Anpassung als die beiden Ebenen 2 (linker pVTC [LpVTC]: T = 4.05, P = .002 pVTC rechts [RpVTC]: T = 4.30, P = .001 linke ATL [LATL]: T = 3.35, P = 0,006 rechts ATL [RATL]: T = 3.64, P = 0,004) und Schicht 1 (LpVTC: T = 4.90, P < .001 RpVTC: T = 7.00, P < 0,0001 RATL: T = 7.35, P < .0001), außer im LATL (T = 2.01, P = .07). Diese Ergebnisse stimmen mit Vorhersagen überein, dass spätere Regionen entlang des ventralen Stroms komplexere visuelle Objektinformationen darstellen, die wiederum von späteren Schichten des visuellen DNN besser erfasst werden.

TF RSA-Effekte des visuellen DNN. Jedes Diagramm zeigt die Korrelationswerte von Spearman zwischen einem RDM aus dem visuellen DNN und jedem ROI. Signifikante Cluster werden schwarz umrandet dargestellt, wobei ein Schwellenwert von . verwendet wird P < .01 auf Pixelebene und P < 0,05 auf Clusterebene (korrigiert für alle getesteten ROIs und Modell-RDMs). Im Hintergrund werden nicht signifikante Zeit-Frequenz-Punkte angezeigt. Schwarze Linie zeigt 0 ms an.

TF RSA-Effekte des visuellen DNN. Jedes Diagramm zeigt die Korrelationswerte von Spearman zwischen einem RDM aus dem visuellen DNN und jedem ROI. Signifikante Cluster werden schwarz umrandet dargestellt, wobei ein Schwellenwert von . verwendet wird P < .01 auf Pixelebene und P < 0,05 auf Clusterebene (korrigiert für alle getesteten ROIs und Modell-RDMs). Im Hintergrund werden nicht signifikante Zeit-Frequenz-Punkte angezeigt. Schwarze Linie zeigt 0 ms an.

Semantische Modelle

Die TF-RSA-Analyse der Phase zeigte signifikante Effekte für beide semantischen Modelle (Abbildung 3). Sowohl das früh-semantische als auch das spät-semantische Modell waren während der ersten 400 ms signifikant mit raumzeitlichen Phasenmustern in der LATL in Theta-Frequenzen verbunden. Darüber hinaus hatte das frühsemantische Modell eine signifikant bessere Anpassung im Vergleich zum spätsemantischen Modell in LATL (T = 2.96, P = 0,013). Das frühsemantische Modell war auch signifikant mit okzipitalen Phasenmustern in Theta- und Alpha-Frequenzen verbunden. Schließlich war das spätsemantische Modell signifikant mit dem LpVTC in Theta-Frequenzen verbunden. Diese Ergebnisse zeigen, dass semantische Informationen über Objekte durch oszillierende Phasenmuster im ventralen Strom erfasst werden, mit den deutlichsten Effekten im Theta im pVTC und im ATL – Schlüsselregionen, die semantische Informationen über die Zeit unterstützen (Clarke et al., 2011, 2015 .). Clarke und Tyler, 2014).


Abbildung der Dynamik eines platzenden Neurons

Das anteriore Burster (AB) Neuron des Hummerstom Ganglions atogastric zeigt ein unterschiedliches rhythmisches Verhalten, wenn es mit Neuromodulatoren und kanalblockierenden Toxinen behandelt wird. Wir stellen ein kanalbasiertes Modell für dieses Neuron vor und zeigen, wie die Bifurkationsanalyse verwendet werden kann, um die Reaktion dieses Modells auf Änderungen seiner Parameter zu untersuchen. Zweidimensionale Abbildungen des Parameterraums des Modells wurden unter Verwendung von Rechenwerkzeugen basierend auf der Theorie nichtlinearer dynamischer Systeme erstellt. Änderungen der intrinsischen Feuerungs- und Schwingungseigenschaften des Modell-AB-Neurons wurden mit den Grenzen von Hopf- und Sattelknoten-Verzweigungen auf diesen Karten korreliert. Es wurden komplexe rhythmische Muster beobachtet, wobei ein begrenzter Bereich der Parameterebene das Burst-Verhalten des Modellneurons erzeugte. Experimente wurden durchgeführt, indem eine isolierte AB-Zelle mit 4-Aminopyridin behandelt wurde, das selektiv gλ, die Leitfähigkeit des vorübergehenden Kaliumkanals, reduziert. Das Modell sagt genau die qualitativen Änderungen der neuronalen Spannungsoszillationen voraus, die über einen Reduktionsbereich von gλ im Neuron beobachtet werden. Diese Ergebnisse demonstrieren die Wirksamkeit der Theorie dynamischer Systeme als Mittel zur Bestimmung des unterschiedlichen Schwingungsverhaltens, das einem kanalbasierten neuronalen Modell innewohnt. Darüber hinaus stellen die Abbildungen von Bifurkationen ein nützliches Werkzeug dar, um zu bestimmen, wie dieses Verhalten von Modellparametern abhängt, und um das Modell mit einem realen Neuron zu vergleichen.


12.4.3 Aktivität eines vollständig verbundenen Netzwerks

Die Verstärkungsfunktion ohne Rauschen (Schwankungsamplitude σ = 0 sigma=0) wird mit g 0 g_ <0> bezeichnet.

I ⁢ ( t ) = w 0 ⁢ N ⁢ 0 ∞ α ⁢ ( s ) A ⁢ ( t - s ) d s + I ext ⁢ ( t ) . I(t)=w_<0>,Nint_<0>^alpha(s),A(t-s),< ext>s+I^< m ext>(t),. (12.22)

I 0 = w 0 N ⁢ A 0 + I 0 ext . I_<0>=w_<0>,N,A_<0>+I^< m ext>_<0>,. (12.23)

Zusammen mit Gl. ( 12.21 ) erhalten wir eine implizite Gleichung für die Bevölkerungsaktivität A 0 A_ <0>,

A 0 = g 0 ⁢ (J 0 ⁢ A 0 + I 0 ext). A_<0>=g_<0>left(>,A_<0>+I_<0>^< m ext> echts),. (12.24)

Eine grafische Lösung von Gl. ( 12.24 ) ist in Abbildung 12.15 dargestellt, wo zwei Funktionen aufgetragen sind: Erstens die mittlere Feuerrate ν = g 0 ⁢ ( I 0 ) u=g_<0>(I_<0>) als Funktion der Eingabe I 0 I_<0> (dh die Verstärkungsfunktion). Zweitens, die Bevölkerungsaktivität A 0 A_ <0> als Funktion des Gesamtinputs I 0 I_ <0> (dh A 0 = [ I 0 - I 0 ext ] / J 0 A_<0>=[I_<0 >-I^< m ext>_<0>]/J_ <0> siehe Gl. ( 12.23 )). Die Schnittpunkte der beiden Funktionen ergeben Fixpunkte der Aktivität A 0 A_ <0>.

Nebenbei bemerken wir, dass der grafische Aufbau mit dem der Curie-Weiss-Theorie des Ferromagnetismus identisch ist, die in jedem Physiklehrbuch zu finden ist. Allgemeiner gesagt entspricht die Struktur der Gleichungen der Mittelfeldlösung eines Systems mit Rückkopplung. Wie in Abb. 12.15 gezeigt, können mehrere Lösungen nebeneinander existieren. Aus der Abbildung können wir nicht schließen, ob eine oder mehrere Lösungen stabil sind. Tatsächlich ist es möglich, dass alle Lösungen instabil sind. Im letzteren Fall verlässt das Netzwerk den Zustand der asynchronen Zündung und entwickelt sich zu einem oszillierenden Zustand. Die Stabilitätsanalyse des asynchronen Zustands erfordert Gleichungen für die Populationsdynamik, die in den Kapiteln 13 und 14 diskutiert werden.

Beispiel: Leaky-Integrate-and-Fire-Modell mit diffusem Rauschen

Darüber hinaus empfängt jedes Neuron individuelles diffuses Rauschen der Varianz σ 2 sigma^ <2>, das eine Spitzenankunft von anderen Populationen darstellen könnte. Die Einzelneuronen-Verstärkungsfunktion (476) in Gegenwart von diffusem Rauschen wurde bereits in Kapitel 8 vgl. Gl. ( 8.54 ). Wir verwenden die Formel der Gewinnfunktion, um die Populationsaktivität zu berechnen


Schau das Video: Nervenzelle einfach erklärt: Aufbau u0026 Funktion (Dezember 2021).