Information

Vorteile der Verwendung komplizierterer Neuronenmodelle in NEF-Modellen

Vorteile der Verwendung komplizierterer Neuronenmodelle in NEF-Modellen

Mit der NEF können Sie fast jedes Neuronenmodell verwenden, solange es eine Gleichung für seine Aktivität und seine Spitzen in irgendeiner Weise hat. Üblicherweise wird ein einfaches Leaky-Integrate-Fire (LIF)-Neuronenmodell verwendet, aber auch in der Software Nengo stehen verschiedene Neuronen zur Modellierung zur Verfügung, wie zum Beispiel adaptive LIF-Neuronen und Poisson-Neuronen. Was sind die Vorteile der Verwendung dieser komplexeren Neuronen und wie wurden diese Vorteile in der Vergangenheit genutzt?


Wie in "Neural Engineering" von Eliasmith et al. Kapitel 4, komplizierte Neuronenmodelle haben größere Rechenfähigkeiten und passen neuronale Daten realistischer an.

Rechenfähigkeiten

Wie in der folgenden Tabelle (aus Neural Engineering) zu sehen ist, codieren adaptive LIF-Neuronen aufgrund ihrer zeitlich variierenden Feuerungsmuster (d. h. eine konstante Eingabe verursacht im Laufe der Zeit unterschiedliche Spitzenmuster) mehr Informationen pro Spitze:

Wie in dieser Tabelle zu sehen ist, gibt es einen Kompromiss zwischen der Komplexität der durch das Neuron repräsentierten Informationen und seinen Rechenkosten. Diese Kosten werden jedoch auf traditionellen Von-Neumann-CPUs berechnet. Es ist möglich, neuromorphe Hardware zu schaffen, um diese Kosten zu minimieren und gleichzeitig die Rechenfähigkeit zu maximieren. Weitere Informationen finden Sie unter "Nichtlineare synaptische Interaktion als Rechenressource im Neural Engineering Framework", die zeigt, wie nichtlineare Dendriten leistungsstarke Berechnungsformen mit minimalen zusätzlichen neuromorphen Hardwarekosten ermöglichen können.

Abgleich biologischer Daten

Die oben erwähnte zeitliche Varianz des adaptiven LIF wird auch verwendet, um neuronale Daten abzugleichen, wie sie in diesem Modell des Arbeitsgedächtnisses zu sehen sind, was mit regulären LIF-Neuronen nicht möglich gewesen wäre. Die Verwendung noch komplizierterer Modelle kann es ermöglichen, die Wirkungen von Medikamenten abzugleichen, wie in "Wirkungen von Guanfacin und Phenylephrin auf ein Spiking Neuron Model of Working Memory" gezeigt.


Schlüsselwörter

Anmerkung des Autors: Die Autorenschaft ist aufgrund gleicher Beiträge alphabetisch. Einen Teil dieser Arbeit hat Tobias Schröder als Postdoc an der University of Waterloo mit Unterstützung der Deutschen DFG (SCHR1282/1-1) durchgeführt. Ivana Kajić war zu Beginn ihrer Arbeit Doktorandin am Bernstein Center for Computational Neuroscience in Berlin. Sie erkennt die aktuelle Unterstützung durch die AFOSR (FA9550-17-1-0026) an. Paul Thagard erhielt Fördermittel vom Natural Sciences and Engineering Research Council of Canada (NSERC).


Ein hochmodernes neuronales Netzwerkmodell räumlicher und visueller mentaler Bilder

Geistige Bilder sind seit langem für die Kognitions- und Neurowissenschaften von Interesse, aber wie sie sich in Geist und Gehirn manifestieren, bleibt noch ungeklärt. Um dies zu erreichen, haben wir ein neuronales Spiking-Modell entwickelt, das mentale Rotation und mentales Kartenscannen mithilfe von Strategien durchführen kann, die aus der Literatur der Psychologie und Neurowissenschaften stammen. Ergebnisse: Bei der Durchführung von Mental-Map-Scanning entsprechen die Reaktionszeiten (RTs) unseres Modells den Verhaltensstudien (ca. 50 ms/cm) und replizieren die kognitive Durchdringbarkeit der Aufgabe. Bei der Durchführung der mentalen Rotation stimmen die RTs unseres Modells erneut eng mit Verhaltensstudien überein (Modell: 55–65°/s Studien: 60°/s) und führten die Aufgabe mit derselben Aufgabenstrategie aus (ganze Einheitsrotation einfacher und vertrauter Objekte durch Zwischenpunkte). Insgesamt schlägt unser Modell vor: (1) vektorbasierte Ansätze zur neurokognitiven Modellierung sind gut gerüstet, um Verhaltensbefunde zu reproduzieren, und (2) die kognitive (Un-)Durchdringbarkeit von Bildaufgaben kann davon abhängen, ob die Aufgabe Verwendung von (nicht)symbolischer Verarbeitung.

Dies ist eine Vorschau von Abonnementinhalten, auf die Sie über Ihre Institution zugreifen können.


Tierstudien in der Psychologie

Studenten fragen manchmal nach dem Wert der Tierforschung in der Psychologie. Das Studium nichtmenschlicher Tiere hat in der Psychologie eine große Rolle gespielt und tut dies auch heute noch. Wenn Sie an einem Einführungskurs in Psychologie teilgenommen haben, haben Sie wahrscheinlich von bahnbrechenden psychologischen Forschungen gelesen, die mit Tieren durchgeführt wurden: Skinners Ratten, Pavlovs Hunde, Harlows Affen. Leider vermitteln viele einführende Lehrbücher nicht das vollständige Bild der Tierforschung. Studien werden oft beschrieben, ohne anzugeben, dass es sich um Tierversuche handelte. Wenn Humanstudien präsentiert werden, wird selten über die grundlegende Tierforschung diskutiert, die diese Studien ermöglicht hat. Schließlich werden Informationen über das ethische und regulatorische Umfeld, in dem Tierversuche durchgeführt werden, oberflächlich behandelt oder ganz weggelassen. Dies sind wichtige Themen, die ein besseres Verständnis und eine breitere Diskussion verdienen.


Psychologie 240 Prüfung 1

ist das Gegenteil von Behaviorismus.
der Glaube, dass ein Großteil des menschlichen Verhaltens so verstanden werden kann, wie Menschen denken
die Rolle mentaler Prozesse auf das Verhalten zu untersuchen
*glaubt an das Erstellen und Testen von Theorien durch Experimentieren, gelöste methodische Probleme, rechnerische Sicht des Geistes als Informationsverarbeitungsgerät

Reaktion auf das Vorhandensein oder Fehlen eines einzelnen Reizes (im Gegensatz zu einer Auswahl zwischen mehreren Reizen, bevor eine Reaktion erfolgt)

3 Hypothese
Kodierung, Speicherung und Abruf

gefälschte Aufbewahrungserklärung

der falsifizierende Speicher veranschaulicht, wie Hypothesen getestet und als falsch, aber nicht als wahr bewiesen werden können.

Blickwinkeländerung ändert die Wahrnehmung bestimmter Dinge nicht ^^

Theorie der direkten Wahrnehmung. Analyse, die bei den Sinnesrezeptoren beginnt und bis zur Integration der Sinnesinformationen durch das Gehirn führt

- kann den Geist nicht beobachten, konzentriert sich auf beobachtbares Verhalten (DSM-IV)

Behaviorismus, Fokus auf beobachtbares Verhalten, objektiver Bottom-up-Ansatz zur kognitiven Verarbeitung

b.Die Dauer aller Stufen multipliziert sich, um die Reaktionszeit zu ergeben.

c.Die zur Ausführung der Aufgabe erforderliche Zeit ist die Summe der für jede Verarbeitungsstufe erforderlichen Zeit.

Auge-->retina-->Photorezeptoren (Stäbchen und Zapfen)-->bipolare Zellen/horizontale Zellen-->ganglionzellen (m- und p-Zellen)-->Ausgangsschicht der Netzhaut-->magnozelluläre/parvozelluläre Schichten-->thalamus-->LGN-- >dorsalstrom (wo)/ventralstrom (was)-->parietallappen/temporallappen

Stäbchen: m-Zellen: magnozelluläre Schicht von LGN: Rückenstrom: Parietallappen: wobei

feine Details erkennen und Farbempfindungen auslösen.

Aktionspotential: elektrisches Signal, das das Axon hinunter wandert

Neuron kann Informationen von vielen anderen Neuronen erhalten und die Nettoerregung in einem bestimmten Code bestimmt das Auslösen

Jede Ganglienzelle reagiert auf einen bestimmten Teil des Gesichtsfeldes. Dieser Bereich wird ihr rezeptives Feld genannt. Wenn visuelle Reize außerhalb dieses Bereichs präsentiert werden (oder überhaupt kein Reiz präsentiert wird), hat die Zelle eine Grundlinien-Feuerrate (Häufigkeit von Aktionspotentialen im Laufe der Zeit). Bei einer in der Mitte befindlichen, außerhalb der Umgebung befindlichen Zelle erregen visuelle Reize, die in der Mitte dieses Bereichs präsentiert werden, die Zelle (was dazu führt, dass sie häufiger feuert), während visuelle Reize, die in dem donutförmigen Bereich um dieses Zentrum herum präsentiert werden (aber immer noch im rezeptives Feld) die Zelle hemmen (dadurch, dass sie weniger häufig feuert als die Grundlinie). Umgekehrt werden außermittige Zellen in der Umgebung durch Reize im Zentrum ihres rezeptiven Feldes gehemmt und durch Reize in der Umgebung ihres rezeptiven Feldes erregt.

Einschwingverhalten (Antwort--> kurzlebig ausschalten), großes rezeptives Feld, Bewegung/Ort (wo Dinge sind)

einfach: Lichtbalken, Orientierung, Netzhautposition, Kanten

komplex: komplizierteres rezeptives Feld, Kanten Ecken

räumlich: dorsal: okzipital: parietal: wo

Objekt: ventral: okzipital: temporal: was:

Probleme: Transformationen, Sichtbehinderung, Zerlegung von visuellen Systemmerkmalen *Zellen im Schläfenlappen sind nicht auf bestimmte Reize abgestimmt (keine Großmutterzelle)

Beweise: Physiologie (Aufzeichnungen von Neuronen), stabilisierte Netzhautbilder (Augen zittern ständig durch müde Photorezeptoren), visuelle Suche (visuelles System zerlegt das, was wir sehen, auf niedrige visuelle Merkmale und verwendet es zur Erkennung) Pandämonium-Modell, Karikaturen

Probleme: räumliche Beziehungen zwischen Features, unorganisierte Features, verschiedene Objekte mit gleichen Features

Einfache Zellen reagieren auf Kanten an bestimmten Stellen mit bestimmten Ausrichtungen. Kanten sind die Art von Merkmal, von der die Merkmalstheorie annimmt, dass sie für die Mustererkennung entscheidend ist.

Beweise: partielle oder degradierte Objekte (Beziehung zwischen Geonen sehen Sie Objekte mit Behinderung), Objektkomplexität (unterschiedliche Anzahl von Geonen), ungewöhnliche Orientierungen, Löschen nicht zufälliger Eigenschaften, Transformationen, Beziehungen, Erklärung der Sinnhaftigkeit von unsinnigen Objekten

unten: untere Ebene, sensorischer Input, Vision, Audition

von oben nach unten: Verarbeitung beginnt hoch geht zur Sensation

häufig angetroffene Aufgabe: wie wir Erkennungsentscheidungen treffen: zeigt den Einfluss von oben nach unten auf die Wahrnehmung


Unsere Lager bekommen

Aber zuerst wollen wir uns orientieren. Was genau versucht ein neuronales Netzwerk zu tun? Wie jedes andere Modell versucht es, eine gute Vorhersage zu treffen. Wir haben eine Reihe von Eingaben und eine Reihe von Zielwerten – und wir versuchen, Vorhersagen zu erhalten, die diesen Zielwerten so gut wie möglich entsprechen.

Vergessen Sie für eine Sekunde das komplizierter aussehende Bild des neuronalen Netzwerks, das ich oben gezeichnet habe, und konzentrieren Sie sich auf dieses einfachere unten.

Dies ist eine logistische Regression mit einem einzigen Merkmal (wir geben dem Modell nur eine X-Variable), die durch ein neuronales Netzwerk ausgedrückt wird (wenn Sie eine Auffrischung der logistischen Regression benötigen, habe ich hier darüber geschrieben). Um zu sehen, wie sie sich verbinden, können wir die logistische Regressionsgleichung mithilfe unserer Farbcodes für das neuronale Netzwerk neu schreiben.

Lassen Sie uns jedes Element untersuchen:

  1. X (in Orange) ist unsere Eingabe, das einzige Merkmal, das wir unserem Modell geben, um eine Vorhersage zu berechnen.
  2. B1 (in Türkis, auch bekannt als blau-grün) ist der geschätzte Steigungsparameter unserer logistischen Regression – B1 sagt uns, um wie viel sich die Log_Odds ändern, wenn sich X ändert. Beachten Sie, dass B1 auf der türkisfarbenen Linie lebt, die den Eingang X mit dem blauen Neuron in Hidden Layer 1 verbindet.
  3. B0 (in Blau) ist der Bias – sehr ähnlich dem Intercept-Term aus der Regression. Der Hauptunterschied besteht darin, dass in neuronalen Netzen jedes Neuron seinen eigenen Bias-Term hat (während bei der Regression das Modell einen singulären Intercept-Term hat).
  4. Das blaue Neuron enthält auch eine Sigma-Aktivierungsfunktion (gekennzeichnet durch die gekrümmte Linie innerhalb des blauen Kreises). Denken Sie daran, dass die Sigmoid-Funktion das ist, was wir verwenden, um von Log-Odds zu Wahrscheinlichkeit zu gelangen (machen Sie in meinem vorherigen Beitrag eine Control-f-Suche nach „Sigmoid“).
  5. Und schließlich erhalten wir unsere vorhergesagte Wahrscheinlichkeit, indem wir die Sigmoidfunktion auf die Größe (B1*X + B0) anwenden.

Nicht schlecht oder? Fassen wir also zusammen. Ein supereinfaches neuronales Netz besteht nur aus den folgenden Komponenten:

  • Eine Verbindung (obwohl es in der Praxis im Allgemeinen mehrere Verbindungen geben wird, jede mit ihrem eigenen Gewicht, die in ein bestimmtes Neuron eingeht), mit einem darin „lebenden Gewicht“, das Ihre Eingabe (mit B1) umwandelt und an das Neuron weitergibt .
  • Ein Neuron, das einen Bias-Term (B0) und eine Aktivierungsfunktion (in unserem Fall Sigmoid) enthält.

Und diese beiden Objekte sind die grundlegenden Bausteine ​​des neuronalen Netzes. Komplexere neuronale Netze sind nur Modelle mit mehr versteckten Schichten und das bedeutet mehr Neuronen und mehr Verbindungen zwischen Neuronen. Und dieses komplexere Netz von Verbindungen (und Gewichtungen und Verzerrungen) ermöglicht es dem neuronalen Netzwerk, die komplizierten Beziehungen zu „lernen“, die in unseren Daten verborgen sind.


Einführung

KNN ist vom biologischen neuronalen Netz inspiriert. Der Einfachheit halber wird es in der Informatik als eine Reihe von Schichten dargestellt. Diese Schichten werden in drei Klassen eingeteilt, die Eingabe, Ausgeblendet und Ausgabe sind.

Am einfachsten ist es, die Anzahl der Eingabe- und Ausgabeschichten und die Anzahl ihrer Neuronen zu kennen. Jedes Netzwerk hat eine einzelne Eingabeschicht und eine einzige Ausgabeschicht. Die Anzahl der Neuronen in der Eingabeschicht entspricht der Anzahl der Eingabevariablen in den verarbeiteten Daten. Die Anzahl der Neuronen in der Ausgabeschicht entspricht der Anzahl der Ausgaben, die jedem Eingang zugeordnet sind. Die Herausforderung besteht jedoch darin, die Anzahl der verborgenen Schichten und ihrer Neuronen zu kennen.

Hier sind einige Richtlinien, um die Anzahl der versteckten Schichten und Neuronen pro versteckter Schicht in einem Klassifizierungsproblem zu kennen:

  1. Zeichnen Sie basierend auf den Daten eine erwartete Entscheidungsgrenze, um die Klassen zu trennen.
  2. Drücken Sie die Entscheidungsgrenze als eine Reihe von Linien aus. Beachten Sie, dass die Kombination solcher Linien der Entscheidungsgrenze nachgeben muss.
  3. Die Anzahl der ausgewählten Zeilen repräsentiert die Anzahl der versteckten Neuronen in der ersten versteckten Schicht.
  4. Um die vom vorherigen Layer erstellten Linien zu verbinden, wird ein neuer verdeckter Layer hinzugefügt. Beachten Sie, dass jedes Mal eine neue verdeckte Ebene hinzugefügt wird, wenn Sie Verbindungen zwischen den Linien in der vorherigen verdeckten Ebene erstellen müssen.
  5. Die Anzahl der versteckten Neuronen in jeder neuen versteckten Schicht entspricht der Anzahl der herzustellenden Verbindungen.

Um die Dinge klarer zu machen, wenden wir die vorherigen Richtlinien für eine Reihe von Beispielen an.


Literaturverzeichnis

  • (1)
  • Bi und Poo (1998) Bi, G.-q. und Poo, M.-m. (1998), „Synaptic Modifikationen in kultivierten Hippocampus-Neuronen: Dependence on Spike Timing, Synaptic Strength, and postsynaptic cell type“, Journal of Neuroscience 18 (24), 10464–10472.
  • Dayan und Abbott (2001) Dayan, P. und Abbott, L. F. (2001), „Theoretische Neurowissenschaften: Computergestützte und mathematische Modellierung neuronaler Systeme“.
  • Dickson (2002) Dickson, B.J. (2002), „MolecularMechanisms of Axon Guidance“, Science 298 (5600), 1959–1964.
  • Feldman (2009) Feldman, D. E. (2009), „Synaptic Mechanismen für Plastizität im Neocortex“, Annual Review of Neuroscience 32 , 33–55.
  • Feldman und Brecht (2005) Feldman, D. E. und Brecht, M. (2005), „Map plasticity in somatosensory cortex“, Science 310 (5749), 810–815.
  • Ferber und Weiss (1999) Ferber, J. und Weiss, G. (1999), Multi-Agent-Systeme: eine Einführung in die verteilte künstliche Intelligenz, Vol. 2, No. 1, Addison-Wesley-Lesung.
  • Froemke und Dan (2002) Froemke, R. C. und Dan, Y. (2002), „Spike-timing-dependent synaptic modification duced by natural spike trains“, Nature 416 (6879), 433.
  • Furberet al. (2014) Furber, S. B., Galluppi, F., Temple, S. und Plana, L. A. (2014), „The spinnaker project“, Proceedings of the IEEE 102 (5), 652–665.
  • Gerstneret al. (2014) Gerstner, W., Kistler, W. M., Naud, R. und Paninski, L. (2014), Neuronal dynamics: From single neurons to networks and models of cognition , Cambridge University Press.
  • Ghosh-Dastidar und Adeli (2009) Ghosh-Dastidar, S. und Adeli, H. (2009), 'Ein neuer überwachter Lernalgorithmus für multiple spiking neuronale Netze mit Anwendung bei Epilepsie und Anfallserkennung', Neuronale Netze 22 (10), 1419–1431.
  • Graveset al. (2008) Graves, A., Liwicki, M., Fernández, S., Bertolami, R., Bunke, H. und Schmidhuber, J. (2008), 'Ein neuartiges Verbindungssystem für die uneingeschränkte Handschrifterkennung', IEEE Transactions on Musteranalyse und maschinelle Intelligenz 31 (5), 855–868.
  • Graveset al. (2013) Graves, A., Mohamed, A.-r. und Hinton, G. (2013), Spracherkennung mit tiefen rekurrenten neuronalen Netzen, in „2013 IEEE International Conference on Acoustic, Speech and Signal Processing“, IEEE, S. 6645–6649.
  • Holtmaat und Svoboda (2009) Holtmaat, A. und Svoboda, K. (2009), „Erfahrungsabhängige strukturelle synaptische Plastizität im Säugetiergehirn“, Nature Reviews Neuroscience 10 (9), 647.
  • Indiveri und Horiuchi (2011) Indiveri, G. und Horiuchi, T. K. (2011), „Frontiers in neuromorphic engineering“, Frontiers in Neuroscience 5 , 118.
  • Izhikevich (2003) Izhikevich, E. M. (2003), „Simple model of spiking neurons“, IEEE Transactions on neuronal networks 14 (6), 1569–1572.
  • Jeffress (1948) Jeffress, L. A. (1948), „A place Theory of sound localization.“, Journal of Comparative and Physiology Psychology 41 (1), 35.
  • Jørgensen et al. (2015) Jørgensen, SV, Demazeau, Y. und Hallam, J. (2015), Rana, ein Echtzeit-Multi-Agenten-Systemsimulator, in '2015 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology ( WI-IAT)', Bd. 2, IEEE, S. 92–95.
  • Kempteret al. (1999) Kempter, R., Gerstner, W. und Van Hemmen, J. L. (1999), „Hebbian learning and spiking neurons“, Physical Review E 59 (4), 4498.
  • Kohonen (1990) Kohonen, T. (1990), „The self-organizing map“, Proceedings of the IEEE 78 (9), 1464–1480.
  • Konishi (1993) Konishi, M. (1993), „Hören mit zwei Ohren“, Scientific American 268 (4), 66–73.
  • Krizhevsky et al. (2012)

Krizhevsky, A., Sutskever, I. und Hinton, G. E. (2012), Imagenet-Klassifikation mit Deep Convolutional Neural Networks,

Thurau, C., Bauckhage, C. und Sagerer, G. (2003), Combining Self Organizing Maps and Multilayer Perceptrons to Erlernen des Bot-Verhaltens für ein kommerzielles Spiel.,


Kategorisierung

Ein vielversprechender zweiter Kandidat für die direkte Integration von CNN-Repräsentationen ist das Studium der Kategorisierung – das vielleicht grundlegendste kognitive Phänomen, das auf Ähnlichkeit folgt. Das Problem der Kategorisierung kann als Entscheidung formuliert werden, wie ein neuer Stimulus einer neuen oder bestehenden Kategorie zuzuordnen ist, und es macht intuitiv Sinn, dass dies wiederum mit seiner Ähnlichkeit mit zuvor angetroffenen Kategoriemitgliedern zusammenhängt. Obwohl es den Anschein hat, dass etwas verloren gegangen ist – jetzt wird nur eine Teilmenge von Stimuli für einen bestimmten Vergleich berücksichtigt – fügen Kategorien eine Struktur hinzu, die es uns ermöglicht, Interaktionen innerhalb und zwischen den Kategorien zu modellieren, und daher eine reichere und genauere Palette von Verallgemeinerungen. Kategorien bilden die Grundlage der meisten kognitiven Frameworks zum Verständnis des Gehirns und des Geistes, und praktisch alle Computerparadigmen beginnen mit ihrer Definition oder Erklärung. 83

Kategorisierungstheorien begannen mit Platon und Aristoteles, die postulierten, dass Kategorien am besten durch eine einzelne Idealform bzw. alle zuvor angetroffenen Mitglieder repräsentiert werden. 84, 85 In jüngerer Zeit hat das Studium der Kategorisierung die Entwicklung der Kognitionswissenschaften im Allgemeinen verfolgt, beginnend mit der Idee, dass Menschen Regeln oder Definitionen verwenden, um Reize zu kategorisieren. 86, 87 So intuitiv diese Idee auch erscheinen mag, sie wurde in den 1970er Jahren durch die Arbeit von Eleanor Rosch und Kollegen in Frage gestellt, die zeigten, dass natürlichen Kategorien oft zentrale, definierende Merkmale fehlen und sie eine abgestufte Kategoriestruktur aufweisen, die besser durch eine Beziehung der Familienähnlichkeit gekennzeichnet ist. 88-90 Starke Belege für diese Ansicht lieferten eine Reihe empirischer Befunde, bei denen ein Stimulus mehr oder weniger „typisch“ sein könnte, 59, 79 ungesehen prototypische Reize wurden während der Erkennungsaufgaben anderen unsichtbaren Reizen aus der Kategorie vorgezogen, 91 und dass einige Ebenen der Kennzeichnung (z. 78

Bis vor kurzem bestand die Rolle der kognitiven Modellierung darin, vorzuschlagen, wie die Ähnlichkeit zwischen einem Stimulus und einer Kategorie berechnet werden sollte, um diese Verhaltenseffekte zu erfassen, sowohl in Bezug auf die Repräsentation bestehender Kategoriemitglieder als auch auf die Formulierung des Vergleichs selbst. In diesem Zusammenhang wurden zwei einflussreiche Modellierungsstrategien entwickelt. Die erste, bekannt als a Prototyp Modell geht davon aus, dass Kategorien durch ihre durchschnittliche oder zentrale Tendenz repräsentiert werden. 92 Die zweite, bekannt als an Exemplar Modell, geht davon aus, dass Kategorien durch alle ihre bekannten Mitglieder repräsentiert werden. 93, 94 Diese Strategien können vereinheitlicht werden, indem die Rechenaufgabe der Kategorisierung als Wahrscheinlichkeitsdichteschätzung identifiziert wird, 48 und insbesondere durch Ableiten der Wahrscheinlichkeit, dass ein Teilnehmer ein bestimmtes Kategorielabel bei einem Bild wählt. Dieses genauere Framing führte zu einer feinkörnigen Untersuchung von Modellvorhersagen in Laborumgebungen unter Verwendung von Sätzen künstlicher Stimuli, die entwickelt wurden, um die Modellleistung zu differenzieren, wobei beispielhafte Modelle oft den Sieg davontragen. 92-105 Seitdem hat die Extrapolation des vollständigen probabilistischen Reframings der Kategorisierung zu einer Reihe anderer statistischer Strategien geführt, die menschliches Verhalten in einem breiteren Spektrum von Umgebungen berücksichtigen können, wie z , 106, 107 Exemplare über Kategorien hinweg teilen, 49 und der Kategorisierungsstrategie erlauben, sich flexibel an die Anzahl der beobachteten Stimuli anzupassen. 24, 49

wo C ist eine Kategorie, ja ist ein Reiz, ja ist die mehrdimensionale Darstellung dieses Reizes, und ist unsere Ähnlichkeitsfunktion. Diese Darstellung wird mit dem Kategoriemittelwert für Prototypmodelle oder allen bekannten Kategoriemitgliedern für Beispielmodelle verglichen. Die Ähnlichkeitsfunktion, S, ist Zusatzstoff: wenn eine Kategorie durch einen Reizvektor repräsentiert wird (wie im Beispielmodell), S berechnet die Summe der Ähnlichkeiten zwischen ja und die Vertretung, x, für jeden Reiz in C. Schließlich enthält das beispielhafte Modell einen Parameter „Spezifität“, β, die alle Entfernungsberechnungen vor der Potenzierung um denselben Betrag skaliert. Dies dient dazu, den Einfluss von Exemplaren auf nachfolgende Kategoriebeurteilungen zu schärfen oder zu verringern, und ermöglicht daher dem Modell, die Gesamtreizunterscheidbarkeit im relevanten psychologischen Raum zu kontrollieren. 94

Schlachttag et al. 50 fanden heraus, dass CNNs die beste Darstellungsgrundlage für die Modellierung der menschlichen Kategorisierungsurteile darstellten und tiefe unüberwachte und traditionelle Computer-Vision-Methoden übertrafen. Tatsächlich beeinflusste die Wahl der Stimulusdarstellung die Gesamtleistung viel stärker als die Wahl des Kategorisierungsmodells. Dies ist besonders interessant, da das Hauptaugenmerk bei der Kategorisierungsmodellierung auf der Kategorisierungsstrategie lag, während die Eindeutigkeit einfacher künstlicher Stimuli ihre Repräsentation festgelegt hat. Der Verlust einer solchen sauberen Faktorisierung bei der Analyse naturalistischer Reize begründet die Notwendigkeit – zumindest anfangs –, sich auf die weniger integrierte Frage der Wahrnehmungsrepräsentation zu konzentrieren. Bei der Beschränkung der Analyse auf die CNN-Darstellungen schnitten Kategorisierungsmodelle mit mehr freien Parametern – und damit mehr Flexibilität bei der Transformation von CNN-Darstellungen – am besten ab und waren besser als Wettbewerbsbasislinien. Dies deutet darauf hin, dass die CNN-Darstellungen natürlich auch latente Informationen enthalten, die für die Arten von Merkmalen relevant sind, die Menschen verwenden, um Kategorieurteile zu treffen, die durch einfache lineare und quadratische Transformationen weiter verfeinert werden können. Ein weiteres unerwartetes Ergebnis war, dass Prototyp- und Beispielmodelle in einer Vielzahl von Bilddarstellungen in etwa gleich funktionierten, was im Gegensatz zu dem steht, was aufgrund früherer Laborarbeiten zu erwarten war, bei denen beispielhafte Modelle benötigt werden, um künstliche Kategorien mit komplexerer Struktur zu erfassen.

Dort sind bekannte Fälle, in denen Prototyp- und Beispielmodelle ähnliche Vorhersagen treffen, beispielsweise wenn Kategorierepräsentationen durch einfache Gauß-Funktionen gut erfasst werden, aber wie sich diese Situationen auf hochdimensionale Repräsentationen komplexer Stimuli beziehen, bleibt unklar. Schlachttag et al. 50 führte eine Simulationsstudie durch, in der untersucht wurde, wie sich die Anzahl der Dimensionen und Trainingsstichproben auf die verschiedenen Modellierungsstrategien auswirkten. Sie fanden heraus, dass, während in niedrigdimensionalen Räumen exemplarische Modelle tatsächlich Prototypmodelle übertreffen, in hochdimensionalen Repräsentationsräumen nach dem Training mit sehr vielen Stimuli kein solcher Unterschied besteht. Dies ist das Regime, in dem CNN-basierte Darstellungen naturalistischer Bilder es uns ermöglichen, zu agieren. Es bedarf weiterer theoretischer Untersuchungen, um die Bedeutung dieser Abhängigkeiten zu erfassen und die Beziehung zwischen der Größe und der Natur des Repräsentationsraums zu präzisieren.

Eine Reihe der oben skizzierten Studien, die CNNs im Kontext der Ähnlichkeit untersuchen, haben die Kategorisierung als nachgelagerte Anwendung verwendet, um die Nützlichkeit der Repräsentationsräume zu testen, die ihre Methoden ableiten. Zum Beispiel Peterson et al. stellten fest, dass es den Menschen auch viel leichter fiel, neue Kategorien natürlicher Bilder zu erlernen, wenn diese auf der Ähnlichkeit zwischen CNN-Darstellungen und nicht auf der Ähnlichkeit zwischen HOG/SIFT-Computer-Vision-Engineering-Funktionen konstruiert wurden. 64 Als diese CNN-Darstellungen transformiert worden waren, um sie besser mit menschlichen Ähnlichkeitsdaten abzugleichen, waren Kategorien noch einfacher zu erlernen. Zweitens untersuchten Sanders und Nosofsky Kategorisierungen für einen vorgehaltenen Datensatz, der über 120 neuartige Bilder geologischer Proben aufgenommen wurde, die aus den gleichen 30 Kategorien stammen, die sie verwendet haben, um CNNs auf ungefähre MDS-Koordinaten zu trainieren (siehe oben). 73 Wenn ein Low-Parameter-Beispielmodell mit den CNN-MDS-Darstellungen geliefert wurde, konnte es diese menschlichen Kategorisierungen sehr gut modellieren. In einer weiteren Studie testeten Sanders und Nosofsky auch ein beispielhaftes Modell mit diesen Kategorisierungsdaten, verglichen dieses Mal jedoch seine Leistung mit einer Reihe von CNN-Darstellungen, einschließlich eines Satzes, der modifiziert wurde, um menschliche (Un-)Ähnlichkeitsurteile besser widerzuspiegeln. 75 Sie fanden heraus, dass die vom CNN abgeleiteten MDS-Approximationen eine viel bessere Leistung als die einfachen Standard-CNN-Bilddarstellungen ermöglichten und weiter verbessert werden könnten, indem das CNN trainiert würde, auch „fehlende“ Dimensionen vorherzusagen, die an die normalen MDS-Co angehängt wurden -Ordinaten. 76

Ein konvergenter Satz von Erkenntnissen stammt aus dem eng verwandten Gebiet der Objekterkennung. Annis et al. 109 zeigte, dass auf ImageNet vortrainierte CNNs intuitive, korrekt geclusterte und robuste Darstellungen völlig neuartiger experimenteller Objekte erzeugten, einschließlich Greebles, 110 Ziggerin, 111 und Scheinkäfer. 112 Diese komplexeren künstlichen Reize weisen naturalistische Qualitäten auf und sind schwer durch einige offensichtliche Dimensionen oder MDS darzustellen, stellen jedoch sicher, dass die Teilnehmer keine Vorkenntnisse mit der Objektkategorie haben. Annis et al. verwendete dann diese CNN-Darstellungen, um einen Datensatz 113 zu modellieren, in dem die Teilnehmer entscheiden mussten, ob ein zweites Objekt, möglicherweise gedreht oder skaliert, dasselbe wie ein erstes war, getrennt durch eine Verzögerung. 109 Die Ähnlichkeit zwischen dem ersten und zweiten Objekt wurde als Eingabe für ein hierarchisches Bayes-Modell zur Evidenzakkumulation verwendet, um die Beurteilungen und Reaktionszeiten der Teilnehmer zu modellieren. Wie bei den obigen Kategorisierungsstudien hat Annis et al. fanden heraus, dass die Verwendung von CNN-Darstellungen zusammen mit dem kognitiven Modell eine Reihe von Baselines übertraf, dass die Wahl der CNN-Darstellung der Hauptfaktor für die Leistung war und dass das Modell mit der besten Leistung durch Modifizieren der CNN-Darstellungen verbessert werden könnte, sodass es auch gegenüber Rotationen robust ist . Sie untersuchten auch eine Reihe von Methoden zum Auffinden von Transformationen und ergänzten die von Lit. 64 und 68 für Ähnlichkeit. Siehe auch Ref.-Nr. 114 , für eine weitere erfolgreiche Anwendung von CNNs und Evidenzakkumulationsmodellen, diesmal bei der Modellierung der Entscheidungen und Reaktionszeiten von Neulingen und Experten in der medizinischen Bildklassifikation.

Es gibt eine Reihe weiterer Studien, die Aspekte der Beziehung zwischen Bildkategorisierung, kognitiven Modellen und CNNs untersuchen. Wie bei Kategorietypizitätsurteilen 56 wurde festgestellt, dass der prädiktive Nutzen von CNN-Darstellungen für die Modellierung von Kategorisierungen mit zunehmender Tiefe zunimmt. 115 Andererseits boten Darstellungen aus flacheren CNN-Schichten die beste Grundlage für die Erfassung von visuellen Verzerrungen, die insbesondere bei Klassifikationskardiogrammen von Tauben beobachtet wurden.

Neben Typizität und Ähnlichkeit erscheinen CNNs als unsere beste verfügbare Repräsentationsquelle für die Modellierung von Verhalten über naturalistische Stimuli in einem anderen grundlegenden kognitiven Bereich – der Kategorisierung. Im Allgemeinen haben Studien zwei Ansätze gefunden, mit denen diese Darstellungen weiter verbessert werden können: ihre Anpassung an Ähnlichkeitsurteile Vor Anwendung von Kategorisierungsmodellen oder durch den Entwurf flexibler Kategorisierungsmodelle, die CNN-Darstellungen weiter transformieren während Parameteranpassung. Ganz allgemein scheint es, dass die Rolle des Stimulus-Merkmalslernens nicht länger formalen Berichten über die Kategorisierung komplexerer Arten von Stimuli vorenthalten werden kann, und beide zusammen zu betrachten wird notwendig sein, um menschliche Kategorienurteile zu charakterisieren. Dies spiegelt eine seit langem akzeptierte Perspektive in der Literatur zum maschinellen Lernen wider und wurde zuvor in den Kognitionswissenschaften gefordert. 117

Verbesserung tiefer neuronaler Netze mit Konzepten aus der kognitiven Modellierung

In den obigen Studien wurden CNNs hauptsächlich verwendet, um Repräsentationen von Stimuli bereitzustellen, auf die dann traditionelle Modelle höherer Kognition angewendet werden können. Wir haben auch gesehen, dass es immer möglich war, diese Darstellungen zu verbessern, indem man sie transformiert, um vorgehaltene Verhaltensdaten anzupassen. Beim Anwenden und Modifizieren von CNN-Darstellungen für diese neue Reihe von Problemen wurden eine Reihe von Erkenntnissen und Modellen entwickelt, die auch für die Kontexte des maschinellen Lernens und der Computer Vision gelten, in denen CNNs ursprünglich entwickelt wurden. In diesem Abschnitt diskutieren wir, wie dieses Wissen wieder in normale CNN-Trainingsparadigmen integriert werden kann, um sie zu besseren kognitiven Modellen zu machen, mit dem einfachen Ziel, ihre Leistung zu verbessern.

Ein zentrales Ziel der obigen Transformationen war es, die Ähnlichkeitsstruktur und die abgestufte Kategoriezugehörigkeit, die von kognitiven Modellen angenommen und in menschlichen Kategorisierungsdaten gezeigt wird, besser zu emulieren. Diese Art von Struktur war ein zentrales und organisierendes Merkmal der Kategorisierungstheorie im Allgemeinen und es hat sich gezeigt, dass sie allgemein auf natürliche Kategorien im Allgemeinen anwendbar ist, einschließlich der Arten von Stimuli, auf die CNNs typischerweise angewendet werden. 59, 79, 88, 89 Auf dem Gebiet der Klassifikation natürlicher Bilder wird die Emulation einer solchen Struktur jedoch normalerweise nicht als Priorität angesehen. Vielmehr wird der „Top-One“-Genauigkeit eines Klassifikators Priorität eingeräumt, die dadurch erreicht wird, dass jedem Bild ein „Ground-Truth“- oder „Hard“-Label zugeordnet wird, das es einer einzelnen Kategorie zuordnet, ohne dass Raum für Ungewissheit das CNN ein Merkmal lernen muss Raum, der solche unterstützt n-arische Diskriminierung. Diese Modellierungswahl war bisher verständlich – bis vor kurzem bestand die Herausforderung für Klassifikatoren einfach darin, die wahrscheinlichste Bildbezeichnung richtig zu finden. Erst jetzt, wenn die CNN-Genauigkeit bei nahezu menschlicher Leistung abnimmt, werden sekundäre Merkmale der CNN-Leistung unter die Lupe genommen – zum Beispiel ihre schlechte Verallgemeinerung auf Bilder außerhalb des Trainings und ihre Zerbrechlichkeit angesichts feindlicher Angriffe. 118-122 Um diese Herausforderungen zu bewältigen, müssen Bildklassifizierungsmodelle besser mit Rauschen umgehen können, und ein Mittel, dies zu erreichen, besteht darin, sie mit besseren Wahrnehmungsmodellen der Welt auszustatten. Tatsächlich gibt es einige Hinweise darauf, dass menschliche Teilnehmer, die darauf trainiert werden, Stimuli auf der Grundlage von Stimulusmerkmalen mit einzelnen Kategorien zu kennzeichnen, im Gegensatz zu vorhersagenden Schlussfolgerungen über Merkmale oder zum Erstellen eines generativen Modells der Daten weniger wahrscheinlich sind, die Arten von Kategorien zu lernen Abstraktion, von denen man annimmt, dass sie abgestuften Typizitätsurteilen zugrunde liegen. 56, 123, 124

A prime motive for trying to integrate cognitively motivated category structure back into CNN learning paradigms is, then, that it may help provide a solution to this new frontier of problems. Peterson et al. 125 attempted to do so indirectly by training a range of CNNs to predict the human categorization judgments (“human” or “soft” labels) from the CIFAR-10H dataset. They found that these CNNs performed significantly better on a number of out-of-sample natural image sets than CNNs trained on CIFAR-10, while scoring the same on the hard-label validation set (Fig. 8, left and center). As test images were drawn from increasingly out-of-sample datasets (i.e., decreasingly similar), the benefit from using human labels increased, indicating these networks were learning more perceptually relevant category distributions. This was also reflected in their higher second-best accuracy scores: whether their second-best guess for an image corresponded to humans (Fig. 8, right). The authors also subjected these networks to various forms of adversarial attack and found that CNNs trained with human labels were much more resilient. It appeared as though training with human labels endowed networks with more tolerance to noise and more graceful degradation: exactly the current aims of the computer vision community, and those properties originally sought by early artificial intelligence researchers. Finally, Peterson et al. 125 showed that CNNs trained with human labels invariably performed better than alternative strategies, which either incorporate random label noise or train on convex combinations of image-label pairs. 126 This shows that the structure contained in human labels is helpful for classification beyond the regularization effects of adding training noise.

A second area where cognitive models have inspired successful computer vision models is in the context of few-shot, zero-shot, and semisupervised learning—all variants of image classification tasks in which CNNs are trained with a much smaller subset of the data than normal. These reductions in the size and coverage of the training set means stronger or more suitable inductive biases must be built into CNNs in order to prevent overfitting and make successful generalizations from fewer data. Here, the strategies that have been successful direkt incorporate graded category structure into their training paradigm by using probabilistic constraints on a CNN's classification function, many of which come directly from the range of categorization models reviewed above.

In each episode of a few-shot learning task, a classifier must identify the label of a query image given a support set of image-label pairs. Within the support set, there are a fixed number of examples from a subset of possible categories, and the classification algorithm must construct categorical knowledge from this small number of examples in order to identify which category the query image belongs to. The number of “shots” refers to the number of training examples per category, and the “way” refers to the number of categories: for example, “one-shot five-way” means identifying which of five possible category labels best applies to the query image based on one labeled example from each category. 127, 128 By training over many of these episodes, a successful classification algorithm learns how to use the examples in the support sets to generalize categorical knowledge to the query example over many different combinations of images and categories.

In the prototypical networks (PNs) of Snell et al., isotropic Gaussian category distributions with identity covariance matrices are used over final layer representations of CNNs in order to classify novel stimuli. 129 By representing categories in this manner, PNs reduce classification to the calculation of (Euclidean) distances between category prototypes, drawing on an equivalence between prototype models and Gaussian classifiers first described in Ref. 48 . PNs use a standard CNN to transform images into deep representations in the regular manner, such that the CNN weights are shared across support set members and episodes. The category prototype for each episode is the empirical average of labeled category in the support set, and the role of the CNN during training is to learn the best transformation to support prototype construction. Simply adapting the final-layer comparison in this way led to state-of-the-art performance on few-shot classification over the Omniglot character recognition task, 127 mini-ImageNet, 128 and even for zero-shot learning—in which only a vector of metadata is given about categories, with no examples—on the Caltech UCSD bird dataset. 130

Following the development of cognitive categorization models as increasingly complex strategies for probability density estimation, Scott et al. were able to improve on PNs by using a wider range of distributions to model category structure, an approach they call stochastic prototype embeddings (SPE). 131 Each image was still used to generate a deep CNN representation that would be combined to model a prototype over each of the categories in the support set. However, Scott et al. also learned an additional output representation for each image to model category variance, allowing for more flexible categories that followed axis-aligned ellipsoidal Gaussian distributions. They also altered the prototype embedding function to be stochastic, using a probabilistic model that incorporates a global noise distribution over latent prototypes. These two modifications allowed the CNN to learn embeddings that supported more accurate and robust distributions more likely to handle uncertainty arising from, for example, out-of-distribution inputs due to measurement noise and label uncertainty due to overlapping classes. For one-shot classification tasks in low-dimensional embedding spaces on Omniglot, the SPE model outperformed the deterministic PN and achieved state-of-the-art results. On the other hand, when five training examples were used in each episode instead, or in higher dimensions, the uncertainty over prototypes proved less important, and the models performed similarly. Their most impressive finding was in the context of data corruption. On an n -digit version of MNIST, 132 the SPE consistently performed better than a number of baselines, including PNs, when input images were randomly corrupted, validating the idea that SPEs learn categorical structures that are more robust to perceptual noise.

Allen et al. allowed for even more complex category structure with infinite mixture prototypes (IMP), which model each category as a (possibly infinite) mixture of Gaussian distributions. 133 The authors built this model based on two key insights from cognitive models of categorization: first, the idea that complex categories might be best represented by more than one cluster—an interpolation toward exemplar models had been previously explored in cognitive science 106, 107 and second, the idea that the number of category clusters should be free to grow as needed and the nonparametric Bayesian machinery to support it. 24, 49 Combining these insights led to a differentiable model for generating an arbitrary number of subprototypes for a given category, which could then be used for subsequent learning and classification tasks. For few-shot Charakter classification tasks in Omniglot, the IMP performed similarly to PNs and nearest neighbors.

The equivalence between these methods is unsurprising, as distributions over characters are likely to take some unimodal form well captured by a single prototype. However, as the classes being modeled became more complex, the IMP performed much better. On five-shot five-way tasks from mini-ImageNet, which is based on natural image categories that are likely to have more complex and multimodal structure, the IMP achieved state-of-the-art results. The IMP also performed extremely well on ten-way ten-shot alphabet recognition on Omniglot, around 25% better than PNs. This is again because alphabets of individual characters likely constitute complex distributions, with multiple modes corresponding to clusters of character types and styles. Allen et al. demonstrated that learning these more complex distributions was also beneficial for transfer learning. 133 They showed that when the IMP is trained on alphabet recognition tasks and tested on character recognition tasks from Omniglot, it outperforms a PN trained just on character recognition tasks. This is a significant result, because it implies something extra about individual characters has been learned by modeling their distribution within a specific alphabet, and that the Inferenz model can be responsible for capturing this—in this case by maintaining flexibility over clusters that can vary with the task instance at hand. Even more impressively, when particular characters are held out from training at the alphabet level, the IMP successfully generalized its knowledge to recognize them as part of the alphabet at test time, to a much greater extent than PNs. These positive transfer learning results were also found to hold for a tiered version of ImageNet, 134 where fine-grained and multimodal structure captured by the IMP from image distributions at the level of complex classes (i.e., when using supercategory labels) transferred well to image distributions under from lower-level category labels. In both cases, the PN trained on superclasses and tested on subclasses performs much worse. Because it uses a soft-clustering scheme that allows unlabeled examples to act as supports, Allen et al. were able to apply the IMP to semisupervised versions of Omniglot and mini-ImageNet, in which only a subset of support images come with training labels, and in learning the unsupervised regime inferred clusters of Omniglot. In the semisupervised tasks, the IMP achieved state-of-the-art performance, and in the unsupervised task, it provided meaningful clusters of characters.

The above studies are an encouraging sign that integrating extra information from learners with pressures to learn generative and predictive visual categories into CNNs through training objectives and datasets is a promising route to strengthening their generalizability and robustness. When data are plentiful, in the context of normal image classification, adding this information indirectly—for example, in the form of augmented image labels—is likely to be the most valuable strategy, in order to best exploit the extremely flexible learning capacity of CNNs. When data are scarce, however, stronger inductive biases that can be directly incorporated into the classification function used by CNNs have led to better performance. Indeed, learning and making robust inferences from limited information is a hallmark of human cognition, 135 and so these are natural settings to consider integrating human-like constraints.


Limitation and Future Perspectives of Neuro-Glia Research on Psychology and Psychiatry

To explore the above-mentioned hypothesis, further translational research is needed. Several limitations should be made note of at the present stage. At first, rodent studies focusing on the unconscious are limiting. Even if the unconscious exists in rodents, it seems to be impossible to measure the unconscious in rodents devoid of human language capabilities. Therefore, to uncover the unconscious mechanisms, we have no alternative method except examining actual human subjects. We have no specific drugs to modulate glial cells utilized in human, and minocycline is reported to have other brain functions in addition to microglial inhibition (78, 79). On the other hand, some brain imaging techniques enable us to explore the unknown roles of glial cells such as DTI technique and PET imaging using the peripheral benzodiazepine receptor bindings, while the specificities of these imaging methods are not at satisfactory levels (80). On the other hand, we can reconsider previous findings of brain imaging experiments. Functional MRI (fMRI) is a brain imaging procedure measuring brain activity by detecting associated changes in blood flow (81, 82). Outcomes of fMRI have long been believed to monitor solely neuronal activities, because cerebral blood flow and neuronal activation have been thought to be almost equivalent. However, not only neuronal activities but also glial activities, especially astrocyte activities, rely on cerebral blood flow. Therefore, at least to some extent, brain activities expressed by fMRI may be showing a part of glial activation. In addition, MR spectroscopy (MRS) is one of the novel imaging approaches to measure dynamic brain functions focusing on metabolomics including glia-related molecules. For example, myo-inositol, which can be measured by MRS, is regarded as a marker of astrocyte activity (83). These imaging methods and combination of these imaging techniques may shed new light on clarifying unknown roles of glia in psychiatric disorders (84, 85). For example, activated microglia-derived myelin damage has been indicated in the pathophysiology of schizophrenia by rodent experimental models (28, 29, 86, 87), while it is not confirmed in human subjects. Combination of human DTI and PET may clarify the mutual interaction between microglial activation and myelin damage in schizophrenia patients. On the other hand, connectivity of each brain region has been important in the understanding of the roles of brain functions from the era of Hughlings Jackson. fMRI studies have revealed the importance of these aspects (88, 89), and the recent development of DTI is showing us the significance of more complicated brain networks focusing on not only neurons but also glial cells such as oligodendrocytes (90, 91).

Finally, we propose the multi-dimensional approach to clarify the underlying brain mechanisms of mental functions including the unconscious (Figure 2). Based on our discussion, we believe that not only neurons but also glial cells have a vital role in the process of mental activities, a novel approach focusing on neuron-glia interactions should be applied. Combination of brain imaging techniques focusing on both neurons and glial cells should be applied (24, 26, 27, 43�, 92�). The most significant limitation in human brain research is that we cannot obtain living brain cells, including glial cells, from living human subjects from an ethical perspective. Presently, we can apply an alternative method human brain cells such as neuronal cells can be established from somatic cells (not from the brain) such as skin fibroblasts by utilizing the gene-modification technique of induced pluripotent stem (iPS) cells. In addition, recently, neuronal cells are more easily established from directly conversion of human skin fibroblasts, called induced neuronal (iN) cells (95�). Novel methods of establishing glial cells are strongly warranted based on iPS or direct conversion techniques in the near future. Multi-dimensional aspects of same human subjects, from genes, blood, brain imaging, psychometrics, social function, unconscious functions, psychodynamic assessments to molecular functions of somatic tissue-derived neuronal and glial cells, should be investigated and analyzed together (Figure 2). This approach may explore the novel roles of glial cells in various human mental activities including the unconscious. The application of this method for psychiatric patients should also be encouraged in the establishment of novel diagnostic methods and novel therapies.

Figure 2. A novel multi-dimensional approach toward psychology & psychiatry.


Schau das Video: Neuronen (Dezember 2021).