Information

Gibt es eine Datenbank mit emotionalen Reizen?

Gibt es eine Datenbank mit emotionalen Reizen?

Für meine Forschung benötige ich emotionale Reize zur Gewöhnung an bestimmte Emotionen.

Gibt es Datenbanken (vorzugsweise kostenlos oder nicht teuer) mit nichtsprachlichen Stimuli, die ich verwenden könnte? (Beispiel: Musik, Bilder, Videos)


Jawohl! Das International Affective Picture System (IAPS) ist weit verbreitet.

Aus der IAPS-Bedienungsanleitung:

Das International Affective Picture System (IAPS) wird entwickelt, um eine Reihe normativer emotionaler Stimuli für experimentelle Untersuchungen von Emotion und Aufmerksamkeit bereitzustellen. Ziel ist es, ein großes Set an standardisierten, emotional evokativen, international zugänglichen Farbfotografien zu entwickeln, die Inhalte aus einer Vielzahl von semantischen Kategorien umfassen. Das IAPS (ausgesprochen EYE-APS) wird zusammen mit dem International Affective Digitized Sound System (IADS), dem Affective Lexicon of English Words (ANEW) sowie anderen Sammlungen affektiver Reize vom NIMH Center for . entwickelt und vertrieben Emotion and Attention (CSEA) an der University of Florida, um standardisierte Materialien bereitzustellen, die Forschern im Bereich Emotion und Aufmerksamkeit zur Verfügung stehen

Die Stimuli sind völlig kostenlos, aber eine Anfrage muss von einem Fakultätsmitglied (und nicht von einem Studenten) gestellt werden. Als Begründung geben sie an, dass "diese Materialien einer breiten Öffentlichkeit bekannt zu machen, ihren Wert als Impulsgeber in vielen Forschungsprojekten ernsthaft gefährden kann."

Hier können Sie die Impulse anfordern.

Lang, P. J., Bradley, M. M. & Cuthbert, B. N. (2008). Internationales Affektives Bildsystem (IAPS): Affektive Bewertungen von Bildern und Bedienungsanleitung. Technischer Bericht A-8. Universität von Florida, Gainesville, FL.


Eine Datenbank mit Gesichtsausdrücken bei jüngeren, mittleren und älteren Frauen und Männern

FACES ist eine Reihe von Bildern naturalistischer Gesichter von 171 jungen (n = 58), mittleren (n = 56) und älteren (n = 57) Frauen und Männern, die jeweils sechs Gesichtsausdrücke zeigen: Neutralität, Traurigkeit, Ekel, Angst, Wut und Freude. Die FACES-Datenbank wurde zwischen 2005 und 2007 von Natalie C. Ebner, Michaela Riediger und Ulman Lindenberger am Center for Lifespan Psychology, Max-Planck-Institut für Bildungsforschung, Berlin, Deutschland, entwickelt.

Die Datenbank umfasst zwei Bildersätze pro Person und Gesichtsausdruck (a vs. b-Satz), was insgesamt 2.052 Bilder ergibt. Eine Teilmenge von 72 Bildern ist verfügbar, ohne dass Sie sich registrieren müssen, um ein persönliches Konto zu beantragen. Die forschungsbezogene Veröffentlichung und Darstellung der öffentlich zugänglichen FACES-Objekte zur Veranschaulichung der Forschungsmethodik ist gestattet. Falls Sie jedoch beabsichtigen, die entsprechenden Objekte für solche Zwecke zu verwenden, registrieren Sie sich bitte für FACES und senden Sie den FACES Platform Release Agreement (mit einer kurzen Beschreibung, wie Sie die öffentlich zugänglichen Objekte nutzen möchten) an den FACES Technical Agent.

Dynamic FACES ist eine Erweiterung der ursprünglichen FACES-Datenbank. Es handelt sich um eine Datenbank mit gemorphten Videos (n = 1.026) von jungen, mittleren und älteren Erwachsenen, die sechs naturalistische emotionale Gesichtsausdrücke zeigen, darunter Neutralität, Traurigkeit, Ekel, Angst, Wut und Glück. Statische Bilder, die für das Morphing verwendet wurden, stammen aus der ursprünglichen FACES-Datenbank. Videos wurden durch den Übergang von einem statischen neutralen Bild zu einer Zielemotion erstellt. Videos sind in 384 x 480 Pixel als .mp4-Datei oder in Originalgröße von 1280 x 1600 als .mov-Datei verfügbar.

Weitere Informationen zu Dynamic FACES finden Sie unter:

Alle 2.052 Bilder aus der ursprünglichen FACES-Datenbank wurden mit MATLAB verschlüsselt. Mit der Randblock-Funktion wurden ursprüngliche FACES-Dateien als 800x1000x3-Matrizen behandelt – die dritte Dimension bezeichnet spezifische RGB-Werte – und in nicht überlappende 2x2x3-Blöcke partitioniert. Die Matrizen wurden dann zufällig durch diese kleineren Blöcke gemischt, um endgültige Bilder zu liefern, die den Abmessungen des Originalbilds entsprachen und aus den gleichen einzelnen Pixeln zusammengesetzt waren, obwohl sie unterschiedlich angeordnet waren. Alle verschlüsselten Bilder sind 800x1000 JPEG-Dateien (96 dpi).

Referenzpublikationen über FACES

FACES ist für die wissenschaftliche Forschung frei verfügbar.

Ohne Benutzerkonto sind nur die Bilder von sechs beispielhaften Personen (72 Bilder) einsehbar. Der volle Zugriff auf diesen Online-Dienst und alle seine Objekte ist nach Registrierung und Anmeldung möglich.

Forscher können von Fall zu Fall (d. h. von Person zu Person und von Studie zu Studie) ein Konto beantragen.

Partner, Kontakt & Copyright

Die Datenbank FACES wurde zwischen 2005 und 2007 am Zentrum für Lebenspsychologie des Max-Planck-Instituts für Bildungsforschung in Berlin konzipiert. Inzwischen wurden neue Sammlungen von Stimulusobjekten auf Basis der originalen FACES-Bilder erstellt und sind über die FACES-Plattform verfügbar. Detaillierte Informationen zur Autorschaft finden Sie in den sammlungsspezifischen Informationen.

Die Software FACES basiert auf imeji und wurde von der Max Planck Digital Library entwickelt. Bei Fragen zu FACES wenden Sie sich bitte an den technischen Vertreter von FACES.

Copyright: Max-Planck-Institut für Bildungsforschung, Zentrum für Lebenspsychologie, Berlin, Deutschland.


Gibt es eine Datenbank mit emotionalen Reizen? - Psychologie

The Karolinska Directed Emotional Faces (KDEF) besteht aus insgesamt 4.900 Bildern menschlicher Mimik.

Das gemittelte KDEF ( AKDEF ) ist ein Satz gemittelter Bilder, die aus den ursprünglichen KDEF-Bildern erstellt wurden. Weitere Informationen zu KDEF finden Sie hier und zu AKDEF hier.

Die Materialien von KDEF und AKDEF wurden 1998 erstellt und werden seitdem innerhalb der Forschungsgemeinschaft frei geteilt. Bis heute wurde KDEF in mehr als 1500 Forschungspublikationen verwendet. Wenn Sie herausfinden möchten, wofür diese Materialien verwendet wurden und für welche Zwecke sie verwendet wurden, können Sie hier die vorhandenen Veröffentlichungen auf Google Scholar durchsuchen.

Die KDEF- und AKDEF-Stimuli dürfen nur von Forschern und nur für nicht-kommerzielle Zwecke verwendet werden. Die Materialien dürfen in keiner Form ohne schriftliche Zustimmung weiterverbreitet werden. Details darüber, ob und wie KDEF- und AKDEF-Stimuli verwendet und veröffentlicht werden dürfen, finden Sie hier.

Das KDEF-Material wurde oft unverändert verwendet, aber manchmal auch von verschiedenen Forschern für bestimmte Zwecke modifiziert. Einige dieser Versionen, wie zum Beispiel KDEF-DYN, können Sie hier lesen.

Wenn Sie möchten, können Sie die Original-KDEF-Stimuli und einige der Versionen hier herunterladen.

Die Forschung mit KDEF-Material hat einige Daten hervorgebracht, die für andere Forscher wahrscheinlich nützlich sein können. Was verfügbar ist, erfahren Sie hier.


Die vermittelnde Rolle ablenkender Reize bei der emotionalen Worterkennung.

Wie Emotionen das Gedächtnis beeinflussen, ist ein Thema von Interesse für mehrere Bereiche wie klinische oder sogar forensische Bereiche. Auf diese Weise wurde der Effekt der emotionalen Valenz auf die Worterkennung sowohl in der theoretischen als auch in der empirischen Forschung beschrieben. Dies ist ein Effekt, der für verschiedene Aspekte der Kognition sowie des Verhaltens als robust beschrieben wurde (Van Tol, Demenescu, Van der Wee, Kortekaas, Marjan, et al. 2012). Mehrere Studien behaupteten, dass emotionale Wörter mehr Aufmerksamkeit erregen könnten als neutrale (Bowen, Kark & Kensinger 2017 Sereno, Scott, Yao, Thaden & O'Donnell 2015). Genauer gesagt und mit Fokus auf die besondere Wirkung negativer emotionaler Inhalte auf die Worterkennung, wurde vorgeschlagen, dass negative Reize unter dieser Bedingung langsamere Latenzen hervorrufen. Laut Moret-Tatay, Moreno-Cid, Argimon,

Quarti Irigaray, Szczerbinski et al. (2014) ist dies ein plausibles Ergebnis, das darauf hindeutet, dass ein automatischer Vigilanzprozess funktionieren könnte, um die Aufmerksamkeit länger zu fesseln. Insbesondere die Literatur (Leon Gordillo, Martinez, Hernandez, Cruz, Meilan, et al. 2010 Meng, Zhang, Liu, Ding, Li, et al. 2017) hat vorgeschlagen, dass die „normale Bevölkerung“ veranlagt sein könnte, ihre Aufmerksamkeit auf negative Reize, was die Idee unterstützt, dass die negative emotionale Ladung eine wesentliche Rolle in unserer Evolution spielen könnte.

Ein weiteres bemerkenswertes Problem in Bezug auf dieses Thema ist, dass emotionale Wörter besser erinnert werden als neutrale (Ferre, Garcia, Fraga, Sanchez-Casas, & Molero 2010 Herbert & Kissler, 2010). Es überrascht nicht, dass angenommen wurde, dass dieser Anstieg der Erregung sich nicht nur auf die Reaktionszeit (RT) auswirkt und diese verlangsamt, sondern auch auf die Verbesserung der Kodierung (Ferre, Fraga, Comesana, & Sanchez-Casas 2015). Mit anderen Worten, der Umgang mit emotionaler Valenz könnte auch als kognitiver Kostenfaktor angesehen werden. Andere Autoren haben festgelegt, dass Genauigkeit und Geschwindigkeit der Verarbeitung durch mehrere Parameter wie Entscheidungskomponenten und Variabilität angepasst werden können (Mueller &. Kuchinke 2016 Ratcliff, Smith, Brown & McKoon 2016). In Bezug auf die Speicherverarbeitung kann die Erkennung eine auf Abruf basierende Verarbeitung umfassen (Racsmany, Szollosi &. Bencze 2017). Insbesondere wurde RT negativ mit Genauigkeit in Verbindung gebracht (Robinson & Johnson 1996).

Bekanntlich sind Zustände wie Depression und posttraumatische Belastungsstörung oft durch eine erhöhte Anfälligkeit für emotionale Ablenkung gekennzeichnet. Es beinhaltet bewusste und unbewusste Prozesse, die die Aufmerksamkeit von einer Aufgabe ablenken. Außerdem, Foerde, Knowlton,

und Poldrack (2006) fanden Hinweise darauf, dass die Gedächtnisleistung durch Ablenkung moduliert werden kann, indem man funktionelle MRT (fMRT) verwendet. Auf theoretischer Ebene wurde Ablenkung als wichtiger Schlüssel in Theorien der Emotionsregulation beschrieben (Zhang, Gross, & Hayne 2017).

Laut Literatur (Dolcos & McCarthy 2006, Schwager & Rothermund 2013) versuchen die neuronalen Systeme, die schädlichen Wirkungen von emotionalen Distraktoren zu vermitteln. Diese können als emotionale Informationen definiert werden, die aufgrund hoher Aufmerksamkeitskosten oder einer nachteiligen Wirkung auf die Hemmung kognitive Funktionen beeinträchtigen. Auf diese Weise haben mehrere Autoren bewiesen, dass emotional irrelevante Informationen die Aufmerksamkeit von der fraglichen Aufgabe in Bezug auf Latenzkomponenten auf sich ziehen können (Gupta, Hur, &. Lavie 2016 Hodsoll, Viding & Lavie 2011). Obwohl viele Anstrengungen unternommen wurden, bleibt unklar, ob sich die emotionale Valenz auf die Genauigkeit der irrelevanten Distraktoren unter Bedingungen geringer Belastung auswirken würde. Das heißt, wie emotionale Valenz die Effizienz des zugrunde liegenden grundlegenden kognitiven Prozesses in Bezug auf Aufmerksamkeit beeinträchtigen kann. Aus diesem Grund wurde ein Mediationsmodell unter den zuvor beschriebenen Variablen gewählt. Auf diese Weise ist die Art der Analyse mit einer Pfadanalyse verwandt, die interessant ist, um die Beziehungen zwischen Variablen zu untersuchen. Dies ist insbesondere ein nützliches Werkzeug zum Testen eines Modells und sowohl der direkten als auch der indirekten Auswirkungen auf ein bestimmtes Ergebnis (wie z. Darüber hinaus kann es im Volksmund als Sonderfall der Strukturgleichungsmodellierung (SEM) verstanden werden. Für den Zweck der vorliegenden Studie ist diese Methode von Interesse, da sie uns erlauben könnte, die vermittelnde Rolle ablenkender Reize bei Latenzen auf emotionale Reize zu untersuchen. Aufgrund der obigen Überlegungen wurden mehrere Ergebnisse erwartet. Zunächst erwarteten wir eine stärkere Korrelation zwischen Genauigkeit und Reaktionszeit unter emotionalen Bedingungen, was auf kognitive Kosten hinweist. Schließlich erwarteten wir, dass Latenzen unter ablenkenden Stimuli die Erkennung in Bezug auf Ziellatenzen und Genauigkeitsvariablen vermitteln, die Arbeitsgedächtnis (WM) und Hemmungsprozesse abbilden.

An dem Experiment nahmen 95 Universitätsstudenten teil (62 Frauen und 33 Männer, Durchschnittsalter 25,12 Jahre und SD = 3,10). In Bezug auf die Einschlusskriterien hatten alle Teilnehmer ein normales oder auf ein normales Sehvermögen korrigiertes Sehvermögen, waren spanische Muttersprachler und berichteten nach einem persönlichen Interview über keine kognitiven oder neurologischen Störungen.

Die verwendeten Stimuli waren eine Auswahl von Wörtern aus der Busca Palabras-Datenbank (Davis & Perea 2005). Insgesamt 90 Wörter wurden in drei Sätze von 30 Stimuli unterteilt, basierend auf ihrer Bewertung der emotionalen Valenz (positiv, negativ oder neutral), siehe Tabelle 1. Unter Verwendung der gleichen Stimuli wie Moreno-Cid, Moret-Tatay, Irigaray, Argimon, Murphy et al. (2015), wobei Stimuli, die mit 4 oder niedriger bewertet wurden, als negativ, mit 4 bis 6 als neutral und über 6 als positiv bewertet wurden (in Übereinstimmung mit früherer Literatur, siehe Moret-Tatay et al. 2014). Von den 90 ausgewählten Wörtern wurden 45 Wörter als Ziel bestimmt (und erschienen im ersten und zweiten Block) und die anderen 45 als Distraktoren (und tauchten nur im zweiten Block auf).

Die Teilnehmer wurden in Dreier- oder Vierergruppen in einem ruhigen Raum getestet. Die Darstellung der Stimuli und die Aufzeichnung der Reaktionszeiten wurden von einem Windows-Betriebssystem über die DMDX-Software (Forster & Forster 2003) gesteuert. Der Versuch bestand aus zwei Phasen. In der ersten Phase wurden 45 Zielreize zufällig (unterteilt in 15 Reize für jede der drei Valenzkategorien) mit jeweils 2 s kurzen Expositionen präsentiert. In der zweiten Phase (15 min nachdem die Teilnehmer durch die Durchführung von Stroop-Aufgaben abgelenkt wurden) wurden 45 Zielreize plus die 45 ablenkenden Reize zufällig präsentiert. Jedes Wort wurde so lange präsentiert, bis der Teilnehmer eine Antwort gab oder 2000 ms vergangen waren. Die Teilnehmer wurden angewiesen, eine Taste (mit der Aufschrift „Ja“) zu drücken, wenn der Stimulus ein Zielreiz war, und eine andere Taste (mit der Aufschrift „Nein“) zu drücken, wenn der Stimulus ein Ablenkerreiz war. Die Teilnehmer wurden auch angewiesen, so schnell wie möglich zu reagieren und dabei ein angemessenes Maß an Genauigkeit zu wahren. Die Sitzung dauerte etwa 30 min.

Es wurde ein Messwiederholungsdesign verwendet, bei dem eine klassische Varianzanalyse (ANOVA) den Einfluss der Stimulusidentität (Ziel oder Distraktor) und der emotionalen Valenz auf die Antwortlatenz und -genauigkeit untersuchte. Die statistische Analyse wurde mit SPSS 20 durchgeführt. Wir führten eine Mediationsanalyse mit Prozessmakro für SPSS (Hayes 2015) durch, um die Hypothese zu testen, dass Latenzänderungen bei ablenkenden Stimuli den Effekt von RT auf die Vorhersagegenauigkeit vermitteln. Auf diese Weise wurden regressionsbasierte Mediationsverfahren mit Bootstrapping-Verfahren durchgeführt (MacKinnon & Fairchild 2009 Hayes 2009). Dieses Verfahren ermöglicht die Messung des indirekten Effekts, der den Einfluss der Mediatorvariablen auf die festgelegte Relation repräsentiert, durch ein Bootstrapping-Verfahren (10000) mit Konfidenzintervallen. Genauer gesagt wurde zunächst ein Regressionskoeffizient (und der zugehörige t-Test) für die mediative M-Variable (und ihre inhärenten a- und b-Pfade), die unabhängige X-Variable für die abhängige Variable ohne Einbeziehung des Moderators (c'-Pfad) und die X unabhängige Variable der abhängigen Variable nach Aufnahme des Mediators (c Pfad). Abbildung 1 zeigt diese Analyse anhand von Variablen und Pfaden.

Die RTs waren für negative Stimuli länger als für positive und neutrale. Tabelle 2 zeigt die durchschnittlichen Reaktionszeiten (ms), Fehlerraten und Standardabweichung für jede Wortgruppe. In der ANOVA für Latenzanalysen wurden RTs unter 250 ms und über 1800 ms ausgeschlossen (weniger als 2% des Datensatzes). Der Cutoff-Punkt von 1800 ms wurde aus Gründen der Konsistenz mit früheren Studien auf diesem Gebiet übernommen (Moret-Tatay et al. 2014 Moret-Tatay, Leth-Steensen, Irigaray, Argimon, Gamermann, et al. 2016 Moret-Tatay et al. 2016 Perea, Panadero, Moret-Tatay & Gomez 2012). Eine 2 x 3 ANOVA wurde durchgeführt.

Die ANOVA der RT zeigte, dass Unterschiede in der emotionalen Valenz (wo negative Stimuli langsamer erkannt wurden) nahe bei der statistischen Signifikanz waren, aber nicht erreichten: [F(2, 188)] = 2,94 MSE = 16.329,33 [[eta].sup 0,2] = 0,03 p = 0,055. Bonferronis paarweiser Vergleich näherte sich dem statistisch signifikanten für negative versus positive Stimuli (p = 0,06), erreichte jedoch nicht die statistische Signifikanz. Bei Ablenkungs- und Zielbedingungen wurden Zielreize schneller verarbeitet als Distraktoren, und dieser Unterschied erreichte statistische Signifikanz: [F (1,94)] = 61,25 MSE = 1,131.718,40 [[eta]² = 0,39 p < 0,01. Alle Interaktions- oder Fehlerunterschiede erreichten keine statistische Signifikanz (F < 1).

Andererseits zeigte die ANOVA der on-Genauigkeit, dass Unterschiede in der emotionalen Valenz (wo positive Reize langsamer erkannt wurden) die statistische Signifikanz erreichten, [F(2, 188)] = 8,33 MSE = 0,015 [[eta]. sup.2] = 0,081 p < 0,01. Bei Ablenk- und Zielbedingungen wurden Zielreize schneller verarbeitet als Distraktoren, und dieser Unterschied erreichte die statistische Signifikanz: [F (1,94)] = 5,38 MSE = 0,434 [[eta] 2 ] = 0,054 p < 0,05. Alle paarweisen Vergleiche von Bonferroni zwischen negativen versus positiven/neutralen Stimuli waren für Emotionen statistisch signifikant (p < 0,05), aber neutrale versus positive Unterschiede erreichten nicht das statistische Niveau. Eine Interaktion (Emotion * Präsentation) wurde über die Variablen hinweg gefunden: [F (2, 188)] = 6,99 MSE = 0,016 [[eta] 2 = 0,069 p < 0,01.

Schließlich wurde ein Vermittlungsmodell getestet. Zuvor wurde jede Beziehung zwischen Variablen anhand des Pearson-Korrelationskoeffizienten untersucht (Abb. 2). Wie in Tabelle 3 dargestellt, vermittelten Änderungen der Latenzen auf ablenkende Reize signifikant Fehler bei Zielreizen für den negativen Zustand ([F (1,93)] = 53,07 MSE = 0,6435 [R 2 ] = 0,36 p < 0,001), der neutrale ([F.sub.(1,93)] = 47,83 MSE = 0,6675 [R.sup.2] = 0,34 p < 0,001) und der positive ([F.sub.(193) ] = 40,85 MSE = 0,7022 [R²] = 0,31 p < 0,001). Abbildung 1 zeigt jeden der Pfade für jedes Modell. Alle erreichten die statistische Signifikanz, mit Ausnahme des b-Pfades im neutralen Zustand. Jede andere Kombination über den emotionalen Zustand erreichte nicht die statistische Signifikanz.

Schlussfolgerungen und Diskussion

Emotionen gelten als Ablenkungen, die oft zu nachfolgenden Handlungen führen. Das Ziel dieser Arbeit war es, die Rolle ablenkender Reize für das Verhältnis von RT und Genauigkeit zu untersuchen. Das Verständnis der Mechanismen, durch die Emotionen kognitive Funktionen beeinträchtigen, hat wichtige Auswirkungen auf mehrere Bereiche, wie z. B. bei affektiven Störungen. Darüber hinaus und nach Dolcos und McCarthy (2006) bleiben die neuronalen Systeme, die die Auswirkungen von Emotionen auf die zielgerichtete kognitive Verarbeitung vermitteln, unklar.

Die Ergebnisse könnten wie folgt beschrieben werden: (i) Erstens sollten Änderungen der Aufgabenanforderungen von der Sekundäraufgabe in dem Maße ablenken, dass diese Aufgabenanforderungen die Genauigkeit implizieren und beeinflussen, (ii) die ablenkende Aufgabe vermittelt zwischen der Zielaufgabe und der Genauigkeit unter emotionalen Reizen (iii) scheinen negative ablenkende Reize eine stärkere vermittelnde Wirkung zu haben als neutrale oder positive ablenkende Reize, und (iv) positive ablenkende Reize scheinen eine höhere mediatorische Wirkung zu haben als neutrale ablenkende Reize.

Wie von der Literatur erwartet, sind Latenzen bis zur Ablenkung

Wörter präsentierten höhere RT. Dies weist auf kognitive Kosten bei der Ablehnung der zweiten Anforderung in einer Aufgabe hin. Darüber hinaus waren RTs, wie angenommen wurde, in den meisten Fällen invers mit der Genauigkeit korreliert, insbesondere unter emotionalen Bedingungen (wie aus der bisherigen Literatur erwartet (Leon Gordillo et al. 2010 Moreno-Cid et al. 2015). Auf diese Weise wurde ein vermittelnder Effekt von ablenkenden Reizen gefunden, mit Ausnahme der neutralen. Dies könnte die Rolle von Emotionen auf das Gedächtnis, wie oben beschrieben, betonen. Darüber hinaus könnte diese Art von Ansatz als ein zusätzlicher Wert der vorliegenden Arbeit angesehen werden , da traditionelle Varianzanalysen wie die ANOVA implementiert werden könnten, indem man andere komplexere Analysen nutzt (Moret-Tatay et al. 2017).

Zusammenfassend zeigten unsere Ergebnisse, dass die Ablenkung unter emotionalen Bedingungen mittelschwer sein sollte. Darüber hinaus wurde eine stärkere Vorhersage aus den negativen Stimuli gefunden. Diese Hypothese hat starke empirische Unterstützung erhalten, dass negative Reize im Allgemeinen mehr Aufmerksamkeit auf sich ziehen als neutrale oder positive Reize, selbst für stimmungskongruente Kognitionen (Van Dillen & Koole 2007). Diese Arbeit weist auch potenzielle Einschränkungen auf. Es gibt bemerkenswert hohe Fehlerquoten, was darauf hindeutet, dass die Aufgabe für Teilnehmer mit einem Floor-Effekt schwierig sein könnte. Für zukünftige Forschungen wäre es interessant, eine einfachere Reihe von Experimenten zu entwickeln, die auch die Rollenaufmerksamkeitsanforderungen untersuchen könnte, wie von mehreren Autoren angegeben (Moret-Tatay et al. 2014 Moret-Tatay & Perea 2011 Navarro-Pardo, Navarro-Prados, Gamermann, & Moret-Tatay 2013) und ihre möglichen Interaktionen mit emotionaler Valenz.

Diese Forschung wurde von der Generalitat Valenciana (Ajudes per a la realitzacio de projectes de I + D per a equips d'investigacio emergents, GV/ 2016/188) und der Universidad Catolica de Valencia San Vicente Martir (ayudas internas, 2016-198 .) gesponsert -001/PRUCV/2015/630).

CMT beteiligte sich an der Konzeption und dem Design der Studie, der Datenerhebung, der Datenanalyse und -interpretation sowie der Erstellung des Manuskripts. MJB-A beteiligte sich an der Analyse und Interpretation von Daten und der Erstellung des Manuskripts. AL beteiligte sich an der Konzeption und dem Design der Studie, der Datenerhebung, der Datenanalyse und -interpretation sowie der Erstellung des Manuskripts. CRO beteiligte sich an der Analyse und Interpretation von Daten und dem Rafting von Manuskripten. Alle Autoren haben das endgültige Manuskript gelesen und genehmigt.

Die Autoren erklären, dass sie keine konkurrierenden Interessen haben.

Springer Nature bleibt in Bezug auf gerichtliche Ansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

[1] Universidad Catolica de Valencia San Vicente Martir, Calle Guillem de Castro 175, 46008 Valencia, Spanien. [2] Universidad de Valencia, Avenida Blasco Ibanez, 46021 Valencia, Spanien. [3] IMED Passo Fundo, Rua Senador Pinheiro, 304 – Vila Rodrigues, Passo Fundo – RS 99070-220, Brasilien.

Eingegangen: 11. August 2017 Angenommen: 18. Dezember 2017

Online veröffentlicht: 25. Januar 2018

Bowen, H.J., Kark, S.M., & Kensinger, E.A. (2017). NIEMALS vergessen: negative emotionale Valenz fördert die Rekapitulation. Psychonomisches Bulletin und Rezension, 1-22.

Davis, C. J., & Perea, M. (2005). Busca Palabras: ein Programm zur Ableitung orthographischer und phonologischer Nachbarschaftsstatistiken und anderer psycholinguistischer Indizes auf Spanisch. Verhaltensforschungsmethoden, 37(4), 665-671.

Dolcos, F., & McCarthy, G. (2006). Gehirnsysteme, die kognitive Störungen durch emotionale Ablenkung vermitteln. Journal of Neuroscience, 26(7), 2072-2079.

Ferre, P., Fraga, I., Comesana, M. und Sanchez-Casas, R. (2015). Gedächtnis für emotionale Wörter: die Rolle der semantischen Verwandtschaft, der Kodierungsaufgabe und der affektiven Valenz. Kognition und Emotion, 29(8), 1401-1410.

Ferre, P., Garcia, T., Fraga, I., Sanchez-Casas, R., &. Molero, M. (2010). Gedächtnis für emotionale Wörter bei Zweisprachigen: Haben Wörter in der ersten und in der zweiten Sprache die gleiche emotionale Intensität? Kognition und Emotion, 24, 760-785.

Foerde, K., Knowlton, B.J., & Poldrack, R.A. (2006). Modulation konkurrierender Gedächtnissysteme durch Ablenkung. Proceedings of the National Academy of Sciences, 103(31), 11778-11783.

Forster, K.I., & Forster, J.C. (2003). DMDX: Ein Windows-Anzeigeprogramm mit Millisekunden-Genauigkeit. Verhaltensforschungsmethoden, Instrumente und Computer, 35, 116-124.

Gupta, R., Hur, Y.J., &. Lavie, N. (2016). Abgelenkt durch Freude: Auswirkungen positiver vs. negativer Valenz auf die emotionale Erfassung unter Belastung. Gefühl, 16(3), 328.

Hayes, A.F. (2009). Jenseits von Baron und Kenny: Satistische Mediationsanalyse im neuen Jahrtausend. Kommunikationsmonographien, 76(4), 408-420.

Hayes, A.F. (2015). Ein Index und Test der linear moderierten Mediation. Multivariate Verhaltensforschung, 50(1), 1-22.

Herbert, C., & Kissler, J. (2010). Motivationales Priming und Verarbeitungsinterrupt: Schreckreflexmodulation während der flachen und tiefen Verarbeitung emotionaler Worte. Internationale Zeitschrift für Psychophysiologie, 76 (2), 64-71.

Hodsoll, S., Viding, E., &. Lavie, N. (2011). Aufmerksamkeitsfesselung durch irrelevante emotionale Ablenkergesichter. Emotionen, 11 (2), 346.

Leon Gordillo, F., Martinez, J. M. A., Hernandez, L. M., Cruz, J. S., Meilan, J. J. G., Ramos, J. C. & Saez, E. P. (2010). Emocion y memoria de reconocimiento: la diskriminacion de la informacion negativa como un proceso adaptativo. Psikothem, 22(4), 765-771.

MacKinnon, D.P., &. Fairchild, A.J. (2009). Aktuelle Richtungen in der Mediationsanalyse. Aktuelle Richtungen in der psychologischen Wissenschaft, 18(1), 16-20.

Meng, X., Zhang, L., Liu, W., Ding, X., Li, H., Yang, J., & Yuan, J. (2017). Der Einfluss der Emotionsintensität auf das Wiedererkennungsgedächtnis: Valenzpolarität ist wichtig. Internationale Zeitschrift für Psychophysiologie, 116, 16-25.

Moreno-Cid, A., Moret-Tatay, C., Irigaray, T.Q., Argimon, 1.1., Murphy, M., Szczerbinski, M., . Fernandez, P. (2015). Die Rolle von Alter und emotionaler Wertigkeit bei der Worterkennung: eine ehemalige Gausssche Analyse. Studia Psychologica, 57 (2), 83.

Moret-Tatay, C., Lemus-Zuniga, L.G., Tortosa, D.A., Gamermann, D., Vazquez-martinez, A., Navarro-Pardo, E., &. Conejero, J.A. (2017). Verlangsamung des Alters bei der Erkennung und visuellen Unterscheidung bei unterschiedlichen Präsentationszeiten. Skandinavisches Journal für Psychologie, 58(4), 304-311.

Moret-Tatay, C., Leth-Steensen, C., Irigaray, T.Q., Argimon, I., Gamermann, D., Abad-Tortosa, D., . de Cordoba Castella, P. F. (2016). Die Wirkung von korrigierendem Feedback auf die Leistung bei grundlegenden kognitiven Aufgaben: eine Analyse von RT-Komponenten. Psychologica Belgica, 56(4).

Moret-Tatay, C., Moreno-Cid, A., Argimon, I.I.D.L., Quarti Irigaray, T., Szczerbinski, M., Murphy, M., . Fernandez de Cordoba Castella, P. (2014). Die Auswirkungen von Alter und emotionaler Valenz auf das Wiedererkennungsgedächtnis: eine Analyse der ehemaligen Gaußschen Komponenten. Skandinavisches Journal für Psychologie, 55(5), 420-426.

Moret-Tatay, C., & Perea, M. (2011). Ist die lexikalische Go/No-Go-Entscheidungsaufgabe der Ja/Nein-Aufgabe bei sich entwickelnden Lesern vorzuziehen? Zeitschrift für experimentelle Kinderpsychologie, 110 (1), 125-132.

Mueller, C.J., & Kuchinke, L. (2016). Individuelle Unterschiede in der Emotionstextverarbeitung: eine Diffusionsmodellanalyse. Kognitive, affektive und Verhaltensneurowissenschaften, 16(3), 489-501.

Navarro-Pardo, E., Navarro-Prados, A.B., Gamermann, D., & Moret-Tatay, C. (2013). Unterschiede zwischen jungen und alten Universitätsstudenten bei einer lexikalischen Entscheidungsaufgabe: Evidenz durch einen ex-gaußschen Ansatz. The Journal of General Psychology, 140(4), 251-268.

Perea, M., Panadero, V., Moret-Tatay, C., & Gomez, P. (2012). Die Auswirkungen des Buchstabenabstands bei der visuellen Worterkennung: Beweise bei jüngeren normalen Lesern und entwicklungsbedingten Legasthenikern. Lernen und Anleitung, 22(6), 420-430.

Racsmany, M., Szollosi, A., & Bencze, D. (2017). Die Retrieval-Praxis macht Verfahren aus dem Erinnern: eine Automatisierungsrechnung des Testeffekts. Zeitschrift für experimentelle Psychologie. Lernen, Gedächtnis und Kognition.

Ratcliff, R., Smith, P.L., Brown, S.D., & McKoon, G. (2016). Diffusionsentscheidungsmodell: aktuelle Probleme und Geschichte. Trends in den Kognitionswissenschaften, 20(4), 260-281.

Robinson, M.D., & Johnson, J.T. (1996). Abrufgedächtnis, Erkennungsgedächtnis und die Vertrauens-Genauigkeits-Korrelation von Augenzeugen. Zeitschrift für Angewandte Psychologie, 81(5), 587.

Schwager, S., & Rothermund, K. (2013). Durch Emotionen ausgelöste Gegenregulation: positive/negative affektive Zustände rufen gegensätzliche Valenzverzerrungen in der affektiven Verarbeitung hervor. Kognition & Emotion, 27(5), 839-855.

Sereno, S.C., Scott, G.G., Yao, B., Thaden, E.J. und O'Donnell, P.J. (2015). Emotionstextverarbeitung: Macht die Stimmung einen Unterschied? Grenzen in der Psychologie, 6, 1191.

Van Dillen, L.F., &. Koole, S.L. (2007). Clearing the mind: Ein Arbeitsgedächtnismodell der Ablenkung von negativer Stimmung. Gefühl, 7(4), 715.

Van Tol, M.J., Demenescu, L.R., Van der Wee, N.J., Kortekaas, R., Marjan, N., Den Boer, J.A., . Veltmann, D.J. (2012). Die funktionelle Magnetresonanztomographie korreliert die emotionale Wortkodierung und -erkennung bei Depressionen und Angststörungen. Biologische Psychiatrie, 71(7), 593-602.

Zhang, W., Gross, J., & Hayne, H. (2017). Der Einfluss der Stimmung auf das falsche Gedächtnis für emotionale DRM-Wortlisten. Kognition und Emotion, 31(3), 526-537.

C. Moret-Tatay [1] *, A. Lami [2], C. R. Oliveira [3] und M. J. Beneyto-Arrojo [1]

[1] Universidad Catolica de Valencia San Vicente Martir, calle Guillem de Castro 175, 46008 Valencia, Spanien

Eine vollständige Liste der Autoreninformationen finden Sie am Ende des Artikels

Bildunterschrift: Abb. 1 zu prüfendes Mediationsmodell und seine Wege

Bildunterschrift: Abb. 2 Mediationsmodell, das testet, wie Veränderungen bei ablenkenden Stimuli die RT-Vorhersagegenauigkeit über emotionale Bedingungen hinweg vermitteln


DAS ZENTRUM FÜR DAS STUDIEREN VON EMOTION UND AUFMERKSAMKEIT

Vielen Dank für Ihr Interesse am International Affective Picture System (IAPS, ausgesprochen “EYE-APS”). Das International Affective Picture System (IAPS) bietet normative Bewertungen von Emotionen (Lust, Erregung, Dominanz) für eine Reihe von Farbfotos, die eine Reihe normativer emotionaler Reize für experimentelle Untersuchungen von Emotionen und Aufmerksamkeit liefern.

In Anbetracht unseres ausschließlich wissenschaftlichen Interesses und unseres Status als Einheit der Staatlichen Universität verkaufen wir diese Materialien nicht. Wir stellen sie ausschließlich für die wissenschaftliche, gemeinnützige Forschung an anerkannten gradverleihenden Bildungseinrichtungen zur Verfügung.

Um die IAPS für Ihre Forschung zu erhalten, füllen Sie bitte das IAPS-Forscherinformationsformular aus und senden Sie es ab. Nach dem Absenden dieses Formulars erhalten Sie eine E-Mail, in der Sie aufgefordert werden, die IAPS-Nutzungsvereinbarung auszudrucken, zu unterschreiben und per E-Mail zu versenden. Innerhalb von 30 Tagen nach Erhalt Ihrer unterschriebenen Nutzungsvereinbarung erhalten Sie einen Benutzernamen und ein Passwort sowie den Link zum Herunterladen des IAPS. Dieser Link sollte nicht von einer anderen Website geteilt, verbreitet oder verlinkt werden.

Wie bereits erwähnt, werden diese Bilder gemeinnützigen Forschenden an Hochschulen zur freien Verfügung gestellt. Es wird erwartet, dass sie nur in Projekten der Grundlagen- und Gesundheitsforschung eingesetzt werden. Bei der Annahme dieser Materialien wird von den Forschern erwartet, dass sie diese nicht an gewinnorientierte Unternehmen oder Organisationen weitergeben. Darüber hinaus wird von ihnen erwartet, dass sie diese nicht den Medien (Fernsehen, Zeitschriften etc.) zur Verfügung stellen oder in irgendeiner Form ins Internet stellen. Diese Bilder sollten nicht für den Unterricht oder als Beispiele für affektive Reize in Schulkursen verwendet werden. Diese Materialien einer breiten Öffentlichkeit bekannt zu machen, kann ihren Wert als Impulsgeber in vielen Forschungsprojekten ernsthaft gefährden.

Da ein Teil der finanzierten Mission des CSEA darin besteht, Forschungslabors Materialien zur Verfügung zu stellen, ist es hilfreich für uns, die Labore aufzulisten, die von dieser Arbeit profitieren. Daher möchten wir Sie bei dieser Gelegenheit bitten, andere Forscher, die diese Materialien erhalten möchten, an uns zu verweisen, anstatt die IAPS selbst an andere zu verteilen.


Emotionale Reaktionsfähigkeit

Emotionale Reaktionsfähigkeit ist die Fähigkeit, einen affektiven Reiz durch das Zeigen von Emotionen anzuerkennen. [1] Erhöhte emotionale Reaktionsfähigkeit bezieht sich auf eine stärkere Reaktion auf einen Reiz. Reduzierte emotionale Reaktionsfähigkeit bezieht sich auf eine geringere Reaktion auf einen Reiz. [2] Jede Reaktion, die nach der Exposition gegenüber dem Stimulus gezeigt wird, unabhängig davon, ob sie angemessen ist oder nicht, wird als emotionale Reaktion betrachtet. Obwohl emotionale Reaktionsfähigkeit für nichtklinische Bevölkerungsgruppen gilt, wird sie typischerweise mit Personen mit Schizophrenie und Autismus in Verbindung gebracht.

Emotionale Reaktionsfähigkeit ist mit umfassenderen psychologischen Konzepten über Emotionen verbunden. Menschen zeigen Emotionen als Reaktion auf äußere Reize. Positive affektive Reize lösen Lustgefühle wie Glück aus, negative affektive Reize lösen Unlustgefühle wie Ekel und Angst aus. [2] Emotionale Reaktionen umfassen, sind aber nicht beschränkt auf Mimik und neurophysiologische Aktivitäten. Zum Beispiel zeigen Menschen ein „Lächeln“, wenn sie positiven Reizen ausgesetzt sind, und ein „Stirnrunzeln“, wenn sie negativen Reizen ausgesetzt sind. Das mit Emotion verbundene Gefühl wird Affekt genannt, der nach Valenz und Erregung kategorisiert werden kann. Valenz beschreibt den Grad, in dem das Gefühl ein Vergnügen oder ein Missfallen ist. Erregung beschreibt den Grad, in dem eine Person durch äußere Reize geweckt wird. [3]


Inhalt

Emotionale Informationen erkennen und erkennen Bearbeiten

Die Erfassung emotionaler Informationen beginnt normalerweise mit passiven Sensoren, die Daten über den körperlichen Zustand oder das Verhalten des Benutzers erfassen, ohne die Eingabe zu interpretieren. Die gesammelten Daten sind analog zu den Hinweisen, die Menschen verwenden, um Emotionen bei anderen wahrzunehmen. Beispielsweise kann eine Videokamera Gesichtsausdrücke, Körperhaltung und Gesten erfassen, während ein Mikrofon Sprache erfassen kann. Andere Sensoren erkennen emotionale Hinweise, indem sie direkt physiologische Daten wie Hauttemperatur und galvanischen Widerstand messen. [7]

Um emotionale Informationen zu erkennen, müssen aussagekräftige Muster aus den gesammelten Daten extrahiert werden. Dies geschieht mit Techniken des maschinellen Lernens, die verschiedene Modalitäten verarbeiten, wie z. B. Spracherkennung, natürliche Sprachverarbeitung oder Gesichtsausdruckerkennung. Das Ziel der meisten dieser Techniken besteht darin, Labels zu erzeugen, die den Labels entsprechen, die ein menschlicher Betrachter in derselben Situation geben würde: Wenn beispielsweise eine Person einen Gesichtsausdruck macht und die Stirn runzelt, dann könnte dem Computer Vision-System beigebracht werden, zu etikettieren ihr Gesicht als "verwirrt" oder als "konzentriert" oder "leicht negativ" erscheinen (im Gegensatz zu positiv, was sagen könnte, wenn sie glücklich lächeln). Diese Etiketten können dem entsprechen, was die Person tatsächlich fühlt oder nicht.

Emotionen in Maschinen Bearbeiten

Ein weiterer Bereich innerhalb des Affektiven Computings ist der Entwurf von Computergeräten, die entweder angeborene emotionale Fähigkeiten aufweisen oder in der Lage sind, Emotionen überzeugend zu simulieren. Ein praktischerer Ansatz, basierend auf aktuellen technologischen Möglichkeiten, ist die Simulation von Emotionen in Gesprächsagenten, um die Interaktion zwischen Mensch und Maschine zu bereichern und zu erleichtern. [8]

Marvin Minsky, einer der bahnbrechenden Informatiker auf dem Gebiet der künstlichen Intelligenz, bezieht Emotionen auf die umfassenderen Themen der maschinellen Intelligenz, indem er in Die Emotionsmaschine diese Emotion unterscheidet sich „nicht sonderlich von den Prozessen, die wir ‚Denken‘ nennen.“ [9]

In der Psychologie, Kognitionswissenschaft und Neurowissenschaft gibt es zwei Hauptansätze, um zu beschreiben, wie Menschen Emotionen wahrnehmen und klassifizieren: kontinuierlich oder kategorisch. Der kontinuierliche Ansatz verwendet tendenziell Dimensionen wie negativ vs. positiv, ruhig vs. erregt.

Der kategoriale Ansatz verwendet tendenziell diskrete Klassen wie glücklich, traurig, wütend, ängstlich, überrascht, angewidert. Es können verschiedene Arten von Regressions- und Klassifikationsmodellen für maschinelles Lernen verwendet werden, damit Maschinen kontinuierliche oder diskrete Etiketten erzeugen. Manchmal werden auch Modelle gebaut, die Kombinationen über die Kategorien hinweg erlauben, z.B. ein glücklich-überraschtes Gesicht oder ein ängstlich-überraschtes Gesicht. [10]

In den folgenden Abschnitten werden viele der Arten von Eingabedaten betrachtet, die für die Aufgabe der Emotionserkennung verwendet werden.

Emotionale Rede Bearbeiten

Verschiedene Veränderungen im autonomen Nervensystem können indirekt die Sprache einer Person verändern, und affektive Technologien können diese Informationen nutzen, um Emotionen zu erkennen. Zum Beispiel wird Sprache, die in einem Zustand der Angst, Wut oder Freude produziert wird, schnell, laut und präzise ausgesprochen, mit einem höheren und breiteren Tonumfang, während Emotionen wie Müdigkeit, Langeweile oder Traurigkeit dazu neigen, langsame, tiefe Töne zu erzeugen. aufgeschlagene und undeutliche Sprache. [11] Einige Emotionen lassen sich rechnerisch leichter identifizieren, wie z. B. Wut [12] oder Zustimmung. [13]

Emotionale Sprachverarbeitungstechnologien erkennen den emotionalen Zustand des Benutzers unter Verwendung einer Computeranalyse von Sprachmerkmalen. Stimmparameter und prosodische Merkmale wie Tonhöhenvariablen und Sprechgeschwindigkeit können durch Mustererkennungstechniken analysiert werden. [12] [14]

Die Sprachanalyse ist eine wirksame Methode zur Identifizierung des affektiven Zustands, die in neueren Forschungen eine durchschnittliche Genauigkeit von 70 bis 80 % hat. [15] [16] Diese Systeme tendieren dazu, die durchschnittliche menschliche Genauigkeit zu übertreffen (ca. 60% [12] ), sind jedoch weniger genau als Systeme, die andere Modalitäten zur Emotionserkennung verwenden, wie zum Beispiel physiologische Zustände oder Gesichtsausdrücke. [17] Da jedoch viele Sprachmerkmale unabhängig von Semantik oder Kultur sind, wird diese Technik als vielversprechender Weg für weitere Forschungen angesehen. [18]

Algorithmen Bearbeiten

Der Prozess der Erkennung von Sprach-/Text-Beeinflussungen erfordert die Erstellung einer zuverlässigen Datenbank, Wissensdatenbank oder eines Vektorraummodells [19], die breit genug ist, um alle Anforderungen für ihre Anwendung zu erfüllen, sowie die Auswahl eines erfolgreichen Klassifikators, der Folgendes ermöglicht: schnelle und genaue Emotionserkennung.

Die derzeit am häufigsten verwendeten Klassifikatoren sind Linear-Diskriminanz-Klassifikatoren (LDC), k-nächster Nachbar (k-NN), Gaussian Mixed Model (GMM), Support Vector Machines (SVM), künstliche neuronale Netze (ANN), Entscheidungsbaumalgorithmen und Hidden-Markov-Modelle (HMMs). [20] Verschiedene Studien zeigten, dass die Wahl des geeigneten Klassifikators die Gesamtleistung des Systems signifikant verbessern kann.[17] Die folgende Liste enthält eine kurze Beschreibung jedes Algorithmus:

    – Die Klassifizierung erfolgt auf Basis des Wertes aus der Linearkombination der Merkmalswerte, die üblicherweise in Form von Vektormerkmalen vorliegen. – Die Klassifizierung erfolgt, indem das Objekt im Merkmalsraum lokalisiert und mit den k nächsten Nachbarn verglichen wird (Trainingsbeispiele). Über die Einstufung entscheidet die Stimmenmehrheit. – ist ein probabilistisches Modell, das verwendet wird, um die Existenz von Teilpopulationen innerhalb der Gesamtpopulation darzustellen. Jede Teilpopulation wird anhand der Mischungsverteilung beschrieben, die eine Einordnung der Beobachtungen in die Teilpopulationen ermöglicht. [21] – ist eine Art (meist binärer) linearer Klassifikator, der entscheidet, in welche der zwei (oder mehr) möglichen Klassen jede Eingabe fallen darf. – ist ein mathematisches Modell, inspiriert von biologischen neuronalen Netzen, das mögliche Nichtlinearitäten des Merkmalsraums besser erfassen kann. – Arbeit auf der Grundlage eines Entscheidungsbaums, in dem Blätter das Klassifikationsergebnis darstellen und Zweige die Verbindung nachfolgender Merkmale darstellen, die zur Klassifikation führen. – ein statistisches Markov-Modell, bei dem die Zustände und Zustandsübergänge der Beobachtung nicht direkt zur Verfügung stehen. Stattdessen sind die von den Zuständen abhängigen Ausgänge sichtbar. Im Fall der Affekterkennung stellen die Ausgaben die Sequenz von Sprachmerkmalsvektoren dar, die die Ableitung von Zustandssequenzen ermöglichen, durch die das Modell fortgeschritten ist. Die Zustände können aus verschiedenen Zwischenschritten beim Ausdruck einer Emotion bestehen, und jeder von ihnen hat eine Wahrscheinlichkeitsverteilung über die möglichen Ausgabevektoren. Die Sequenzen der Zustände ermöglichen es uns, den affektiven Zustand vorherzusagen, den wir zu klassifizieren versuchen, und dies ist eine der am häufigsten verwendeten Techniken im Bereich der Erkennung von Sprachstörungen.

Es ist bewiesen, dass der emotionale Zustand einer Person durch einen Satz von Mehrheitsentscheidungs-Klassifikatoren klassifiziert werden kann, wenn genügend akustische Beweise verfügbar sind. Der vorgeschlagene Satz von Klassifikatoren basiert auf drei Hauptklassifikatoren: kNN, C4.5 und SVM-RBF Kernel. Dieser Satz erzielt eine bessere Leistung als jeder einzelne Basisklassifikator, der separat genommen wird. Es wird mit zwei anderen Klassifikatoren-Sätzen verglichen: einer gegen alle (OAA) Multiclass-SVM mit Hybrid-Kernels und der Klassifikator-Menge, die aus den folgenden zwei grundlegenden Klassifikatoren besteht: C5.0 und Neural Network. Die vorgeschlagene Variante erzielt eine bessere Leistung als die anderen beiden Klassifikatorensätze. [22]

Datenbanken Bearbeiten

Die überwiegende Mehrheit der gegenwärtigen Systeme ist datenabhängig. Dies stellt eine der größten Herausforderungen bei der Erkennung von Emotionen basierend auf Sprache dar, da es die Auswahl einer geeigneten Datenbank erfordert, die zum Trainieren des Klassifikators verwendet wird. Die meisten der derzeit im Besitz befindlichen Daten stammen von Schauspielern und sind somit eine Darstellung archetypischer Emotionen. Diese sogenannten Acted Databases basieren in der Regel auf der Basic Emotions-Theorie (von Paul Ekman), die von der Existenz von sechs Grundemotionen ausgeht (Wut, Angst, Ekel, Überraschung, Freude, Traurigkeit), die anderen sind einfach eine Mischung aus den ehemalige. [23] Dennoch bieten diese immer noch eine hohe Audioqualität und ausgewogene Klassen (wenn auch oft zu wenige), die zu hohen Erfolgsquoten bei der Emotionserkennung beitragen.

Für Anwendungen im wirklichen Leben werden jedoch naturalistische Daten bevorzugt. Eine naturalistische Datenbank kann durch Beobachtung und Analyse von Subjekten in ihrem natürlichen Kontext erstellt werden. Letztendlich sollte eine solche Datenbank es dem System ermöglichen, Emotionen basierend auf ihrem Kontext zu erkennen sowie die Ziele und Ergebnisse der Interaktion zu erarbeiten. Die Natur dieser Art von Daten ermöglicht eine authentische Umsetzung im realen Leben, da sie Zustände beschreiben, die während der Mensch-Computer-Interaktion (HCI) natürlich auftreten.

Trotz der zahlreichen Vorteile, die naturalistische Daten gegenüber wirkenden Daten haben, sind sie schwer zu erhalten und haben in der Regel eine geringe emotionale Intensität. Darüber hinaus haben Daten, die in einem natürlichen Kontext gewonnen werden, aufgrund von Umgebungsgeräuschen und der Entfernung der Probanden vom Mikrofon eine geringere Signalqualität. Der erste Versuch, eine solche Datenbank zu erstellen, war das FAU Aibo Emotion Corpus für CEICES (Combining Efforts for Improving Automatic Classification of Emotional User States), das basierend auf einem realistischen Kontext von Kindern (im Alter von 10-13) entwickelt wurde, die mit dem Aibo-Roboter von Sony spielen . [24] [25] Ebenso würde die Erstellung einer einheitlichen Datenbank für die gesamte Emotionsforschung eine Methode zur Bewertung und zum Vergleich verschiedener Affekterkennungssysteme bieten.

Sprachdeskriptoren Bearbeiten

Die Komplexität des Affekterkennungsprozesses steigt mit der Anzahl der Klassen (Affekte) und Sprachdeskriptoren, die innerhalb des Klassifikators verwendet werden. Es ist daher entscheidend, nur die relevantesten Merkmale auszuwählen, um die Fähigkeit des Modells sicherzustellen, Emotionen erfolgreich zu identifizieren, sowie die Leistung zu steigern, was insbesondere für die Echtzeiterkennung von Bedeutung ist. Die Palette der möglichen Auswahlmöglichkeiten ist groß, wobei einige Studien die Verwendung von über 200 verschiedenen Funktionen erwähnen. [20] Um das System zu optimieren und die Erfolgsrate der korrekten Emotionserkennung zu erhöhen, ist es entscheidend, diejenigen zu identifizieren, die redundant und unerwünscht sind. Die häufigsten Sprachmerkmale werden in die folgenden Gruppen eingeteilt. [24] [25]

  1. Frequenzcharakteristik [26]
    • Akzentform – beeinflusst von der Änderungsrate der Grundfrequenz.
    • Durchschnittliche Tonhöhe – Beschreibung, wie hoch/tief der Sprecher relativ zur normalen Sprache spricht.
    • Kontursteigung – beschreibt die Tendenz der Frequenzänderung im Laufe der Zeit, sie kann steigend, fallend oder eben sein.
    • Endgültige Absenkung – der Betrag, um den die Frequenz am Ende einer Äußerung abfällt.
    • Tonhöhenbereich – misst die Spreizung zwischen der maximalen und minimalen Frequenz einer Äußerung.
  2. Zeitbezogene Funktionen:
    • Sprechgeschwindigkeit – beschreibt die Geschwindigkeit von Wörtern oder Silben, die über eine Zeiteinheit gesprochen werden
    • Stressfrequenz – misst die Häufigkeit des Auftretens von tonhöhenbetonten Äußerungen
  3. Sprachqualitätsparameter und Energiedeskriptoren:
    • Breathiness – misst das Aspirationsgeräusch in Sprache
    • Brillanz – beschreibt die Dominanz hoher oder niedriger Frequenzen in der Sprache
    • Loudness – misst die Amplitude der Sprachwellenform, übersetzt in die Energie einer Äußerung
    • Pausendiskontinuität – beschreibt die Übergänge zwischen Klang und Stille
    • Tonhöhendiskontinuität – beschreibt die Übergänge der Grundfrequenz.

Gesichtsaffektionserkennung Bearbeiten

Die Erkennung und Verarbeitung des Gesichtsausdrucks erfolgt durch verschiedene Methoden wie Optical Flow, Hidden-Markov-Modelle, neuronale Netzverarbeitung oder Active-Appearance-Modelle. Mehrere Modalitäten können kombiniert oder fusioniert werden (multimodale Erkennung, z robuste Einschätzung des emotionalen Zustands des Subjekts. Affectiva ist ein Unternehmen (mitbegründet von Rosalind Picard und Rana El Kaliouby), das direkt mit Affective Computing zu tun hat und sich auf die Erforschung von Lösungen und Software zur Erkennung von Gesichtsaffekten konzentriert.

Gesichtsausdruck-Datenbanken Bearbeiten

Die Erstellung einer Emotionsdatenbank ist eine schwierige und zeitaufwändige Aufgabe. Die Datenbankerstellung ist jedoch ein wesentlicher Schritt bei der Schaffung eines Systems, das menschliche Emotionen erkennt. Die meisten der öffentlich zugänglichen Emotionsdatenbanken enthalten nur gestellte Gesichtsausdrücke. In Datenbanken mit gestellten Ausdrücken werden die Teilnehmer gebeten, verschiedene grundlegende emotionale Ausdrücke anzuzeigen, während in Datenbanken mit spontanen Ausdrücken die Ausdrücke natürlich sind. Das spontane Auslösen von Emotionen erfordert einen erheblichen Aufwand bei der Auswahl geeigneter Reize, was zu einer reichen Darstellung beabsichtigter Emotionen führen kann. Zweitens beinhaltet der Prozess das manuelle Markieren von Emotionen durch geschulte Personen, was die Datenbanken sehr zuverlässig macht. Da die Wahrnehmung von Ausdrücken und deren Intensität subjektiv ist, ist die Annotation durch Experten für die Validierung unerlässlich.

Die Forscher arbeiten mit drei Arten von Datenbanken, z. B. einer Datenbank nur mit Bildern mit Spitzenausdruck, einer Datenbank mit Bildsequenzen, die eine Emotion von neutral bis zu ihrem Höhepunkt darstellen, und Videoclips mit emotionalen Anmerkungen. Viele Datenbanken für Gesichtsausdrücke wurden erstellt und zum Zwecke der Ausdruckserkennung veröffentlicht. Zwei der weit verbreiteten Datenbanken sind CK+ und JAFFE.

Emotionsklassifizierung Bearbeiten

Durch kulturübergreifende Forschungen in Papua-Neuguinea über die Fore Tribesmen Ende der 1960er Jahre schlug Paul Ekman die Idee vor, dass der Gesichtsausdruck von Emotionen nicht kulturell determiniert, sondern universell ist. Daher schlug er vor, dass sie biologischen Ursprungs sind und daher sicher und richtig kategorisiert werden können. [23] Er stellte daher 1972 offiziell sechs Grundgefühle vor: [29]

In den 1990er Jahren erweiterte Ekman jedoch seine Liste der Grundemotionen, einschließlich einer Reihe positiver und negativer Emotionen, die nicht alle in den Gesichtsmuskeln kodiert sind. [30] Die neu aufgenommenen Emotionen sind:

Codierungssystem für Gesichtsaktionen Bearbeiten

Psychologen haben ein System entwickelt, um den physischen Ausdruck von Emotionen in Gesichtern formal zu kategorisieren. Das zentrale Konzept des Facial Action Coding Systems oder FACS, wie es 1978 von Paul Ekman und Wallace V. Friesen basierend auf früheren Arbeiten von Carl-Herman Hjortsjö [31] entwickelt wurde, sind Aktionseinheiten (AU). Sie sind im Grunde eine Kontraktion oder Entspannung eines oder mehrerer Muskeln. Psychologen haben die folgende Klassifizierung von sechs Grundemotionen nach ihren Aktionseinheiten vorgeschlagen ("+" bedeutet hier "und"):

Emotion Aktionseinheiten
Glück 6+12
Traurigkeit 1+4+15
Überraschung 1+2+5B+26
Furcht 1+2+4+5+20+26
Wut 4+5+7+23
Der Ekel 9+15+16
Verachtung R12A+R14A

Herausforderungen bei der Gesichtserkennung Bearbeiten

Wie bei jeder Computerpraxis müssen auch bei der Affekterkennung durch Gesichtsverarbeitung einige Hindernisse überwunden werden, um das verborgene Potenzial des verwendeten Gesamtalgorithmus oder -verfahrens vollständig zu erschließen. In den Anfängen fast jeder Art von KI-basierter Erkennung (Spracherkennung, Gesichtserkennung, Affekterkennung) war die Genauigkeit der Modellierung und Verfolgung ein Problem. Während sich die Hardware weiterentwickelt, mehr Daten gesammelt und neue Entdeckungen gemacht und neue Praktiken eingeführt werden, schwindet dieser Mangel an Genauigkeit und hinterlässt Rauschprobleme. Es gibt jedoch Verfahren zur Rauschentfernung, einschließlich Nachbarschaftsmittelung, lineare Gaußsche Glättung, Medianfilterung, [32] oder neuere Verfahren wie der Bacterial Foraging Optimization Algorithm. [33] [34]

  • Die Tatsache, dass gestellte Ausdrücke, wie sie von den meisten Probanden der verschiedenen Studien verwendet werden, nicht natürlich sind und daher darauf trainierte Algorithmen möglicherweise nicht auf natürliche Ausdrücke anwendbar sind.
  • Der Mangel an Drehbewegungsfreiheit. Die Affekterkennung funktioniert bei frontaler Verwendung sehr gut, aber bei einer Drehung des Kopfes um mehr als 20 Grad "gab es Probleme". [35]
  • Gesichtsausdrücke entsprechen nicht immer einer zugrunde liegenden Emotion, die zu ihnen passt (z.
  • FACS beinhaltete keine Dynamiken, während Dynamiken zur Eindeutigkeit beitragen können (z.
  • Die FACS-Kombinationen stimmen nicht 1:1 mit den Emotionen überein, die die Psychologen ursprünglich vorgeschlagen haben (beachten Sie, dass dieses Fehlen einer 1:1-Abbildung auch bei der Spracherkennung mit Homophonen und Homonymen und vielen anderen Mehrdeutigkeitsquellen auftritt und sein kann durch Einbringen anderer Informationskanäle abgeschwächt).
  • Die Erkennungsgenauigkeit wird durch das Hinzufügen von Kontext verbessert, das Hinzufügen von Kontext und anderen Modalitäten erhöht jedoch den Rechenaufwand und die Komplexität.

Körpergeste Bearbeiten

Gesten könnten effizient als Mittel zum Erkennen eines bestimmten emotionalen Zustands des Benutzers verwendet werden, insbesondere wenn sie in Verbindung mit Sprach- und Gesichtserkennung verwendet werden. Abhängig von der konkreten Aktion können Gesten einfache reflexive Reaktionen sein, wie z. Ohne irgendein Objekt oder eine Umgebung zu benutzen, können wir mit den Händen winken, klatschen oder winken. Andererseits können wir bei der Verwendung von Objekten auf diese zeigen, sie bewegen, berühren oder handhaben. Ein Computer sollte diese erkennen, den Kontext analysieren und sinnvoll reagieren können, um effizient für die Mensch-Computer-Interaktion eingesetzt zu werden.

Es gibt viele vorgeschlagene Methoden [36], um die Körpergeste zu erkennen. Einige Literatur unterscheidet 2 verschiedene Ansätze bei der Gestenerkennung: einen 3D-Modell-basierten und einen Erscheinungsbild-basierten. [37] Die vorderste Methode verwendet 3D-Informationen von Schlüsselelementen der Körperteile, um mehrere wichtige Parameter wie Handflächenposition oder Gelenkwinkel zu erhalten. Auf der anderen Seite verwenden auf dem Aussehen basierende Systeme Bilder oder Videos zur direkten Interpretation. Handgesten sind ein häufiger Fokus von Körpergestenerkennungsmethoden. [37]

Physiologische Überwachung Bearbeiten

Dies könnte verwendet werden, um den affektiven Zustand eines Benutzers zu erkennen, indem seine physiologischen Zeichen überwacht und analysiert werden. Diese Anzeichen reichen von Veränderungen der Herzfrequenz und der Hautleitfähigkeit bis hin zu winzigen Kontraktionen der Gesichtsmuskeln und Veränderungen der Gesichtsdurchblutung. Dieser Bereich gewinnt an Dynamik und wir sehen jetzt echte Produkte, die die Techniken implementieren. Die vier wichtigsten physiologischen Anzeichen, die normalerweise analysiert werden, sind Blutvolumenpuls, galvanische Hautreaktion, Gesichtselektromyographie und Gesichtsfarbmuster.

Blutvolumenpuls Bearbeiten

Übersicht Bearbeiten

Der Blutvolumenpuls (BVP) einer Person kann durch einen Prozess namens Photoplethysmographie gemessen werden, der eine Grafik erzeugt, die den Blutfluss durch die Extremitäten anzeigt. [38] Die Spitzen der Wellen weisen auf einen Herzzyklus hin, bei dem das Herz Blut in die Extremitäten gepumpt hat. Wenn die Person Angst verspürt oder erschrocken ist, "springt" ihr Herz normalerweise und schlägt für einige Zeit schnell, wodurch die Amplitude des Herzzyklus ansteigt. Dies ist auf einem Photoplethysmographen deutlich zu erkennen, wenn sich der Abstand zwischen Wellental und Wellenberg verringert hat. Wenn sich die Person beruhigt und sich der innere Kern des Körpers ausdehnt, so dass mehr Blut zu den Extremitäten zurückfließen kann, normalisiert sich der Zyklus wieder.

Methodik Bearbeiten

Durch spezielle Sensorhardware wird Infrarotlicht auf die Haut gestrahlt und die reflektierte Lichtmenge gemessen. Die Menge des reflektierten und durchgelassenen Lichts korreliert mit dem BVP, da Licht von Hämoglobin absorbiert wird, das reichlich im Blutkreislauf vorkommt.

Nachteile Bearbeiten

Es kann umständlich sein, sicherzustellen, dass der Sensor, der Infrarotlicht ausstrahlt und das reflektierte Licht überwacht, immer auf dieselbe Extremität zeigt, insbesondere da sich die Motive bei der Verwendung eines Computers häufig dehnen und ihre Position neu einstellen. Es gibt andere Faktoren, die den Puls des Blutvolumens beeinflussen können. Da es sich um ein Maß für den Blutfluss durch die Extremitäten handelt, kann es sein, dass der Körper, wenn sich die Person heiß oder besonders kalt fühlt, mehr oder weniger Blut in die Extremitäten fließen lässt, und dies alles unabhängig von der emotionalen Verfassung der Person.

Gesichtselektromyographie Bearbeiten

Die Gesichts-Elektromyographie ist eine Technik, die verwendet wird, um die elektrische Aktivität der Gesichtsmuskeln zu messen, indem die winzigen elektrischen Impulse verstärkt werden, die von Muskelfasern erzeugt werden, wenn sie sich zusammenziehen. [39] Das Gesicht drückt eine große Menge Emotionen aus, es gibt jedoch zwei Hauptmuskelgruppen des Gesichts, die normalerweise untersucht werden, um Emotionen zu erkennen: Der Corrugator supercilii-Muskel, auch bekannt als der „Stirnrunzeln“-Muskel, zieht die Stirn zu einem Stirnrunzeln , und ist daher der beste Test für eine negative, unangenehme emotionale Reaktion.↵Der Musculus zygomaticus major ist dafür verantwortlich, die Mundwinkel beim Lächeln zurückzuziehen, und ist daher der Muskel, der verwendet wird, um eine positive emotionale Reaktion zu testen.

Galvanische Hautreaktion Bearbeiten

Galvanische Hautreaktion (GSR) ist ein veralteter Begriff für ein allgemeineres Phänomen, das als elektrodermale Aktivität oder EDA bekannt ist. EDA ist ein allgemeines Phänomen, bei dem sich die elektrischen Eigenschaften der Haut ändern. Die Haut wird vom [sympathischen Nervensystem] innerviert, daher bietet die Messung ihres Widerstands oder ihrer Leitfähigkeit eine Möglichkeit, kleine Veränderungen im sympathischen Zweig des autonomen Nervensystems zu quantifizieren. Da die Schweißdrüsen aktiviert werden, kann, noch bevor sich die Haut verschwitzt anfühlt, der EDA-Spiegel (normalerweise über die Leitfähigkeit) erfasst und verwendet werden, um kleine Veränderungen der autonomen Erregung zu erkennen. Je erregter eine Person ist, desto größer ist die Hautleitfähigkeit. [38]

Die Hautleitfähigkeit wird oft mit zwei kleinen Silber-Silberchlorid-Elektroden gemessen, die irgendwo auf der Haut platziert werden und zwischen denen eine kleine Spannung angelegt wird. Um den Komfort zu maximieren und Irritationen zu reduzieren, können die Elektroden am Handgelenk, an den Beinen oder Füßen angebracht werden, wodurch die Hände für die täglichen Aktivitäten vollständig frei bleiben.

Gesichtsfarbe Bearbeiten

Übersicht Bearbeiten

Die Oberfläche des menschlichen Gesichts ist mit einem großen Netz von Blutgefäßen innerviert. Durchblutungsschwankungen in diesen Gefäßen führen zu sichtbaren Farbveränderungen im Gesicht. Unabhängig davon, ob Gesichtsemotionen die Gesichtsmuskeln aktivieren oder nicht, treten Schwankungen des Blutflusses, des Blutdrucks, des Glukosespiegels und anderer Veränderungen auf. Außerdem ist das Gesichtsfarbsignal unabhängig von dem, das durch Gesichtsmuskelbewegungen geliefert wird. [40]

Methodik Bearbeiten

Die Ansätze basieren auf Veränderungen der Gesichtsfarbe. Die Delaunay-Triangulation wird verwendet, um die dreieckigen lokalen Bereiche zu erstellen. Einige dieser Dreiecke, die das Innere von Mund und Augen (Sklera und Iris) definieren, werden entfernt. Verwenden Sie die Pixel der linken dreieckigen Bereiche, um Merkmalsvektoren zu erstellen. [40] Es zeigt, dass die Konvertierung der Pixelfarbe des Standard-RGB-Farbraums in einen Farbraum wie den oRGB-Farbraum [41] oder LMS-Kanäle bei Gesichtern besser abschneidet. [42] Bilden Sie also den obigen Vektor auf den besseren Farbraum ab und zerlegen Sie ihn in Rot-Grün- und Gelb-Blau-Kanäle. Verwenden Sie dann Deep-Learning-Methoden, um äquivalente Emotionen zu finden.

Visuelle Ästhetik Bearbeiten

Ästhetik bezieht sich in der Welt der Kunst und Fotografie auf die Prinzipien der Natur und der Wertschätzung von Schönheit. Die Beurteilung von Schönheit und anderen ästhetischen Qualitäten ist eine höchst subjektive Aufgabe. Informatiker der Penn State behandeln die Herausforderung, die ästhetische Qualität von Bildern automatisch abzuleiten, indem sie ihren visuellen Inhalt als maschinelles Lernproblem verwenden, mit einer von Experten bewerteten Online-Foto-Sharing-Website als Datenquelle. [43] Sie extrahieren bestimmte visuelle Merkmale basierend auf der Intuition, dass sie zwischen ästhetisch ansprechenden und unangenehmen Bildern unterscheiden können.

Bildung Bearbeiten

Zuneigung beeinflusst den Lernzustand der Lernenden. Mithilfe der Affektiven Computertechnologie können Computer die Zuneigung und den Lernzustand der Lernenden beurteilen, indem sie ihren Gesichtsausdruck erkennen.Im Bildungsbereich kann der Lehrer das Analyseergebnis verwenden, um die Lern- und Akzeptanzfähigkeit des Schülers zu verstehen und dann vernünftige Unterrichtspläne zu formulieren. Gleichzeitig können sie auf die inneren Gefühle der Schüler achten, was für die körperliche Gesundheit der Schüler hilfreich ist. Gerade im Fernunterricht gibt es aufgrund der Trennung von Zeit und Raum keinen emotionalen Anreiz zwischen Lehrern und Schülern zur wechselseitigen Kommunikation. Ohne die Atmosphäre des traditionellen Lernens im Klassenzimmer langweilen sich die Schüler leicht und beeinträchtigen den Lerneffekt. Die Anwendung von Affective Computing im Fernunterrichtssystem kann diese Situation effektiv verbessern. [44]

Gesundheitswesen Bearbeiten

Soziale Roboter sowie eine wachsende Zahl von Robotern, die im Gesundheitswesen eingesetzt werden, profitieren von emotionalem Bewusstsein, da sie die emotionalen Zustände von Benutzern und Patienten besser einschätzen und ihre Handlungen/Programme entsprechend ändern können. Dies ist besonders wichtig in Ländern mit einer zunehmenden Alterung der Bevölkerung und/oder einem Mangel an jüngeren Arbeitskräften, die ihren Bedürfnissen gerecht werden. [45]

Affective Computing wird auch bei der Entwicklung kommunikativer Technologien für die Nutzung durch Menschen mit Autismus angewendet. [46] Auch die affektive Komponente eines Textes gewinnt zunehmend an Aufmerksamkeit, insbesondere ihre Rolle im sogenannten emotionalen oder emotionalen Internet. [47]

Videospiele Bearbeiten

Affektive Videospiele können über Biofeedback-Geräte auf die emotionalen Zustände ihrer Spieler zugreifen. [48] ​​Eine besonders einfache Form des Biofeedbacks bieten Gamepads, die den Druck messen, mit dem eine Taste gedrückt wird: Dies korreliert nachweislich stark mit der Erregung der Spieler [49] am anderen Ende der Skala sind Gehirn –Computerschnittstellen. [50] [51] Affektive Spiele wurden in der medizinischen Forschung eingesetzt, um die emotionale Entwicklung autistischer Kinder zu unterstützen. [52]

Andere Anwendungen Bearbeiten

Andere potenzielle Anwendungen konzentrieren sich auf das soziale Monitoring. Ein Auto kann beispielsweise die Emotionen aller Insassen überwachen und zusätzliche Sicherheitsmaßnahmen ergreifen, wie zum Beispiel andere Fahrzeuge warnen, wenn es den Fahrer als wütend erkennt. [53] Affective Computing hat potenzielle Anwendungen in der Mensch-Computer-Interaktion, wie z. B. affektive Spiegel, die es dem Benutzer ermöglichen, zu sehen, wie er oder sie Emotionsüberwachung durchführt, Agenten, die eine Warnung senden, bevor man eine wütende E-Mail sendet, oder sogar Musikplayer, die Tracks basierend auf der Stimmung auswählen. [54]

Eine Idee des rumänischen Forschers Dr. Nicu Sebe in einem Interview ist die Analyse des Gesichts einer Person, während sie ein bestimmtes Produkt verwendet (er nannte als Beispiel Eiscreme). [55] Unternehmen könnten dann anhand einer solchen Analyse ableiten, ob ihr Produkt vom jeweiligen Markt gut angenommen wird oder nicht.

Man könnte die affektive Zustandserkennung auch verwenden, um die Wirkung einer Fernsehwerbung durch eine Echtzeit-Videoaufnahme dieser Person und durch die anschließende Untersuchung ihres Gesichtsausdrucks zu beurteilen. Durch den Mittelwert der Ergebnisse einer großen Gruppe von Probanden kann man feststellen, ob dieser Werbespot (oder Film) den gewünschten Effekt hat und welche Elemente den Zuschauer am meisten interessieren.

Auf dem Gebiet der Mensch-Computer-Interaktion wurde Rosalind Picards kognitivistisches oder "Informationsmodell"-Konzept der Emotion kritisiert und kontrastiert mit dem "postkognitivistischen" oder "interaktionalen" pragmatischen Ansatz von Kirsten Boehner und anderen, der Emotionen als inhärent betrachtet Sozial. [56]

Picards Fokus liegt auf der Mensch-Computer-Interaktion, und ihr Ziel für Affective Computing ist es, "Computern die Fähigkeit zu geben, Emotionen zu erkennen, auszudrücken und in einigen Fällen zu 'haben'". [4] Im Gegensatz dazu versucht der interaktionelle Ansatz, "Menschen zu helfen, ihre eigenen Emotionen zu verstehen und zu erfahren" [57] und die computervermittelte zwischenmenschliche Kommunikation zu verbessern. Es versucht nicht unbedingt, Emotionen in ein objektives mathematisches Modell für die maschinelle Interpretation abzubilden, sondern ermöglicht es den Menschen, die emotionalen Äußerungen des anderen auf offene Weise zu verstehen, die mehrdeutig, subjektiv und kontextsensitiv sein kann. [57] : 284 [ Beispiel benötigt ]

Picards Kritiker beschreiben ihr Emotionskonzept als "objektiv, intern, privat und mechanistisch". Sie sagen, es reduziert Emotionen auf ein diskretes psychologisches Signal, das im Körper auftritt, das gemessen werden kann und ein Input für die Kognition ist und die Komplexität der emotionalen Erfahrung untergräbt. [57] : 280 [57] : 278

Der interaktionelle Ansatz behauptet, dass Emotionen, obwohl sie biophysikalische Aspekte haben, „kulturell begründet, dynamisch erfahren und bis zu einem gewissen Grad in Aktion und Interaktion konstruiert sind“. [57] : 276 Anders ausgedrückt betrachtet es "Emotion als ein soziales und kulturelles Produkt, das durch unsere Interaktionen erfahren wird". [58] [57] [59]


Abstrakt

Der Concealed Information Test (CIT) zielt darauf ab, das Vorhandensein von kriminellen Informationen im Gedächtnis zu erkennen. In zwei Experimenten untersuchten wir den Einfluss der Reizemotionalität auf die Ergebnisse der CIT. In Experiment 1 wurde jeder Teilnehmer sofort oder nach einer Woche auf einer Reihe von neutralen und entweder negativ erregenden oder negativen nicht erregenden Bildern getestet. Die Effizienz der CIT-Erkennung war nicht beeinträchtigt, aber physiologische Daten und Erkennungsdaten unterstützten die Wirksamkeit der Manipulation nicht. In Experiment 2 wurde jeder Teilnehmer nach einer Woche auf einer Reihe von neutralen versus negativen Erregungsbildern getestet. Wichtig ist, dass die Reizerregung erhöht und Gedächtnisdeckeneffekte verhindert wurden. Dieses Mal wurden sowohl das Gedächtnis als auch die CIT-Erkennungseffizienz unter Verwendung der Hautleitfähigkeit, jedoch nicht der Atmungs- und Herzfrequenzmessungen, für emotionale Bilder im Vergleich zu neutralen Bildern verbessert. Zusammengenommen weisen diese Ergebnisse darauf hin, dass sich die Verwendung von emotionalen Reizen nicht verschlechtert und sogar die CIT-Validität verbessern kann.


Validierung von Flashcards mit emotionalen Stimuli für die Durchführung einer fMRT-Studie „Response to Reward“ bei malaysischen Studenten

Problematische Instagram-Nutzung (PIGU) ist eine spezifische Internet-Sucht-Störung, die unter Jugendlichen von heute beobachtet wird. fMRT ist in der Lage, die regionale Gehirnaktivierung als Reaktion auf suchtspezifische Belohnungen, z.B. Ansehen von Bild-Karteikarten. Bilder, die von PIGUs auf Instagram hochgeladen wurden, wurden oft mit riskanten Verhaltensweisen in Verbindung gebracht, um mehr „Gefällt mir“-Angaben zu erhalten, daher wird angenommen, dass PIGUs eher von „negativ-emotionalen“ Hinweisen angezogen werden. Bis heute gibt es keine lokale Datenbank mit suchtspezifischen Hinweisen.

Zielsetzung Durchführung einer Validierungsstudie außerhalb des Scanners, um eine Datenbank mit Bildern mit „negativ-emotionalen“ Hinweisen zu erstellen, die bei PIGUs Erregungsreaktionen hervorrufen.

Methode Vierundvierzig malaysische Studenten (20 PIGUs, 24 Kontrollen) wurden nach dem Zufallsprinzip basierend auf der Bewertung mit der Smartphone-Addiction-Scale-Malay-Version (SAS-M) und dem modifizierten Instagram Addiction Test (IGAT) rekrutiert und erfüllten Lin et al. (2016) Definition von Sucht. Ihnen wurden 200 inhaltsspezifische Bilder verabreicht, die multidimensional waren, dh Erregung (Erregungs-/Entspannungseffekte), Annäherungsvermeidung (Motivationsrichtung) und emotionale Valenz (positive/negative Gefühle), um die Wahrnehmung der psychologischen Eigenschaften der Bilder durch die PIGUs zu beschreiben 9-Punkte-Likert-Skala.

Ergebnisse PIGUs, die „Negativ-Emotionale“ Hinweise betrachteten, zeigten signifikante positive Korrelationen zwischen Erregung und Valenz (z = 4,834, p < 0,001, Effektstärke = 0,69) und Erregungs- und Vermeidungsansatz (z = 4,625, p < 0,001, Effektstärke = ) 0,66) im Vergleich zu den Kontrollen und wurden häufiger durch „negativ-emotionale“ Stimuli geweckt.

Abschluss Eine Datenbank mit validierten, suchtspezifischen Bildern kann entwickelt werden, um jede zukünftige reizinduzierte Reaktion auf Belohnungs-fMRT-Studien zur Beurteilung von PIGU zu potenzieren.

Konkurrierende Zinserklärung

Die Autoren haben kein konkurrierendes Interesse erklärt.

Klinische Studie

Finanzierungsnachweis

Diese Studie wurde durch die Forschungsstipendien der Universiti Putra Malaysia GP-9549800 und GP-IPS/9580800 . unterstützt

Autorenerklärungen

Alle relevanten ethischen Richtlinien wurden befolgt, alle erforderlichen Genehmigungen des IRB und/oder der Ethikkommission wurden eingeholt und Einzelheiten des IRB/der Aufsichtsbehörde sind im Manuskript enthalten.

Alle erforderlichen Einwilligungen des Patienten/Teilnehmers wurden eingeholt und die entsprechenden institutionellen Formulare wurden archiviert.

Mir ist bewusst, dass alle klinischen Studien und alle anderen prospektiven interventionellen Studien in einem von der ICMJE zugelassenen Register wie ClinicalTrials.gov registriert werden müssen. Ich bestätige, dass eine solche im Manuskript berichtete Studie registriert wurde und die Studienregistrierungs-ID angegeben ist (Hinweis: Wenn Sie eine prospektive Studie rückwirkend registriert haben, geben Sie bitte im Feld Studien-ID eine Erklärung an, warum die Studie nicht im Voraus registriert wurde) .

Ich habe alle einschlägigen Richtlinien für die Forschungsberichterstattung befolgt und die relevante(n) Checkliste(n) für die Forschungsberichterstattung des EQUATOR-Netzwerks sowie gegebenenfalls anderes relevantes Material als ergänzende Dateien hochgeladen.


Einführung

Gesichtsausdrücke von Emotionen sind einzigartige Reize mit erheblicher sozialer und biologischer Relevanz. Sie werden in einer Vielzahl von Studien in verschiedenen Bereichen der Verhaltens- und Hirnforschung verwendet, um Aufmerksamkeit, Gedächtnis, soziales Denken, Wahrnehmung, Lernen, Entscheidungsfindung, Motivation und Emotionsregulation zu untersuchen (Davis, 1995 Eimer et al., 2003 Elfenbein , 2006 Fotios et al., 2015 Tran et al., 2013).

Mit der Entwicklung des Menschen entwickeln sich auch seine Fähigkeiten zur Gesichtsverarbeitung (Pascalis et al., 2011). Über die gesamte Lebensspanne des Erwachsenen scheinen die Fähigkeiten zur Gesichtsverarbeitung abzunehmen, da die Identifizierung des emotionalen Gesichtsausdrucks mit zunehmendem Alter ungenauer wird (Ruffman et al., 2008). Darüber hinaus erinnern sich ältere Erwachsene bevorzugt an positive gegenüber negativen Gesichtern (Mather et al., 2003) und ältere Erwachsene bevorzugen eher neutrale als negative Gesichter (Isaacowitz et al., 2006).

Bemerkenswert ist, dass in vielen der vorangegangenen Studien Mimikreize ausschließlich von jüngeren Erwachsenen verwendet und/oder als statische Bilder präsentiert wurden. In den letzten Jahren sind eine Reihe dynamischer Reizsets für emotionale Ausdrücke entstanden, die jedoch fast alle aus Ausdrücken von überwiegend jüngeren Erwachsenen bestehen und/oder normative Bewertungsdaten von überwiegend jungen Erwachsenen enthalten (Krumhuber et al., 2017). Nur sehr wenige Sammlungen von Gesichtsreizen zur Verwendung in der Forschung enthalten Bilder von Personen, die im Laufe der Lebensspanne eines Erwachsenen unterschiedlich alt sind. Angesichts der Tatsache, dass Variationen in den Merkmalen von Gesichtsreizen wie Alter, Geschlecht und Ausdruck die Bewertung und Erinnerung eines Gesichts unterschiedlich beeinflussen (Ebner, 2008 Golby et al., 2001 Isaacowitz et al., 2006 Mather et al., 2003 Pascalis et al., 1995 Ruffman et al., 2008), besteht ein Bedarf an naturalistischeren Stimuli des Gesichtsausdrucks über ein breites Altersspektrum bei Frauen und Männern.

Darüber hinaus gibt es Hinweise auf einen Altersbias bei der Gesichtserkennung, bei dem Kinder, Erwachsene mittleren Alters und ältere Erwachsene im Vergleich zu einer anderen Altersgruppe eher eigene Gesichter erkennen (Rhodes et al., 2012). Infolgedessen ist es möglich, dass ältere Erwachsene in früheren Studien aufgrund fehlender geeigneter Reize benachteiligt waren. Die FACES Lifespan Database wurde erstellt (Ebner et al., 2010), um Stimulusmaterial bereitzustellen, das diesen Nachteil überwindet. FACES ist eine Datenbank, die sechs kategorische emotionale Gesichtsausdrücke (neutral, glücklich, wütend, angewidert, ängstlich, traurig) von jüngeren, mittleren und älteren Frauen und Männern enthält.

Das Ziel des Dynamic FACES-Projekts war es, die bestehende FACES-Datenbank zu erweitern, indem eine Reihe dynamischer Gesichtsstimulationsvideos basierend auf den ursprünglichen FACES-Bildern erstellt und validiert wurde. Neuere Forschungen haben begonnen, die Bedeutung dynamischer Informationen bei der Gesichtsverarbeitung zu demonstrieren. Tatsächlich zeigen Gehirnregionen wie die Amygdala und der spindelförmige Gesichtsbereich stärkere Reaktionen auf dynamische als auf statische Emotionsausdrücke (Freyd, 1987, LaBar et al., 2003). Besonders ausgeprägt ist dieser Befund bei negativen Emotionen wie Angst (LaBar et al., 2003). Studien haben außerdem gezeigt, dass dynamische Eigenschaften die Wahrnehmung von Gesichtsausdrücken beeinflussen, so dass Bewegung die Genauigkeit der Emotionsidentifikation verbessert und die Wahrnehmung der emotionalen Intensität erhöht (Kamachi et al., 2013). In ähnlicher Weise können dynamische Reize auch in der Forschung mit klinischen Populationen nützlich sein, wie beispielsweise Personen mit Autismus-Spektrum-Störung, deren Emotionsidentifikation teilweise durch die Dynamik emotionaler Ausdrücke vermittelt wird (Blair et al., 2001 Gepner et al., 2001). Da reale Gesichtsinteraktionen typischerweise dynamischer Natur sind, stellen dynamische Forschungsreize naturalistischere Reize dar als statische Bilder von Gesichtsausdrücken. Somit hat die Verwendung dynamischer Gesichtsreize das Potenzial, das Verständnis einer Reihe individueller Unterschiede in der Verarbeitung von Gesichtsemotionen zu verbessern, von Altersunterschieden bis hin zu klinischen Vergleichen.

Das Hauptziel der Studie war es, eine große Anzahl kontrollierter und hochauflösender Videos zu erstellen, die Emotionen kraftvoll vermitteln. Obwohl es auch andere Sammlungen dynamischer Gesichtsreize gibt (Krumhuber et al., 2017), ist die Dynamic FACES-Datenbank insofern einzigartig, als sie die größte und am gleichmäßigsten verteilte Stichprobe von jüngeren, mittleren und älteren Frauen und Männern umfasst sechs Gesichtsausdrücke anzeigen (Neutralität, Traurigkeit, Ekel, Angst, Wut und Glück). Dynamische Stimulus-Videos wurden erstellt, indem neutrale Gesichtsausdrücke in emotionale Ausdrücke umgewandelt wurden. Morphing ermöglicht es dem Forscher, die Dauer der Emotionspräsentation zu kontrollieren, eine Funktion, die für fMRT-Forscher nützlich sein wird. Um normative Bewertungen dieser angepassten Stimuli bereitzustellen, sammelten wir Bewertungsdaten von jüngeren, mittleren und älteren Frauen und Männern zur Gesichtsausdruckerkennung, Ausdrucksunterscheidung, wahrgenommenem Alter und Natürlichkeit des für jedes Video angezeigten Gesichtsausdrucks. Die Bewertungen wurden dann auf Altersgruppenunterschiede analysiert, um die Auswirkungen des Alters auf die Emotionsidentifikation mithilfe dynamischer Stimuli zu untersuchen (z. B. Ebner, 2008 Ebner et al., 2010 Issacowitz et al., 2007 Ruffman et al., 2008). Das heißt, das primäre Ziel der Studie war es, ein dynamisches Reizset aus einem breiten Altersspektrum von Gesichtsmodellen zu erstellen, die Untersuchung von Altersunterschieden bei der Emotionsidentifikation war ein sekundäres Ziel.


Inhalt

Emotionale Informationen erkennen und erkennen Bearbeiten

Die Erfassung emotionaler Informationen beginnt normalerweise mit passiven Sensoren, die Daten über den körperlichen Zustand oder das Verhalten des Benutzers erfassen, ohne die Eingabe zu interpretieren. Die gesammelten Daten sind analog zu den Hinweisen, die Menschen verwenden, um Emotionen bei anderen wahrzunehmen. Beispielsweise kann eine Videokamera Gesichtsausdrücke, Körperhaltung und Gesten erfassen, während ein Mikrofon Sprache erfassen kann. Andere Sensoren erkennen emotionale Hinweise, indem sie direkt physiologische Daten wie Hauttemperatur und galvanischen Widerstand messen. [7]

Um emotionale Informationen zu erkennen, müssen aussagekräftige Muster aus den gesammelten Daten extrahiert werden. Dies geschieht mit Techniken des maschinellen Lernens, die verschiedene Modalitäten verarbeiten, wie z. B. Spracherkennung, natürliche Sprachverarbeitung oder Gesichtsausdruckerkennung. Das Ziel der meisten dieser Techniken besteht darin, Labels zu erzeugen, die den Labels entsprechen, die ein menschlicher Betrachter in derselben Situation geben würde: Wenn beispielsweise eine Person einen Gesichtsausdruck macht und die Stirn runzelt, dann könnte dem Computer Vision-System beigebracht werden, zu etikettieren ihr Gesicht als "verwirrt" oder als "konzentriert" oder "leicht negativ" erscheinen (im Gegensatz zu positiv, was sagen könnte, wenn sie glücklich lächeln). Diese Etiketten können dem entsprechen, was die Person tatsächlich fühlt oder nicht.

Emotionen in Maschinen Bearbeiten

Ein weiterer Bereich innerhalb des Affektiven Computings ist der Entwurf von Computergeräten, die entweder angeborene emotionale Fähigkeiten aufweisen oder in der Lage sind, Emotionen überzeugend zu simulieren. Ein praktischerer Ansatz, basierend auf aktuellen technologischen Möglichkeiten, ist die Simulation von Emotionen in Gesprächsagenten, um die Interaktion zwischen Mensch und Maschine zu bereichern und zu erleichtern. [8]

Marvin Minsky, einer der bahnbrechenden Informatiker auf dem Gebiet der künstlichen Intelligenz, bezieht Emotionen auf die umfassenderen Themen der maschinellen Intelligenz, indem er in Die Emotionsmaschine diese Emotion unterscheidet sich „nicht sonderlich von den Prozessen, die wir ‚Denken‘ nennen.“ [9]

In der Psychologie, Kognitionswissenschaft und Neurowissenschaft gibt es zwei Hauptansätze, um zu beschreiben, wie Menschen Emotionen wahrnehmen und klassifizieren: kontinuierlich oder kategorisch. Der kontinuierliche Ansatz verwendet tendenziell Dimensionen wie negativ vs. positiv, ruhig vs. erregt.

Der kategoriale Ansatz verwendet tendenziell diskrete Klassen wie glücklich, traurig, wütend, ängstlich, überrascht, angewidert. Es können verschiedene Arten von Regressions- und Klassifikationsmodellen für maschinelles Lernen verwendet werden, damit Maschinen kontinuierliche oder diskrete Etiketten erzeugen. Manchmal werden auch Modelle gebaut, die Kombinationen über die Kategorien hinweg erlauben, z.B. ein glücklich-überraschtes Gesicht oder ein ängstlich-überraschtes Gesicht. [10]

In den folgenden Abschnitten werden viele der Arten von Eingabedaten betrachtet, die für die Aufgabe der Emotionserkennung verwendet werden.

Emotionale Rede Bearbeiten

Verschiedene Veränderungen im autonomen Nervensystem können indirekt die Sprache einer Person verändern, und affektive Technologien können diese Informationen nutzen, um Emotionen zu erkennen. Zum Beispiel wird Sprache, die in einem Zustand der Angst, Wut oder Freude produziert wird, schnell, laut und präzise ausgesprochen, mit einem höheren und breiteren Tonumfang, während Emotionen wie Müdigkeit, Langeweile oder Traurigkeit dazu neigen, langsame, tiefe Töne zu erzeugen. aufgeschlagene und undeutliche Sprache. [11] Einige Emotionen lassen sich rechnerisch leichter identifizieren, wie z. B. Wut [12] oder Zustimmung. [13]

Emotionale Sprachverarbeitungstechnologien erkennen den emotionalen Zustand des Benutzers unter Verwendung einer Computeranalyse von Sprachmerkmalen. Stimmparameter und prosodische Merkmale wie Tonhöhenvariablen und Sprechgeschwindigkeit können durch Mustererkennungstechniken analysiert werden. [12] [14]

Die Sprachanalyse ist eine wirksame Methode zur Identifizierung des affektiven Zustands, die in neueren Forschungen eine durchschnittliche Genauigkeit von 70 bis 80 % hat. [15] [16] Diese Systeme tendieren dazu, die durchschnittliche menschliche Genauigkeit zu übertreffen (ca. 60% [12] ), sind jedoch weniger genau als Systeme, die andere Modalitäten zur Emotionserkennung verwenden, wie zum Beispiel physiologische Zustände oder Gesichtsausdrücke. [17] Da jedoch viele Sprachmerkmale unabhängig von Semantik oder Kultur sind, wird diese Technik als vielversprechender Weg für weitere Forschungen angesehen. [18]

Algorithmen Bearbeiten

Der Prozess der Erkennung von Sprach-/Text-Beeinflussungen erfordert die Erstellung einer zuverlässigen Datenbank, Wissensdatenbank oder eines Vektorraummodells [19], die breit genug ist, um alle Anforderungen für ihre Anwendung zu erfüllen, sowie die Auswahl eines erfolgreichen Klassifikators, der Folgendes ermöglicht: schnelle und genaue Emotionserkennung.

Die derzeit am häufigsten verwendeten Klassifikatoren sind Linear-Diskriminanz-Klassifikatoren (LDC), k-nächster Nachbar (k-NN), Gaussian Mixed Model (GMM), Support Vector Machines (SVM), künstliche neuronale Netze (ANN), Entscheidungsbaumalgorithmen und Hidden-Markov-Modelle (HMMs). [20] Verschiedene Studien zeigten, dass die Wahl des geeigneten Klassifikators die Gesamtleistung des Systems signifikant verbessern kann. [17] Die folgende Liste enthält eine kurze Beschreibung jedes Algorithmus:

    – Die Klassifizierung erfolgt auf Basis des Wertes aus der Linearkombination der Merkmalswerte, die üblicherweise in Form von Vektormerkmalen vorliegen. – Die Klassifizierung erfolgt, indem das Objekt im Merkmalsraum lokalisiert und mit den k nächsten Nachbarn verglichen wird (Trainingsbeispiele). Über die Einstufung entscheidet die Stimmenmehrheit. – ist ein probabilistisches Modell, das verwendet wird, um die Existenz von Teilpopulationen innerhalb der Gesamtpopulation darzustellen. Jede Teilpopulation wird anhand der Mischungsverteilung beschrieben, die eine Einordnung der Beobachtungen in die Teilpopulationen ermöglicht. [21] – ist eine Art (meist binärer) linearer Klassifikator, der entscheidet, in welche der zwei (oder mehr) möglichen Klassen jede Eingabe fallen darf. – ist ein mathematisches Modell, inspiriert von biologischen neuronalen Netzen, das mögliche Nichtlinearitäten des Merkmalsraums besser erfassen kann. – Arbeit auf der Grundlage eines Entscheidungsbaums, in dem Blätter das Klassifikationsergebnis darstellen und Zweige die Verbindung nachfolgender Merkmale darstellen, die zur Klassifikation führen. – ein statistisches Markov-Modell, bei dem die Zustände und Zustandsübergänge der Beobachtung nicht direkt zur Verfügung stehen. Stattdessen sind die von den Zuständen abhängigen Ausgänge sichtbar. Im Fall der Affekterkennung stellen die Ausgaben die Sequenz von Sprachmerkmalsvektoren dar, die die Ableitung von Zustandssequenzen ermöglichen, durch die das Modell fortgeschritten ist. Die Zustände können aus verschiedenen Zwischenschritten beim Ausdruck einer Emotion bestehen, und jeder von ihnen hat eine Wahrscheinlichkeitsverteilung über die möglichen Ausgabevektoren. Die Sequenzen der Zustände ermöglichen es uns, den affektiven Zustand vorherzusagen, den wir zu klassifizieren versuchen, und dies ist eine der am häufigsten verwendeten Techniken im Bereich der Erkennung von Sprachstörungen.

Es ist bewiesen, dass der emotionale Zustand einer Person durch einen Satz von Mehrheitsentscheidungs-Klassifikatoren klassifiziert werden kann, wenn genügend akustische Beweise verfügbar sind. Der vorgeschlagene Satz von Klassifikatoren basiert auf drei Hauptklassifikatoren: kNN, C4.5 und SVM-RBF Kernel. Dieser Satz erzielt eine bessere Leistung als jeder einzelne Basisklassifikator, der separat genommen wird. Es wird mit zwei anderen Klassifikatoren-Sätzen verglichen: einer gegen alle (OAA) Multiclass-SVM mit Hybrid-Kernels und der Klassifikator-Menge, die aus den folgenden zwei grundlegenden Klassifikatoren besteht: C5.0 und Neural Network. Die vorgeschlagene Variante erzielt eine bessere Leistung als die anderen beiden Klassifikatorensätze. [22]

Datenbanken Bearbeiten

Die überwiegende Mehrheit der gegenwärtigen Systeme ist datenabhängig. Dies stellt eine der größten Herausforderungen bei der Erkennung von Emotionen basierend auf Sprache dar, da es die Auswahl einer geeigneten Datenbank erfordert, die zum Trainieren des Klassifikators verwendet wird. Die meisten der derzeit im Besitz befindlichen Daten stammen von Schauspielern und sind somit eine Darstellung archetypischer Emotionen. Diese sogenannten Acted Databases basieren in der Regel auf der Basic Emotions-Theorie (von Paul Ekman), die von der Existenz von sechs Grundemotionen ausgeht (Wut, Angst, Ekel, Überraschung, Freude, Traurigkeit), die anderen sind einfach eine Mischung aus den ehemalige. [23] Dennoch bieten diese immer noch eine hohe Audioqualität und ausgewogene Klassen (wenn auch oft zu wenige), die zu hohen Erfolgsquoten bei der Emotionserkennung beitragen.

Für Anwendungen im wirklichen Leben werden jedoch naturalistische Daten bevorzugt. Eine naturalistische Datenbank kann durch Beobachtung und Analyse von Subjekten in ihrem natürlichen Kontext erstellt werden. Letztendlich sollte eine solche Datenbank es dem System ermöglichen, Emotionen basierend auf ihrem Kontext zu erkennen sowie die Ziele und Ergebnisse der Interaktion zu erarbeiten. Die Natur dieser Art von Daten ermöglicht eine authentische Umsetzung im realen Leben, da sie Zustände beschreiben, die während der Mensch-Computer-Interaktion (HCI) natürlich auftreten.

Trotz der zahlreichen Vorteile, die naturalistische Daten gegenüber wirkenden Daten haben, sind sie schwer zu erhalten und haben in der Regel eine geringe emotionale Intensität. Darüber hinaus haben Daten, die in einem natürlichen Kontext gewonnen werden, aufgrund von Umgebungsgeräuschen und der Entfernung der Probanden vom Mikrofon eine geringere Signalqualität. Der erste Versuch, eine solche Datenbank zu erstellen, war das FAU Aibo Emotion Corpus für CEICES (Combining Efforts for Improving Automatic Classification of Emotional User States), das basierend auf einem realistischen Kontext von Kindern (im Alter von 10-13) entwickelt wurde, die mit dem Aibo-Roboter von Sony spielen . [24] [25] Ebenso würde die Erstellung einer einheitlichen Datenbank für die gesamte Emotionsforschung eine Methode zur Bewertung und zum Vergleich verschiedener Affekterkennungssysteme bieten.

Sprachdeskriptoren Bearbeiten

Die Komplexität des Affekterkennungsprozesses steigt mit der Anzahl der Klassen (Affekte) und Sprachdeskriptoren, die innerhalb des Klassifikators verwendet werden. Es ist daher entscheidend, nur die relevantesten Merkmale auszuwählen, um die Fähigkeit des Modells sicherzustellen, Emotionen erfolgreich zu identifizieren, sowie die Leistung zu steigern, was insbesondere für die Echtzeiterkennung von Bedeutung ist. Die Palette der möglichen Auswahlmöglichkeiten ist groß, wobei einige Studien die Verwendung von über 200 verschiedenen Funktionen erwähnen. [20] Um das System zu optimieren und die Erfolgsrate der korrekten Emotionserkennung zu erhöhen, ist es entscheidend, diejenigen zu identifizieren, die redundant und unerwünscht sind. Die häufigsten Sprachmerkmale werden in die folgenden Gruppen eingeteilt. [24] [25]

  1. Frequenzcharakteristik [26]
    • Akzentform – beeinflusst von der Änderungsrate der Grundfrequenz.
    • Durchschnittliche Tonhöhe – Beschreibung, wie hoch/tief der Sprecher relativ zur normalen Sprache spricht.
    • Kontursteigung – beschreibt die Tendenz der Frequenzänderung im Laufe der Zeit, sie kann steigend, fallend oder eben sein.
    • Endgültige Absenkung – der Betrag, um den die Frequenz am Ende einer Äußerung abfällt.
    • Tonhöhenbereich – misst die Spreizung zwischen der maximalen und minimalen Frequenz einer Äußerung.
  2. Zeitbezogene Funktionen:
    • Sprechgeschwindigkeit – beschreibt die Geschwindigkeit von Wörtern oder Silben, die über eine Zeiteinheit gesprochen werden
    • Stressfrequenz – misst die Häufigkeit des Auftretens von tonhöhenbetonten Äußerungen
  3. Sprachqualitätsparameter und Energiedeskriptoren:
    • Breathiness – misst das Aspirationsgeräusch in Sprache
    • Brillanz – beschreibt die Dominanz hoher oder niedriger Frequenzen in der Sprache
    • Loudness – misst die Amplitude der Sprachwellenform, übersetzt in die Energie einer Äußerung
    • Pausendiskontinuität – beschreibt die Übergänge zwischen Klang und Stille
    • Tonhöhendiskontinuität – beschreibt die Übergänge der Grundfrequenz.

Gesichtsaffektionserkennung Bearbeiten

Die Erkennung und Verarbeitung des Gesichtsausdrucks erfolgt durch verschiedene Methoden wie Optical Flow, Hidden-Markov-Modelle, neuronale Netzverarbeitung oder Active-Appearance-Modelle. Mehrere Modalitäten können kombiniert oder fusioniert werden (multimodale Erkennung, z robuste Einschätzung des emotionalen Zustands des Subjekts. Affectiva ist ein Unternehmen (mitbegründet von Rosalind Picard und Rana El Kaliouby), das direkt mit Affective Computing zu tun hat und sich auf die Erforschung von Lösungen und Software zur Erkennung von Gesichtsaffekten konzentriert.

Gesichtsausdruck-Datenbanken Bearbeiten

Die Erstellung einer Emotionsdatenbank ist eine schwierige und zeitaufwändige Aufgabe. Die Datenbankerstellung ist jedoch ein wesentlicher Schritt bei der Schaffung eines Systems, das menschliche Emotionen erkennt. Die meisten der öffentlich zugänglichen Emotionsdatenbanken enthalten nur gestellte Gesichtsausdrücke. In Datenbanken mit gestellten Ausdrücken werden die Teilnehmer gebeten, verschiedene grundlegende emotionale Ausdrücke anzuzeigen, während in Datenbanken mit spontanen Ausdrücken die Ausdrücke natürlich sind. Das spontane Auslösen von Emotionen erfordert einen erheblichen Aufwand bei der Auswahl geeigneter Reize, was zu einer reichen Darstellung beabsichtigter Emotionen führen kann. Zweitens beinhaltet der Prozess das manuelle Markieren von Emotionen durch geschulte Personen, was die Datenbanken sehr zuverlässig macht. Da die Wahrnehmung von Ausdrücken und deren Intensität subjektiv ist, ist die Annotation durch Experten für die Validierung unerlässlich.

Die Forscher arbeiten mit drei Arten von Datenbanken, z. B. einer Datenbank nur mit Bildern mit Spitzenausdruck, einer Datenbank mit Bildsequenzen, die eine Emotion von neutral bis zu ihrem Höhepunkt darstellen, und Videoclips mit emotionalen Anmerkungen. Viele Datenbanken für Gesichtsausdrücke wurden erstellt und zum Zwecke der Ausdruckserkennung veröffentlicht. Zwei der weit verbreiteten Datenbanken sind CK+ und JAFFE.

Emotionsklassifizierung Bearbeiten

Durch kulturübergreifende Forschungen in Papua-Neuguinea über die Fore Tribesmen Ende der 1960er Jahre schlug Paul Ekman die Idee vor, dass der Gesichtsausdruck von Emotionen nicht kulturell determiniert, sondern universell ist. Daher schlug er vor, dass sie biologischen Ursprungs sind und daher sicher und richtig kategorisiert werden können. [23] Er stellte daher 1972 offiziell sechs Grundgefühle vor: [29]

In den 1990er Jahren erweiterte Ekman jedoch seine Liste der Grundemotionen, einschließlich einer Reihe positiver und negativer Emotionen, die nicht alle in den Gesichtsmuskeln kodiert sind. [30] Die neu aufgenommenen Emotionen sind:

Codierungssystem für Gesichtsaktionen Bearbeiten

Psychologen haben ein System entwickelt, um den physischen Ausdruck von Emotionen in Gesichtern formal zu kategorisieren. Das zentrale Konzept des Facial Action Coding Systems oder FACS, wie es 1978 von Paul Ekman und Wallace V. Friesen basierend auf früheren Arbeiten von Carl-Herman Hjortsjö [31] entwickelt wurde, sind Aktionseinheiten (AU). Sie sind im Grunde eine Kontraktion oder Entspannung eines oder mehrerer Muskeln. Psychologen haben die folgende Klassifizierung von sechs Grundemotionen nach ihren Aktionseinheiten vorgeschlagen ("+" bedeutet hier "und"):

Emotion Aktionseinheiten
Glück 6+12
Traurigkeit 1+4+15
Überraschung 1+2+5B+26
Furcht 1+2+4+5+20+26
Wut 4+5+7+23
Der Ekel 9+15+16
Verachtung R12A+R14A

Herausforderungen bei der Gesichtserkennung Bearbeiten

Wie bei jeder Computerpraxis müssen auch bei der Affekterkennung durch Gesichtsverarbeitung einige Hindernisse überwunden werden, um das verborgene Potenzial des verwendeten Gesamtalgorithmus oder -verfahrens vollständig zu erschließen. In den Anfängen fast jeder Art von KI-basierter Erkennung (Spracherkennung, Gesichtserkennung, Affekterkennung) war die Genauigkeit der Modellierung und Verfolgung ein Problem. Während sich die Hardware weiterentwickelt, mehr Daten gesammelt und neue Entdeckungen gemacht und neue Praktiken eingeführt werden, schwindet dieser Mangel an Genauigkeit und hinterlässt Rauschprobleme. Es gibt jedoch Verfahren zur Rauschentfernung, einschließlich Nachbarschaftsmittelung, lineare Gaußsche Glättung, Medianfilterung, [32] oder neuere Verfahren wie der Bacterial Foraging Optimization Algorithm. [33] [34]

  • Die Tatsache, dass gestellte Ausdrücke, wie sie von den meisten Probanden der verschiedenen Studien verwendet werden, nicht natürlich sind und daher darauf trainierte Algorithmen möglicherweise nicht auf natürliche Ausdrücke anwendbar sind.
  • Der Mangel an Drehbewegungsfreiheit. Die Affekterkennung funktioniert bei frontaler Verwendung sehr gut, aber bei einer Drehung des Kopfes um mehr als 20 Grad "gab es Probleme". [35]
  • Gesichtsausdrücke entsprechen nicht immer einer zugrunde liegenden Emotion, die zu ihnen passt (z.
  • FACS beinhaltete keine Dynamiken, während Dynamiken zur Eindeutigkeit beitragen können (z.
  • Die FACS-Kombinationen stimmen nicht 1:1 mit den Emotionen überein, die die Psychologen ursprünglich vorgeschlagen haben (beachten Sie, dass dieses Fehlen einer 1:1-Abbildung auch bei der Spracherkennung mit Homophonen und Homonymen und vielen anderen Mehrdeutigkeitsquellen auftritt und sein kann durch Einbringen anderer Informationskanäle abgeschwächt).
  • Die Erkennungsgenauigkeit wird durch das Hinzufügen von Kontext verbessert, das Hinzufügen von Kontext und anderen Modalitäten erhöht jedoch den Rechenaufwand und die Komplexität.

Körpergeste Bearbeiten

Gesten könnten effizient als Mittel zum Erkennen eines bestimmten emotionalen Zustands des Benutzers verwendet werden, insbesondere wenn sie in Verbindung mit Sprach- und Gesichtserkennung verwendet werden. Abhängig von der konkreten Aktion können Gesten einfache reflexive Reaktionen sein, wie z. Ohne irgendein Objekt oder eine Umgebung zu benutzen, können wir mit den Händen winken, klatschen oder winken. Andererseits können wir bei der Verwendung von Objekten auf diese zeigen, sie bewegen, berühren oder handhaben. Ein Computer sollte diese erkennen, den Kontext analysieren und sinnvoll reagieren können, um effizient für die Mensch-Computer-Interaktion eingesetzt zu werden.

Es gibt viele vorgeschlagene Methoden [36], um die Körpergeste zu erkennen. Einige Literatur unterscheidet 2 verschiedene Ansätze bei der Gestenerkennung: einen 3D-Modell-basierten und einen Erscheinungsbild-basierten. [37] Die vorderste Methode verwendet 3D-Informationen von Schlüsselelementen der Körperteile, um mehrere wichtige Parameter wie Handflächenposition oder Gelenkwinkel zu erhalten. Auf der anderen Seite verwenden auf dem Aussehen basierende Systeme Bilder oder Videos zur direkten Interpretation. Handgesten sind ein häufiger Fokus von Körpergestenerkennungsmethoden. [37]

Physiologische Überwachung Bearbeiten

Dies könnte verwendet werden, um den affektiven Zustand eines Benutzers zu erkennen, indem seine physiologischen Zeichen überwacht und analysiert werden. Diese Anzeichen reichen von Veränderungen der Herzfrequenz und der Hautleitfähigkeit bis hin zu winzigen Kontraktionen der Gesichtsmuskeln und Veränderungen der Gesichtsdurchblutung. Dieser Bereich gewinnt an Dynamik und wir sehen jetzt echte Produkte, die die Techniken implementieren. Die vier wichtigsten physiologischen Anzeichen, die normalerweise analysiert werden, sind Blutvolumenpuls, galvanische Hautreaktion, Gesichtselektromyographie und Gesichtsfarbmuster.

Blutvolumenpuls Bearbeiten

Übersicht Bearbeiten

Der Blutvolumenpuls (BVP) einer Person kann durch einen Prozess namens Photoplethysmographie gemessen werden, der eine Grafik erzeugt, die den Blutfluss durch die Extremitäten anzeigt. [38] Die Spitzen der Wellen weisen auf einen Herzzyklus hin, bei dem das Herz Blut in die Extremitäten gepumpt hat. Wenn die Person Angst verspürt oder erschrocken ist, "springt" ihr Herz normalerweise und schlägt für einige Zeit schnell, wodurch die Amplitude des Herzzyklus ansteigt. Dies ist auf einem Photoplethysmographen deutlich zu erkennen, wenn sich der Abstand zwischen Wellental und Wellenberg verringert hat. Wenn sich die Person beruhigt und sich der innere Kern des Körpers ausdehnt, so dass mehr Blut zu den Extremitäten zurückfließen kann, normalisiert sich der Zyklus wieder.

Methodik Bearbeiten

Durch spezielle Sensorhardware wird Infrarotlicht auf die Haut gestrahlt und die reflektierte Lichtmenge gemessen. Die Menge des reflektierten und durchgelassenen Lichts korreliert mit dem BVP, da Licht von Hämoglobin absorbiert wird, das reichlich im Blutkreislauf vorkommt.

Nachteile Bearbeiten

Es kann umständlich sein, sicherzustellen, dass der Sensor, der Infrarotlicht ausstrahlt und das reflektierte Licht überwacht, immer auf dieselbe Extremität zeigt, insbesondere da sich die Motive bei der Verwendung eines Computers häufig dehnen und ihre Position neu einstellen. Es gibt andere Faktoren, die den Puls des Blutvolumens beeinflussen können. Da es sich um ein Maß für den Blutfluss durch die Extremitäten handelt, kann es sein, dass der Körper, wenn sich die Person heiß oder besonders kalt fühlt, mehr oder weniger Blut in die Extremitäten fließen lässt, und dies alles unabhängig von der emotionalen Verfassung der Person.

Gesichtselektromyographie Bearbeiten

Die Gesichts-Elektromyographie ist eine Technik, die verwendet wird, um die elektrische Aktivität der Gesichtsmuskeln zu messen, indem die winzigen elektrischen Impulse verstärkt werden, die von Muskelfasern erzeugt werden, wenn sie sich zusammenziehen. [39] Das Gesicht drückt eine große Menge Emotionen aus, es gibt jedoch zwei Hauptmuskelgruppen des Gesichts, die normalerweise untersucht werden, um Emotionen zu erkennen: Der Corrugator supercilii-Muskel, auch bekannt als der „Stirnrunzeln“-Muskel, zieht die Stirn zu einem Stirnrunzeln , und ist daher der beste Test für eine negative, unangenehme emotionale Reaktion.↵Der Musculus zygomaticus major ist dafür verantwortlich, die Mundwinkel beim Lächeln zurückzuziehen, und ist daher der Muskel, der verwendet wird, um eine positive emotionale Reaktion zu testen.

Galvanische Hautreaktion Bearbeiten

Galvanische Hautreaktion (GSR) ist ein veralteter Begriff für ein allgemeineres Phänomen, das als elektrodermale Aktivität oder EDA bekannt ist. EDA ist ein allgemeines Phänomen, bei dem sich die elektrischen Eigenschaften der Haut ändern. Die Haut wird vom [sympathischen Nervensystem] innerviert, daher bietet die Messung ihres Widerstands oder ihrer Leitfähigkeit eine Möglichkeit, kleine Veränderungen im sympathischen Zweig des autonomen Nervensystems zu quantifizieren. Da die Schweißdrüsen aktiviert werden, kann, noch bevor sich die Haut verschwitzt anfühlt, der EDA-Spiegel (normalerweise über die Leitfähigkeit) erfasst und verwendet werden, um kleine Veränderungen der autonomen Erregung zu erkennen. Je erregter eine Person ist, desto größer ist die Hautleitfähigkeit. [38]

Die Hautleitfähigkeit wird oft mit zwei kleinen Silber-Silberchlorid-Elektroden gemessen, die irgendwo auf der Haut platziert werden und zwischen denen eine kleine Spannung angelegt wird. Um den Komfort zu maximieren und Irritationen zu reduzieren, können die Elektroden am Handgelenk, an den Beinen oder Füßen angebracht werden, wodurch die Hände für die täglichen Aktivitäten vollständig frei bleiben.

Gesichtsfarbe Bearbeiten

Übersicht Bearbeiten

Die Oberfläche des menschlichen Gesichts ist mit einem großen Netz von Blutgefäßen innerviert. Durchblutungsschwankungen in diesen Gefäßen führen zu sichtbaren Farbveränderungen im Gesicht. Unabhängig davon, ob Gesichtsemotionen die Gesichtsmuskeln aktivieren oder nicht, treten Schwankungen des Blutflusses, des Blutdrucks, des Glukosespiegels und anderer Veränderungen auf. Außerdem ist das Gesichtsfarbsignal unabhängig von dem, das durch Gesichtsmuskelbewegungen geliefert wird. [40]

Methodik Bearbeiten

Die Ansätze basieren auf Veränderungen der Gesichtsfarbe. Die Delaunay-Triangulation wird verwendet, um die dreieckigen lokalen Bereiche zu erstellen. Einige dieser Dreiecke, die das Innere von Mund und Augen (Sklera und Iris) definieren, werden entfernt. Verwenden Sie die Pixel der linken dreieckigen Bereiche, um Merkmalsvektoren zu erstellen. [40] Es zeigt, dass die Konvertierung der Pixelfarbe des Standard-RGB-Farbraums in einen Farbraum wie den oRGB-Farbraum [41] oder LMS-Kanäle bei Gesichtern besser abschneidet. [42] Bilden Sie also den obigen Vektor auf den besseren Farbraum ab und zerlegen Sie ihn in Rot-Grün- und Gelb-Blau-Kanäle. Verwenden Sie dann Deep-Learning-Methoden, um äquivalente Emotionen zu finden.

Visuelle Ästhetik Bearbeiten

Ästhetik bezieht sich in der Welt der Kunst und Fotografie auf die Prinzipien der Natur und der Wertschätzung von Schönheit. Die Beurteilung von Schönheit und anderen ästhetischen Qualitäten ist eine höchst subjektive Aufgabe. Informatiker der Penn State behandeln die Herausforderung, die ästhetische Qualität von Bildern automatisch abzuleiten, indem sie ihren visuellen Inhalt als maschinelles Lernproblem verwenden, mit einer von Experten bewerteten Online-Foto-Sharing-Website als Datenquelle.[43] Sie extrahieren bestimmte visuelle Merkmale basierend auf der Intuition, dass sie zwischen ästhetisch ansprechenden und unangenehmen Bildern unterscheiden können.

Bildung Bearbeiten

Zuneigung beeinflusst den Lernzustand der Lernenden. Mithilfe der Affektiven Computertechnologie können Computer die Zuneigung und den Lernzustand der Lernenden beurteilen, indem sie ihren Gesichtsausdruck erkennen. Im Bildungsbereich kann der Lehrer das Analyseergebnis verwenden, um die Lern- und Akzeptanzfähigkeit des Schülers zu verstehen und dann vernünftige Unterrichtspläne zu formulieren. Gleichzeitig können sie auf die inneren Gefühle der Schüler achten, was für die körperliche Gesundheit der Schüler hilfreich ist. Gerade im Fernunterricht gibt es aufgrund der Trennung von Zeit und Raum keinen emotionalen Anreiz zwischen Lehrern und Schülern zur wechselseitigen Kommunikation. Ohne die Atmosphäre des traditionellen Lernens im Klassenzimmer langweilen sich die Schüler leicht und beeinträchtigen den Lerneffekt. Die Anwendung von Affective Computing im Fernunterrichtssystem kann diese Situation effektiv verbessern. [44]

Gesundheitswesen Bearbeiten

Soziale Roboter sowie eine wachsende Zahl von Robotern, die im Gesundheitswesen eingesetzt werden, profitieren von emotionalem Bewusstsein, da sie die emotionalen Zustände von Benutzern und Patienten besser einschätzen und ihre Handlungen/Programme entsprechend ändern können. Dies ist besonders wichtig in Ländern mit einer zunehmenden Alterung der Bevölkerung und/oder einem Mangel an jüngeren Arbeitskräften, die ihren Bedürfnissen gerecht werden. [45]

Affective Computing wird auch bei der Entwicklung kommunikativer Technologien für die Nutzung durch Menschen mit Autismus angewendet. [46] Auch die affektive Komponente eines Textes gewinnt zunehmend an Aufmerksamkeit, insbesondere ihre Rolle im sogenannten emotionalen oder emotionalen Internet. [47]

Videospiele Bearbeiten

Affektive Videospiele können über Biofeedback-Geräte auf die emotionalen Zustände ihrer Spieler zugreifen. [48] ​​Eine besonders einfache Form des Biofeedbacks bieten Gamepads, die den Druck messen, mit dem eine Taste gedrückt wird: Dies korreliert nachweislich stark mit der Erregung der Spieler [49] am anderen Ende der Skala sind Gehirn –Computerschnittstellen. [50] [51] Affektive Spiele wurden in der medizinischen Forschung eingesetzt, um die emotionale Entwicklung autistischer Kinder zu unterstützen. [52]

Andere Anwendungen Bearbeiten

Andere potenzielle Anwendungen konzentrieren sich auf das soziale Monitoring. Ein Auto kann beispielsweise die Emotionen aller Insassen überwachen und zusätzliche Sicherheitsmaßnahmen ergreifen, wie zum Beispiel andere Fahrzeuge warnen, wenn es den Fahrer als wütend erkennt. [53] Affective Computing hat potenzielle Anwendungen in der Mensch-Computer-Interaktion, wie z. B. affektive Spiegel, die es dem Benutzer ermöglichen, zu sehen, wie er oder sie Emotionsüberwachung durchführt, Agenten, die eine Warnung senden, bevor man eine wütende E-Mail sendet, oder sogar Musikplayer, die Tracks basierend auf der Stimmung auswählen. [54]

Eine Idee des rumänischen Forschers Dr. Nicu Sebe in einem Interview ist die Analyse des Gesichts einer Person, während sie ein bestimmtes Produkt verwendet (er nannte als Beispiel Eiscreme). [55] Unternehmen könnten dann anhand einer solchen Analyse ableiten, ob ihr Produkt vom jeweiligen Markt gut angenommen wird oder nicht.

Man könnte die affektive Zustandserkennung auch verwenden, um die Wirkung einer Fernsehwerbung durch eine Echtzeit-Videoaufnahme dieser Person und durch die anschließende Untersuchung ihres Gesichtsausdrucks zu beurteilen. Durch den Mittelwert der Ergebnisse einer großen Gruppe von Probanden kann man feststellen, ob dieser Werbespot (oder Film) den gewünschten Effekt hat und welche Elemente den Zuschauer am meisten interessieren.

Auf dem Gebiet der Mensch-Computer-Interaktion wurde Rosalind Picards kognitivistisches oder "Informationsmodell"-Konzept der Emotion kritisiert und kontrastiert mit dem "postkognitivistischen" oder "interaktionalen" pragmatischen Ansatz von Kirsten Boehner und anderen, der Emotionen als inhärent betrachtet Sozial. [56]

Picards Fokus liegt auf der Mensch-Computer-Interaktion, und ihr Ziel für Affective Computing ist es, "Computern die Fähigkeit zu geben, Emotionen zu erkennen, auszudrücken und in einigen Fällen zu 'haben'". [4] Im Gegensatz dazu versucht der interaktionelle Ansatz, "Menschen zu helfen, ihre eigenen Emotionen zu verstehen und zu erfahren" [57] und die computervermittelte zwischenmenschliche Kommunikation zu verbessern. Es versucht nicht unbedingt, Emotionen in ein objektives mathematisches Modell für die maschinelle Interpretation abzubilden, sondern ermöglicht es den Menschen, die emotionalen Äußerungen des anderen auf offene Weise zu verstehen, die mehrdeutig, subjektiv und kontextsensitiv sein kann. [57] : 284 [ Beispiel benötigt ]

Picards Kritiker beschreiben ihr Emotionskonzept als "objektiv, intern, privat und mechanistisch". Sie sagen, es reduziert Emotionen auf ein diskretes psychologisches Signal, das im Körper auftritt, das gemessen werden kann und ein Input für die Kognition ist und die Komplexität der emotionalen Erfahrung untergräbt. [57] : 280 [57] : 278

Der interaktionelle Ansatz behauptet, dass Emotionen, obwohl sie biophysikalische Aspekte haben, „kulturell begründet, dynamisch erfahren und bis zu einem gewissen Grad in Aktion und Interaktion konstruiert sind“. [57] : 276 Anders ausgedrückt betrachtet es "Emotion als ein soziales und kulturelles Produkt, das durch unsere Interaktionen erfahren wird". [58] [57] [59]


Validierung von Flashcards mit emotionalen Stimuli für die Durchführung einer fMRT-Studie „Response to Reward“ bei malaysischen Studenten

Problematische Instagram-Nutzung (PIGU) ist eine spezifische Internet-Sucht-Störung, die unter Jugendlichen von heute beobachtet wird. fMRT ist in der Lage, die regionale Gehirnaktivierung als Reaktion auf suchtspezifische Belohnungen, z.B. Ansehen von Bild-Karteikarten. Bilder, die von PIGUs auf Instagram hochgeladen wurden, wurden oft mit riskanten Verhaltensweisen in Verbindung gebracht, um mehr „Gefällt mir“-Angaben zu erhalten, daher wird angenommen, dass PIGUs eher von „negativ-emotionalen“ Hinweisen angezogen werden. Bis heute gibt es keine lokale Datenbank mit suchtspezifischen Hinweisen.

Zielsetzung Durchführung einer Validierungsstudie außerhalb des Scanners, um eine Datenbank mit Bildern mit „negativ-emotionalen“ Hinweisen zu erstellen, die bei PIGUs Erregungsreaktionen hervorrufen.

Methode Vierundvierzig malaysische Studenten (20 PIGUs, 24 Kontrollen) wurden nach dem Zufallsprinzip basierend auf der Bewertung mit der Smartphone-Addiction-Scale-Malay-Version (SAS-M) und dem modifizierten Instagram Addiction Test (IGAT) rekrutiert und erfüllten Lin et al. (2016) Definition von Sucht. Ihnen wurden 200 inhaltsspezifische Bilder verabreicht, die multidimensional waren, dh Erregung (Erregungs-/Entspannungseffekte), Annäherungsvermeidung (Motivationsrichtung) und emotionale Valenz (positive/negative Gefühle), um die Wahrnehmung der psychologischen Eigenschaften der Bilder durch die PIGUs zu beschreiben 9-Punkte-Likert-Skala.

Ergebnisse PIGUs, die „Negativ-Emotionale“ Hinweise betrachteten, zeigten signifikante positive Korrelationen zwischen Erregung und Valenz (z = 4,834, p < 0,001, Effektstärke = 0,69) und Erregungs- und Vermeidungsansatz (z = 4,625, p < 0,001, Effektstärke = ) 0,66) im Vergleich zu den Kontrollen und wurden häufiger durch „negativ-emotionale“ Stimuli geweckt.

Abschluss Eine Datenbank mit validierten, suchtspezifischen Bildern kann entwickelt werden, um jede zukünftige reizinduzierte Reaktion auf Belohnungs-fMRT-Studien zur Beurteilung von PIGU zu potenzieren.

Konkurrierende Zinserklärung

Die Autoren haben kein konkurrierendes Interesse erklärt.

Klinische Studie

Finanzierungsnachweis

Diese Studie wurde durch die Forschungsstipendien der Universiti Putra Malaysia GP-9549800 und GP-IPS/9580800 . unterstützt

Autorenerklärungen

Alle relevanten ethischen Richtlinien wurden befolgt, alle erforderlichen Genehmigungen des IRB und/oder der Ethikkommission wurden eingeholt und Einzelheiten des IRB/der Aufsichtsbehörde sind im Manuskript enthalten.

Alle erforderlichen Einwilligungen des Patienten/Teilnehmers wurden eingeholt und die entsprechenden institutionellen Formulare wurden archiviert.

Mir ist bewusst, dass alle klinischen Studien und alle anderen prospektiven interventionellen Studien in einem von der ICMJE zugelassenen Register wie ClinicalTrials.gov registriert werden müssen. Ich bestätige, dass eine solche im Manuskript berichtete Studie registriert wurde und die Studienregistrierungs-ID angegeben ist (Hinweis: Wenn Sie eine prospektive Studie rückwirkend registriert haben, geben Sie bitte im Feld Studien-ID eine Erklärung an, warum die Studie nicht im Voraus registriert wurde) .

Ich habe alle einschlägigen Richtlinien für die Forschungsberichterstattung befolgt und die relevante(n) Checkliste(n) für die Forschungsberichterstattung des EQUATOR-Netzwerks sowie gegebenenfalls anderes relevantes Material als ergänzende Dateien hochgeladen.


Eine Datenbank mit Gesichtsausdrücken bei jüngeren, mittleren und älteren Frauen und Männern

FACES ist eine Reihe von Bildern naturalistischer Gesichter von 171 jungen (n = 58), mittleren (n = 56) und älteren (n = 57) Frauen und Männern, die jeweils sechs Gesichtsausdrücke zeigen: Neutralität, Traurigkeit, Ekel, Angst, Wut und Freude. Die FACES-Datenbank wurde zwischen 2005 und 2007 von Natalie C. Ebner, Michaela Riediger und Ulman Lindenberger am Center for Lifespan Psychology, Max-Planck-Institut für Bildungsforschung, Berlin, Deutschland, entwickelt.

Die Datenbank umfasst zwei Bildersätze pro Person und Gesichtsausdruck (a vs. b-Satz), was insgesamt 2.052 Bilder ergibt. Eine Teilmenge von 72 Bildern ist verfügbar, ohne dass Sie sich registrieren müssen, um ein persönliches Konto zu beantragen. Die forschungsbezogene Veröffentlichung und Darstellung der öffentlich zugänglichen FACES-Objekte zur Veranschaulichung der Forschungsmethodik ist gestattet. Falls Sie jedoch beabsichtigen, die entsprechenden Objekte für solche Zwecke zu verwenden, registrieren Sie sich bitte für FACES und senden Sie den FACES Platform Release Agreement (mit einer kurzen Beschreibung, wie Sie die öffentlich zugänglichen Objekte nutzen möchten) an den FACES Technical Agent.

Dynamic FACES ist eine Erweiterung der ursprünglichen FACES-Datenbank. Es handelt sich um eine Datenbank mit gemorphten Videos (n = 1.026) von jungen, mittleren und älteren Erwachsenen, die sechs naturalistische emotionale Gesichtsausdrücke zeigen, darunter Neutralität, Traurigkeit, Ekel, Angst, Wut und Glück. Statische Bilder, die für das Morphing verwendet wurden, stammen aus der ursprünglichen FACES-Datenbank. Videos wurden durch den Übergang von einem statischen neutralen Bild zu einer Zielemotion erstellt. Videos sind in 384 x 480 Pixel als .mp4-Datei oder in Originalgröße von 1280 x 1600 als .mov-Datei verfügbar.

Weitere Informationen zu Dynamic FACES finden Sie unter:

Alle 2.052 Bilder aus der ursprünglichen FACES-Datenbank wurden mit MATLAB verschlüsselt. Mit der Randblock-Funktion wurden ursprüngliche FACES-Dateien als 800x1000x3-Matrizen behandelt – die dritte Dimension bezeichnet spezifische RGB-Werte – und in nicht überlappende 2x2x3-Blöcke partitioniert. Die Matrizen wurden dann zufällig durch diese kleineren Blöcke gemischt, um endgültige Bilder zu liefern, die den Abmessungen des Originalbilds entsprachen und aus den gleichen einzelnen Pixeln zusammengesetzt waren, obwohl sie unterschiedlich angeordnet waren. Alle verschlüsselten Bilder sind 800x1000 JPEG-Dateien (96 dpi).

Referenzpublikationen über FACES

FACES ist für die wissenschaftliche Forschung frei verfügbar.

Ohne Benutzerkonto sind nur die Bilder von sechs beispielhaften Personen (72 Bilder) einsehbar. Der volle Zugriff auf diesen Online-Dienst und alle seine Objekte ist nach Registrierung und Anmeldung möglich.

Forscher können von Fall zu Fall (d. h. von Person zu Person und von Studie zu Studie) ein Konto beantragen.

Partner, Kontakt & Copyright

Die Datenbank FACES wurde zwischen 2005 und 2007 am Zentrum für Lebenspsychologie des Max-Planck-Instituts für Bildungsforschung in Berlin konzipiert. Inzwischen wurden neue Sammlungen von Stimulusobjekten auf Basis der originalen FACES-Bilder erstellt und sind über die FACES-Plattform verfügbar. Detaillierte Informationen zur Autorschaft finden Sie in den sammlungsspezifischen Informationen.

Die Software FACES basiert auf imeji und wurde von der Max Planck Digital Library entwickelt. Bei Fragen zu FACES wenden Sie sich bitte an den technischen Vertreter von FACES.

Copyright: Max-Planck-Institut für Bildungsforschung, Zentrum für Lebenspsychologie, Berlin, Deutschland.


Einführung

Gesichtsausdrücke von Emotionen sind einzigartige Reize mit erheblicher sozialer und biologischer Relevanz. Sie werden in einer Vielzahl von Studien in verschiedenen Bereichen der Verhaltens- und Hirnforschung verwendet, um Aufmerksamkeit, Gedächtnis, soziales Denken, Wahrnehmung, Lernen, Entscheidungsfindung, Motivation und Emotionsregulation zu untersuchen (Davis, 1995 Eimer et al., 2003 Elfenbein , 2006 Fotios et al., 2015 Tran et al., 2013).

Mit der Entwicklung des Menschen entwickeln sich auch seine Fähigkeiten zur Gesichtsverarbeitung (Pascalis et al., 2011). Über die gesamte Lebensspanne des Erwachsenen scheinen die Fähigkeiten zur Gesichtsverarbeitung abzunehmen, da die Identifizierung des emotionalen Gesichtsausdrucks mit zunehmendem Alter ungenauer wird (Ruffman et al., 2008). Darüber hinaus erinnern sich ältere Erwachsene bevorzugt an positive gegenüber negativen Gesichtern (Mather et al., 2003) und ältere Erwachsene bevorzugen eher neutrale als negative Gesichter (Isaacowitz et al., 2006).

Bemerkenswert ist, dass in vielen der vorangegangenen Studien Mimikreize ausschließlich von jüngeren Erwachsenen verwendet und/oder als statische Bilder präsentiert wurden. In den letzten Jahren sind eine Reihe dynamischer Reizsets für emotionale Ausdrücke entstanden, die jedoch fast alle aus Ausdrücken von überwiegend jüngeren Erwachsenen bestehen und/oder normative Bewertungsdaten von überwiegend jungen Erwachsenen enthalten (Krumhuber et al., 2017). Nur sehr wenige Sammlungen von Gesichtsreizen zur Verwendung in der Forschung enthalten Bilder von Personen, die im Laufe der Lebensspanne eines Erwachsenen unterschiedlich alt sind. Angesichts der Tatsache, dass Variationen in den Merkmalen von Gesichtsreizen wie Alter, Geschlecht und Ausdruck die Bewertung und Erinnerung eines Gesichts unterschiedlich beeinflussen (Ebner, 2008 Golby et al., 2001 Isaacowitz et al., 2006 Mather et al., 2003 Pascalis et al., 1995 Ruffman et al., 2008), besteht ein Bedarf an naturalistischeren Stimuli des Gesichtsausdrucks über ein breites Altersspektrum bei Frauen und Männern.

Darüber hinaus gibt es Hinweise auf einen Altersbias bei der Gesichtserkennung, bei dem Kinder, Erwachsene mittleren Alters und ältere Erwachsene im Vergleich zu einer anderen Altersgruppe eher eigene Gesichter erkennen (Rhodes et al., 2012). Infolgedessen ist es möglich, dass ältere Erwachsene in früheren Studien aufgrund fehlender geeigneter Reize benachteiligt waren. Die FACES Lifespan Database wurde erstellt (Ebner et al., 2010), um Stimulusmaterial bereitzustellen, das diesen Nachteil überwindet. FACES ist eine Datenbank, die sechs kategorische emotionale Gesichtsausdrücke (neutral, glücklich, wütend, angewidert, ängstlich, traurig) von jüngeren, mittleren und älteren Frauen und Männern enthält.

Das Ziel des Dynamic FACES-Projekts war es, die bestehende FACES-Datenbank zu erweitern, indem eine Reihe dynamischer Gesichtsstimulationsvideos basierend auf den ursprünglichen FACES-Bildern erstellt und validiert wurde. Neuere Forschungen haben begonnen, die Bedeutung dynamischer Informationen bei der Gesichtsverarbeitung zu demonstrieren. Tatsächlich zeigen Gehirnregionen wie die Amygdala und der spindelförmige Gesichtsbereich stärkere Reaktionen auf dynamische als auf statische Emotionsausdrücke (Freyd, 1987, LaBar et al., 2003). Besonders ausgeprägt ist dieser Befund bei negativen Emotionen wie Angst (LaBar et al., 2003). Studien haben außerdem gezeigt, dass dynamische Eigenschaften die Wahrnehmung von Gesichtsausdrücken beeinflussen, so dass Bewegung die Genauigkeit der Emotionsidentifikation verbessert und die Wahrnehmung der emotionalen Intensität erhöht (Kamachi et al., 2013). In ähnlicher Weise können dynamische Reize auch in der Forschung mit klinischen Populationen nützlich sein, wie beispielsweise Personen mit Autismus-Spektrum-Störung, deren Emotionsidentifikation teilweise durch die Dynamik emotionaler Ausdrücke vermittelt wird (Blair et al., 2001 Gepner et al., 2001). Da reale Gesichtsinteraktionen typischerweise dynamischer Natur sind, stellen dynamische Forschungsreize naturalistischere Reize dar als statische Bilder von Gesichtsausdrücken. Somit hat die Verwendung dynamischer Gesichtsreize das Potenzial, das Verständnis einer Reihe individueller Unterschiede in der Verarbeitung von Gesichtsemotionen zu verbessern, von Altersunterschieden bis hin zu klinischen Vergleichen.

Das Hauptziel der Studie war es, eine große Anzahl kontrollierter und hochauflösender Videos zu erstellen, die Emotionen kraftvoll vermitteln. Obwohl es auch andere Sammlungen dynamischer Gesichtsreize gibt (Krumhuber et al., 2017), ist die Dynamic FACES-Datenbank insofern einzigartig, als sie die größte und am gleichmäßigsten verteilte Stichprobe von jüngeren, mittleren und älteren Frauen und Männern umfasst sechs Gesichtsausdrücke anzeigen (Neutralität, Traurigkeit, Ekel, Angst, Wut und Glück). Dynamische Stimulus-Videos wurden erstellt, indem neutrale Gesichtsausdrücke in emotionale Ausdrücke umgewandelt wurden. Morphing ermöglicht es dem Forscher, die Dauer der Emotionspräsentation zu kontrollieren, eine Funktion, die für fMRT-Forscher nützlich sein wird. Um normative Bewertungen dieser angepassten Stimuli bereitzustellen, sammelten wir Bewertungsdaten von jüngeren, mittleren und älteren Frauen und Männern zur Gesichtsausdruckerkennung, Ausdrucksunterscheidung, wahrgenommenem Alter und Natürlichkeit des für jedes Video angezeigten Gesichtsausdrucks. Die Bewertungen wurden dann auf Altersgruppenunterschiede analysiert, um die Auswirkungen des Alters auf die Emotionsidentifikation mithilfe dynamischer Stimuli zu untersuchen (z. B. Ebner, 2008 Ebner et al., 2010 Issacowitz et al., 2007 Ruffman et al., 2008). Das heißt, das primäre Ziel der Studie war es, ein dynamisches Reizset aus einem breiten Altersspektrum von Gesichtsmodellen zu erstellen, die Untersuchung von Altersunterschieden bei der Emotionsidentifikation war ein sekundäres Ziel.


Abstrakt

Der Concealed Information Test (CIT) zielt darauf ab, das Vorhandensein von kriminellen Informationen im Gedächtnis zu erkennen. In zwei Experimenten untersuchten wir den Einfluss der Reizemotionalität auf die Ergebnisse der CIT. In Experiment 1 wurde jeder Teilnehmer sofort oder nach einer Woche auf einer Reihe von neutralen und entweder negativ erregenden oder negativen nicht erregenden Bildern getestet. Die Effizienz der CIT-Erkennung war nicht beeinträchtigt, aber physiologische Daten und Erkennungsdaten unterstützten die Wirksamkeit der Manipulation nicht. In Experiment 2 wurde jeder Teilnehmer nach einer Woche auf einer Reihe von neutralen versus negativen Erregungsbildern getestet. Wichtig ist, dass die Reizerregung erhöht und Gedächtnisdeckeneffekte verhindert wurden. Dieses Mal wurden sowohl das Gedächtnis als auch die CIT-Erkennungseffizienz unter Verwendung der Hautleitfähigkeit, jedoch nicht der Atmungs- und Herzfrequenzmessungen, für emotionale Bilder im Vergleich zu neutralen Bildern verbessert. Zusammengenommen weisen diese Ergebnisse darauf hin, dass sich die Verwendung von emotionalen Reizen nicht verschlechtert und sogar die CIT-Validität verbessern kann.


DAS ZENTRUM FÜR DAS STUDIEREN VON EMOTION UND AUFMERKSAMKEIT

Vielen Dank für Ihr Interesse am International Affective Picture System (IAPS, ausgesprochen “EYE-APS”). Das International Affective Picture System (IAPS) bietet normative Bewertungen von Emotionen (Lust, Erregung, Dominanz) für eine Reihe von Farbfotos, die eine Reihe normativer emotionaler Reize für experimentelle Untersuchungen von Emotionen und Aufmerksamkeit liefern.

In Anbetracht unseres ausschließlich wissenschaftlichen Interesses und unseres Status als Einheit der Staatlichen Universität verkaufen wir diese Materialien nicht. Wir stellen sie ausschließlich für die wissenschaftliche, gemeinnützige Forschung an anerkannten gradverleihenden Bildungseinrichtungen zur Verfügung.

Um die IAPS für Ihre Forschung zu erhalten, füllen Sie bitte das IAPS-Forscherinformationsformular aus und senden Sie es ab.Nach dem Absenden dieses Formulars erhalten Sie eine E-Mail, in der Sie aufgefordert werden, die IAPS-Nutzungsvereinbarung auszudrucken, zu unterschreiben und per E-Mail zu versenden. Innerhalb von 30 Tagen nach Erhalt Ihrer unterschriebenen Nutzungsvereinbarung erhalten Sie einen Benutzernamen und ein Passwort sowie den Link zum Herunterladen des IAPS. Dieser Link sollte nicht von einer anderen Website geteilt, verbreitet oder verlinkt werden.

Wie bereits erwähnt, werden diese Bilder gemeinnützigen Forschenden an Hochschulen zur freien Verfügung gestellt. Es wird erwartet, dass sie nur in Projekten der Grundlagen- und Gesundheitsforschung eingesetzt werden. Bei der Annahme dieser Materialien wird von den Forschern erwartet, dass sie diese nicht an gewinnorientierte Unternehmen oder Organisationen weitergeben. Darüber hinaus wird von ihnen erwartet, dass sie diese nicht den Medien (Fernsehen, Zeitschriften etc.) zur Verfügung stellen oder in irgendeiner Form ins Internet stellen. Diese Bilder sollten nicht für den Unterricht oder als Beispiele für affektive Reize in Schulkursen verwendet werden. Diese Materialien einer breiten Öffentlichkeit bekannt zu machen, kann ihren Wert als Impulsgeber in vielen Forschungsprojekten ernsthaft gefährden.

Da ein Teil der finanzierten Mission des CSEA darin besteht, Forschungslabors Materialien zur Verfügung zu stellen, ist es hilfreich für uns, die Labore aufzulisten, die von dieser Arbeit profitieren. Daher möchten wir Sie bei dieser Gelegenheit bitten, andere Forscher, die diese Materialien erhalten möchten, an uns zu verweisen, anstatt die IAPS selbst an andere zu verteilen.


Emotionale Reaktionsfähigkeit

Emotionale Reaktionsfähigkeit ist die Fähigkeit, einen affektiven Reiz durch das Zeigen von Emotionen anzuerkennen. [1] Erhöhte emotionale Reaktionsfähigkeit bezieht sich auf eine stärkere Reaktion auf einen Reiz. Reduzierte emotionale Reaktionsfähigkeit bezieht sich auf eine geringere Reaktion auf einen Reiz. [2] Jede Reaktion, die nach der Exposition gegenüber dem Stimulus gezeigt wird, unabhängig davon, ob sie angemessen ist oder nicht, wird als emotionale Reaktion betrachtet. Obwohl emotionale Reaktionsfähigkeit für nichtklinische Bevölkerungsgruppen gilt, wird sie typischerweise mit Personen mit Schizophrenie und Autismus in Verbindung gebracht.

Emotionale Reaktionsfähigkeit ist mit umfassenderen psychologischen Konzepten über Emotionen verbunden. Menschen zeigen Emotionen als Reaktion auf äußere Reize. Positive affektive Reize lösen Lustgefühle wie Glück aus, negative affektive Reize lösen Unlustgefühle wie Ekel und Angst aus. [2] Emotionale Reaktionen umfassen, sind aber nicht beschränkt auf Mimik und neurophysiologische Aktivitäten. Zum Beispiel zeigen Menschen ein „Lächeln“, wenn sie positiven Reizen ausgesetzt sind, und ein „Stirnrunzeln“, wenn sie negativen Reizen ausgesetzt sind. Das mit Emotion verbundene Gefühl wird Affekt genannt, der nach Valenz und Erregung kategorisiert werden kann. Valenz beschreibt den Grad, in dem das Gefühl ein Vergnügen oder ein Missfallen ist. Erregung beschreibt den Grad, in dem eine Person durch äußere Reize geweckt wird. [3]


Gibt es eine Datenbank mit emotionalen Reizen? - Psychologie

The Karolinska Directed Emotional Faces (KDEF) besteht aus insgesamt 4.900 Bildern menschlicher Mimik.

Das gemittelte KDEF ( AKDEF ) ist ein Satz gemittelter Bilder, die aus den ursprünglichen KDEF-Bildern erstellt wurden. Weitere Informationen zu KDEF finden Sie hier und zu AKDEF hier.

Die Materialien von KDEF und AKDEF wurden 1998 erstellt und werden seitdem innerhalb der Forschungsgemeinschaft frei geteilt. Bis heute wurde KDEF in mehr als 1500 Forschungspublikationen verwendet. Wenn Sie herausfinden möchten, wofür diese Materialien verwendet wurden und für welche Zwecke sie verwendet wurden, können Sie hier die vorhandenen Veröffentlichungen auf Google Scholar durchsuchen.

Die KDEF- und AKDEF-Stimuli dürfen nur von Forschern und nur für nicht-kommerzielle Zwecke verwendet werden. Die Materialien dürfen in keiner Form ohne schriftliche Zustimmung weiterverbreitet werden. Details darüber, ob und wie KDEF- und AKDEF-Stimuli verwendet und veröffentlicht werden dürfen, finden Sie hier.

Das KDEF-Material wurde oft unverändert verwendet, aber manchmal auch von verschiedenen Forschern für bestimmte Zwecke modifiziert. Einige dieser Versionen, wie zum Beispiel KDEF-DYN, können Sie hier lesen.

Wenn Sie möchten, können Sie die Original-KDEF-Stimuli und einige der Versionen hier herunterladen.

Die Forschung mit KDEF-Material hat einige Daten hervorgebracht, die für andere Forscher wahrscheinlich nützlich sein können. Was verfügbar ist, erfahren Sie hier.


Die vermittelnde Rolle ablenkender Reize bei der emotionalen Worterkennung.

Wie Emotionen das Gedächtnis beeinflussen, ist ein Thema von Interesse für mehrere Bereiche wie klinische oder sogar forensische Bereiche. Auf diese Weise wurde der Effekt der emotionalen Valenz auf die Worterkennung sowohl in der theoretischen als auch in der empirischen Forschung beschrieben. Dies ist ein Effekt, der für verschiedene Aspekte der Kognition sowie des Verhaltens als robust beschrieben wurde (Van Tol, Demenescu, Van der Wee, Kortekaas, Marjan, et al. 2012). Mehrere Studien behaupteten, dass emotionale Wörter mehr Aufmerksamkeit erregen könnten als neutrale (Bowen, Kark & Kensinger 2017 Sereno, Scott, Yao, Thaden & O'Donnell 2015). Genauer gesagt und mit Fokus auf die besondere Wirkung negativer emotionaler Inhalte auf die Worterkennung, wurde vorgeschlagen, dass negative Reize unter dieser Bedingung langsamere Latenzen hervorrufen. Laut Moret-Tatay, Moreno-Cid, Argimon,

Quarti Irigaray, Szczerbinski et al. (2014) ist dies ein plausibles Ergebnis, das darauf hindeutet, dass ein automatischer Vigilanzprozess funktionieren könnte, um die Aufmerksamkeit länger zu fesseln. Insbesondere die Literatur (Leon Gordillo, Martinez, Hernandez, Cruz, Meilan, et al. 2010 Meng, Zhang, Liu, Ding, Li, et al. 2017) hat vorgeschlagen, dass die „normale Bevölkerung“ veranlagt sein könnte, ihre Aufmerksamkeit auf negative Reize, was die Idee unterstützt, dass die negative emotionale Ladung eine wesentliche Rolle in unserer Evolution spielen könnte.

Ein weiteres bemerkenswertes Problem in Bezug auf dieses Thema ist, dass emotionale Wörter besser erinnert werden als neutrale (Ferre, Garcia, Fraga, Sanchez-Casas, & Molero 2010 Herbert & Kissler, 2010). Es überrascht nicht, dass angenommen wurde, dass dieser Anstieg der Erregung sich nicht nur auf die Reaktionszeit (RT) auswirkt und diese verlangsamt, sondern auch auf die Verbesserung der Kodierung (Ferre, Fraga, Comesana, & Sanchez-Casas 2015). Mit anderen Worten, der Umgang mit emotionaler Valenz könnte auch als kognitiver Kostenfaktor angesehen werden. Andere Autoren haben festgelegt, dass Genauigkeit und Geschwindigkeit der Verarbeitung durch mehrere Parameter wie Entscheidungskomponenten und Variabilität angepasst werden können (Mueller &. Kuchinke 2016 Ratcliff, Smith, Brown & McKoon 2016). In Bezug auf die Speicherverarbeitung kann die Erkennung eine auf Abruf basierende Verarbeitung umfassen (Racsmany, Szollosi &. Bencze 2017). Insbesondere wurde RT negativ mit Genauigkeit in Verbindung gebracht (Robinson & Johnson 1996).

Bekanntlich sind Zustände wie Depression und posttraumatische Belastungsstörung oft durch eine erhöhte Anfälligkeit für emotionale Ablenkung gekennzeichnet. Es beinhaltet bewusste und unbewusste Prozesse, die die Aufmerksamkeit von einer Aufgabe ablenken. Außerdem, Foerde, Knowlton,

und Poldrack (2006) fanden Hinweise darauf, dass die Gedächtnisleistung durch Ablenkung moduliert werden kann, indem man funktionelle MRT (fMRT) verwendet. Auf theoretischer Ebene wurde Ablenkung als wichtiger Schlüssel in Theorien der Emotionsregulation beschrieben (Zhang, Gross, & Hayne 2017).

Laut Literatur (Dolcos & McCarthy 2006, Schwager & Rothermund 2013) versuchen die neuronalen Systeme, die schädlichen Wirkungen von emotionalen Distraktoren zu vermitteln. Diese können als emotionale Informationen definiert werden, die aufgrund hoher Aufmerksamkeitskosten oder einer nachteiligen Wirkung auf die Hemmung kognitive Funktionen beeinträchtigen. Auf diese Weise haben mehrere Autoren bewiesen, dass emotional irrelevante Informationen die Aufmerksamkeit von der fraglichen Aufgabe in Bezug auf Latenzkomponenten auf sich ziehen können (Gupta, Hur, &. Lavie 2016 Hodsoll, Viding & Lavie 2011). Obwohl viele Anstrengungen unternommen wurden, bleibt unklar, ob sich die emotionale Valenz auf die Genauigkeit der irrelevanten Distraktoren unter Bedingungen geringer Belastung auswirken würde. Das heißt, wie emotionale Valenz die Effizienz des zugrunde liegenden grundlegenden kognitiven Prozesses in Bezug auf Aufmerksamkeit beeinträchtigen kann. Aus diesem Grund wurde ein Mediationsmodell unter den zuvor beschriebenen Variablen gewählt. Auf diese Weise ist die Art der Analyse mit einer Pfadanalyse verwandt, die interessant ist, um die Beziehungen zwischen Variablen zu untersuchen. Dies ist insbesondere ein nützliches Werkzeug zum Testen eines Modells und sowohl der direkten als auch der indirekten Auswirkungen auf ein bestimmtes Ergebnis (wie z. Darüber hinaus kann es im Volksmund als Sonderfall der Strukturgleichungsmodellierung (SEM) verstanden werden. Für den Zweck der vorliegenden Studie ist diese Methode von Interesse, da sie uns erlauben könnte, die vermittelnde Rolle ablenkender Reize bei Latenzen auf emotionale Reize zu untersuchen. Aufgrund der obigen Überlegungen wurden mehrere Ergebnisse erwartet. Zunächst erwarteten wir eine stärkere Korrelation zwischen Genauigkeit und Reaktionszeit unter emotionalen Bedingungen, was auf kognitive Kosten hinweist. Schließlich erwarteten wir, dass Latenzen unter ablenkenden Stimuli die Erkennung in Bezug auf Ziellatenzen und Genauigkeitsvariablen vermitteln, die Arbeitsgedächtnis (WM) und Hemmungsprozesse abbilden.

An dem Experiment nahmen 95 Universitätsstudenten teil (62 Frauen und 33 Männer, Durchschnittsalter 25,12 Jahre und SD = 3,10). In Bezug auf die Einschlusskriterien hatten alle Teilnehmer ein normales oder auf ein normales Sehvermögen korrigiertes Sehvermögen, waren spanische Muttersprachler und berichteten nach einem persönlichen Interview über keine kognitiven oder neurologischen Störungen.

Die verwendeten Stimuli waren eine Auswahl von Wörtern aus der Busca Palabras-Datenbank (Davis & Perea 2005). Insgesamt 90 Wörter wurden in drei Sätze von 30 Stimuli unterteilt, basierend auf ihrer Bewertung der emotionalen Valenz (positiv, negativ oder neutral), siehe Tabelle 1. Unter Verwendung der gleichen Stimuli wie Moreno-Cid, Moret-Tatay, Irigaray, Argimon, Murphy et al. (2015), wobei Stimuli, die mit 4 oder niedriger bewertet wurden, als negativ, mit 4 bis 6 als neutral und über 6 als positiv bewertet wurden (in Übereinstimmung mit früherer Literatur, siehe Moret-Tatay et al. 2014). Von den 90 ausgewählten Wörtern wurden 45 Wörter als Ziel bestimmt (und erschienen im ersten und zweiten Block) und die anderen 45 als Distraktoren (und tauchten nur im zweiten Block auf).

Die Teilnehmer wurden in Dreier- oder Vierergruppen in einem ruhigen Raum getestet. Die Darstellung der Stimuli und die Aufzeichnung der Reaktionszeiten wurden von einem Windows-Betriebssystem über die DMDX-Software (Forster & Forster 2003) gesteuert. Der Versuch bestand aus zwei Phasen. In der ersten Phase wurden 45 Zielreize zufällig (unterteilt in 15 Reize für jede der drei Valenzkategorien) mit jeweils 2 s kurzen Expositionen präsentiert. In der zweiten Phase (15 min nachdem die Teilnehmer durch die Durchführung von Stroop-Aufgaben abgelenkt wurden) wurden 45 Zielreize plus die 45 ablenkenden Reize zufällig präsentiert. Jedes Wort wurde so lange präsentiert, bis der Teilnehmer eine Antwort gab oder 2000 ms vergangen waren. Die Teilnehmer wurden angewiesen, eine Taste (mit der Aufschrift „Ja“) zu drücken, wenn der Stimulus ein Zielreiz war, und eine andere Taste (mit der Aufschrift „Nein“) zu drücken, wenn der Stimulus ein Ablenkerreiz war. Die Teilnehmer wurden auch angewiesen, so schnell wie möglich zu reagieren und dabei ein angemessenes Maß an Genauigkeit zu wahren. Die Sitzung dauerte etwa 30 min.

Es wurde ein Messwiederholungsdesign verwendet, bei dem eine klassische Varianzanalyse (ANOVA) den Einfluss der Stimulusidentität (Ziel oder Distraktor) und der emotionalen Valenz auf die Antwortlatenz und -genauigkeit untersuchte. Die statistische Analyse wurde mit SPSS 20 durchgeführt. Wir führten eine Mediationsanalyse mit Prozessmakro für SPSS (Hayes 2015) durch, um die Hypothese zu testen, dass Latenzänderungen bei ablenkenden Stimuli den Effekt von RT auf die Vorhersagegenauigkeit vermitteln. Auf diese Weise wurden regressionsbasierte Mediationsverfahren mit Bootstrapping-Verfahren durchgeführt (MacKinnon & Fairchild 2009 Hayes 2009). Dieses Verfahren ermöglicht die Messung des indirekten Effekts, der den Einfluss der Mediatorvariablen auf die festgelegte Relation repräsentiert, durch ein Bootstrapping-Verfahren (10000) mit Konfidenzintervallen. Genauer gesagt wurde zunächst ein Regressionskoeffizient (und der zugehörige t-Test) für die mediative M-Variable (und ihre inhärenten a- und b-Pfade), die unabhängige X-Variable für die abhängige Variable ohne Einbeziehung des Moderators (c'-Pfad) und die X unabhängige Variable der abhängigen Variable nach Aufnahme des Mediators (c Pfad). Abbildung 1 zeigt diese Analyse anhand von Variablen und Pfaden.

Die RTs waren für negative Stimuli länger als für positive und neutrale. Tabelle 2 zeigt die durchschnittlichen Reaktionszeiten (ms), Fehlerraten und Standardabweichung für jede Wortgruppe. In der ANOVA für Latenzanalysen wurden RTs unter 250 ms und über 1800 ms ausgeschlossen (weniger als 2% des Datensatzes). Der Cutoff-Punkt von 1800 ms wurde aus Gründen der Konsistenz mit früheren Studien auf diesem Gebiet übernommen (Moret-Tatay et al. 2014 Moret-Tatay, Leth-Steensen, Irigaray, Argimon, Gamermann, et al. 2016 Moret-Tatay et al. 2016 Perea, Panadero, Moret-Tatay & Gomez 2012). Eine 2 x 3 ANOVA wurde durchgeführt.

Die ANOVA der RT zeigte, dass Unterschiede in der emotionalen Valenz (wo negative Stimuli langsamer erkannt wurden) nahe bei der statistischen Signifikanz waren, aber nicht erreichten: [F(2, 188)] = 2,94 MSE = 16.329,33 [[eta].sup 0,2] = 0,03 p = 0,055. Bonferronis paarweiser Vergleich näherte sich dem statistisch signifikanten für negative versus positive Stimuli (p = 0,06), erreichte jedoch nicht die statistische Signifikanz. Bei Ablenkungs- und Zielbedingungen wurden Zielreize schneller verarbeitet als Distraktoren, und dieser Unterschied erreichte statistische Signifikanz: [F (1,94)] = 61,25 MSE = 1,131.718,40 [[eta]² = 0,39 p < 0,01. Alle Interaktions- oder Fehlerunterschiede erreichten keine statistische Signifikanz (F < 1).

Andererseits zeigte die ANOVA der on-Genauigkeit, dass Unterschiede in der emotionalen Valenz (wo positive Reize langsamer erkannt wurden) die statistische Signifikanz erreichten, [F(2, 188)] = 8,33 MSE = 0,015 [[eta]. sup.2] = 0,081 p < 0,01. Bei Ablenk- und Zielbedingungen wurden Zielreize schneller verarbeitet als Distraktoren, und dieser Unterschied erreichte die statistische Signifikanz: [F (1,94)] = 5,38 MSE = 0,434 [[eta] 2 ] = 0,054 p < 0,05. Alle paarweisen Vergleiche von Bonferroni zwischen negativen versus positiven/neutralen Stimuli waren für Emotionen statistisch signifikant (p < 0,05), aber neutrale versus positive Unterschiede erreichten nicht das statistische Niveau. Eine Interaktion (Emotion * Präsentation) wurde über die Variablen hinweg gefunden: [F (2, 188)] = 6,99 MSE = 0,016 [[eta] 2 = 0,069 p < 0,01.

Schließlich wurde ein Vermittlungsmodell getestet. Zuvor wurde jede Beziehung zwischen Variablen anhand des Pearson-Korrelationskoeffizienten untersucht (Abb. 2). Wie in Tabelle 3 dargestellt, vermittelten Änderungen der Latenzen auf ablenkende Reize signifikant Fehler bei Zielreizen für den negativen Zustand ([F (1,93)] = 53,07 MSE = 0,6435 [R 2 ] = 0,36 p < 0,001), der neutrale ([F.sub.(1,93)] = 47,83 MSE = 0,6675 [R.sup.2] = 0,34 p < 0,001) und der positive ([F.sub.(193) ] = 40,85 MSE = 0,7022 [R²] = 0,31 p < 0,001). Abbildung 1 zeigt jeden der Pfade für jedes Modell. Alle erreichten die statistische Signifikanz, mit Ausnahme des b-Pfades im neutralen Zustand. Jede andere Kombination über den emotionalen Zustand erreichte nicht die statistische Signifikanz.

Schlussfolgerungen und Diskussion

Emotionen gelten als Ablenkungen, die oft zu nachfolgenden Handlungen führen. Das Ziel dieser Arbeit war es, die Rolle ablenkender Reize für das Verhältnis von RT und Genauigkeit zu untersuchen. Das Verständnis der Mechanismen, durch die Emotionen kognitive Funktionen beeinträchtigen, hat wichtige Auswirkungen auf mehrere Bereiche, wie z. B. bei affektiven Störungen. Darüber hinaus und nach Dolcos und McCarthy (2006) bleiben die neuronalen Systeme, die die Auswirkungen von Emotionen auf die zielgerichtete kognitive Verarbeitung vermitteln, unklar.

Die Ergebnisse könnten wie folgt beschrieben werden: (i) Erstens sollten Änderungen der Aufgabenanforderungen von der Sekundäraufgabe in dem Maße ablenken, dass diese Aufgabenanforderungen die Genauigkeit implizieren und beeinflussen, (ii) die ablenkende Aufgabe vermittelt zwischen der Zielaufgabe und der Genauigkeit unter emotionalen Reizen (iii) scheinen negative ablenkende Reize eine stärkere vermittelnde Wirkung zu haben als neutrale oder positive ablenkende Reize, und (iv) positive ablenkende Reize scheinen eine höhere mediatorische Wirkung zu haben als neutrale ablenkende Reize.

Wie von der Literatur erwartet, sind Latenzen bis zur Ablenkung

Wörter präsentierten höhere RT. Dies weist auf kognitive Kosten bei der Ablehnung der zweiten Anforderung in einer Aufgabe hin. Darüber hinaus waren RTs, wie angenommen wurde, in den meisten Fällen invers mit der Genauigkeit korreliert, insbesondere unter emotionalen Bedingungen (wie aus der bisherigen Literatur erwartet (Leon Gordillo et al. 2010 Moreno-Cid et al. 2015). Auf diese Weise wurde ein vermittelnder Effekt von ablenkenden Reizen gefunden, mit Ausnahme der neutralen. Dies könnte die Rolle von Emotionen auf das Gedächtnis, wie oben beschrieben, betonen. Darüber hinaus könnte diese Art von Ansatz als ein zusätzlicher Wert der vorliegenden Arbeit angesehen werden , da traditionelle Varianzanalysen wie die ANOVA implementiert werden könnten, indem man andere komplexere Analysen nutzt (Moret-Tatay et al. 2017).

Zusammenfassend zeigten unsere Ergebnisse, dass die Ablenkung unter emotionalen Bedingungen mittelschwer sein sollte. Darüber hinaus wurde eine stärkere Vorhersage aus den negativen Stimuli gefunden. Diese Hypothese hat starke empirische Unterstützung erhalten, dass negative Reize im Allgemeinen mehr Aufmerksamkeit auf sich ziehen als neutrale oder positive Reize, selbst für stimmungskongruente Kognitionen (Van Dillen & Koole 2007). Diese Arbeit weist auch potenzielle Einschränkungen auf. Es gibt bemerkenswert hohe Fehlerquoten, was darauf hindeutet, dass die Aufgabe für Teilnehmer mit einem Floor-Effekt schwierig sein könnte. Für zukünftige Forschungen wäre es interessant, eine einfachere Reihe von Experimenten zu entwickeln, die auch die Rollenaufmerksamkeitsanforderungen untersuchen könnte, wie von mehreren Autoren angegeben (Moret-Tatay et al. 2014 Moret-Tatay & Perea 2011 Navarro-Pardo, Navarro-Prados, Gamermann, & Moret-Tatay 2013) und ihre möglichen Interaktionen mit emotionaler Valenz.

Diese Forschung wurde von der Generalitat Valenciana (Ajudes per a la realitzacio de projectes de I + D per a equips d'investigacio emergents, GV/ 2016/188) und der Universidad Catolica de Valencia San Vicente Martir (ayudas internas, 2016-198 .) gesponsert -001/PRUCV/2015/630).

CMT beteiligte sich an der Konzeption und dem Design der Studie, der Datenerhebung, der Datenanalyse und -interpretation sowie der Erstellung des Manuskripts. MJB-A beteiligte sich an der Analyse und Interpretation von Daten und der Erstellung des Manuskripts. AL beteiligte sich an der Konzeption und dem Design der Studie, der Datenerhebung, der Datenanalyse und -interpretation sowie der Erstellung des Manuskripts.CRO beteiligte sich an der Analyse und Interpretation von Daten und dem Rafting von Manuskripten. Alle Autoren haben das endgültige Manuskript gelesen und genehmigt.

Die Autoren erklären, dass sie keine konkurrierenden Interessen haben.

Springer Nature bleibt in Bezug auf gerichtliche Ansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

[1] Universidad Catolica de Valencia San Vicente Martir, Calle Guillem de Castro 175, 46008 Valencia, Spanien. [2] Universidad de Valencia, Avenida Blasco Ibanez, 46021 Valencia, Spanien. [3] IMED Passo Fundo, Rua Senador Pinheiro, 304 – Vila Rodrigues, Passo Fundo – RS 99070-220, Brasilien.

Eingegangen: 11. August 2017 Angenommen: 18. Dezember 2017

Online veröffentlicht: 25. Januar 2018

Bowen, H.J., Kark, S.M., & Kensinger, E.A. (2017). NIEMALS vergessen: negative emotionale Valenz fördert die Rekapitulation. Psychonomisches Bulletin und Rezension, 1-22.

Davis, C. J., & Perea, M. (2005). Busca Palabras: ein Programm zur Ableitung orthographischer und phonologischer Nachbarschaftsstatistiken und anderer psycholinguistischer Indizes auf Spanisch. Verhaltensforschungsmethoden, 37(4), 665-671.

Dolcos, F., & McCarthy, G. (2006). Gehirnsysteme, die kognitive Störungen durch emotionale Ablenkung vermitteln. Journal of Neuroscience, 26(7), 2072-2079.

Ferre, P., Fraga, I., Comesana, M. und Sanchez-Casas, R. (2015). Gedächtnis für emotionale Wörter: die Rolle der semantischen Verwandtschaft, der Kodierungsaufgabe und der affektiven Valenz. Kognition und Emotion, 29(8), 1401-1410.

Ferre, P., Garcia, T., Fraga, I., Sanchez-Casas, R., &. Molero, M. (2010). Gedächtnis für emotionale Wörter bei Zweisprachigen: Haben Wörter in der ersten und in der zweiten Sprache die gleiche emotionale Intensität? Kognition und Emotion, 24, 760-785.

Foerde, K., Knowlton, B.J., & Poldrack, R.A. (2006). Modulation konkurrierender Gedächtnissysteme durch Ablenkung. Proceedings of the National Academy of Sciences, 103(31), 11778-11783.

Forster, K.I., & Forster, J.C. (2003). DMDX: Ein Windows-Anzeigeprogramm mit Millisekunden-Genauigkeit. Verhaltensforschungsmethoden, Instrumente und Computer, 35, 116-124.

Gupta, R., Hur, Y.J., &. Lavie, N. (2016). Abgelenkt durch Freude: Auswirkungen positiver vs. negativer Valenz auf die emotionale Erfassung unter Belastung. Gefühl, 16(3), 328.

Hayes, A.F. (2009). Jenseits von Baron und Kenny: Satistische Mediationsanalyse im neuen Jahrtausend. Kommunikationsmonographien, 76(4), 408-420.

Hayes, A.F. (2015). Ein Index und Test der linear moderierten Mediation. Multivariate Verhaltensforschung, 50(1), 1-22.

Herbert, C., & Kissler, J. (2010). Motivationales Priming und Verarbeitungsinterrupt: Schreckreflexmodulation während der flachen und tiefen Verarbeitung emotionaler Worte. Internationale Zeitschrift für Psychophysiologie, 76 (2), 64-71.

Hodsoll, S., Viding, E., &. Lavie, N. (2011). Aufmerksamkeitsfesselung durch irrelevante emotionale Ablenkergesichter. Emotionen, 11 (2), 346.

Leon Gordillo, F., Martinez, J. M. A., Hernandez, L. M., Cruz, J. S., Meilan, J. J. G., Ramos, J. C. & Saez, E. P. (2010). Emocion y memoria de reconocimiento: la diskriminacion de la informacion negativa como un proceso adaptativo. Psikothem, 22(4), 765-771.

MacKinnon, D.P., &. Fairchild, A.J. (2009). Aktuelle Richtungen in der Mediationsanalyse. Aktuelle Richtungen in der psychologischen Wissenschaft, 18(1), 16-20.

Meng, X., Zhang, L., Liu, W., Ding, X., Li, H., Yang, J., & Yuan, J. (2017). Der Einfluss der Emotionsintensität auf das Wiedererkennungsgedächtnis: Valenzpolarität ist wichtig. Internationale Zeitschrift für Psychophysiologie, 116, 16-25.

Moreno-Cid, A., Moret-Tatay, C., Irigaray, T.Q., Argimon, 1.1., Murphy, M., Szczerbinski, M., . Fernandez, P. (2015). Die Rolle von Alter und emotionaler Wertigkeit bei der Worterkennung: eine ehemalige Gausssche Analyse. Studia Psychologica, 57 (2), 83.

Moret-Tatay, C., Lemus-Zuniga, L.G., Tortosa, D.A., Gamermann, D., Vazquez-martinez, A., Navarro-Pardo, E., &. Conejero, J.A. (2017). Verlangsamung des Alters bei der Erkennung und visuellen Unterscheidung bei unterschiedlichen Präsentationszeiten. Skandinavisches Journal für Psychologie, 58(4), 304-311.

Moret-Tatay, C., Leth-Steensen, C., Irigaray, T.Q., Argimon, I., Gamermann, D., Abad-Tortosa, D., . de Cordoba Castella, P. F. (2016). Die Wirkung von korrigierendem Feedback auf die Leistung bei grundlegenden kognitiven Aufgaben: eine Analyse von RT-Komponenten. Psychologica Belgica, 56(4).

Moret-Tatay, C., Moreno-Cid, A., Argimon, I.I.D.L., Quarti Irigaray, T., Szczerbinski, M., Murphy, M., . Fernandez de Cordoba Castella, P. (2014). Die Auswirkungen von Alter und emotionaler Valenz auf das Wiedererkennungsgedächtnis: eine Analyse der ehemaligen Gaußschen Komponenten. Skandinavisches Journal für Psychologie, 55(5), 420-426.

Moret-Tatay, C., & Perea, M. (2011). Ist die lexikalische Go/No-Go-Entscheidungsaufgabe der Ja/Nein-Aufgabe bei sich entwickelnden Lesern vorzuziehen? Zeitschrift für experimentelle Kinderpsychologie, 110 (1), 125-132.

Mueller, C.J., & Kuchinke, L. (2016). Individuelle Unterschiede in der Emotionstextverarbeitung: eine Diffusionsmodellanalyse. Kognitive, affektive und Verhaltensneurowissenschaften, 16(3), 489-501.

Navarro-Pardo, E., Navarro-Prados, A.B., Gamermann, D., & Moret-Tatay, C. (2013). Unterschiede zwischen jungen und alten Universitätsstudenten bei einer lexikalischen Entscheidungsaufgabe: Evidenz durch einen ex-gaußschen Ansatz. The Journal of General Psychology, 140(4), 251-268.

Perea, M., Panadero, V., Moret-Tatay, C., & Gomez, P. (2012). Die Auswirkungen des Buchstabenabstands bei der visuellen Worterkennung: Beweise bei jüngeren normalen Lesern und entwicklungsbedingten Legasthenikern. Lernen und Anleitung, 22(6), 420-430.

Racsmany, M., Szollosi, A., & Bencze, D. (2017). Die Retrieval-Praxis macht Verfahren aus dem Erinnern: eine Automatisierungsrechnung des Testeffekts. Zeitschrift für experimentelle Psychologie. Lernen, Gedächtnis und Kognition.

Ratcliff, R., Smith, P.L., Brown, S.D., & McKoon, G. (2016). Diffusionsentscheidungsmodell: aktuelle Probleme und Geschichte. Trends in den Kognitionswissenschaften, 20(4), 260-281.

Robinson, M.D., & Johnson, J.T. (1996). Abrufgedächtnis, Erkennungsgedächtnis und die Vertrauens-Genauigkeits-Korrelation von Augenzeugen. Zeitschrift für Angewandte Psychologie, 81(5), 587.

Schwager, S., & Rothermund, K. (2013). Durch Emotionen ausgelöste Gegenregulation: positive/negative affektive Zustände rufen gegensätzliche Valenzverzerrungen in der affektiven Verarbeitung hervor. Kognition & Emotion, 27(5), 839-855.

Sereno, S.C., Scott, G.G., Yao, B., Thaden, E.J. und O'Donnell, P.J. (2015). Emotionstextverarbeitung: Macht die Stimmung einen Unterschied? Grenzen in der Psychologie, 6, 1191.

Van Dillen, L.F., &. Koole, S.L. (2007). Clearing the mind: Ein Arbeitsgedächtnismodell der Ablenkung von negativer Stimmung. Gefühl, 7(4), 715.

Van Tol, M.J., Demenescu, L.R., Van der Wee, N.J., Kortekaas, R., Marjan, N., Den Boer, J.A., . Veltmann, D.J. (2012). Die funktionelle Magnetresonanztomographie korreliert die emotionale Wortkodierung und -erkennung bei Depressionen und Angststörungen. Biologische Psychiatrie, 71(7), 593-602.

Zhang, W., Gross, J., & Hayne, H. (2017). Der Einfluss der Stimmung auf das falsche Gedächtnis für emotionale DRM-Wortlisten. Kognition und Emotion, 31(3), 526-537.

C. Moret-Tatay [1] *, A. Lami [2], C. R. Oliveira [3] und M. J. Beneyto-Arrojo [1]

[1] Universidad Catolica de Valencia San Vicente Martir, calle Guillem de Castro 175, 46008 Valencia, Spanien

Eine vollständige Liste der Autoreninformationen finden Sie am Ende des Artikels

Bildunterschrift: Abb. 1 zu prüfendes Mediationsmodell und seine Wege

Bildunterschrift: Abb. 2 Mediationsmodell, das testet, wie Veränderungen bei ablenkenden Stimuli die RT-Vorhersagegenauigkeit über emotionale Bedingungen hinweg vermitteln