Information

Wie genau konstruieren wir den wahrgenommenen IQ anhand von Gesichtsmerkmalen?

Wie genau konstruieren wir den wahrgenommenen IQ anhand von Gesichtsmerkmalen?

Es gibt Behauptungen, dass Menschen den IQ anderer erkennen können.

Was ist der Unterschied zwischen den folgenden Bildern, die den IQ von Männern zeigen?

Persönlich kann ich "fühlen", dass der Typ mit hoher wahrgenommener Intelligenz (rechts) tatsächlich am intelligentesten aussieht.

Doch was ist der Grund für dieses Bauchgefühl? Ist die Nase breiter? Sind es die schrägen Augen? Ich habe die zugehörigen Rasterzeichnungen gefunden, aber ich kann es immer noch nicht herausfinden.


Die von Ihnen verlinkten Bilder sind zusammengesetzte Bilder und enthalten daher wahrscheinlich nicht die Merkmale, anhand derer die Bewerter den IQ genau beurteilen konnten. Der Originalartikel (Kleisner, Chvátalová & Flegr, 2014) ist frei verfügbar und scheint Ihre Frage in ihrer Zusammenfassung zu beantworten:

Als hochintelligent empfundene Gesichter sind eher langgestreckt mit größerem Augenabstand, größerer Nase, leicht nach oben gerichteten Mundwinkeln und einem schärferen, spitzeren, weniger gerundeten Kinn. Im Gegensatz dazu wird die Wahrnehmung geringerer Intelligenz mit breiteren, runderen Gesichtern mit näher beieinander liegenden Augen, einer kürzeren Nase, abfallenden Mundwinkeln und einem runden und massiven Kinn in Verbindung gebracht.

Diese Unterschiede beziehen sich nur auf die wahrgenommene Intelligenz, nicht auf die gemessene Intelligenz. Aus dem Fazit:

Mit den üblichen geometrisch-morphometrischen Methoden wurden keine spezifischen Merkmale festgestellt, die mit der realen Intelligenz korrelierten. Männer und Frauen mit bestimmten Gesichtszügen wurden als hochintelligent wahrgenommen. Allerdings stellen diese Gesichter von vermeintlich hoher und niedriger Intelligenz wahrscheinlich nichts anderes als ein kulturelles Stereotyp dar, da diese morphologischen Merkmale nicht mit der wirklichen Intelligenz der Probanden korrelieren.

Die Autoren spekulieren (aber analysierten sie nicht) über andere Faktoren, die die Wahrnehmbarkeit der tatsächlichen Intelligenz erklären könnten, abgesehen von den in den Zusammensetzungen sichtbaren Faktoren, einschließlich:

Besondere Augen- oder Blickkonfigurationen, Augen-, Haar- und Hautfarbe oder Hautbeschaffenheit.

All diese Eigenschaften würden in Gesichtskompositmaterialien ausgelöscht, sodass Sie die Intelligenz wahrscheinlich nicht genau aus den Bildern erkennen können, die Sie gemäß dieser Studie eingebettet haben.

Referenz
Kleisner, K., Chvátalová, V., & Flegr, J. (2014). Wahrgenommene Intelligenz ist bei Männern mit gemessener Intelligenz verbunden, nicht jedoch bei Frauen. PloS One, 9(3), e81237. Abgerufen von http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0081237.


Phylogenetische Verteilung – Inversionseffekte

Der gebräuchlichste Test für die Verwendung von Konfigurationsverarbeitung zur Erkennung von Gesichtern besteht darin, den Effekt der Invertierung der Stimuli (Drehung der Stimuli um 180° in der Bildebene) zu messen. Beim Menschen gibt es a unverhältnismäßig Inversionseffekt für menschliche Gesichter (Yin, 1969) – Viele Reize werden beim Invertieren weniger genau und langsamer angepasst oder erkannt, aber dies gilt insbesondere für Gesichter. Der überraschendste Bericht über einen Inversionseffekt auf die Gesichtserkennungsleistung stammt von Dyer et al. (2005) für Honigbienen, die menschliche Gesichter unterscheiden, und eine Analyse der verwendeten Methoden ist aufschlussreich für die Interpretation anderer Berichte über Inversionseffekte (oder deren Abwesenheit) bei anderen Arten. Offensichtlich haben Honigbienen keinen weiterentwickelten Mechanismus zur Erkennung menschlicher Gesichter (oder sogar anderer Honigbienen, da dies auf Kolonieebene der Kategorisierung erfolgt, chemosensorisch – Breed, 1998), und Dyer et al. ausdrücklich darauf hingewiesen, dass, wenn sie dennoch Individuen erkennen und einen Inversionseffekt zeigen könnten, dies die Behauptung in Frage stellen würde, dass Menschen sich durch einen speziell entwickelten Mechanismus erkennen. Es gibt Raum, die Logik dieser Behauptung in Frage zu stellen, da die Bienen die Arbeit auf ganz andere Weise erledigen könnten (und der Inversionseffekt nur ein Kennzeichen der ganzheitlichen/konfigurativen Verarbeitung ist), aber es besteht keine wirkliche Notwendigkeit, dies zu tun, da Dyer et al. demonstrierte nicht einmal eine individuelle Anerkennung, geschweige denn einen unverhältnismäßigen Inversionseffekt.

Bienen wurden belohnt (mit Saccharose), wenn sie sich einem einzelnen Exemplar des Gesichts einer Person näherten (CS+) und bestraft (mit Chinin), wenn sie sich zuerst einem schematischen Gesicht (CS−) und dann einem einzelnen Exemplar einer anderen Person näherten ( bei jedem Versuch wurden tatsächlich zwei CS+- und zwei CS−-Gesichter angezeigt). In unbelohnten “transfer”-Tests näherten sich Bienen signifikant häufiger (im Bereich von 80%) dem zuvor belohnten Gesicht als einem der beiden zuvor ungesehenen Gesichter. Dies ist nicht wirklich ein Transfertest im herkömmlichen Sinne (vgl. Burke et al., 2001, als Beispiel, der den Transfer auf neuartige Beispiele von vertikaler und horizontaler Ebene testete), da nur neuartige CS−-Stimuli eingeschlossen wurden, nicht neuartige CS+-Stimuli. Tatsächlich scheint es wahrscheinlich, dass die Bienen sogar einen Transfertest auf verschiedene Exemplare der zuvor belohnten und zuvor bestraften Gesichter nicht bestanden haben, da sie nur mit einem einzigen Exemplar von jedem trainiert worden waren und daher frei waren (und in einem Sinn ermutigt) um die Diskriminierung zu begründen irgendein Merkmal (wie Helligkeit, Kontrast, Breite, Vorhandensein eines Makels oder Schattens an einer bestimmten Stelle, Muster Kontrast- oder Helligkeitsänderung im Laufe der Zeit, wenn sich die Bienen vor den Gesichtern bewegten usw.), die die Reize differenzierten (eine Taktik, die Tauben nach Möglichkeit anwenden – Watanabe, 1993). Vorausgesetzt, dass den neuartigen CS−-Stimuli auch das Merkmal (oder die Merkmale) fehlten, auf das sich jede Biene zur Auswahl des CS stützte, würden sie auch abgelehnt, ohne dass die Bienen Individuen anhand ihres Gesichts wirklich erkennen könnten. Ebenso ist es sehr wahrscheinlich, dass das Umkehren der Gesichter die Position oder das Muster des Merkmals oder der Merkmale ändert, die zur Durchführung der Unterscheidung verwendet werden, und so die Leistung erneut stören –, ohne dass die Bienen Individuen erkennen, geschweige denn dies mithilfe von Konfigurationsinformationen ( wie Dyer et al. vorschlagen könnten). Das Experiment, wie es berichtet wurde, scheint ebenso wahrscheinlich zu funktionieren, beginnend mit invertierten Gesichtern (oder tatsächlich jeder anderen Kategorie von Objekten) als Trainingsstimuli, und dann zu aufrechten Gesichtern zu übertragen, und wir wissen, dass Menschen nicht lernen, invertierte Gesichter ganzheitlich/konfigurativ zu verarbeiten (Robbins und McKone, 2003) selbst nach deutlich mehr Versuchen, als die Bienen trainiert wurden. Ohne jeglichen Nachweis, dass die Bienen die Diskriminierung aufgrund der Gesichtsidentität durchführten und ohne Prüfung, inwieweit sie einen Inversionseffekt für Diskriminierungen mit anderen Objektkategorien zeigten (um zu testen, ob der Gesichtsinversionseffekt unverhältnismäßig groß ist), gibt es ist kein Grund anzunehmen, dass Bienen menschliche Gesichter konfigurativ/ganzheitlich verarbeiten.

Die anderen Nicht-Primaten, die auf den Inversionseffekt getestet wurden, sind Schafe (Kendrick et al., 1995, 1996), Hunde (Racca et al., 2010) und Tauben (Phelps und Roberts, 1994 –). getestet mit Primaten, nicht Tauben, Gesichtern). Phelps und Roberts trainierten Tauben, zwischen Paaren von Gesichtern (von denen eines willkürlich als korrekt bezeichnet wurde) zu unterscheiden, die entweder beide aufrecht oder beide invertiert waren, und fanden heraus, dass die Tauben aufrecht und invertierte Menschen unterschieden, “monkey” und “great ape& #x0201D Gesichter gleich gut – sie zeigten keinerlei Hinweise auf einen Inversionseffekt für diese Gesichter. Ein Klammeraffe und menschliche Teilnehmer, die auf im Wesentlichen identisch getestet wurden, zeigten Inversionseffekte für alle Kategorien von Primatengesichtern, obwohl größere Effekte für menschliche Gesichter, aber dies war die einzige Kategorie, die nur eine Art enthielt, daher ist dies nicht überraschend (wie erklärt) später). Dies zeigt sowohl, dass Tauben keinen Mechanismus haben, der wie Menschen auf aufrecht stehende Primatengesichter reagiert (vielleicht nicht überraschend, obwohl die Autoren auch kurz berichteten, dass ein Pilot keinen Inversionseffekt für 𠇋ird”-Gesichter fand) und dass aufrecht stehende Primaten Gesichter sind nicht an sich leichter zu unterscheiden als umgekehrte Primatengesichter (ohne einen solchen Mechanismus).

Raccaet al. untersuchten die Gesichtsverarbeitung bei Hunden mit einer visuellen paarweisen Vergleichsmethode – ein Gewöhnungsparadigma, bei dem ein Probenreiz durch zwei räumlich getrennte Bilder ersetzt wird, von denen eines mit der Probe übereinstimmt. Typischerweise verbringen die Probanden mehr Zeit damit, den neuen Stimulus zu betrachten, obwohl Hunde dies in dieser Studie für gewöhnliche Gegenstände und menschliche Gesichter taten, aber für Hundegesichter betrachteten sie tatsächlich mehr das Bild des zuvor präsentierten Individuums. Unterschiedliches Aussehen (wenn auch in verschiedene Richtungen für Menschen- und Hundegesichter) wurde als Beweis für die Individuation genommen. Obwohl berichtet wird, dass die übereinstimmenden Gesichter unterschiedliche Fotos einer bestimmten Person sind (aus leicht unterschiedlichen Perspektiven) und sie manipuliert wurden, um eine Übereinstimmung basierend auf Helligkeit oder Kontrast zu verhindern, sehen sie aus den Beispielfiguren bemerkenswert ähnlich aus, so dass es nicht völlig überzeugend ist, dass die Hunde erkannten Einzelpersonen. Wenn der Probenstimulus aufrecht war, die Testbilder jedoch invertiert waren (in Humanstudien ist es üblich, beide Probe- und Testreize aufrecht oder invertiert, da keine der beiden Aufgaben eine Bildtransformation erfordert), wurden keine signifikanten Unterschiede in der Suchzeit für einen der Stimuli gefunden, und es gibt also zwar Hinweise auf eine Version des Inversionseffekts, aber keinen Hinweis auf a unverhältnismäßig Inversionseffekt für Gesichter (entweder von Hunden oder Menschen) und daher kein Hinweis auf eine konfigurale/ganzheitliche Verarbeitung von Gesichtern durch Hunde.

Die vielleicht bekannteste Gesichtsforschung an Nicht-Primaten ist die von Kendrick und Kollegen (Kendrick et al., 1995, 1996, Peirce et al., 2000, 2001). In der ursprünglichen Studie (Kendrick et al., 1995) wurden Schafe in einem Y-Labyrinth trainiert, um auszuwählen zwischen das Gesicht a von Schafen und das eines Menschen oder eines Schafs und eines Hundes usw. (wobei die Auswahl von Schafen verstärkt wurde), und daher ist es tatsächlich überraschend, dass der berichtete Inversionseffekt überhaupt aufgetreten ist, da es nicht erforderlich ist, eine Grundlage zu bilden diese Diskriminierung der Gesichtsidentität oder sogar eine Konfiguration von Merkmalen – eine breite Palette individueller Merkmale würde dazu dienen, das Schaf � zuverlässig zu pflücken.” Es gibt einige Hinweise auf einen Kompromiss zwischen Geschwindigkeit und Genauigkeit, wenn die Gesichter invertiert sind, und so beeinflusste vielleicht die schnellere Reaktion auf invertierte Reize die Genauigkeit. Kendricket al. (1996) verbesserten diese Methodik, indem sie Schafen trainierten, zwischen den Fotos verschiedener einzelner Schafe (aber immer noch nur einzelner Exemplare eines bestimmten Individuums) mit beiden Gesichtern aufrecht oder beiden Gesichtern invertiert zu unterscheiden. Es gab keine Transfertests – alle Reizpaare wurden bei jedem Versuch unterschiedlich verstärkt und in (zwei) verschiedenen Reihenfolgen trainiert – und daher ist der berichtete Inversionseffekt eine Folge der besseren Fähigkeit zu lernen unterschiedlich auf aufrechte oder invertierte Gesichter zu reagieren (die gleichen Gesichter wurden in den aufrechten und invertierten Bedingungen verwendet). Bei Schafgesichtern eigener (aber unbekannter) Schafe (Clun Forest) schnitten die Schafe besser ab, wenn die Gesichter aufrecht standen (ca. 85 % im Vergleich zu 75 % Leistung), aber bei anderen (und unbekannten) Rassengesichtern (Dalesbred) gab es keine Effekt der Inversion (wenn überhaupt, in die falsche Richtung). Mit aufrechten Gesichtern fiel es den Schafen auch viel leichter, Belohnungen mit bestimmten vertrauten Schafen zu assoziieren als mit bestimmten unbekannten Schafen ihrer eigenen Rasse. Dieser Unterschied wurde nicht mit invertierten Gesichtern getestet, und daher ist es leider unmöglich zu sagen, ob der fehlende Inversionseffekt für Gesichter anderer Rassen darauf zurückzuführen ist, dass sie weniger wie die Gesichter, mit denen sie vertraut sind, oder auf die Tatsache, dass Dalesbred-Schafe viele weitere nicht-konfigurative Merkmale haben, um Individuen zu unterscheiden –, einschließlich markanter weißer Flecken auf ihren Gesichtern und langen, unterschiedlich gewellten Hörnern (Clun-Waldschafe haben einheitlich schwarze Gesichter). und keine Hörner). Es gab auch keinen Inversionseffekt für ein Bild eines leeren vs. eines vollen Essenseimers, aber da das Vorhandensein oder Fehlen von Essen durch ein sehr offensichtliches Merkmal (das Essen) signalisiert wird, liefert dies keinen wirklich überzeugenden Beweis für a unverhältnismäßig Inversionseffekt für Schafsgesichter.

Parr (2011) überprüft Beweise für Inversionseffekte bei nicht-menschlichen Primaten (neben anderen Markern der ganzheitlichen Verarbeitung, die später diskutiert werden) und kommt zu dem Schluss, dass die Beweise für gewöhnliche Schimpansen gut sind, aber gemischt für Affen – die anderen Affen und Halbmonde haben es nie getan getestet worden. Es stimmt zwar, dass die Beweise von Affen gemischt sind, Versagen Beweise für einen Inversionseffekt zu finden, kann viele andere Gründe haben, als dass die betreffende Spezies Gesichter nicht ganzheitlich/konfigurativ verarbeitet, und daher ist eine kurze Untersuchung der Stärke der Beweise gerechtfertigt.

Zwei der frühesten Studien, die versuchen, zuvor widersprüchliche Berichte über Inversionseffekte bei Affen in Einklang zu bringen, sind die von Phelps und Roberts (1994) und Wright und Roberts (1996). Unter Verwendung von Match-to-Sample- und Diskriminierungslernverfahren berichteten beide Studien über Inversionseffekte für Menschen-, Affen- und Affengesichter, jedoch nicht für Außenszenen, und größere Inversionseffekte für menschliche Gesichter. Phelps und Roberts verwendeten Totenkopfäffchen, eine neue Weltart, und Wright und Roberts verwendeten Rhesusaffen, eine Art der alten Welt, was auf einen phylogenetisch weit verbreiteten unverhältnismäßigen Inversionseffekt für Gesichter bei Affen hindeutet und somit möglicherweise auf einen relativ frühen evolutionären Ursprung der konfiguralen Verarbeitung von Gesichter bei den Primaten. Es ist schwierig, endgültige Schlussfolgerungen über die relative Größe des Inversionseffekts für Affen-, Affen- und Menschengesichter zu ziehen, da, wie zuvor beschrieben, als Tauben die Teilnehmer waren, die Unterscheidung zwischen menschlichen Gesichtern Bilder verschiedener menschlicher Gesichter beinhaltete, aber das 𠇊pe& #x0201D- und “monkey”-Aufgaben beinhalteten Unterscheidungen zwischen verschiedenen Spezies das waren zufällig Affen oder Affen. Angesichts dessen ist der überraschende Aspekt dieser Ergebnisse, dass es für Affen- und Affengesichter überhaupt einen Inversionseffekt gab (tatsächlich gab es ihn nur bei Wright und Roberts), nicht dass er für menschliche Gesichter größer war. Aus diesem Grund ist es vielleicht verfrüht, darüber zu spekulieren, ob einige Arten von Primaten Gesichter könnte configural/holistic Processing besser unterstützen, wie dies auch diese Autoren und Parr (2011) tun.

Nachfolgende Studien haben die Stimulusprobleme dieser Studien vermieden, konnten aber vor allem aus methodischen Gründen noch kein klares Bild der Verteilung der Inversionseffekte bei Primaten zeichnen. In Studien von Parr und Kollegen scheint es beispielsweise richtig zu sein, dass Rhesusaffen viel mehr Trainingsversuche benötigen, um die Match-to-Sample-Aufgabe zu erwerben als Schimpansen, was die Frage aufwirft, ob sie die Reize gleichzeitig verarbeiten Weg. Um ein Beispiel zu nehmen, haben Parr et al. (1998) fanden heraus, dass Schimpansen einen Inversionseffekt für Menschen- und Schimpansengesichter (mit denen sie Erfahrung hatten) zeigten, jedoch nicht für die Gesichter von Kapuzineraffen (eine neue Weltart) oder Autos, sondern dass Rhesusaffen (Parr et al. , 1999) auf ähnliche Weise getestet (aber erforderte viele mehr Versuche – etwa 2000 pro Kategorie) zeigten Inversionseffekte für die Rhesusgesichter, Kapuzinergesichter, Autos und menschliche Gesichter (nicht signifikant, aber so groß wie die anderen Primateninversionseffekte), aber nicht für abstrakte Symbole. Die Affen hatten zuvor ähnliches trainiert Aufgaben nicht jedoch mit sozial relevanten Reizen, bei denen sie möglicherweise gelernt haben, visuell präsentierte Reize in solchen Aufgaben so zu verarbeiten, dass nachfolgende Gesichtsdiskriminierungen beeinträchtigt werden. Auf jeden Fall legen so viele Trainingsversuche eine ungewöhnliche Methode zum Erlernen des Match-to-Sample-Verfahrens nahe. Alle Affen wurden leider auch mit der gleichen Reihenfolge der Reizbedingungen (Rhesus, Formen, Kapuziner, dann Mensch) getestet und wurden nicht mit neuen Exemplaren getestet, so dass es unmöglich ist zu sagen, welche Rolle bestimmte Exemplare und/oder die Reihenfolge der Prüfung.

Die Tatsache, dass Parr et al. (2008) Tat Beweise für einen unverhältnismäßigen Inversionseffekt für Gesichter mit Rhesusaffen (für Menschen-, Schimpansen- und Rhesusgesichter, aber nicht für Häuser oder ClipArt-Objekte) und dass der Schimpansen-Inversionseffekt bei genauerer Untersuchung etwas seltsam ist. Parr und Heintz (2006) testeten die Match-to-Sample-Performance für Schimpansengesichter und -häuser (mit einer aus den Beispielfiguren leider heterogenen Menge von Häusern) mit in der Bildebene gedrehten Stimuli 0, 45, 90, 135 und 180°. Obwohl es Hinweise auf einen erheblichen Inversionseffekt für die Schimpansengesichter gibt, aber nicht für die Häuser bei 180°, wird dies durch die Tatsache gemildert, dass die Leistung mit Häusern genauso schlecht war wie bei invertierten Schimpansengesichtern bei 45 und 135° ° ° x02013 immer dann, wenn die Häuser in schrägen Winkeln standen –, was auf eine ungewöhnliche Methode zur Abstimmung dieser Reize hindeutet. Die Gesichtsübereinstimmung von Schimpansen war bei 90° – auch sehr schlecht als bei 135° –, was nicht das Muster ist, das gefunden wird, wenn Menschen mit solchen Rotationen getestet werden, bei denen die Leistung linear abfällt, wenn die Ausrichtung von abweicht aufrecht (Collishaw und Hole, 2002).

Dass den zuvor berichteten inkonsistenten Ergebnissen eher methodische als speziesspezifische Unterschiede zugrunde liegen, wird durch drei relativ neue deutliche Demonstrationen von unverhältnismäßigen Inversionseffekten für Gesichter bei Affen gestützt, von denen jeder auch Beweise dafür zeigt, dass die ganzheitliche/konfigurative Verarbeitung auf Gesichter abgestimmt ist, mit denen die Affen Erfahrung haben . Unter Verwendung einer visuellen paarweisen Vergleichsmethode (dem Gewöhnungsäquivalent von Match-to-Sample) haben Gothard et al. (2009) mit Rhesusaffen (alte Welt) und Neiworth et al. (2007) unter Verwendung von Baumwolltamarinen (einer neuen Weltart) zeigten beide deutliche Hinweise auf einen Inversionseffekt für die Gesichter von Artgenossen (dies galt auch für menschliche Teilnehmer an Neiworth et al.), der größer war als für die andere Kategorien. Bei Gotthard et al. der Inversionseffekt war bei Rhesusgesichtern größer als bei menschlichen Gesichtern, mit denen die Affen viel weniger Erfahrung hatten, und in Neiworth et al. die Tamarine zeigten Inversionseffekte für Tamarine und menschliche Gesichter (mit denen sie Erfahrung hatten), aber keine Schimpansengesichter oder -objekte. In ähnlicher Weise haben Pokorny et al. (2011) mit Kapuzineraffen einen Inversionseffekt für Kapuziner und menschliche Gesichter (größer für Kapuziner, obwohl die Gesamtleistung auch für menschliche Gesichter viel schlechter war, so dass dies ein Bodeneffekt sein könnte), aber keinen signifikanten Inversionseffekt für Schimpansengesichter oder Autos.

Zusammenfassend lässt sich sagen, dass die überzeugendsten Beweise für einen unverhältnismäßigen Inversionseffekt für Gesichter tatsächlich aus Studien mit Affen stammen, und es gibt einige Hinweise darauf, dass sich dieser Effekt auf andere Primatengesichter ausdehnt, mit denen die Affen Erfahrung haben. Während die Beweise für einen unverhältnismäßigen Inversionseffekt bei anderen Arten nicht zwingend sind, könnte dies eher auf unterschiedliche Forschungsanstrengungen als auf echte phylogenetische Diskontinuitäten zurückzuführen sein.


Computer sagen den Kunstgeschmack der Menschen voraus

Mögen Sie die dicken Pinselstriche und weichen Farbpaletten eines impressionistischen Gemäldes wie denen von Claude Monet? Oder bevorzugen Sie die kräftigen Farben und abstrakten Formen eines Rothko? Der individuelle Kunstgeschmack hat eine gewisse Mystik, aber jetzt zeigt eine neue Caltech-Studie, dass ein einfaches Computerprogramm genau vorhersagen kann, welche Gemälde einem Menschen gefallen werden.

Die neue Studie, die in der Zeitschrift erscheint Natur menschliches Verhalten, nutzte Amazons Crowdsourcing-Plattform Mechanical Turk, um mehr als 1.500 Freiwillige zu gewinnen, um Gemälde in den Genres Impressionismus, Kubismus, Abstrakt und Farbbereich zu bewerten. Die Antworten der Freiwilligen wurden in ein Computerprogramm eingespeist, und nach dieser Einarbeitungszeit konnte der Computer die Kunstpräferenzen der Freiwilligen viel besser vorhersagen, als es zufällig geschehen würde.

"Früher dachte ich, die Bewertung von Kunst sei persönlich und subjektiv, daher war ich von diesem Ergebnis überrascht", sagt Hauptautor Kiyohito Iigaya, ein Postdoktorand, der im Labor des Caltech-Professors für Psychologie John O'Doherty arbeitet.

Die Ergebnisse zeigten nicht nur, dass Computer diese Vorhersagen treffen können, sondern führten auch zu einem neuen Verständnis darüber, wie Menschen Kunst beurteilen.

"Der Hauptpunkt ist, dass wir einen Einblick in die Mechanismen gewinnen, mit denen Menschen ästhetische Urteile fällen", sagt O'Doherty. „Das heißt, die Leute scheinen elementare Bildmerkmale zu verwenden und darüber zu kombinieren. Das ist ein erster Schritt, um zu verstehen, wie der Prozess funktioniert.“

In der Studie programmierte das Team den Computer, um die visuellen Attribute eines Gemäldes in sogenannte Low-Level-Merkmale – Merkmale wie Kontrast, Sättigung und Farbton – sowie High-Level-Merkmale zu unterteilen, die menschliches Urteilsvermögen erfordern und beinhalten Merkmale wie, ob das Gemälde dynamisch oder still ist.

„Das Computerprogramm schätzt dann, wie sehr ein bestimmtes Merkmal bei der Entscheidung, wie sehr einem ein bestimmtes Kunstwerk gefällt, berücksichtigt wird“, erklärt Iigaya. "Bei diesen Entscheidungen werden sowohl die Low- als auch die High-Level-Funktionen miteinander kombiniert. Sobald der Computer das geschätzt hat, kann er erfolgreich vorhersagen, ob eine Person ein anderes, zuvor ungesehenes Kunstwerk mag."

Die Forscher fanden auch heraus, dass die Freiwilligen dazu neigten, sich in drei allgemeine Kategorien einzuteilen: diejenigen, die Gemälde mit realen Objekten mögen, wie ein impressionistisches Gemälde, diejenigen, die farbenfrohe abstrakte Gemälde mögen, wie ein Rothko, und diejenigen, die komplexe Gemälde mögen, wie z Picassos kubistische Porträts. Die Mehrheit der Menschen fiel in die erste Kategorie der "realen Objekte". "Viele Leute mochten die Impressionismus-Gemälde", sagt Iigaya.

Darüber hinaus fanden die Forscher heraus, dass sie auch ein Deep Convolutional Neural Network (DCNN) trainieren könnten, um zu lernen, die Kunstpräferenzen der Freiwilligen mit ähnlicher Genauigkeit vorherzusagen. Ein DCNN ist eine Art maschinelles Lernprogramm, bei dem einem Computer eine Reihe von Trainingsbildern zugeführt wird, damit er lernen kann, Objekte zu klassifizieren, z. B. Katzen im Vergleich zu Hunden. Diese neuronalen Netze haben Einheiten, die wie Neuronen in einem Gehirn miteinander verbunden sind. Durch Ändern der Stärke der Verbindung einer Einheit zu einer anderen kann das Netzwerk "lernen".

In diesem Fall umfasste der Deep-Learning-Ansatz keines der ausgewählten Low- oder High-Level-Visualfunktionen, die im ersten Teil der Studie verwendet wurden, sodass der Computer selbst „entscheiden“ musste, welche Merkmale er analysieren wollte.

„Bei Deep-Neural-Network-Modellen wissen wir eigentlich nicht genau, wie das Netzwerk eine bestimmte Aufgabe löst, weil die Modelle ähnlich wie echte Gehirne von selbst lernen“, erklärt Iigaya. "Es kann sehr mysteriös sein, aber als wir in das neuronale Netzwerk schauten, konnten wir feststellen, dass es die gleichen Merkmalskategorien konstruierte, die wir selbst ausgewählt haben." Diese Ergebnisse weisen auf die Möglichkeit hin, dass Merkmale, die zur Bestimmung der ästhetischen Präferenz verwendet werden, in einer gehirnähnlichen Architektur auf natürliche Weise entstehen könnten.

"Wir prüfen jetzt aktiv, ob dies tatsächlich der Fall ist, indem wir uns das Gehirn der Menschen ansehen, während sie dieselben Entscheidungen treffen", sagt O'Doherty.

In einem anderen Teil der Studie zeigten die Forscher auch, dass ihr einfaches Computerprogramm, das bereits auf Kunstpräferenzen trainiert war, genau vorhersagen konnte, welche Fotos Freiwillige gerne hätten. Sie zeigten den Freiwilligen Fotos von Schwimmbädern, Essen und anderen Szenen und sahen ähnliche Ergebnisse wie bei Bildern. Darüber hinaus zeigten die Forscher, dass auch die Umkehrung der Reihenfolge funktioniert: Nachdem die Freiwilligen zunächst Fotos trainiert hatten, konnten sie das Programm verwenden, um die Kunstpräferenzen der Probanden genau vorherzusagen.

Während das Computerprogramm erfolgreich die Kunstpräferenzen der Freiwilligen vorhersagen konnte, sagen die Forscher, dass es noch mehr über die Nuancen zu lernen gibt, die in den Geschmack jedes Einzelnen einfließen.

"Es gibt Aspekte von Präferenzen, die für eine bestimmte Person einzigartig sind und die wir mit dieser Methode nicht erklären konnten", sagt O'Doherty. „Diese eher idiosynkratische Komponente kann sich auf semantische Merkmale oder die Bedeutung eines Gemäldes, frühere Erfahrungen und andere individuelle persönliche Merkmale beziehen, die die Bewertung beeinflussen können. Es kann immer noch möglich sein, diese Merkmale in einem Computermodell zu identifizieren und zu lernen, aber dies erfordert eine detailliertere Untersuchung der Präferenzen jedes Einzelnen auf eine Weise, die sich möglicherweise nicht auf Einzelpersonen verallgemeinern lässt, wie wir es hier gefunden haben."


Musik beeinflusst, wie wir Gesichtsausdrücke wahrnehmen

Musik kann man sich als eine Form der emotionalen Kommunikation vorstellen, mit der der Performer dem Hörer einen emotionalen Zustand vermittelt. Diese „Sprache“ ist bemerkenswert mächtig – sie kann starke Emotionen hervorrufen und Ihr Herz rasen lassen oder Ihnen ein Kribbeln über den Rücken jagen. Und es ist universell – der emotionale Inhalt eines Musikstücks kann von jedem verstanden werden, unabhängig von kulturellem Hintergrund.

Sind die durch ein Musikstück hervorgerufenen Emotionen ähnlich und können sie andere emotionale Erfahrungen beeinflussen? Die Antwort auf diese Fragen ist unklar. Aber eine neue Studie, die gerade in Neurowissenschaften Briefe, liefert sowohl verhaltensbezogene als auch physiologische Beweise dafür, dass die durch Musik hervorgerufenen Emotionen auf den Sehsinn übertragen werden können und die Wahrnehmung der Emotionen in der Mimik beeinflussen können.

Für ihre Studie führten Nidhya Logeswaran und Joydeep Bhattacharya vom Goldsmiths College in London bzw. der Österreichischen Akademie der Wissenschaften zwei separate Experimente durch. In der ersten wurden 30 Teilnehmern eine Reihe von fröhlichen oder traurigen Musikausschnitten von jeweils 15 Sekunden Dauer präsentiert. Nach jedem Musikstück wurde den Teilnehmern ein Foto eines Gesichts gezeigt, das entweder einen glücklichen, traurigen oder neutralen Ausdruck ausdrückte. Die Fotos wurden 1 Sekunde lang auf einen Bildschirm geblitzt, wonach die Teilnehmer gebeten wurden, die Emotion auf einer 7-Punkte-Skala zu bewerten, wobei 1 extrem traurig und 7 extrem glücklich bedeutet.

So wurden die visuellen emotionalen Reize – die Fotos von Gesichtern – durch einen durch ein Musikstück vermittelten emotionalen Zustand „geprimt“. Alle Teilnehmer identifizierten die Emotionen, die die Gesichter in den ihnen präsentierten Fotos ausdrückten, richtig. Glückliche Gesichter, die von einem fröhlichen Musikstück grundiert wurden, wurden jedoch als glücklicher bewertet als wenn sie von trauriger Musik grundiert wurden. Umgekehrt wurden traurige Gesichter, die mit einem traurigen Musikstück grundiert wurden, als trauriger bewertet als solche, die mit einem fröhlichen Musikstück grundiert wurden. Schließlich wurden neutrale Gesichter höher bewertet, wenn sie von einem fröhlichen Musikstück grundiert wurden, und niedriger, wenn sie von einem traurigen Stück grundiert wurden.

Es wurde festgestellt, dass der Priming-Effekt für neutrale Gesichter fast doppelt so groß ist wie der Effekt für glückliche und traurige Gesichter. Dies kann daran liegen, dass neutrale Gesichter weniger Informationen enthalten als solche, die die eine oder andere Emotion ausdrücken, und daher etwas mehrdeutig sind. Wir wissen, dass das Gehirn Informationen aus verschiedenen Sinnen integriert, um Repräsentationen der äußeren und inneren Welt zu konstruieren. Daher kann es bei Fehlen relevanter visueller Informationen bei der Generierung dieser Repräsentationen auf Informationen aus anderen Sinnen angewiesen sein.

Das zweite Experiment, an dem 15 verschiedene Teilnehmer teilnahmen, war auf die gleiche Weise konzipiert, aber diesmal verwendeten Logeswaran und Bhattacharya ein Elektroenzephalogramm (EEG), um ereignisbezogene Potenziale aufzuzeichnen - die elektrische Aktivität im Gehirn, die mit der Wahrnehmung der auditiven und visuellen Reize verbunden ist vorgeführt. Eine Reihe früherer EEG-Studien haben gezeigt, dass unsere emotionalen Reaktionen auf Musik mit ausgeprägten Mustern der Gehirnaktivierung verbunden sind – ein fröhliches Musikstück oder eines, das wir mögen, verursacht eine Zunahme der Aktivität, die von Elektroden aufgezeichnet wird, die über der linken Frontal- und Schläfenseite liegen und Musikstücke, die negative Emotionen hervorrufen, sind mit einer erhöhten Aktivität im rechten Frontal- und Temporallappen verbunden. Ein ähnlicher lateralisierter Effekt wurde auch für emotional signifikante visuelle Reize beobachtet.

In ihren Analysen verglichen die Forscher Paare von Bedingungen, bei denen Fotografien derselben Gesichtsemotion unterschiedlich grundiert wurden. Unter beiden Bedingungen wurde ein Signal, das mit den späteren Stadien der Gesichtsverarbeitung verbunden ist, die als gesichtsspezifische N170-Komponente bezeichnet wird, von Elektroden gemessen, die über den Okzipital- und Parietallappen liegen. zunächst von frontalen und zentralen Elektroden, gefolgt von mehr Aktivität in den Elektroden, die sich in Richtung des Hinterkopfes befinden. Es wurde jedoch ein Unterschied zwischen Bedingungen beobachtet, in denen neutrale Gesichter durch fröhliche Musikstücke grundiert wurden, und solchen, in denen sie durch traurige Musik grundiert wurden. Die erstere Bedingung, aber nicht die letztere, war während des Zeitfensters von 50-150 Millisekunden mit einer signifikanten Wirkung auf die Frontal- und Mittelelektroden verbunden.

Diese Studie zeigt, dass die Musik, die den Teilnehmern gespielt wurde, die Art und Weise beeinflusste, wie sie den emotionalen Inhalt der unmittelbar danach gezeigten Gesichter wahrnahmen, so dass die emotionale Bewertung der Gesichter in den Fotos in Richtung der in der Musik ausgedrückten Emotionen verzerrt war . Es unterstützt auch die frühere Erkenntnis, dass durch Musik hervorgerufene glückliche und traurige Emotionen unterschiedliche physiologische Reaktionen im Gehirn hervorrufen, und legt nahe, dass die "Bindung" von auditiven und visuellen emotionalen Hinweisen in einem frühen Stadium der neuronalen Verarbeitung auftritt.

Dies ist eine von mehreren neueren Studien, die zeigen, dass Aktivität in einem sensorischen System die Aktivität in einem anderen modulieren kann. Letzten Monat zeigten Forscher des MIT, dass eine optische Täuschung, die Bewegungsnachwirkung genannt wird, auf den Tastsinn übertragen werden kann, und kurz zuvor zeigten italienische Forscher, dass der Tastsinn durch unsere Wahrnehmung anderer beeinflusst werden kann. Es war bereits bekannt, dass Musik die Wahrnehmung von Emotionen in visuellen Reizen beeinflussen kann, wenn sie gleichzeitig präsentiert wird, aber diese neue Studie ist die erste, die zeigt, dass Emotionen, die durch Musik hervorgerufen werden, die Wahrnehmung von emotionalen Inhalten in visuellen Reizen beeinflussen können, die danach präsentiert werden. Diese neuen Erkenntnisse deuten auch darauf hin, dass die emotionale Verarbeitung außerhalb des Bewusstseins stattfindet und nicht auf Urteilen und Entscheidungen basiert.


Können wir den Charakter einer Person aus Gesichtsbildern lesen?

Die Physiognomie, die Junk-Wissenschaft, den Charakter anhand des Gesichtsausdrucks zu lesen, hat eine lange Geschichte. Die ersten erhaltenen Dokumente, die sich darauf beziehen, stammen aus der Zeit des Aristoteles. Darwin hätte fast seine Chance verpasst, seine historische Reise auf der Beagle wegen seiner Nase, weil der Kapitän des Schiffes&mdasha glühender Physiognom&mdashdidn&rsquot glaubte, daß ein Mensch mit einer solchen Nase genügend Entschlossenheit für die Reise besitzen würde. &bdquoAber ich glaube&ldquo, bemerkte Darwin trocken in seiner Autobiographie, &ldquoer war hinterher zufrieden, dass meine Nase falsch gesprochen hatte.&ldquo

We may poke fun at the physiognomists&rsquo ideas, but the modern science of first impressions shows that we are all naïve physiognomists. We form instantaneous impressions of others from their facial appearance. Seeing a face for less than one tenth of a second is sufficient to make up our minds. First impressions are not only rapid but also consequential: We are more likely to vote for politicians who look competent to invest in people who look trustworthy and to assign harsher prison sentences to people who look the opposite. Faceism is a general feature of social life.

The modern science of first impressions has also identified many of the facial stereotypes that drive those impressions. In the last decade, psychologists have developed mathematical models that visualize these stereotypes. With these models, we can manipulate the appearance of faces by increasing or decreasing their perceived qualities of trustworthiness and competence as we desire. And more importantly, we can build and test theories about the origins of facial stereotypes.

However, one of the unintended consequences of the progress in this research has been the revival of physiognomy. Perhaps our facial stereotypes are not just stereotypes, but a true window into the character of others. Correspondingly, there has been a proliferation of studies claiming that we can discern all kinds of private things about others such as their mental health, political and sexual orientation, and so on, from their facial images alone.

These claims are typically based on the finding that human guesses about, say, sexual orientation, are better than chance. The problem is that these guesses are barely better than chance and often less accurate than guesses based on more general knowledge.

Moreover, many of these studies are based on the fallacy that all facial images are equally representative of the face&rsquos owner. While this assumption may ring true in the case of familiar faces, which are easily recognizable from different images, it is certainly false in the case of unfamiliar faces&mdashand by definition, first impressions are about unfamiliar faces. Often, we cannot tell whether two different images represent the same (unfamiliar) person, and these images can trigger completely different impressions. Hence, how the images are sampled is a critical issue when assessing the accuracy of first impressions.

Consider how biases in the sampling of images can affect inferences about the accuracy of first impressions. In many &ldquogaydar&rdquo studies, participants guess the sexual orientation of others from images posted on online dating websites. In one of the very first such studies, the guesses were accurate about 58 percent of the time (where chance is 50 percent). But since we strategically select the images we post to represent ourselves to the kinds of people we want to attract, this isn&rsquot a neutral sample.

In fact, when the guesses were based on online images of gay and heterosexual men posted by their friends (far from a perfect control), they were only accurate 52 percent of the time. This kind of result isn&rsquot only true when subjects are guessing sexual orientation. In a recent study, the researchers used images from online dating websites to test whether participants can guess social class, represented by wealth. The participants were accurate about 57 percent of the time. But when the guesses were based on images taken under standardized conditions, the accuracy dropped to 51.5 percent.

With the ubiquity of online face images, studies attempting to read our &ldquoessence&rdquo from these images are not going to disappear. In the last few years, there has been a new wave of artificial intelligence (AI) studies attempting to do exactly that. A technology start-up is already offering facial profiling services to private companies and governments. Last year, two computer scientists posted a non&ndashpeer-reviewed paper online claiming that their algorithm can guess the criminality of people from a single facial image. And recently, a prestigious journal accepted for publication a paper claiming that AI algorithms can detect sexual orientation from facial images with seemingly surprising accuracy.

However, the same problems that apply to human studies apply to AI studies as well. The latter use powerful algorithms that can detect subtle but systematic differences between two sets of images. But the sample of images used to train the algorithm is just as important as the algorithm itself. In the paper on criminality, the authors provided a few images of &ldquocriminals&rdquo and &ldquonon-criminals.&rdquo Besides obvious differences in facial expressions, the &ldquocriminals&rdquo wore t-shirts while the &ldquonon-criminals&rdquo wore suits. A powerful algorithm would easily pick up these differences and produce a seemingly accurate classification.

The fallacy that all facial images are equally representative of the face owner plays in even more subtle ways in AI studies, especially when the claim is that the algorithms are measuring invariant facial features from 2-D images. Camera-to-head distance, camera parameters, slight head tilts, subtle expressions and many other apparently trivial differences affect the measurement of what are meant to be stable morphological features. When these differences are not controlled for, the AI studies simply amplify our human biases.

Moreover, the implications of using AI to do &ldquoface reading&rdquo are morally abhorrent. The senior author of the sexual orientation paper claims that his main motivation was to warn the LGBT community about the potential of this technology to harm them, especially in repressive countries. But while the study claims to identify real morphological differences between gay and straight people, all it really shows is that an algorithm can identify openly gay people from their self-posted images&mdashjust as ordinary humans can.

This is precisely the kind of &ldquoscientific&rdquo claim that can motivate repressive governments to apply AI algorithms to images of their citizens. And what is it to stop them from &ldquoreading&rdquo intelligence, political orientation and criminal inclinations from these images?

Die geäußerten Ansichten sind die der Autoren und nicht unbedingt die von Scientific American.


How exactly do we construct perceived IQ by facial features? - Psychology

If you visit the movies much, you'll know just how full of stereotypes they are. Heroines in romantic comedies are invariably sweet-faced and girly. Male action heroes are invariably square-jawed and beetle-browed.

For instance, would hard man Russell Crowe have been quite as convincing hacking his way through an arena in the film Gladiator had he been born baby-faced and weak-chinned? Professor David Perrett of the University of St Andrews thinks not. Perrett is investigating how the features of a person's face shape how we think of them.

His technique of digitally manipulating faces first attracted attention four years ago, when he showed that women prefer more masculine faces during the fertile period of their menstrual cycle. Faces were made more masculine by strengthening the jawline and brows and more feminine by widening the face and raising the eyebrows.

Perrett's team has found that one of the most important things that influences perceived personality is the set of features that give a face its gender. This seems to have its roots in the different personality traits we associate with men and women.

To test his hypotheses, Perrett is using the most widely accepted framework of human personality: the five-factor model. This consists of:

  • Extraversion - affectionate, talkative, sociable
  • Conscientiousness - careful, hard-working, conscientious
  • Agreeableness - forgiving, sympathetic, warm
  • Openness to experience - creative, original, independent
  • Neuroticism - nervous, worrying, highly strung

With this information, they created average extravert and average introvert faces from the same 15 images by using computer software to amplify some features and suppress others. These composite images were then used to transform other faces, making them either more introvert or more extravert.

"A lot of the things that we're seeing in extravert and introvert faces are transient things like how likely you are to smile," says Dr Tony Little, of the Perception Lab at St Andrews. Indeed, while the withdrawn look of introvert faces is instantly recognisable, extravert faces seem to be fixed in the earliest stages of a grin.

But why would such subtle facial cues have evolved? Dr Little believes they might have played an important role in physical confrontations between our ancient ancestors.

"We all become highly competitive when confronting an opponent we think we can realistically beat. However, we will submit to opponents we feel are superior to us in order to avoid fighting a battle we will probably lose. Evolution is a game of survival, so it pays to know when to fight and when to run.

Agreeableness is the personality dimension most important for social success. People who fall towards the positive pole of agreeableness are sympathetic, helpful and trusting. Those who fall towards the negative pole are uncooperative, suspicious and cynical. Perrett has found a strong link between agreeableness and femininity.

"People find feminine faces, whether male or female, more agreeable. This appears to be because women are perceived as kind and soft-hearted," says Perrett. "Faces seem less agreeable to people as you make them more masculine," he adds.

Therefore, men with slightly feminine facial features should be perceived as more agreeable than their macho counterparts. And women with 'cute' feminine looks should be seen as more agreeable than women with more masculine features.

These assumptions might be transmitted culturally. But Perrett is working on the hunch that they are in fact instinctive reactions that have developed over the course of evolution.

In the evolutionary past, our ability to recognise clues about someone's personality in their face may have helped us decide how to deal with them effectively. In conflict, it may also have helped us know who we had a good chance of beating and who might prove a tough opponent.

But the fact that a face's gender, rather than more transient features such as facial expressions, has such a strong influence on the personality we ascribe to a face suggests that personality must have some biological basis.

Our perceptions of agreeableness exactly mirror the action of the male sex hormone testosterone. Several studies have shown that testosterone tends to make men more confrontational and anti-social.

Professor Dan Olweus and his team at the University of Berggen in Norway tested the effect of testosterone on the behaviour of a group of teenage boys. They found that contrary to predictions, high levels of testosterone were not associated with overt aggression in teenage boys.

But the boys with the highest testosterone were more irritable and disagreeable. They also displayed an aggressive response to provocation, being more likely to answer back to a teacher that criticised them.

Professor Allan Booth and Dr James Dabbs of Penn State University have even shown that, in a group of US air force servicemen, males with testosterone levels significantly above the average were 50% less likely to marry, which may suggest they have difficulty co-operating in a partnership with another individual. Testosterone is also responsible for giving a face its masculine qualities.

But this shouldn't be viewed as an excuse for grouchiness or bad behaviour. Testosterone only seems to have this effect in the proportion of the population whose brains are predisposed to such behaviour.

There seems to be an equally important proportion of high-testosterone individuals who do not try to dominate through anti-social behaviour. This sort of behaviour would seem to cause downward mobility in the class system. But studies have found no evidence for a concentration of high-testosterone males amongst socioeconomic groups with low incomes. Instead, they are evenly spread across society.

Masculinity and femininity also seems to affect another well-studied personality trait: extraversion. But in this case, there seems to be a parallel rather than opposite relationship between the action of male and female sex hormones.

Professor Werner Martin Herrmann of the Free University in Berlin found that administering oestrogen to female volunteers made them score more highly for extraversion on personality questionnaires. Several other studies have shown that testosterone is responsible for making makes men more extravert, encouraging them to try and dominate social situations.

Perrett has found preliminary evidence that masculine male faces are perceived as more extravert than their female counterparts. And feminine female faces are seen as more extravert than more butch faces. Again, this trend exactly mirrors the effect of sex hormones.

The biological basis of neuroticism is not as clear. It does not seem to be directly affected by the action of sex hormones. But, on average, women score more highly for neuroticism on personality questionnaires, so Perrett believes that faces might start to look more neurotic as you increase their femininity.

It is not known how openness and conscientiousness will be affected by changing the masculinity or femininity of a face. However, masculine faces are often described as untrustworthy, which may have implications for the types of faces we regard as conscientious, or reliable.

They say we shouldn't judge a book by its cover. Even though we should know better, every day we use those old tricks we learnt in our evolutionary past. Our distant ancestors, it seems, knew what every seasoned businessman knows today: that first impressions count.


Harris Interactive surveyed 5,800 hiring managers and workers about their attitudes toward people who swear. Result: 54 percent said they thought swearing made people seem less intelligent. Larger percentages said it also made them seem less professional, and called into question their control and maturity.

Nora A. Murphy, an associate professor of psychology at Loyola Marymount University in Los Angeles, has done extensive research in this area, which suggests that "one of the strongest and most accurate signs of intelligence is looking at others when you are speaking to them," she told Das Wall Street Journal. "And put away that phone."


Are doppelgängers real?

It depends on your perception and what you believe to be true. Although we may have similar looking doubles or look-alikes, having an exact doppelgänger or an unrelated identical twin stranger may be less likely.

So even though some of your friends may believe that they saw someone who looks “exactly” like you, the possibilities of having an evil twin trying to take over your life is highly unlikely.

So the next time you see someone who looks the same as you or your friend, simply smile and greet. You just might make a new (not evil) friend.


Are masks the new face of our society? Science and the changing landscape of human expression

Credit: Blue Planet Studio, Shutterstock

As masks become the norm in a post-COVID-19 world, experts discuss adapting to new social cues, facial recognition and even security concerns.

To combat the spread of coronavirus, the use of face masks when visiting busy, closed spaces is highly recommended, and compulsory in some European countries. The era of the face mask is upon us, and it's for an undetermined amount of time.

Wearing masks is affecting human expression and interaction during a time when we're uneasily looking to one another for traces of solidarity, optimism and even danger. We like to read faces and judge expressions, and masks now conceal all these cues. "You're left really only with the eyes. And that can make it difficult for people to make these snap judgments that they like to make, even if they're wrong," Leslie Zebrowitz, psychology professor who studies facial perception at Brandeis University in the United States, told 'The Washington Post'. "We feel more comfortable when we feel that we're able to assess what someone is like."

Humans also rely on emotional cues for survival. "When you see a face you do two things at once. You try to work out the identity: Do I know them? How do I know them? And you try to read their emotions," Eilidh Noyes, lecturer in cognitive psychology at the University of Huddersfield in northern England, told 'CNN'. "Emotion recognition is important from an evolutionary perspective as it helps us gauge threat and can also facilitate positive social interactions. That's true of both people we know well and those we have never met."

Hiding behind the mask

"The main problem that people wearing masks throws up is the sheer volume of people suddenly covering their faces," said Francis Dodsworth, senior lecturer in criminology at Kingston University London. "It could create opportunities for people who want to cover their face for nefarious reasons. They could potentially now do so without raising suspicion."

Concealing faces will also have widespread implications for crime and security. "A lot of witnessing is already problematic," Dr. Dodsworth added. "Even when a group of people witness the same crime, one person will see someone with a mustache and a hat, while another will see someone with a beard and sunglasses."

Is facial recognition technology that can accurately identify people far off? Dr. Noyes commented: "At the moment we do not know exactly how facial masks will affect accuracy of human or algorithm face identification." She continued: "I think it's important that if we see claims around a specific algorithm, we don't then apply it to all algorithms because each has its own strengths and weakness. We still need to do a lot more research."

"For survival reasons, you need to know what someone's intentions are when you meet them. Not being able to do that easily will naturally make people more cautious and defensive, which in some cases could, unfortunately, lead to violent confrontations," said Ian H. Robertson, professor of psychology at Trinity College Dublin.

Kate Gray, who specialises in emotion processing at the University of Reading in the United Kingdom, believes adapting to a faceless society will come smoothly: "I think we'll quite quickly get used to picking up social and emotional cues from voice cues or body language."


How facial features drive our first impressions

Now scientists have modelled the specific physical attributes that underpin our first impressions.

Small changes in the dimensions of a face can make it appear more trustworthy, dominant or attractive.

The results, published in the journal PNAS, could help film animators or anyone looking to create an instant impression on a social network.

Dr Tom Hartley, a neuroscientist at the University of York and the study's senior author, said the work added mathematical detail to a well-known phenomenon.

"If people are forming these first impressions, just based on looking at somebody's face, what is it about the image of the face that's giving that impression - can we measure it exactly?"

Positive first impressions are especially important in a world dominated by social media, from LinkedIn to Tinder.

Dr Hartley sees the commercial potential in applying his numerical model to the photos people use to present themselves online. "It's obviously potentially very useful," he told the BBC.

To make the calculations, each of 1,000 face photos from the internet was shown to at least six different people, who gave it a score for 16 different social traits, like trustworthiness or intelligence.

Overall, these scores boil down to three main characteristics: whether a face is (a) approachable, (b) dominant, and (c) attractive.

By measuring the physical attributes of all 1,000 faces and putting them together with those scores, Dr Hartley and his team built a mathematical model of how the dimensions of a face produce those three impressions.

The next step was to get the computer to extrapolate. Using their new model, the team produced cartoon versions of the most (and least) approachable, dominant and attractive faces - as well as all the possibilities in between.

Finally, and most importantly, these cartoon results could be tested. When the researchers quizzed more participants about their impressions of the artificial, cartoon faces, the ratings matched. People said that the computer's cartoon prediction of an approachable face was, indeed, approachable - and so on.

So has all this work revealed humanity's ultimate trustworthy jawline, or the most assertive shape for eyebrows? Dr Hartley is cautious.

"Lots of the features of the face tend to vary together," he explained. "So it's very difficult for us to pin down with certainty that a given feature of the face is contributing to a certain social impression."

There are some obvious trends however - including the tendency for masculine faces to be perceived as dominant, or for a broadly smiling face to seem more approachable and trustworthy.

This points to a potentially worrying implication: brief facial expressions can make a big difference to how we are received by strangers.

"It might be problematic if we're forming these kind of judgements based on these rather fleeting impressions," Dr Hartley said, "particularly in today's world where we only might see one picture of a face, on social media, and have to form our impression based on that."

On the other hand, the findings could help people put their best face forward.

"It might be very useful for organisations who are interested in people's faces," said Dr Hartley.

That might include interests as diverse as photographers, Facebook and Pixar.

"You would be able to use these kind of numbers to decide when is a good time to take a photograph, or maybe to choose the photograph that's really optimal in putting forward the best possible impression - and you might want to put forward different kinds of social impressions in different situations."

Animators, on the other hand, "have to give life, and give some social meaning, to the faces of their characters just by changing small things," Dr Hartley said.

"What we're doing is trying to put that on a scientific footing. It's been fascinating to find out more about it."

Dr Anthony Little, a reader in psychology at the University of Stirling, said the findings point to something "simple and important" about the way physical attributes guide our social responses.

"The results highlight that the way we see other people may be in relatively simple terms, as approachable/unapproachable and dominant/submissive," said Dr Little, whose own research on faces and psychology includes using a website to crowd-source ratings.

"Each of these two factors looks to be tied to specific face features. So, approachable is tied to smiling expressions and unapproachable to frowning or angry expressions, while dominance is tied to masculine features.

"The third factor, youthful-attractiveness, appears less distinct."

This is because of interplay between attractiveness and the other two factors, Dr Little explained.