Information

Spielt die lexikalische Hypothese eine Rolle bei der „Kreativität“?

Spielt die lexikalische Hypothese eine Rolle bei der „Kreativität“?

Ich denke, die lexikalische Hypothese wurde verwendet, um schaffen das 5-Faktoren-Persönlichkeitsmodell.

Wurde in der Wissenschaft der 'Kreativität' etwas Ähnliches getan?

Während "Kreativität" eindeutig eine Komponente der Intelligenz ist, auch wenn sie auch eine in der Persönlichkeit ist.


Was mich zum Nachdenken gebracht hat, ist die Messung von 'Kreativität', die meiner Meinung nach notorisch schwierig ist, noch mehr die Begabung im Allgemeinen. Insbesondere habe ich darüber nachgedacht, wie es scheint, dass "Flüssigkeit" lexikalisch einigen Begriffen nahe kommt, die der Kreativität nahe kommen.

Wie würde Allgemeines korrelieren kognitive Gewandtheit, wie sie durch kognitive Tests gemessen wird, mit Kreativität?


Geläufigkeit, Substantiv

  • die Fähigkeit, sich leicht und verständlich auszudrücken.

Fantasie, Substantiv

  • ein fantasievolles mentales Bild, typischerweise eines, bei dem eine Person oft verweilt und das ihre bewussten oder unbewussten Wünsche widerspiegelt

Phantasie, Substantiv

  • die Fähigkeit oder Handlung, neue Ideen oder Bilder oder Konzepte von äußeren Objekten zu bilden, die den Sinnen nicht zugänglich sind.

usw.


Jauket al. (2013) spricht über die Beziehung zwischen Intelligenz und Kreativität, während King et al. (1996) spricht über die Beziehung zwischen dem 5-Faktoren-Modell und Kreativität.

4.2. Persönlichkeitsprädiktoren für kreatives Potenzial

Bei der Durchführung separater multipler Regressionsanalysen in Stichproben mit niedrigerer und höherer Intelligenz stellten wir fest, dass die Offenheit für Erfahrungen das kreative Potenzial in der Teilstichprobe über dem Schwellenwert vorhersagt, während Gewissenhaftigkeit negativ mit dem kreativen Potenzial im unteren IQ-Bereich zusammenhängt.

Während es gut dokumentiert ist, dass ein positiver Zusammenhang zwischen Offenheit und kreativem Potenzial besteht (Batey & Furnham, 2006; Feist, 2010; King et al., 1996), weist das vorliegende Ergebnis auf eine Wechselwirkung zwischen Intelligenz und Offenheit hin: Hohe Kreativität Potenzial ist mit niedrigem IQ nicht möglich; Aber sobald die Intelligenzschwelle erreicht ist, kann Offenheit bis zu einem gewissen Grad erklären, ob die erforderliche kognitive Disposition tatsächlich in ein hohes kreatives Potenzial umgewandelt wird (Jauk, et al. 2013).

Verweise

Batey M., Furnham A. (2006). Kreativität, Intelligenz und Persönlichkeit: Eine kritische Überprüfung der verstreuten Literatur. Genetische, Sozial- und Allgemeine Psychologie-Monographien. 132(4) 355-429.
PMID: 18341234

Feist G. J. (2010). Die Funktion der Persönlichkeit in der Kreativität: Das Wesen und die Pflege der kreativen Persönlichkeit. In: Kaufman J. C., Sternberg R. J., Herausgeber. Das Cambridge Handbuch der Kreativität. New York: Cambridge University Press; S. 113-130.

Jauk, E., Benedek, M., Dunst, B. & Neubauer, A.C. (2013). Der Zusammenhang zwischen Intelligenz und Kreativität: Neue Unterstützung der Schwellenhypothese durch empirische Breakpoint-Erkennung. Intelligenz, 41(4), 212-221.
DOI: 10.1016/j.intell.2013.03.003

King L.A., Walker L.M. & Broyles S.J. (1996). Kreativität und das Fünf-Faktoren-Modell. Zeitschrift für Persönlichkeitsforschung. 30(2), 189-203.
DOI: 10.1006/jrpe.1996.0013


Originaler Forschungsartikel

  • 1 Klinik für Hals-Nasen-Ohrenheilkunde/Kopf- und Halschirurgie, Universitätsklinikum Groningen, Universität Groningen, Groningen, Niederlande
  • 2 Graduate School of Medical Sciences, School of Behavioral and Cognitive Neuroscience, Universität Groningen, Groningen, Niederlande

In idealen Situationen ist das Verstehen von Sprache mühelos, und obwohl widrige Umstände, wie etwa durch eine Hörbehinderung, es oft zu einer mühsamen Aufgabe machen, unterbrechen sie nicht unbedingt das Sprachverstehen. Ein Paradebeispiel dafür ist die Sprachwahrnehmung von Cochlea-Implantat-Trägern, deren Hörprothesen Sprache als deutlich verschlechtertes Signal übertragen. Es ist noch nicht bekannt, wie Mechanismen der Sprachverarbeitung mit solchen verschlechterten Signalen umgehen und ob sie durch eine aufwendige Sprachverarbeitung beeinflusst werden. Diese Arbeit vergleicht den automatischen Prozess der lexikalischen Konkurrenz zwischen natürlicher und degradierter Sprache und kombiniert Blickfixierungen, die den Verlauf der lexikalischen Begriffsklärung erfassen, mit Pupillometrie, die den mentalen Aufwand bei der Sprachverarbeitung quantifiziert. Die Augenreaktionen der Hörer wurden während der Begriffsklärung von lexikalischen Einbettungen mit übereinstimmenden und nicht übereinstimmenden Dauerhinweisen aufgezeichnet. Durationale Hinweise wurden aufgrund ihrer wesentlichen Rolle bei der schnellen Begrenzung der Anzahl der lexikalischen Kandidaten für den lexikalischen Zugriff in natürlicher Sprache durch Hörer ausgewählt. Die Ergebnisse zeigten, dass lexikalische Konkurrenz die mentale Anstrengung bei der Verarbeitung natürlicher Reize erhöhte, insbesondere bei Vorhandensein von nicht übereinstimmenden Hinweisen. Die Signalverschlechterung verringerte die Fähigkeit des Hörers, Dauerhinweise schnell in die lexikalische Auswahl zu integrieren, und verzögerte und verlängerte lexikalische Konkurrenz. Der Aufwand für die Verarbeitung degradierter Sprache wurde insgesamt erhöht, und da sie ihre Quellen auf der prälexikalischen Ebene hatte, kann dieser Effekt eher auf das Hören degradierter Sprache als auf die lexikalische Begriffsklärung zurückgeführt werden. Insgesamt war der Verlauf der lexikalischen Konkurrenz bei natürlicher und degradierter Sprache weitgehend vergleichbar, zeigte jedoch entscheidende zeitliche Verschiebungen und unterschiedliche Ursachen erhöhter geistiger Anstrengung. Wir argumentieren, dass ein rechtzeitiger Fortschritt von Informationen von sensorischen zu prälexikalischen und lexikalischen Verarbeitungsstufen, der das Ergebnis der Wahrnehmungsanpassung während der Sprachentwicklung ist, der Grund dafür ist, dass Sprache in idealen Situationen als anspruchslose Aufgabe wahrgenommen wird. Eine Verschlechterung des Signals oder des Empfängerkanals kann dieses gut eingestellte Timing schnell aus dem Gleichgewicht bringen und zu einer Erhöhung der mentalen Anstrengung führen. Eine unvollständige und mühsame Verarbeitung in den frühen prälexikalischen Stadien hat Konsequenzen für die lexikalische Verarbeitung, da sie die Bildung und Überarbeitung lexikalischer Hypothesen mit Unsicherheiten behaftet.


Vorteile des lexikalischen Ansatzes

Der lexikalische Ansatz beschleunigt den Spracherwerb.

„Chunking“ ist eigentlich eine Gedächtnisverbesserungstechnik. Durch die Gruppierung häufig gemeinsam vorkommender Wörter und deren Behandlung als ein größeres Ganzes kann das Gehirn größere Informationsmengen verarbeiten.

Chunking ermöglicht es Ihrer Klasse, viele Informationen schnell abzudecken. Anstatt dass Ihre Schüler jedes Wort in einem Satz einzeln bearbeiten, was jedes Wort bedeutet und wie jedes Wort grammatikalisch zum Wort daneben steht, haben sie es mit Brocken zu tun. Anstatt ein Wort nach dem anderen fließend zu machen, machst du es einen Satz nach dem anderen.

Anstatt zum Beispiel „Haltet durch!“ zu lehren. Als drei bedeutungsvolle Wörter lehren Sie es als einen vorgefertigten Ausdruck, was bedeutet, “nicht aufzugeben.”

Der lexikalische Ansatz ist kommunikativer Natur. So kommunizieren Muttersprachler miteinander. Dies im Sprachunterricht widerzuspiegeln führt zu Schülern, die schnell natürlich und fließend in der Sprache klingen!

Es ist ausgesprochen praktisch.

"Der grüne Affe ist auf den runden Tisch gesprungen."

Als Sie selbst Student waren, sind Sie jemals auf Satzbeispiele gestoßen, die Sie denken ließen: „Ja, das werde ich nie in meiner Alltagssprache verwenden?“

Vielleicht hat der Lehrer absichtlich einen einzigartigen Satz entworfen, um einen grammatikalischen Punkt hervorzuheben oder zu zeigen, wie einzelne Wörter die Bedeutung eines Satzes verändern können. Während Sie dadurch vielleicht das Grammatikkonzept gelehrt haben, wurden Ihnen keine wirklich nützlichen Phrasen beigebracht, die Sie in alltäglichen Gesprächen verwenden könnten.

Mit dem lexikalischen Ansatz erhalten Ihre Schüler Phrasen und Ausdrücke, die gut zu tun sind – vorgefertigte Ausdrücke, die Muttersprachler leicht verstehen und die in täglichen Gesprächen verwendet werden können.

Es lehrt Kommunikation.

Der lexikalische Ansatz ist praktisch und unmittelbar relevant. Anstatt Dinge über die Sprache zu lernen, die die Sprecher selbst nicht einmal kennen, lernen Ihre Schüler, wie es geht sinnvoll kommunizieren. Wenn Ihre Schüler Muttersprachler von Angesicht zu Angesicht treffen, wissen sie, wie sie sie begrüßen, ihnen eine Frage stellen, eine Geschichte erzählen oder persönliche Fakten teilen.

Ist das nicht etwas, das Ihre Schüler lernen sollen?

Was können Sie also tun, um dies zu erleichtern? Darüber sprechen wir als nächstes.


Die Übertragung eines Etiketts, mit dem ein Begriff zu benennen ist, von einer Sprache in eine andere wird als „lexikalische Entlehnung“ bezeichnet und stellt die häufigste Form der kontaktinduzierten sprachlichen Veränderung dar. Die fraglichen Gegenstände werden oft als „Lehnwörter“ bezeichnet und als „geliehen“ bezeichnet, beide Begriffe sind falsch. Obwohl die aufgezeichneten Lexika einiger Sprachen (einschließlich Englisch) Lehnwörter in Höhe von mehr als 50 Prozent enthalten, gehen kulturelle Entlehnungen (die bisher unbekannte Begriffe benennen) chronologisch Entlehnungen voraus, die bereits in der Sprache vorhandene Elemente ersetzen oder ergänzen. Es kann gezeigt werden, dass, obwohl Elemente auf den Swadesh-Listen weniger anfällig für Entlehnungen sind, es dennoch gilt, dass Bezeichnungen für beliebige Konzepte von einer Sprache in eine andere entlehnt werden können. Darüber hinaus können (müssen aber nicht) Lehnwörter auch als Kanäle für die Übertragung und anschließende Integration neuer Phoneme oder Flexions- und Ableitungsmorpheme in die Empfängersprache fungieren.

Anthony P. Grant, Edge Hill University

Der Zugriff auf den vollständigen Inhalt von Oxford Handbooks Online erfordert ein Abonnement oder einen Kauf. Öffentliche Benutzer können die Site durchsuchen und die Zusammenfassungen und Schlüsselwörter für jedes Buch und Kapitel ohne Abonnement anzeigen.

Bitte abonnieren oder anmelden, um auf Volltextinhalte zuzugreifen.

Wenn Sie einen gedruckten Titel erworben haben, der einen Zugangs-Token enthält, finden Sie im Token Informationen zur Registrierung Ihres Codes.

Bei Fragen zum Zugriff oder zur Fehlerbehebung lesen Sie bitte unsere FAQs, und wenn Sie dort keine Antwort finden, kontaktieren Sie uns bitte.


Psych 413 Test 1

es gibt Leute, die dachten, Sprache sei wichtig und versuchten, etwas dagegen zu tun.
eine zweite Haltung gegenüber der Sprache ist Misstrauen und Misstrauen, wie zum Beispiel, dass die Sprache als "wichtigste Fehlerquelle in der Psychologie" angesehen wird
drittens wird Sprache manchmal als wichtig angesehen, aber sie kann mit etwas einfacherem erklärt werden, auch bekannt als Behaviorismus (beseitigt kognitive Aspekte).
Viertens bestreiten wir, dass der Mensch über einen speziellen Sprechapparat verfügt: Freud versuchte, Behauptungen zu widerlegen, dass es im Gehirn ein spezielles Sprachzentrum gebe.
fünftens: Geben Sie zu, dass die Sprache wichtig ist, und ignorieren Sie sie dann ganz.

Ist die Linguistik ein Teilgebiet der kognitiven Psychologie?
entstand als Studie über Klangveränderungen, anthropologischer Ansatz. 1957 änderte Chomsky das: Er argumentierte, dass eine Sprache etwas ist, das Erwachsene kennen und Kinder lernen, Linguistik sollte studieren Kompetenz, nicht Leistung. Generatives Grammatiksystem. universelle Grammatik.
1950er Jahre - Sprache wurde für das Studium der menschlichen Kognition von zentraler Bedeutung.

ist sprache angeboren?
phonologische Fähigkeit: rein vererbt, artspezifisch.
lexikalisch: das Gegenteil von angeboren, alles erlernt.
aber ist Syntax angeboren? Chomsky argumentierte für die angeborene universelle Grammatik.

Methode: eine experimentelle, eine Kontrollgruppe. zehn aufgezeichnete Sprecher.
Stimulusmaterial: drei Sätze sehr bekannter einsilbiger Wörter
Vorgehensweise: zuerst, Ausbildung: Beide Gruppen wurden geschult, um mit den Sprechern vertraut zu sein. dann, Generalisierungstest: 100 neue Wörter von den 10 bekannten Sprechern. letzte, Wortverständlichkeitstest: Wörter identifizieren, die in Geräuschen mit unterschiedlichen dB-Pegeln dargestellt werden. experimentell: Wörter, die von den Sprechern gesprochen wurden, mit denen sie vertraut waren. Kontrolle: Worte, die von neuen Leuten gesprochen werden.

Ergebnisse:
Verallgemeinerung:
Die Zuhörer erwarben detaillierte Kenntnisse über die Stimmen der Sprecher, die nicht von bestimmten Wörtern abhingen. fast identische Erkennungsrate neuer Wörter am 1. Tag wie am letzten Tag der früheren Trainingsphase.

Wortverständlichkeit:
wie erwartet nahm die Leistung mit abnehmendem Signal-Rausch-Verhältnis ab. jedoch, Probanden, die mit Wörtern getestet wurden, die von vertrauten Stimmen produziert wurden, erkannten neue Wörter bei jedem Signal-Rausch-Verhältnis signifikant besser als Probanden, die mit unbekannten Stimmen getestet wurden.

Spracherkennung und Verarbeitung des Inhalts einer sprachlichen Äußerung sind nicht unabhängig. Hörer codieren und pflegen sprecherspezifische Informationen, die bei der Interpretation, Analyse und Identifizierung neuer Wörter, die von diesen Sprechern produziert wurden, helfen.

Lernen, das auftritt, wenn Zuhörer darauf trainiert werden, zu erkennen und
Stimmen von Sprechern zu identifizieren beinhaltet die Modifikation der Prozeduren oder Wahrnehmungsoperationen, die für die Extraktion von Sprachinformationen aus dem Sprachsignal notwendig sind. Zuhörer können lernen, teilzunehmen
die spezifischen Wahrnehmungsoperationen, die verwendet werden, um die Stimme jedes Sprechers während der Wahrnehmung zu analysieren und zu codieren, zu ändern und zu modifizieren. gelernt, detailliert, sprecherspezifisch prozedurales Wissen/Gedächtnis.

Sprachwahrnehmung ist multimodal
die Integration von Audio- und Bildinformationen erfolgt früh in der Sprachwahrnehmung

Anspruch: bisher unerkannter Einfluss des Sehens auf die Spracherkennung

Methode: vier synchronisierte Video/Stimme-Kombinationen: ba-voice/ga-lips, ga-voice/ba-lips, pa-voice/ka-lips, ka-voice/pa-lips

Vorschulkinder, schulpflichtige Kinder und Erwachsene getestet
zwei Bedingungen: auditiv/visuell: müssen sagen, was sie gehört haben, und nur auditiv

Ergebnisse:
ba-voice/ga-lips: Leute gaben an, da-voice gehört zu haben
ga-voice/ba-lips: auch da-voice
pa-voice/ka-lips oder umgekehrt: ta-voice

Behauptung: *VOT-Unterschiede innerhalb einer Kategorie haben Gradienteneffekte
zur lexikalischen Aktivierung. Hörer reagieren empfindlich auf Variationen innerhalb einer Kategorie – auch bekannt als kleine Variationen innerhalb der Kategorie in der VOT. Hörer zeigen während der Online-Worterkennung eine Gradientensensitivität gegenüber subphonemischen Variabilitäten in Konsonanten.* Sensibeler als ursprünglich wahrgenommen, nicht nur über Kategorien hinweg, wie b/p, sondern auch innerhalb von Kategorien.

abhängiges Maß: Zeitverlauf der Fixierungen. schaust du dir zuerst die Birne an? Ändert sich das mit der Länge der VOT?

Methode:
9 verschiedene Optionen für die Einsetzzeit der Stimme
6 Wortpaare: stimmhaft/stimmlos - Strand/Pfirsich, Bär/Birne usw.
6 Füllwörter: phonetisch nicht verwandt - Hai, Lampe usw.
Aufgabe der Probanden: Klicken Sie auf das Bild des benannten Wortes.

Ergebnisse:
Für unsere Analysen haben wir die Daten in zwei Sätze unterteilt: Versuche, in denen das Ziel überwiegend stimmhaft gehört wurde (/b/: VOT ¼ 0-15 ms) und Versuche, in denen das Ziel überwiegend stimmlos gehört wurde (/p/: VOT = 20-40 ms).

Verlaufseffekt: je später die VOT, desto wahrscheinlicher wurde der Ton als /p/ statt als /b/ wahrgenommen. eher Birne zu betrachten, wenn "Bär" VOT näher an "Birne" Kategoriegrenze kommt.

als sich VOT der Kategoriegrenze näherte, nahmen die Fixierungen auf den Wettbewerber zu.

Behauptung: Die Sprachwahrnehmung ist genauer, wenn die Äußerung sprachlichen Regeln folgt. eine interaktive Theorie sollte modularen Theorien vorgezogen werden. Top-Down-Verarbeitung ist wichtig.

Materialien: Sätze, die einen Sinn ergeben und Sätze, die keinen Sinn ergeben.
drei Bedingungen: grammatikalisch, anormal, ungrammatikalisch.

abhängiges Maß: Prozent der Wörter, die unter den drei Bedingungen richtig identifiziert wurden, variierendes Signal-Rausch-Verhältnis.

Teilnehmer beschatten diese Sätze. in einer Bedingung sind die Sätze in Rauschen eingebettet.

Methode: zwei gesprochene Aufgaben:
Aufgabe der falschen Aussprache: Themen, die auf falsche Aussprachen hören sollen. verwendet, um einen Vergleich zu ermöglichen, eine Vorstellung davon, wie leicht sie die falschen Aussprachen erkennen. variieren im Grad von ein bis drei Hauptmerkmalsänderungen.
Schattenaufgabe: Themen, die nicht gesagt werden, wird es zu falschen Aussprachen geben. auf das Verständnis von verschatteten Äußerungen getestet. Ich vermute, dass Sprecher unterbrochen werden, wenn ein "abweichendes Phonem" vorhanden ist, aber wenn es starke Top-Down-Beschränkungen gibt, wird dies außer Kraft gesetzt und er Gewohnheit unterbrochen werden.

Materialien: drei 1.000-Wort-Texte mit 80 gängigen dreisilbigen Wörtern. kleine/große Rechtschreibänderungen vorgenommen, hohe Einschränkung/niedrige Einschränkung der Kontextbedingungen.
hohe Einschränkung: nur wenige mögliche Wörter
geringe Einschränkung: könnte viele, viele Worte sein

abhängige Maßnahme:
bei falscher Aussprache: wie viele werden richtig erkannt
zum Schattieren: wie viele fliessende Restaurationen gibt es

Ergebnisse:
"fluent restaurierungen" = Die Shadower haben anscheinend die abweichenden Worte wiederhergestellt, weil sie sich der Abweichungen gar nicht erst bewusst wurden.

Die Miss-Rate entspricht der Restaurationsrate in der Shadowing-Aufgabe, da beide Messgrößen das Fehlen von Hinweisen auf die Wahrnehmung einer falschen Aussprache widerspiegeln. Die False-Positive-Rate war durchweg extrem niedrig.

Methode: Eye-Tracking-Technologie. Die Probanden wurden angewiesen, in die Mitte zu schauen, und erhielten dann Anweisungen. Wohin schauen sie zuerst = die Wörter, die sie zuerst hören. Was sind ihre Fixierungsmuster?

verwendete Wörter:
Ziel: Becher
Kohorte: Käfer
Reim: Sprecher
ohne Bezug: Beförderung

Ergebnisse: Eye-Tracking-Ergebnisse im Einklang mit dem TRACE-Modell.: nicht verwandtes Wort wird am wenigsten betrachtet, Wörter mit phonetischen Ähnlichkeiten werden mehr betrachtet - reimen sich ein wenig, weil das Ende gleich ist, aber Kohorte viel mehr, weil sie gleich beginnen.

Materialien: Wortpaare wie giss/kiss, duft/tuft (stimmhaftes/stimmloses Wort/Nichtwort)

abhängiges Maß: für jede VOT, ob Wort mit /d/ oder /t/ beginnt (erster, unmittelbarer Eindruck der Versuchspersonen)

Ablauf: Den Teilnehmern werden 7 Wort-/Nichtwortpaare präsentiert. Schreiben Sie für jeden Reiz den ersten Eindruck auf, ob er mit dem stimmhaften oder stimmlosen Konsonanten begann. VOT geändert: 25, 35, 45 ms usw.

Theorie der okulomotorischen Kontrolle:
Internes Metronom oder Stoppuhr klickt alle 225-300ms - sagt Ihnen, wann Sie Ihre Augen bewegen müssen.
das macht nicht erklären: Regressionen, Auswirkungen der Worthäufigkeit.

Zeitprobleme bei der Kontrolle der Augenbewegungen beim Lesen: Es dauert etwa 50 ms, bis Informationen den visuellen Kortex erreichen. dann dauert es 100-150 ms für die Planung/Ausführung der Augenbewegung.

Augenbewegungen sind nicht glatt. stattdessen sakkadisch.

Rückschritte: Rückblick auf bereits gelesene Wörter, weil sie noch einmal/mehr verarbeitet werden müssen, z. B. wenn sie mehrdeutig oder nicht grammatikalisch sind - passen nicht zu Ihrer Vorhersage.

Fixierungen: Wort ist in der Fovea fokussiert. wir können vorhersehbare Wörter überspringen, die Lesezeit erhöhen. kurze/häufige/erwartete Wörter, die wir überspringen.

untersucht durch die augenkontingente Grenze, augenkontingente bewegliche Maske und augenkontingente bewegliche Fensterparadigmen.

Wahrnehmungsspanne ist asymmetrisch.

Seltene Wörter: Probanden schauten lange Zeit auf die Leerstelle (

Gebräuchliche Wörter: Probanden würden die Leerstelle viel kürzer betrachten (

"verdeckte" Aufmerksamkeitsverschiebungen.
Die parafoveale Vorschau ermöglicht das automatische Überspringen einfacher, häufiger Wörter. (Dies funktioniert in verschiedenen Sprachen unterschiedlich, insbesondere in solchen ohne Leerzeichen zwischen den Wörtern.)

leicht "risikoreiche" Strategie - wenn die lexikalische Verarbeitung nicht vor der nächsten Sakkade abgeschlossen ist, ist eine Regression erforderlich.

Wir berichten hier über Ergebnisse einer Studie, die zeigt, dass
obwohl einige Variationen von Sätzen mit vertauschten Buchstaben relativ leicht zu lesen sind, andere Variationen nicht, und dass das Lesen von Wörtern mit vertauschten Buchstaben im Allgemeinen immer mit Kosten verbunden ist.

Methode: Die Schüler lesen Sätze mit Buchstabentranspositionen am Anfang, in der Mitte und am Ende von Wörtern. (Transpositionen finden sich nur in Inhaltswörtern.)

abhängiges Maß: Basisleserate - Anzahl und Länge der Augenfixationen.

Ergebnisse: Umsetzungen sind immer mit Kosten verbunden, auch wenn einige leichter zu lesen sind als andere. interne Buchstabenumsetzungen sind weniger kostspielig als Endumsetzungen, die weniger kostspielig sind als Anfangsumsetzungen. wenn Transpositionen Morphemgrenzen überschreiten, bedeutet dies zusätzliche Kosten.

Anspruch: eine Theorie des lexikalischen Zugangs, in der phonologische Aktivierungs- und Einflussquellen im Vergleich zu orthographischen Quellen verzögert sind, und nicht eine Theorie, in der phonologische Quellen vorherrschen.

Methode: Probanden lesen Text zum Verständnis, ihre Augenbewegungen wurden verfolgt, auf spontane Störungen überwacht, wenn sie auf homophone und nicht homophone Fehler stoßen.
Die Probanden wurden nicht über Fehler vorgewarnt.

lese Passagen mit homophonen Fehlern: "a Ader kleiner Mann" und "der trug blasse Jeans" usw.
auch dieselben Passagen mit nicht-homophonen Fehlern lesen: "a vine little man" und "the weare blow jeans", etc.

Wenn Leser einen homophonen Fehler mit geringerer Wahrscheinlichkeit bemerken, deutet dies darauf hin, dass sie beim Lesen orthographische Darstellungen in phonologische Darstellungen übersetzen.

abhängige Maßnahme: Erstlesezeit bei den Zielwörtern, Gesamtzeit beim Zielwort, Gesamtreparaturzeit.

Ergebnisse:
alle drei abhängigen Maße zeigten, dass die Leser mehr Zeit brauchten, um ein Homophon zu verarbeiten, wenn es nicht mit dem Kontext übereinstimmte. - starke Evidenz für die spontane Erkennung von Homophonfehlern beim normalen Lesen.
*Leser verbrachten länger mit der Verarbeitung von Homophonfehlern als ihre kontextuell korrekten Homophonkollegen.
die Leser hatten anfangs mit einem homophonen Fehler genauso viel Schwierigkeiten wie mit einem nicht-homophonen Fehler, aber die Homophonie erleichterte den Reparaturprozess.

Schlussfolgerungen: im Einklang mit Anspruch.
Orthographie zuerst, phonologischer Weg ist verzögert/nicht dominant, denn wenn phonologisch dominant wäre, hätten die Leser mehr Schwierigkeit Homophone Fehler finden, weil sie nur durch Orthographie identifiziert werden können. stattdessen umgingen die Leser die Phonologie zugunsten eines orthographischen Ansatzes.

Anspruch: Die beiden bisherigen lexikalischen und orthographischen Lesewege (Dual-Route-Modell) sollten nicht getrennt betrachtet werden. stattdessen können beide in allen Arten von Wörtern zusammenarbeiten, egal ob unregelmäßig oder regelmäßig.
Methode:

- Pseudowörter brauchen länger zum Lesen als Wörter.
- "ausnahme" -Wörter, die gegen die Rechtschreibregeln verstoßen, brauchen länger zum Lesen als "normale" -Wörter.
- Es gibt große Unterschiede zwischen den Personen mit orthographischem und lexikalischem Wissen.
-phonologische Legasthenie - zeigt, dass Menschen den Zugang zu Rechtschreib-Laut-Korrespondenzen verlieren können

Methode: vier angezeigte Wortarten: regelmäßige/unregelmäßige Wörter/Pseudowörter.

abhängiges Maß: Zeit, um mit dem Sprechen des angezeigten Wortes zu beginnen.

Ergebnisse:
Ausnahmewörter > reguläre Wörter
Ausnahme-Nichtwörter > reguläre Nichtwörter
"Regelmäßige, aber inkonsistente" Wörter (z. B.
Welle) > "regelmäßige, aber konsistente" Wörter
(z.B. waten)

Fazit: Viele Beweise für phonologische Mediation. kann nicht davon ausgehen, dass es trennen lexikalische und orthographische (phonologische) Mechanismen zum Lesen. Weil reguläre Wörter werden schneller ausgesprochen als unregelmäßig, es gibt sowohl phonologische als auch lexikalische Verarbeitung, nicht getrennt voneinander. Es gibt keine Möglichkeit, die phonologische Verarbeitung zu vermeiden, selbst wenn das Wort unregelmäßig ist, und es gibt keine Möglichkeit, die lexikalische Verarbeitung zunächst zu vermeiden, selbst wenn es sich um ein Pseudowort handelt. das Zwei-Mechanismus-Modell ist nicht von einem Rahmen zu unterscheiden, in dem nur ein Aktivierungsprozess diese beiden Geräte ersetzt.

Anspruch: lexikalische Einträge, die in einer Hierarchie gespeichert sind. vorhergesagt Kategoriegrößeneffekt.

Methode: Versuchspersonen, die aufgefordert werden, auf die auf dem Bildschirm aufblitzenden Sätze wahr oder falsch zu antworten.
zwei Arten von Sätzen: "Eigenschaft" und "Kategorie". Ein Vogel hat Federn, ein Vogel ist ein Tier.
Sätze wurden aus Hierarchien erstellt, wie z. B. "a robin is a bird" vs. "a robin is a animal."
Vorhersage: "a robin is a animal" sollte sein Langsamer als "bird", da die Kategorien in der Hierarchie weiter auseinander liegen.

abhängiges Maß: mittlere Reaktionszeit der Probanden auf T/F.

Methode: semantische Verifikationsaufgabe

Behauptung: Menschen aktivieren Wahrnehmungssymbole während des Sprachverstehens, anstatt "quotamodale Aussagen".
wenn Wahrnehmungssymbole: Die Reaktion der Personen auf "War dieses Objekt in der Geschichte?" schneller, wenn die Form des gezeigten Objekts ihrer Wahrnehmung entspricht.
wenn nur amodale Aussagen: keine Auswirkung auf Antwortlatenzen.

Methode: Paare des gleichen Objekts, aber unterschiedlicher Formen, wie Spiegelei versus in der Schale. den Teilnehmern präsentierte Sätze, die das eine oder andere dieser Paare beschreiben. Die Probanden zeigten dann eines des Paares und fragten, ob es erwähnt wurde.

abhängiges Maß: Antwortlatenzen auf "war dieses Objekt in der Geschichte?" - genannt die Mismatch-Effekt - langsamer, wenn das gezeigte Objekt nicht mit dem übereinstimmt, das sie in der Geschichte wahrgenommen haben.

Ergebnisse: signifikanter Mismatch-Effekt auf die Antwortlatenz.

Methode: binaurales Hören Aufgabe: Hören Sie auf ein bestimmtes Phonem in den Sätzen, z. B. /b/.

Materialien:
hochfrequentes vorangestelltes Phonem: "Der reisende Fagottspieler fand sich ohne Geld in einer fremden Stadt wieder"
niederfrequentes vorangestelltes Phonem: "Der umherziehende Fagottspieler fand sich ohne Geld in einer fremden Stadt wieder".

Zielwörter wurden auch zu früh oder spät im Satz verschoben.

Ergebnisse: Frequenzeffekt unter allen Bedingungen gefunden. Die Position des Zielwortes im Satz spielte keine Rolle.

Materialien:
Der Sandstrand erstreckte sich über viele Kilometer
Die Sanddüne erstreckte sich über viele Meilen
Der erschöpfte Student verließ das Flugzeug
Der erschöpfte Steward verließ das Flugzeug

Seriensuche: hier ist ein Wort. Was ist es? Gehen Sie alle Wörter in einer Liste durch, die ähnlich sind.

das Wort zu sehen/hören lässt das "logogen" feuern, dies erzeugt Zugriff auf den lexikalischen Eintrag.

Zwei Hypothesen:
Kurzzeitgedächtnis-Hypothese (STM): Alle lexikalischen Informationen werden abgerufen und bis zum Satzende im Arbeitsgedächtnis gespeichert

Sofortentscheidungshypothese (ID): Nur eine Bedeutung wird in das Arbeitsgedächtnis übertragen

Methode: Phonemüberwachungsaufgabe: auf /d/ achten
Paul nahm eine Pfeife vom Regal im Tabakladen herunter
Paul nahm eine Zigarre vom Regal im Tabakladen
Paul nahm eine Zigarre aus dem Dollarregal im Tabakladen.
Paul nahm eine Pfeife aus dem Dollarregal im Tabakladen.

STM-Hypothese: Der Überwachungseffekt wird nach allen lexikalischen Elementen länger anhalten
ID-Hypothese: Überwachungseffekt wird lokal sein

Mit anderen Worten: Es gibt zwei D's in diesen Sätzen: Down und Dollar. Bei der STM-Hypothese ist die mittlere Reaktionszeit länger, unabhängig davon, wo /d/ gefunden wird. Bei der ID-Hypothese hat nur dasjenige, das dem mehrdeutigen Wort (Pipe) unmittelbar folgt, eine höhere mittlere Antwortzeit.

abhängiges Maß: mittlere Reaktionszeit.

Behauptung: untersuchte die Auswirkungen des vorherigen semantischen Kontexts auf den lexikalischen Zugriff.

Methode: Cross-modale Priming-Aufgabe.

„Es ging das Gerücht, dass das Regierungsgebäude seit Jahren von Problemen geplagt war. Der Mann war nicht überrascht, als er fand
mehrere Spinnen, Kakerlaken und andere Ungeziefer in der Ecke seines Zimmers."

die Geschichten, die den Probanden erzählt wurden, waren entweder mehrdeutig oder eindeutig. "bugs" könnten mit Ameise oder Spion zusammenhängen, abhängig vom genauen Wortlaut der Geschichte.
auch könnten die Geschichten so geschrieben werden, dass sie entweder auf die eine oder andere Bedeutung von "Käfer" ausgerichtet sind - Spionage oder Insekten.

Themen könnten kontextangemessen (Ameise), kontextunangemessen (Spion) oder kontextunabhängig (nähen) gezeigt werden.

abhängiges Maß: mittlere Reaktionszeit auf "ist das ein Wort?"

Ergebnisse:
Reaktionszeiten sind länger für entsprechende und unangemessene Wörter im Vergleich zur Kontrolle (nähen).

Der Zugang ist zunächst erschöpfend. erst alle Bedeutungen aktivieren, dann eingrenzen.

lexikalische Entscheidungen für Wörter, die sich auf beide Lesarten der Mehrdeutigkeit beziehen, werden erleichtert (im Vergleich zu Entscheidungen für ein nicht verwandtes Kontrollwort (sew) in Bedingungen, die eine lexikalische Mehrdeutigkeit und keinen verzerrenden Kontext enthalten. Der gleiche Effekt gilt für die Bedingung, in der eine starke Verzerrung vorliegt semantischer Kontext vorhanden *lexikalische Entscheidungen für Wörter, die sich sowohl auf das kontextuell relevante als auch auf das kontextuelle beziehen
unangemessene Bedeutungen der Mehrdeutigkeit scheinen im Vergleich zu Entscheidungen für nicht verwandte Kontrollwörter erleichtert zu sein.*

Fazit: Der semantische Kontext leitet keinen lexikalischen Zugriff. stattdessen scheinen unmittelbar nach dem Auftreten eines mehrdeutigen Wortes alle Bedeutungen für dieses Wort während des Satzverständnisses momentan zugänglich zu sein.

Das hier vorgeschlagene Modell der geordneten Suche geht davon aus, dass der Zugriff auf mehrere Bedeutungen unabhängig vom Kontext in einer festen Reihenfolge erfolgt. Ob auf eine Bedeutung oder auf mehrere Bedeutungen zugegriffen wird, hängt daher davon ab, ob der primäre (gesundeste) Menschenverstand in den Kontext passt. Die Reihenfolge der Bedeutungen, auf die zugegriffen wird, wird durch die Häufigkeit der Nutzung bestimmt.

drei Möglichkeiten:
1. alle mehrdeutigen Bedeutungen, auf die gleichzeitig zugegriffen wird
Diese Konzeptualisierung stimmt jedoch nicht mit der Gegenwart überein
Ergebnisse, da es nicht vorhersagen würde, dass es
würde länger brauchen, um einen sekundären Sinn zu finden.

2. beide haben zugegriffen, aber einer hat es zuerst versucht. wenn es nicht funktioniert, versuchen Sie es mit einem anderen.
Nach diesem Modell kann ein primärer Sinn sofort sein
auf den zugegriffen wird, wenn auf einen Token-Knoten zugegriffen wird, ohne auf den sekundären Sense zuzugreifen. Auf den sekundären Sinn kann jedoch nicht zugegriffen werden, es sei denn, auf den primären Sinn wurde bereits zugegriffen. Diese Konzeptualisierung stimmt mit den längeren Suchzeiten für sekundäre Sinne überein und erscheint am wahrscheinlichsten.

3. man macht mehr Sinn (primäre Bedeutung) schneller aktiviert als andere, dann wird auf sekundäre Bedeutung nur dann zugegriffen, wenn die primäre nicht funktioniert hat.

Methode: Sätze, die mit Wörtern in ihrem primären oder sekundären Sinn gezeigt werden. den Probanden wurde gesagt, dass sie sich entscheiden sollten wenn das letzte Wort im Satz mehrdeutig ist.

abhängiges Maß: mittlere Reaktionszeit, "ist dieses Wort mehrdeutig?"

Methode: 120 Homographen, wie Ring. lexikalische Entscheidungsaufgabe: Subjekte, die mit "ring" markiert wurden, zeigten dann ein Wort, das entweder mit der dominanten Bedeutung des Rings (Finger) oder der untergeordneten Bedeutung (Glocke) in Zusammenhang steht.
gefragt, ob die Wörter zusammenhängen.

SOA: Asynchronität des Reizbeginns. Ring, dann wurden die Ziele in unterschiedlichen Abständen von 16 ms bis 750 ms präsentiert.

abhängiges Maß: mittlere Reaktionszeit

Ergebnisse: verwandte Wörter hatten eine schnellere Reaktionszeit als nicht verwandte Wörter für die Dominant Bedeutung. untergeordnete Bedeutung: weniger Wirkung.

Welche Auswirkung hat der Kontext des vorangehenden Satzes auf den lexikalischen Zugriff? Kann Satzkontext den Zugriff einschränken?

Methode: studierte das zweistufige Modell des Lesens.

Die Augenbewegungen der Leser werden verfolgt, wenn sie lexikalisch mehrdeutige Wörter lesen oder eindeutige Wörter kontrollieren. zweideutige Worte waren entweder gleichgewichtig oder nicht ausgeglichen.

bei der Hälfte der Versuche wurde das Wort mit einem vorangestellten Satz eindeutig gemacht.
Blickdauer auf das Zielwort und Lesezeiten für die späteren Teile der Sätze variierten zwischen den mehrdeutigen und den Kontrollwörtern.
für nicht ausgeglichene, der ausgewählte Kontext die untergeordnet Bedeutung.

abhängiges Maß: Blickdauer auf das Zielwort.

Ergebnisse: Die Daten unterstützen ein Modell, in dem mehr als eine Bedeutung eines Wortes wird automatisch aktiviert der Aktivierungsgrad wird jedoch durch die Häufigkeit und den vorherigen Kontext beeinflusst.

equibiased: Kontext vorher: Verursacht dominante Bedeutungsauswahl. Kontext nach: schafft Konkurrenz mit dem mehrdeutigen Wort.
bevor der folgende Kontext langsamer gelesen wird, da auf beide Bedeutungen zugegriffen wird.

unausgeglichen: weniger häufiges Wort wurde durch den Kontext verstärkt,- langsamere Verarbeitung weil Konkurrenz zwischen Dominante und Untergebene geschaffen wurde.

Ein Gartenpfadsatz lädt den Hörer ein, eine mögliche Analyse in Betracht zu ziehen, und zwingt ihn dann am Ende, diese Analyse zugunsten einer anderen aufzugeben. (Das Pferd raste an der Scheune vorbei, fiel.)

Diese Sätze sind möglich, weil beim Lesen/Hören die eingehende Wortfolge analysiert wird, um festzustellen, zu welchen Kategorien die Wörter gehören. Der Parser kümmert sich nicht um die einzelnen Wörter, die er betrachtet.

Annahmen: Menschen können jeweils nur eine syntaktische Struktur aufbauen (serielles System). oder modular System.

Der Parser versucht, die am wenigsten komplizierte Struktur aufzubauen, die er kann: weniger Zeit, weniger Arbeitsspeicherbedarf.

Der Sprachprozessor berechnet zunächst eine einzige syntaktische Analyse ohne Berücksichtigung von Kontext oder Plausibilität. Sobald eine Interpretation gewählt wurde, werden andere Informationen verwendet, um ihre Angemessenheit zu bewerten.

Vorhersage der Gartenwegtheorie:
Die Lesezeit sollte bei frühen Schlusssätzen und nicht minimalen Anhangssätzen länger sein, weil diese folgen nicht den Heuristiken.

Vorteil: Auf Basis unvollständiger Informationen können sehr schnell Entscheidungen getroffen werden.

Nachteil: Heuristiken führen nicht immer zur richtigen Lösung.

Während Susan sich anzog, spielte das Baby.

Geht davon aus, dass alle möglichen syntaktischen Analysen auf der Grundlage aller relevanten Informationsquellen auf einmal berechnet werden. die Analyse mit der größten Unterstützung wird gegenüber ihren Mitbewerbern gewählt.

interaktives Modell of sentence comprehension: capable of pursuing multiple structural possibilities simultaneously, hypotheses are ranked on likelihood given the input.

claim: the algorithmic approach people assume from language gives us too much credit. it assumes that language comprehension is always complete, detailed, and accurate. Instead, Good-enough approach: language processing is sometimes only partial and semantic representations are often incomplete. Evidence: misinterpretation of garden-path and passive sentences.

the linguistic system has challenges: the structure it builds is fragile and decays rapidly. it must also cope with potentially interfering information, such as ambiguity.

dysfluencies like pauses, false starts, fillers will often yield a string of words that violates grammatical principles. however, listeners are able to process these efficiently, possibly because abandoned fragments could be incorporated into the the comprehender's overall representation.

syntactically ambiguous sentences may also be given incomplete syntactic representations. perhaps the language processor does not bother to complete the ambiguous structures because there is not enough information.

autonomy of syntax assumes everything is activated.

combined sentence continuation task with word-naming task.

Materialien
verb type: landing planes is difficult
adjective type: landing planes are dangerous
filler sentences: so it's not so obvious what they're studying
ambiguous: is/are, could be either
unambiguous: no question which verb it could be

dependent measure: response time ("mean naming latencies")

results: significant effect of probe - aka whether word/probe was appropriate/inappropriate.

faster naming for appropriate probes.
rather than speeding up with appropriate, you actually are slowed down with the inappropriate cue.
also people are slower with unambiguous, but those words were less frequent/longer, etc. - can't compare directly.
don't slow down more with ambiguous than unambiguous - same difference whether ambiguous or unambiguous.

definitely rules out autonomy of syntax.

Trained speakers can use prosodic cues to disambiguate (like newscasters). But what about untrained speakers?

example: when you learn gradually you worry more
Ziph's law: good enough. principle of least effort. creates ambiguity.

Methode:
readers read these sentences:
Toni went deep sea diving in the Pacific Ocean. She saw a man-eating fish. It scared her.

Jenny went to the Seafood restaurant. She saw a man eating fish. He seemed to like it.

Toni went deep sea diving in the Pacific Ocean. She saw a dangerous fish. It scared her.

Jenny went to the Seafood restaurant. She saw a man having dinner. He seemed to like it.

listeners hear just the ambiguous sentences, then shown both contexts, have to decide which context it belongs in.

groups are counterbalanced, each group hears half ambiguous, half not.

We assume that speakers are following these maxims. Conversations are a cooperation between speakers, working together for a goal, their interests should be dovetailed. People flout these maxims for various effects: irony, metaphor, meiosis, hyperbole, connection between seemingly unrelated things (violate relevance).

quantity: Make your contribution as informative as required. Do not make your contribution more informative than is required.

claim: Grice claims that speakers are only as informative as necessary, not more, not less. Ist das wahr? This seems plausible, at least.

Methode:
experiment 1: Production. Subjects' utterance produced in context. Asked to tell someone to move an object to matching or different locations - either move from one towel to another, or from a towel to something different. also, either one or two objects. Does the speaker produce over-descriptions?
dependent measure: their descriptions: modified target utterances should only occur with two referent conditions because otherwise it would be redundant, overdescription.
Ergebnisse: Modified target utterances were more common in the different condition than in the matching condition. consistent with Gricean maxim of quantity. however, also a surprising amount of overdescriptions. overdescription is fairly likely, but underdescription is avoided.

experiment 2
Do listeners judge over and under descriptions as infelicitous.
Methode: speakers judged utterances while looking at two pictures, the same as in experiment one. they were asked to rate the descriptions based on how good they were for bringing about the change between the two pictures.
Ergebnisse
in one-referent context: people explicitly judge under-descriptions of the location to be less felicitous than appropriate descriptions. even when there are two identical locations, people expect that to be pointed out.
two-referent context: participants sensitive to ambiguity, do not like under-description.
over-descriptions in one-referent are not considered infelicitous, inconsistent with Gricean maxim.

experiment 3
Methode: visual world paradigm. recorded subjects' eye movements as they moved objects in response to instructions.
two variables: matching/different locations, modifying PP or none. used only one-referent displays.
Ergebnisse:
effect of under-describing the location: It took participants longer to commit to an interpretation or figure out the correct move if you say "put the apple on the towel" when the apple is ALREADY on the towel. Consistent with experiments 1 and 2, a speaker wouldn't say that.
effect of over-describing the location: over-descriptions cause momentary confusion. listeners seem entirely unaware of this cost.

class-inclusion statement: a robin is a bird. (think collins and quillian)
Literal meanings derived automatically. Nonliteral meanings derived optionally.
(Stroop interference. name color of ink the color name is written in.)

Versuch 1
Prediction: if subjects ignore nonliteral meanings of metaphors, then metaphor sentences should take no longer to reject than scrambled metaphors.
Methode: sentence verification task. interference effect should be found as in the Stroop task (not with color, but competition between literal and metaphor meaning.) subjects: answer whether statement is buchstäblich true or false. supposed to completely ignore metaphor.
types of sentences
true high-typical sentences: some birds are robins.
true low-typical sentences: some birds are penguins.
standard false sentences: some birds are apples.
metaphor sentences: some jobs are jails.
scrambled metaphor sentences: some jobs are birds.
dependent measure: mean response time
Ergebnisse: people significantly slower at metaphor condition than the other three conditions. Personen cannot totally ignore metaphorical meaning.

Experiment 2
(the quality of a metaphor can be affected by the quantifier: "some surgeons are butchers" is a better metaphor than "all surgeons are butchers.")
Vorhersage: poor metaphors can be ignored.
Methode: first, questionnaires used to create a list of poor and good metaphors. then, the same as experiment one.
Ergebnisse: mean response time was highest for "some" metaphors, the good metaphors - no metaphor interference effect for the poor metaphors.

Experiment 3
Methode: new metaphors used, beginning with some or all
prediction: will the alle metaphors have a weaker interference because they are less familiar than the all metaphors in experiment 2?

In particular, the All metaphor items in Experiment IlI had a marginally lower mean familiarity rating than those of Experiment II, yet we obtained a metaphor interference effect with the former and not with the latter. This finding argues that familiarity, while perhaps a necessary condition, is not a sufficient one for the effect.

Gesamt
We have shown that sentences of the form Some

All X are Y take longer to judge as literally false when they have readily interpretable nonliteral meanings than when they do not. This result suggests that people can no more easily refuse to understand statements such as Sam is a pig than statements such as Tomatoes are red. In this
sense, nonliteral comprehension is automatic---even in the relatively impoverished context of a laboratory experiment. People do not seem to have the option to ignore simple metaphors.

how do people recognize metaphor?
perhaps, use the same strategies of comprehension for literal and nonliteral. metaphor can be viewed as a comparison structure, paraphrased as "some x are like y." when people recognize the properties of x and y are related, they recognize the metaphor.


What Is the Lexical Approach?

In language teaching, a set of principles based on the observation that an understanding of words and word combinations (chunks) is the primary method of learning a language. The idea is that, rather than have students memorize lists of vocabulary, they would learn commonly used phrases.

Der Begriff lexical approach was introduced in 1993 by Michael Lewis, who observed that "language consists of grammaticalized lexis, not lexicalised grammar" (The Lexical Approach, 1993).

The lexical approach is not a single, clearly defined method of language instruction. It's a commonly used term that's poorly understood by most. Studies of literature on the subject often show that it's used in contradictory ways. It is largely based on the assumption that certain words will elicit a response with a specific set of words. Students would be able to learn which words are connected in this way. Students are expected to learn the grammar of languages based on recognizing patterns in words.


Einführung

Most models of lexical access in speech production assume that lexical selection is a competitive process (e.g., Levelt et al., 1999 Roelofs, 2001 Bloem and La Heij, 2003 Howard et al., 2006). That means, selection of a target word is influenced by the activation of competitors in the mental lexicon, usually other entries sharing semantic features with the target word. Activation of competitors makes selection of the intended lexical entry more difficult and may lead to a delay in naming. Other models of lexical access do not include competition. In these models, the lexical item with the highest level of activation is selected independently of the activation states of competing items (e.g., Dell, 1986). In both groups of models lexical errors occur when another lexical entry receives more activation than the target word.

One of the standard paradigms to study lexical access is the picture–word interference (PWI) experiment. This paradigm is a variant of the Stroop task (Stroop, 1935). Subjects name objects presented to them on a computer screen while a distractor word is also presented. The distractor slows down naming in comparison to a control condition (e.g., no distractor, or a line of “XXXX”). The semantic interference effect (SIE) refers to the observation that naming is slowed down more by distractors which come from the same semantic category to the target word (semantically related distractor) than a distractor from a different semantic category (unrelated distractor). For example, the naming of the target word “tiger” is affected by the semantic distractor “lion” more than by the unrelated distractor “letter.” Most researchers have interpreted this as evidence for competition during lexical selection. The competitor in the lexical network receives activation, increases competition with the target and, thus, hinders its selection.

In a series of experiments, Mahon et al. (2007), have called into question this interpretation of the SIE and its relevance for the study of lexical selection. These authors provided a number of findings incompatible with the original “selection-by-competition” account (e.g., Miozzo and Caramazza, 2003 Finkbeiner and Caramazza, 2006 Mahon et al., 2007 Janssen et al., 2008 Mahon and Caramazza, 2009). For example, Miozzo and Caramazza (2003) provided evidence that low frequency distractors cause more interference than high frequency distractors. Finkbeiner and Caramazza (2006) observed semantic facilitation instead of interference when distractors were masked. Mahon et al. (2007), finally, observed stronger interference effects for related distractors which were dissimilar to the target word (e.g., “whale” as the distractor for “horse”). Under the “selection-by-competition” account, similar distractors should produce stronger competition because they share more features with the target. The authors’ alternative account of interference effects in the PWI is the “response exclusion hypothesis.” In short according to these authors, the PWI is of little value for studies of lexical selection. Instead, this paradigm involves a post-lexical decision mechanism controlling a limited-capacity response channel (cf. Ferreira and Pashler, 2002). In Stroop-like tasks, like the PWI, the distractor has privileged access to articulatory processes because reading is automatic and faster than picture naming. In the case of the PWI, the articulators must 𠇏irst be disengaged from the articulators” (Mahon and Caramazza, 2009, p. 736) which delays the response. If distractors share relevant features with the target word, disengagement is slowed, thus, producing the interference effect.

Recently, some authors have set out to defend the “selection-by-competition” hypothesis. A detailed proposal is Abdel Rahman and Melinger's (2009a,b) “Swinging Lexical Network” hypothesis (henceforth: SLNH) which provides an explanation for interference and facilitation effects in PWI experiments, one of the central issues which need to be resolved (cf. Bloem et al., 2004 Finkbeiner and Caramazza, 2006). Abdel Rahman and Melinger draw attention to the number of co-activated competitors in determining ease of lexical access (cf. Roelofs, 1992, 2001). They argue that the number of activated competitors or, lexical neighborhood size, is a critical factor in lexical access and will determine whether a semantically related distractor will interfere with or will facilitate lexical selection.

The SLNH assumes that during object naming, two independent processes are triggered and need to be considered when evaluating facilitation and interference effects. First, there is activation spreading within a semantic network of related concepts which, in general, facilitates processing of the target concept. Second within the lexical network, that is, within the cohort of semantically related concepts, which compete for selection, the mutual activation causes activation spreading which hinders selection of the target item. Within the lexical network, activation spreading, thus, contributes to interference effects (Abdel Rahman and Melinger, 2009a, p. 715f.). When determining the net effects of facilitation and interference, the activation states of both the conceptual and the lexical network need to be considered. In the case of Mahon et al.’s (2007) semantic distance effects, the SLNH suggests that a semantically far distractor activated a larger set of competitors while a semantically close distractor activated a smaller set of co-activated competitors. In the case of the larger cohort, a distractor would cause more interference than in the case of a small cohort. Abdel Rahman and Melinger's account, thus, predicts that in case of competition through a distractor, there should be an interaction between neighborhood size and semantic relatedness of the distractor. This is because with broader semantic categories, the distractor should produce greater interference. “We assume that semantic contexts always induce both conceptual facilitation and lexical competition. The net effects will be facilitation-dominant when only a single or small number of competitors is activated, in which case conceptual priming outweighs lexical competition. In contrast, effects will be interference-dominant when a large number of inter-related competitors, a lexical cohort, is active, in which case cohort-induced lexical competition outweighs conceptual priming” (Abdel Rahman and Melinger, 2009a, p. 716�). The same mechanisms can cause facilitation effects through distractors which are associatively related to the target or which involve a part–whole relationship: as these distractors contribute to facilitation through semantic activation spreading yet are part of a different lexical network, conceptual facilitation is much larger than interference through related lexical competitors. The assumption that interference in the lexical network depends on the number of activated lexical entries is shared with other models (e.g., Roelofs, 1992 La Heij and van den Hof, 1995 Levelt et al., 1999).

The SLNH was originally developed to explain interference and facilitation effects in PWI experiments but the two independent factors – conceptual facilitation and lexical interference – are the result of automatically triggered processes which should also be involved in other naming tasks. Hence, the authors suggest their model to be relevant for other 𠇌ontext” situations, for example, blocked naming experiments and the generalization of interference effects to other category members (Belke et al., 2005). In this study, repeated activation of a larger cohort of related lexical entries led to generalization to other, previously inactive lexical entries. Two predictions can be derived from this account: first, ceteris paribus, a larger cohort of co-activated lexical entries will activate each other and will, thus, produce more competition in the lexical network (e.g., Abdel Rahman and Melinger, 2009b, p. 751). This is because a large set of competitors will cause the lexical network to “resonate,” namely to increase activation across the cohort which interferes with the selection process. The facilitation effect in these two different contexts should be comparable because this stems from automatic spread of activation along associatively related concepts. Second, the size of the activated cohort of competitors further determines whether a semantically related distractor word should interfere with naming or should facilitate lexical access. With a larger set of competitors, a semantically related distractor in a PWI experiment will again increase the overall activation of the network while, in contrast, in the case of few competitors or in the case of distractors from different categories, there will be less mutual activation and interference. The SLNH, thus, makes testable claims about the size of the semantic neighborhood in lexical selection. This account predicts that the number of co-activated semantically related competitors has a direct influence upon ease of lexical selection and should modulate the effects of semantically related distractors.

Previous research on neighborhood effects has focused on phonological and orthographic neighborhood. Studies suggest that formally related neighbors play different roles in word perception and word production. Phonologically related neighbors appear to interfere in spoken word recognition (and orthographically related neighbors interfere in reading) while they facilitate word production (see Dell and Gordon, 2003, for review). For example, Stemberger (2004) as well as Vitevitch (2002) reported fewer speech errors and faster naming latencies for words with many neighbors.

Fewer studies are available regarding semantic neighborhood size (though see Caramazza and Costa, 2001 Vigliocco et al., 2002). Lexical-semantic neighborhood size has recently been identified as a critical variable in the naming performance of anomic subjects by Blanken and colleagues (Blanken et al., 2002 Bormann et al., 2008). In a single case study, Blanken et al. (2002) demonstrated that for items from broad semantic categories with many competitors (e.g., “lion,” “hammer” “high competition target items”) their anomic subject MW exhibited semantic errors. In contrast for items from small semantic categories (�ge,” 𠇏unnel” “low competition items”), semantic errors hardly ever occurred. Instead, MW exhibited errors of omission (i.e., no response at all). The study has been replicated by Bormann et al. (2008) for a group of 17 aphasics. The number of correct responses for both groups of items did not differ suggesting that overall, ease of access to the target lexical entry was comparable. A further replication was reported by Kittredge et al. (2007) 1 . The data from the aphasic subjects strongly suggest that in the case of high competition items, a larger set of competitors is activated. In contrast, for low competition target items, the cohort is considerably smaller, or, a cohort of co-activated lexical entries may not even be available. In the case of high competition items, semantically related competitors may receive above threshold activation which leads to a semantic error.

There is now evidence in the literature suggesting comparable mechanisms underlying interference in aphasic naming errors and slowed naming latencies in unimpaired speakers. For example, Schnur et al. (2006) demonstrated that unimpaired speakers’ response times increased in blocked naming in comparison to the mixed condition. Aphasic subjects exhibited an increase of semantic errors in blocked naming tasks. Several other studies have demonstrated that aphasics produce more semantic errors in homogenous contexts (e.g., Laine and Martin, 1996) while unimpaired speakers exhibit an increase in naming latencies (Howard et al., 2006 Navarrete et al., 2010).

The present study set out to assess the central claims of the SLNH, namely, that (1) semantic neighborhood size influences speed of lexical selection and that (2) it interacts with distractor interference. The theory makes two claims: it predicts a main effect of neighborhood density since naming latencies for items from larger semantic categories should be slower due to increased competition for selection. This prediction was tested in an experiment in which subjects were asked to name items in three consecutive cycles. Repetition of a target item speeds up naming in the subsequent presentation cycle (e.g., Ellis et al., 1996 Barry et al., 2001 Belke et al., 2005). The second prediction of Abdel Rahman and Melinger's (2009a) hypothesis is that of an interaction of distractor type and lexical-semantic neighborhood size: for high competition targets, a semantically related distractor should slow down naming (in comparison to an unrelated distractor). In contrast, for low competition target items, a related distractor should facilitate and, thus, speed up naming (see above). This prediction was tested in a PWI experiment.


FAQ: Language Acquisition

No. Children acquire language quickly, easily, and without effort or formal teaching. It happens automatically, whether their parents try to teach them or not.

Although parents or other caretakers don't teach their children to speak, they do perform an important role by talking to their children. Children who are never spoken to will not acquire language. And the language must be used for interaction with the child for example, a child who regularly hears language on the TV or radio but nowhere else will not learn to talk.

Children acquire language through interaction - not only with their parents and other adults, but also with other children. All normal children who grow up in normal households, surrounded by conversation, will acquire the language that is being used around them. And it is just as easy for a child to acquire two or more languages at the same time, as long as they are regularly interacting with speakers of those languages.

The special way in which many adults speak to small children also helps them to acquire language. Studies show that the 'baby talk' that adults naturally use with infants and toddlers tends to always be just a bit ahead of the level of the child's own language development, as though pulling the child along. This 'baby talk' has simpler vocabulary and sentence structure than adult language, exaggerated intonation and sounds, and lots of repetition and questions. All of these features help the child to sort out the meanings, sounds, and sentence patterns of his or her language.

When do children learn to talk?

There is no one point at which a child learns to talk. By the time the child first utters a single meaningful word, he or she has already spent many months playing around with the sounds and intonations of language and connecting words with meanings. Children acquire language in stages, and different children reach the various stages at different times. The order in which these stages are reached, however, is virtually always the same.

The first sounds a baby makes are the sounds of crying. Then, around six weeks of age, the baby will begin making vowel sounds, starting with aah, ee, und ooh. At about six months, the baby starts to produce strings of consonant-vowel pairs like boo undda. In this stage, the child is playing around with the sounds of speech and sorting out the sounds that are important for making words in his or her language from the sounds that aren't. Many parents hear a child in this stage produce a combination like "mama" or "dada" and excitedly declare that the child has uttered his or her first word, even though the child probably didn't attach any meaning to the 'word'.

Somewhere around age one or one and a half, the child will actually begin to utter single words with meaning. These are always 'content' words like cookie, doggie, run,und sehen - never 'function' words like and, the, und von. Around the age of two, the child will begin putting two words together to make 'sentences' like doggie run. A little later on, the child may produce longer sentences that lack function words, such as big doggie run fast. At this point all that's left to add are the function words, some different sentence forms (like the passive), and the more complex sound combinations (like str). By the time the child enters kindergarten, he or she will have acquired the vast majority of the rules and sounds of the language. After this, it's just a matter of combining the different sentence types in new ways and adding new words to his or her vocabulary.

Why did my daughter say feet correctly for a while, and then go back to calling them foots?

Actually, she hasn't 'gone back' at all she's gone forward. When she used the wordfeet as a toddler, she was just imitating what she had heard. But now she has learned a rule for making plurals, which is that you add the S sound to the end of the word. So she's just applying her new rule to all nouns - even the exceptions to the rule, likefoot/feet. She'll probably do the same thing when she learns to add ed to verbs to make the past tense, saying things like he standed up until she learns that stand/stoodis an exception to the rule. She'll sort it all out eventually, but for now, rest assured that this is progress it's evidence that she's going beyond imitation and actually learning the rules of the English language.

How can a child who can't even tie her own shoes master a system as complex as the English language?

Although the 'baby talk' that parents use with small children may help them to acquire language, many linguists believe that this still cannot explain how infants and toddlers can acquire such a complicated system so easily.

It's far easier for a child to acquire language as an infant and toddler than it will be for the same child to learn, say, French in a college classroom 18 years later. Many linguists now say that a newborn's brain is already programmed to learn language, and in fact that when a baby is born he or she already instinctively knows a lot about language. This means that it's as natural for a human being to talk as it is for a bird to sing or for a spider to spin a web. In this sense, language may be like walking: The ability to walk is genetic, and children develop the ability to walk whether or not anybody tries to teach them to do so. In the same way, children develop the ability to talk whether or not anybody tries to teach them. For this reason, many linguists believe that language ability is genetic. Researchers believe there may be a 'critical period' (lasting roughly from infancy until puberty) during which language acquisition is effortless. According to these researchers, changes occur in the structure of the brain during puberty, and after that it is much harder to learn a new language.

Linguists have become deeply interested in finding out what all 5,000 or so of the world's languages have in common, because this may tell us what kinds of knowledge about language are actually innate. For example, it appears that all languages use the vowel sounds aah, ee, und ooh - the same vowel sounds a baby produces first. By studying languages from all over the world, linguists hope to find out what properties all languages have in common, and whether those properties are somehow hard-wired into the human brain. If it's true that babies are born with a lot of language knowledge built in, that will help to explain how it's possible for a very small child - with no teaching, and regardless of intelligence level - to quickly and easily acquire a system of language so complex that no other animal or machine has ever mastered it.

For further information

Pecchi, Jean Stillwell. 1994. Child Language. London: Routedge.

Pinker, Steven. 1994. The Language instinct. New York: W.W.Morrow.

"Playing the Language Game." Program Two: Acquiring the Human Language. The Human Language Series. Videocassette. New York: Equinox Films, 1995.

Smith, Neil. 1989. The Twitter Machine: Reflections on Language. Oxford: Blackwell.

FAQ by: Betty Birner

Interested in more on this topic? Kasse Language in Children and more books from LSA here.


Verweise

Baddeley, A. (2000). The episodic buffer: A new component of working memory? Trends in Cognitive Sciences, 4(11), 417–423. doi:10.1016/S1364-6613(00)01538-2

Barr, D. J., Levy, R., Scheepers, C., & Tily, H. J. (2013). Random effects structure for confirmatory hypothesis testing: Keep it maximal. Journal of Memory and Language, 68(3), 255–278. doi:10.1016/j.jml.2012.11.001

Cowan, N., Rouder, J. N., Blume, C. L., & Scott, J. (2012). Models of verbal working memory capacity: What does it take to make them work? Psychological Review, 119(3), 480–499. doi:10.1037/a0027791

Díaz, B., Mitterer, H., Broersma, M., & Sebastián-Gallés, N. (2012). Individual differences in late bilinguals’ L2 phonological processes: From acoustic-phonetic analysis to lexical access. Learning and Individual Differences, 22(6), 680–689.

Gerrits, E., & Schouten, M. E. H. (2004). Categorical perception depends on the discrimination task. Perception & Psychophysics, 66, 363–376.

Godfrey, J. J., Sydral-Lasky, A. K., Millay, K. K., & Knox, C. M. (1981). Performance of dyslectic children on speech perception tests. Journal of Experimental Child Psychology, 32, 401–424.

Hauser, M. D., Chomsky, N., & Fitch, W. T. (2002). The faculty of language: What is it, who has it, and how did it evolve? Science, 298(5598), 1569–1579. doi:10.1126/science.298.5598.1569

Kanwisher, N. (2000). Domain specificity in face perception. Nature Neuroscience 3(8):759–763.

Liberman, A. M. (1996). Speech: A special code. Cambridge: MIT-Presse.

Liberman, A. M., Cooper, F. S., Shankweiler, D. P., & Studdert-Kennedy, M. (1967). Perception of the speech code. Psychological Review, 74(6), 431.

MacKain, K. S., Best, C. T., & Strange, W. (1981). Categorical perception of English /r/ and /l/ by Japanese bilinguals. Applied Psycholinguistics, 2(4), 369–390. doi:10.1017/S0142716400009796

Mattys, S. L., Barden, K., & Samuel, A. G. (2014). Extrinsic cognitive load impairs low-level speech perception. Psychonomic Bulletin & Review, 21(3), 748–754.

Mattys, S. L., & Wiget, L. (2011). Effects of cognitive load on speech recognition. Journal of Memory and Language, 65(2), 145–160. doi:10.1016/j.jml.2011.04.004

Morris, N., & Jones, D. M. (1990). Memory updating in working memory: The role of the central executive. British Journal of Psychology, 81(2), 111–121. doi:10.1111/j.2044-8295.1990.tb02349.x

Oberauer, K., & Kliegl, R. (2006). A formal model of capacity limits in working memory. Journal of Memory and Language, 55(4), 601–626. doi:10.1016/j.jml.2006.08.009

Pisoni, D. B. (1975). Auditory short-term memory and vowel perception. Memory & Cognition, 3(1). doi:10.3758/BF03198202

Rönnberg, J., Lunner, T., Zekveld, A., Sörqvist, P., Danielsson, H., Lyxell, B., … Rudner, M. (2013). The Ease of Language Understanding (ELU) model: Theoretical, empirical, and clinical advances. Frontiers in Systems Neuroscience, 7. doi:10.3389/fnsys.2013.00031

Samuel, A. G. (1996). Does lexical information influence the perceptual restoration of phonemes? Journal of Experimental Psychology: General, 125, 28–51.

Schouten, M. E. H., Gerrits, E., & van Hessen, A. (2003). The end of categorical perception as we know it. Speech Communication, 41, 71–80.

Toscano, J. C., McMurray, B., Dennhardt, J., & Luck, S. J. (2010). Continuous perception and graded categorization electrophysiological evidence for a linear relationship between the acoustic signal and perceptual encoding of speech. Psychological Science, 21(10), 1532–1540.


4.4. Experimental validation

23 In an attempt to investigate the cognitive reality of the network structure proposed by Norvig & Lakoff [1987], a sentence production experiment was carried out, whose results for take can be found in Table 3. The figures represent the proportions of each of Norvig & Lakoff’s senses as identified in the first sentence produced by the participants when the word take was presented to them.

Table 3. Proportion of Norvig & Lakoff’s [1987] senses in the sentence production experiment

24 The results suggest that the most salient sense of take (with 20%) is take-3, as shown in (20) and (21), two of the sentences produced by the subjects for this sense. Take-3 may thus be considered central from a cognitive perspective.

Take this letter to the post office please. ( Experiment )

I will take you home. ( Experiment )

25 Next comes the sense of take-1 (“grab”), which accounts for 10% of the experimental data, followed by take-4 (“take action at patient”), which accounts for 7.5%, and finally take-6 (“take to the movies”), with a small proportion of 2.5%. These senses are illustrated by the following sentences:

Try not to take too many cookies. ( Experiment )

I will take a shower. ( Experiment )

He wanted to take me to a baseball game. ( Experiment )

26 The remaining senses, namely take-2 (“take patient to recipient”), take-5 (“take action from agent”) and take-7 (“take a glance at”), do not occur at all in the participants’ answers.

27 Like the corpus data, the experimental data cannot be represented by means of meaning chains, where one sense is derived from another, as is the case in Norvig & Lakoff’s network. However, this structure can be approximated by grouping the senses according to their degree of salience. Four clusters seem to emerge from Table 3, namely one central level with take-3 (20%), a second level with take-1 and take-4 (10% and 7.5%, respectively), a third level with take-6 (2.5%), and a fourth level, with senses that belong to take but have little or no cognitive salience, since they were not produced by the participants when they first saw the word take on their screens (take-2, take-5 and take-7). This four-level structure may be represented by Figure 3, where the shading indicates non-salient senses.

Figure 3. Experimental network of take

28 Interestingly, the level-2 status of take-1 is confirmed if we consider other results from the experiment. As pointed out in note 7, the stimulus take was presented twice to the participants, which means that they had to produce two sentences for this verb. One may assume that the first sentence produced by the subjects represents the most salient sense in their minds, whereas the second sentence represents a slightly less salient sense. If we exclude repetitions (some participants produced the same sentence for each of the two occurrences of the stimulus), the results are as shown in Table 4. It turns out that the most commonly produced sense for the second occurrence of take as a stimulus is take-1 (47.1%), which suggests that this sense comes second in terms of cognitive salience. Note also that the senses which were the least salient in the responses to the first occurrence of the stimulus (levels 3 and 4 in Figure 3), viz. take-2 (“take patient to recipient”), take-5 (“take action from agent”), take-6 (“take to the movies”) and take-7 (“take a glance at”), are also the least salient in the responses to the second occurrence of the stimulus (5.9% for take-2 and 0% for the others).

Table 4. Proportion of Norvig & Lakoff’s [1987] senses in the sentence production experiment (second occurrence of the stimulus)


Schau das Video: Mündliche Prüfung telc Deutsch A1 (Dezember 2021).