Der vorliegende Artikel Bewertungen eine Eyetracking-Methodik für Studien über Sprachverständnis. Um verlässliche Daten zu erhalten, sind die wichtigsten Schritte des Protokolls einzuhalten. Dazu gehören die richtigen Aufbau des Eye Trackers (z.B., gute Qualität der Augen- und Kopfbewegungen Bilder) und genaue Kalibrierung.
Das vorliegende Werk ist eine Beschreibung und eine Bewertung der eine Methodik entwickelt, um verschiedene Aspekte der Interaktion zwischen Sprachverarbeitung und die Wahrnehmung der visuellen Welt zu quantifizieren. Die Aufzeichnung der Auge-Blickmustern hat für den Beitrag der visuellen Kontext und sprachliche/Weltwissen zum Sprachverständnis gut belegt. Erste Untersuchungen beurteilt Objektkontext Effekte, Theorien der Modularität bei der Sprachverarbeitung zu testen. In der Einführung beschrieben, wie nachfolgende Untersuchungen Sprachverarbeitung als ein Forschungsthema aus eigenem Recht die Rolle der visuellen Kontext teilgenommen haben, Fragen, Fragen so wie unsere visuelle Wahrnehmung der Ereignisse und der Lautsprecher zur trägt Verständnis von Comprehenders Erfahrung unterrichtet. Die untersuchten Aspekte der visuellen Kontext gehören, Aktionen, Veranstaltungen, eines Sprechers Blick, und emotionale Mimik, sowie räumliches Objekt Konfigurationen. Nach einem Überblick über die Eye-Tracking-Methode und seinen verschiedenen Anwendungen Listen wir die wichtigsten Schritte der Methodik des Protokolls zur Veranschaulichung, wie man erfolgreich verwenden, um visuell befindet sich Sprachverständnis zu untersuchen. Ein letzte Abschnitt drei Sätze von repräsentative Ergebnisse präsentiert und zeigt die vor- und Nachteile von Eyetracking für untersucht das Zusammenspiel zwischen der Wahrnehmung der visuellen Welt und Sprache verstehen.
Psycholinguistische Forschung hat die Bedeutung der Augenbewegungen Analysen im Verständnis der Prozesse verwickelt im Sprachverständnis hervorgehoben. Der Kern der Ableitung Verständnis Prozesse aus dem Blick-Datensatz ist eine Hypothese, die Kognition mit Auge Bewegungen5verbindet. Es gibt drei große Arten von Augenbewegungen: Sakkaden, Vestibulo-Okular Bewegungen und glatte Verfolgung Bewegungen. Sakkaden sind schnelle und ballistischen Bewegungen, die meist unbewusst passieren und Verschiebungen in Aufmerksamkeit6zuverlässig zugeordnet wurden. Die Momente der relativen Blick Stabilität zwischen Sakkaden, bekannt als Festlegungen gelten Index aktuelle visuelle Aufmerksamkeit. Messung der Nenner für die Fixierungen und ihre Dauer im Hinblick auf kognitive Prozesse ist bekannt als die "Eye-Tracking-Methode". Frühen Implementierungen dieser Methode diente, Leseverständnis in rein sprachlichen Kontexten zu untersuchen (siehe Rayner7 für eine Überprüfung). In diesem Ansatz ist die Dauer der Inspektion einer Wort oder einen Satz Region mit Verarbeitung Schwierigkeiten verbunden. Eye-tracking wurde jedoch auch angewandt, um gesprochene Sprache verstehen zu untersuchen, während der Inspektiondes von Objekten in der Welt (oder auf einem Computer anzeigen2). In dieser "Bilderwelt" Eyetracking-Version wird die Inspektion von Objekten durch Sprache geführt. Wenn die Comprehenders hören, das Zebra, zum Beispiel, deren Prüfung eines Zebras auf dem Bildschirm werden genommen, zu reflektieren, dass sie an das Tier denken. In Bildwelt Paradigma sogenannten ein Comprehender Auge Blick versteht man gesprochene Sprache verstehen und die Aktivierung des damit verbundenen Wissens widerspiegeln (z. B. Zuhörer auch das Zebra überprüfen, wenn sie, Beweidung hören, zeigt eine Aktion durch das Zebra)2. Solche Inspektionen empfehlen eine systematische Verbindung zwischen Sprache-Welt-Beziehungen und Auge Bewegungen2. Eine gängige Methode, diesen Link zu quantifizieren ist durch Berechnung des Anteils der verschiedenen vorgegebenen Regionen auf einem Bildschirm sieht. Dies erlaubt Forschern, direkt (über Bedingungen, von den Teilnehmern und Artikel) zu vergleichen die Menge an Aufmerksamkeit auf verschiedene Objekte in einer bestimmten Zeit und wie diese Werte in Millisekunden Auflösung ändern.
Forschung in der Psycholinguistik ist Eyetracking in Bildwelten zu necken auseinander konkurrierende theoretischen Hypothesen über die Architektur des Geistes1genutzt. Auge Fixierungen auf abgebildeten Objekte haben, darüber hinaus gezeigt, dass Comprehenders können – vorausgesetzt, einen hinreichend restriktiven sprachlichen Kontext – inkrementelle semantische Interpretation8 führen und entwickeln sogar Erwartungen über zukünftige Charaktere 9. solche Augen-Blick-Daten haben auch Aufschluss über eine Reihe weiterer Verständnis Prozesse, wie lexikalische Mehrdeutigkeit Auflösung10,11, Pronomen Auflösung12, Disambiguierung von strukturellen und thematischen Rolle Zuordnung von Informationen in der visuellen Kontext13,14,16und pragmatische Prozesse15, unter vielen anderen bedeutet4. Natürlich können die Augenbewegungen auf Objekte im Sprachverständnis der betroffenen Prozesse informativ sein.
Die Eye-Tracking-Methode ist nicht invasiv und kann mit Kleinkindern, junge und ältere Sprache Benutzer verwendet werden. Ein entscheidender Vorteil ist, dass, im Gegensatz zu punctata Antworten auf Sonden oder Antwort-Taste drückt in Überprüfungsaufgaben, es gibt Einblicke im Laufe der Zeit in einer Millisekunde Auflösung in wie Sprache Aufmerksamkeit zu widmen und wie führt die visuellen Kontext (in Form von Objekten, Aktionen, Veranstaltungen, eines Lautsprechers Blick, und emotionale Mimik, sowie räumliches Objekt Konfigurationen) trägt zur Sprachverarbeitung. Die Kontinuität der Maßnahme während Satz Verständnis ergänzt gut mit anderen Post-Satz und nach dem Experiment Maßnahmen wie z. B. offene Bild/Video-Satz Überprüfung, Fragen zum Textverständnis und Rückruf Gedächtnisaufgaben. Offene Antworten in diesen Aufgaben können die Interpretation des Auges Blick Datensatzes durch Einblicke in das Ergebnis der Verständnis Prozess, Gedächtnis und lernen2bereichern. Kombination von Eyetracking mit diesen anderen Aufgaben hat aufgedeckt, inwieweit verschiedene Aspekte der visuellen Kontext visuelle Aufmerksamkeit und (sofortige sowie verzögerte) Verständnis über die Lebensspanne modulieren.
Die Darstellung der Sprache (gesprochen oder geschrieben) und Szenen können entweder simultan oder sequenziell sein. Beispielsweise Knoeferle und Mitarbeiter17 präsentiert die Szene 1.000 ms vor der gesprochene Satz, und es blieb beim Verständnis. Sie meldeten die Auflösung von lokalen strukturelle Ambiguität in deutschen Subjekt-Verb-Objekt (SVO) im Vergleich zu Objekt-Verb-Gegenstand (OVS) Sätze Beweise, die Clipart Darstellungen von Action-Events beitragen. Knoeferle und Crocker18 präsentiert eine Clipart-Szene vor einem geschriebenen Satz und die inkrementelle Integration von Clipart Ereignisse während Satz Verständnis getestet. Sie beobachteten inkrementelle Kongruenz Effekte, was bedeutet, dass die Teilnehmer lesen Zeiten Satz Bestandteile länger waren, wenn diese falsch zugeordnet (vs. abgestimmt) der Veranstaltung, die in der vorherigen Szene dargestellt. In einer anderen Stimulus-Präsentation-Variante die Teilnehmer zunächst einen Satz beschreibt eine räumliche Beziehung zu lesen und dann sah eine Szene von einer bestimmten räumlichen Anordnung mit Objekt Strichzeichnungen19. Diese Studie bewertet die Vorhersagen der rechnerische räumliche Sprachmodelle bitten die Teilnehmer, den Anfall von der Strafe für die Szene mit den Augenbewegungen aufgezeichnet während des Verhörs Szene zu bewerten. Die Teilnehmer Blickmustern waren moduliert durch die Form des Objekts, mit denen sie konfrontiert wurden – teilweise bestätigen die Modellvorhersagen und Bereitstellung von Daten zur Verfeinerung des Modells.
Während viele Studien Clipart Darstellungen17,18,19,20,21,22,23verwendet haben, ist es auch möglich, reale zu kombinieren Objekte, Videos von diesen Objekten oder statische Fotos mit gesprochener Sprache1,21,24,25,26,46. Knoeferle und Kollegen einer realen Umgebung24 und Abashidze und Kollegen verwendet ein Videoaufnahmen Darstellungsformat für Action-Events und spannende Effekte25untersucht. Variation des genauen Inhalts der Szenen (z. B.Darstellung von Aktionen oder nicht)22,27,38 ist möglich und kann auch visuellen Kontext Auswirkungen zeigen. Eine ähnliche Studie von Rodríguez und Mitarbeiter26 untersuchten den Einfluss von Videoaufnahmen visuelle Geschlecht Cues auf das Verständnis der gesprochene Sätzen dargestellt. Teilnehmer sahen die Videos anzeigen entweder männlich oder weiblich Hände eine Stereotyp geschlechtsspezifische Aktion auszuführen. Hörten sie einem Satz über entweder ein Stereotyp männliche oder weibliche Action-Event während gleichzeitig Inspektion ein Display zeigt zwei Fotos nebeneinander, einem Mann und einer Frau. Diese reiche visuelle und sprachliche Umgebung erlaubt die Autoren, die Auswirkungen der Sprache vermittelte Stereotype wissen auf das Verständnis von den Auswirkungen der visuell präsentiert (Hand) Geschlecht Cues auseinander zu necken.
Eine weitere Anwendung dieses Paradigma hat Entwicklungsstörungen Änderungen bei der Sprachverarbeitung gezielt. Augenbewegungen auf Objekte während der gesprochenen Sprachverständnis zeigte die Auswirkungen der dargestellten Ereignisse in 4 - 5 - jährigen27,28 und ältere Erwachsene29 in Echtzeit, aber etwas verzögert im Vergleich zu jungen Erwachsenen. Kröger und Mitarbeiter22 untersuchte die Auswirkungen der prosodischen Cues und Fall markieren im Rahmen eines Experiments und verglich diese über Experimente bei Erwachsenen und Kindern. Teilnehmer inspiziert eine mehrdeutige Action-Event-Szene beim Hören eines damit verbundenen eindeutig Fall markiert deutschen Satzes. Augenbewegungen ergab, dass die unterschiedliche prosodische Muster weder die Erwachsenen noch die 4 - oder 5-jährigen geholfen, wenn wer-macht-was-zu-wen vereindeutigenden. Satz-Initial Fall markieren, beeinflusst jedoch Erwachsenen aber nicht Kinder-Augenbewegungen. Dies deutet darauf hin, dass 5-Year-Olds Verständnis der Fall Markierung nicht robust genug, um thematische Rollenzuweisung zu ermöglichen (siehe Studie von Özge und Mitarbeiter30), zumindest nicht als Action-Events nicht eindeutig thematische Rolle Beziehungen. Diese Ergebnisse sind interessant, da sie im Gegensatz zu früheren Ergebnisse der prosodischen Auswirkungen auf thematische Rolle Zuordnung31sind. Kröger und Mitarbeiter22 vorgeschlagen, die (mehr oder weniger unterstützende) visuelle Kontext für die gegensätzlichen Ergebnisse verantwortlich ist. In dem Maße, in diese Interpretationen zu halten, unterstreichen sie die Rolle des Kontextes im Sprachverständnis über die Lebensspanne.
Die Eye-Tracking-Methode lässt sich gut mit den Maßnahmen von Bild (oder Video) Satz Überprüfung Aufgaben18,20,26, Bild Überprüfung Aufgaben32, Korpus Studien24, rating Aufgaben19, oder Post-experimentelle Rückruf Aufgaben25,33. Abaschidse und Mitarbeiter34 und Kreysa und Kollaborateure33 untersucht das Zusammenspiel von Lautsprecher Blick und Real-World-Action Videos34 und Lautsprecher Blick und Aktion Darstellungen33, bzw. als Hinweise für nächsten Satz Inhalt. Durch die Kombination der Verfolgung von Auge Blick in einer Szene während Sprachverständnis mit einer Post-experimentelle Speicher Aufgabe, bekamen sie ein besseres Verständnis für die Art und Weise, in der die Zuhörer Wahrnehmung des Sprechers Blick und die abgebildeten Aktionen interagieren und beeinflussen beide sofortige Sprachverarbeitung und Gedächtnis. Die Ergebnisse zeigten deutlichen Beitrag von Aktionen gegen Lautsprecher Blick auf Echtzeit-Verständnis gegenüber Post-Experiment Rückruf Gedächtnisprozesse.
Während die Eyetracking-Methode sehr flexibel eingesetzt werden kann, sind bestimmte Standards der Schlüssel. Das folgende Protokoll fasst ein generalisiertes Verfahren, das auf verschiedene Arten von Forschungsfragen die Forscher Bedürfnissen angepasst werden kann. Dieses Protokoll ist ein standardisiertes Verfahren beschäftigt in der Psycholinguistik Laboratory an der Humboldt-Universität Zu Berlin sowie in der ehemaligen Sprache und Kognition Labor an der kognitiven Interaktion Technologie Exzellenz Cluster (CITEC) bei Universität Bielefeld. Das Protokoll beschreibt einen Desktop-PC und eine remote-Installation. Letzteres ist für den Einsatz in Studien mit Kindern oder älteren Erwachsenen empfohlen. Alle Experimente erwähnt in den Vertreter Ergebnisse verwenden eine Auge-Tracker-Gerät, das hat einer Abtastrate von 1.000 Hz und dient zusammen mit einem Kopf Stabilisator, einen PC für die Prüfung der Teilnehmer (Display PC) und ein PC für die Überwachung des Experiments und der Teilnehmer Augenbewegungen (Host-PC). Der Hauptunterschied zum Vorgänger dieses Gerätes ist, dass es binokularen Eyetracking ermöglicht. Das Protokoll soll hinreichend allgemein für die Verwendung mit anderen Augen-Tracking-Geräte sein, die einen Kopf Stabilisator und nutzen Sie einen dual PC Setup (Host + Display). Es ist jedoch wichtig zu beachten, die andere Setups werden wahrscheinlich haben verschiedene Methoden für den Umgang mit Problemen wie Kalibrierung Fehler oder Track-Verlust, in dem Fall der Experimentator an den Benutzer verweisen sollten manuelle ihrer spezifischen Gerät.
Dieses Protokoll folgt den Ethikrichtlinien der Institution wo die Daten erhoben wurden, d. h., die kognitiven Interaktion Technology Excellence Cluster (CITEC) der Universität Bielefeld und Humboldt-Universität Zu Berlin. Die Experimente an der Universität Bielefeld wurden individuell von der Universität Bielefeld Ethikkommission genehmigt. Die Psycholinguistik Laboratory an der Humboldt-Universität Zu Berlin hat eine Labor-Ethik-Protokoll, die von der Ethikkommission der deutschen Gesellschaft Für Studienfinanzierung, der deutschen Gesellschaft für Sprachwissenschaft (DGfS) genehmigt wurde.
1. Desktop-Setup
Hinweis: Im folgenden werden die wichtigsten Schritte in einem Eyetracking-Experiment.
2. remote Setup: Anpassung der Setup für Studien mit Kindern und ältere Erwachsene
Hinweis: Dieser Abschnitt beschreibt nur die Unterschiede zwischen einer remote-Installation und ein Desktop-Setup wie in Schritt 1 beschrieben. Punkte erwähnt nicht ausdrücklich, hier sollte davon ausgegangen werden, identisch mit dem in Schritt 1 beschriebenen Verfahren werden.
3. Einstellen der Setup für das Lesen von Studien
Hinweis: Bei der Untersuchung von visuellen Kontext Auswirkungen auf die Lesung ist es notwendig, besonderes Augenmerk auf die Kalibrierung und Rekalibrierung Prozesse. Im Gegensatz zu visuellen Welt Studien erfordert Eye-tracking beim Lesen ein viel höheres Maß an Gerät Präzision, angesichts der Genauigkeit, Wort für Wort und Buchstabe für Buchstabe lesen Muster zu verfolgen.
Eine Studie von Münster und Mitarbeiter37 untersucht das Zusammenspiel von Satzbau, Aktionen und Gesichts emotionale Signale während Sprachverständnis dargestellt. Diese Studie ist gut geeignet, um die Vorzüge und Grenzen der Methode zu veranschaulichen, wie es zeigte sich, dass beide robuste Aktion und marginale Effekte des Gesichts emotionale Hinweise auf Satz Verständnis abgebildet. Die Autoren erstellt 5 s Videos der Gesichtsausdruck einer Frau, die von einer Ruheposition in eine glückliche oder in einen traurigen Ausdruck geändert. Sie schufen auch emotional positiv valenced deutschen Objekt-Verb-Adverb-Thema (OVAdvS) Sätze der Form "[Objekt/PatientAkkusativ Fall] [Verb] [positive Adverb] [Thema/AgentNominativ Fall]." Über die positive Adverb Sätze 'glückliche' Video abgestimmt und übereinstimmende "traurige" Video, schönem im Prinzip Vorgriff auf den Agent (wer lächelte und glücklich von der positiven Adverb als Handeln beschrieben). Im Anschluss an die Lautsprecher video erschien der Satz mit einem von zwei Versionen einer Agenten-Patient-Distraktor Clipart-Szene. In einer einzigen Version wurde der Agent dargestellt, wie die Durchführung der genannten Maßnahmen am Patienten, während der Distraktor Charakter eine andere Aktion ausgeführt. Die andere Version der Szene dargestellt, keine Aktionen zwischen den Charakteren. Augenbewegungen in der Szene zeigte die Auswirkungen der Maßnahmen und des Gesichtsausdrucks des Sprechers auf Satz Verständnis.
Die Aktion Darstellung schnell visuelle Aufmerksamkeit der Teilnehmer, was bedeutet, dass die Teilnehmer eher an den Agent als bei der Distraktor, sah als die genannte Aktion war betroffen (vs. war nicht) dargestellt. Diese Blicke waren vorausschauend (d.h.auftreten, bevor der Agent erwähnt wurde), was darauf hindeutet, dass die Aktion Darstellung den Agent geklärt, bevor der Satz hat. Die früheste Wirkung der Aktion Darstellung entstanden, während das Verb (d.h.das Verb vermittelt den Aktion verbundenen Agent). Im Gegensatz dazu, ob Vorredner lächelte oder unglücklich aussah hatte keine klare Auswirkungen auf die Agenten Vorfreude (Abbildung 2). Das letztere Ergebnis könnte mehr tenuous Verbindung zwischen eines Sprechers Lächeln und einer positiven sentential Adverb im Zusammenhang mit der abgebildeten Agent Maßnahme (im Vergleich mit einem direkten Verb-Aktion Bezug vermitteln einen Aktion-assoziierten Agent) widerspiegeln. Alternativ könnte es werden speziell für die Aufgabe und Ansporn Präsentation: vielleicht Emotion-Effekte würde haben wurde stärker ausgeprägt in einer sozial interaktive Aufgabe oder das Gesicht während (und nicht vor) Satz Verständnis des Sprechers präsentiert. Präsentieren referiert lächelnden Gesicht während Verständnis kann jedoch führen Teilnehmer zu konzentrieren auf das Gesicht auf Kosten der anderen Szeneninhalt vielleicht Maskierung sonst beobachtbaren Effekte von der Stellgrößen (Quelle: unveröffentlichte Daten).
In einer weiteren Variante des Paradigmas Guerra und Knoeferle32 gefragt ob räumliche semantische Weltsprache Beziehungen beim Lesen das Verständnis der abstrakte Bedeutungsgehalt modulieren können. Guerra und Knoeferle lieh die Idee von der konzeptuellen Metapher Theorie38 , dass räumliche Distanz (z.B. Nähe) die Bedeutung der abstrakte semantische Beziehungen (z.B.Ähnlichkeit) Gründen. Im Einklang mit dieser Hypothese koordiniert Teilnehmer lesen Abstrakte Substantive schneller als sie ähnliche (vs. gegenüberliegenden) in der Bedeutung und durch ein video vermitteln Nähe (vs. Entfernung, Spielkarten Schritt näher zusammen Vs vorausgegangen. weiter auseinander). In einer zweiten Reihe von Studien39beschriebenen Sätze die Interaktion zwischen zwei Menschen als intime oder unfreundlich, führend zu die Entdeckung, dass das Lesen der Satz Regionen Videos von zwei Karten aufeinander zugehen beschleunigt, die soziale vermittelt Nähe/Intimität. Beachten Sie, dass die räumliche Distanz Satz schnell und inkrementell lesen betroffen, selbst wenn die Sätze nicht auf die Objekte in das Video ansprach. Die Videos moduliert unverwechselbar Lesung Zeiten in Abhängigkeit von der Kongruenz zwischen räumlichen Distanz und semantische sowie soziale Aspekte der Satz Sinn. Diese Effekte erschien sowohl in der First-Pass-Lesung Zeit (die Dauer der ersten Inspektion einer vorher festgelegten Satz-Region) und die gesamte Zeit verbracht in diesem Satz-Bereich (siehe Abbildung 3 eine Darstellung der Ergebnisse aus den Studien von Guerra und Knoeferle)32. Die Analysen zeigten jedoch auch erhebliche Unterschiede zwischen den Teilnehmern, was zu dem Schluss, dass solche subtilen Karte-Entfernung-Effekte möglicherweise nicht so robust wie die Auswirkungen der Handlung Beziehungen, um ein Beispiel zu nennen.
Eine weitere Reihe von Studien zeigt wie Variation im Satzbau helfen kann, die Allgemeingültigkeit des visuellen Kontext Auswirkungen zu bewerten. Abaschidse und Mitarbeiter34 und Rodríguez und Mitarbeiter26 untersuchte die Auswirkungen der jüngsten Maßnahmen auf die Weiterverarbeitung der gesprochenen Sätzen. In beiden Studien Teilnehmer zunächst inspiziert eine Action-Video (z.B., ein Experimentator Würze Gurken oder weibliche Hände einen Kuchen zu backen). Als nächstes hörte sie einen deutschen Satz, der entweder verwandt war, um die jüngsten Maßnahmen oder eine andere Aktion, die ausgeführt werden könnte weiter (würzen Tomaten34; bauen ein Modell26). Während Verständnis, inspiziert die Teilnehmer eine Szene zeigt zwei Objekte (Gurken, Tomaten)34 oder zwei Fotos von Agent Gesichter (eine weibliche und eine männliche Agent Gesicht, namens "Susanna" und "Thomas", beziehungsweise)26. In der Studie von Abashidze und Mitarbeiter34, der Redner erstmals erwähnt, der Experimentator und dann das Verb (z.B. Geschmack), Erwartungen über ein Thema (z.B., die Gurken oder Tomaten) zu entlocken. In der Studie von Rodríguez und Mitarbeiter26, die Lautsprecher erstmals erwähnt ein Thema (Kuchen), und dann das Verb (Backen), Erwartungen an den Agenten der Aktion zu entlocken (weiblich: Susanna oder männlich: Thomas, dargestellt über Fotos von einer weibliche und männliche Gesicht).
In beiden Studien war die Frage, ob Menschen (visuell) Thema/Agent der jüngsten Aktion Veranstaltung oder das andere Thema/Agent basierend auf weitere inhaltliche Hinweise während Verständnis erwarten würde. Der Experimentator Blick vorgehört Abashidze und Mitarbeiter34, das zukünftige Theme-Objekt (die Tomaten) aus dem Beginn des Verbs (wörtlich übersetzt aus dem deutschen: "der Experimentator-Agent Aromen bald..."). Rodríguez und Mitarbeiter26, Geschlecht wissen Stereotype Handlungen wurde zur Verfügung, wenn das Thema und das Verb erwähnt wurden (z.B., die wörtliche Übersetzung der deutschen Stimuli war: "Themas Kuchen backt bald..."). In beiden Studien kontrolliert die Teilnehmer bevorzugt den Ziel /-Agent der letzten Aktion (die Gurken34 oder Susanna26) über die alternative (Zukunft/andere-Geschlecht) Ziel (die Tomaten34 oder Thomas26) während der Satz.
Dieser so genannte "aktuelles Ereignis Bevorzugung" scheint so robust über erhebliche Unterschiede im Satzbau und experimentelle Materialien. Es wurde moduliert, jedoch durch visuelle Zwänge aus der gleichzeitigen Szene26, sodass präsentiert plausibel Fotografien von Verb Themen zusätzlich zu vergeschlechtlichte Fotografien von Agenten die Abhängigkeit von den vor kurzem inspiziert Action-Events reduziert und modulierte Aufmerksamkeit basierend auf Geschlecht-Stereotyp wissen durch Sprache vermittelt. Abbildung 4 zeigt die wichtigsten Ergebnisse der Experimente von Rodríguez und Mitarbeiter26.
Während diese Version des Visual-Welt Paradigmas robuste Ergebnisse gezeitigt, haben andere Studien die Komplexität (und Grenzen) der Verknüpfung Hypothese hervorgehoben. Burigo und Knoeferle20 aufgedeckt, dass die Teilnehmer – beim hören von Äußerungen wie sterben Box ist Über der Wurst ("das Feld ist über die Wurst") – meist folgte die Äußerung in Inspektion Clipart Darstellungen dieser Objekte. Aber auf einen Anteil der Studien, die Teilnehmer Blick was entkoppelt wurde erwähnt. Nach Anhörung "Wurst" und die Wurst mindestens einmal kontrolliert haben, nächste Inspektion der Teilnehmer in die Schachtel auf ca. 21 % der Studien an beschleunigte Prüfung (Experiment 1) und in 90 % der Versuche in Post-Satz Überprüfung (zurückgelegt Experiment 2). Dieser Blick Muster deutet darauf hin, dass die Referenz (Anhörung "Wurst") geführt, nur einige (Inspektion der Wurst), aber nicht alle Augenbewegungen (Inspektion der Box). Diese Art von Design könnte verwendet werden, um auseinander lexikalische referentielle Prozesse voneinander (einschließlich Satzebene interpretativen) necken Prozesse. Jedoch Forscher müssen vorsichtig sein wenn, Behauptungen über verschiedene Ebenen der sprachlichen Verarbeitung basierend auf relative Unterschiede in der Augenbewegung Proportionen, angesichts der Unklarheiten bei der Verknüpfung von Augen-Blick auf kognitive und Verständnis Prozesse.
Abbildung 1: Überblick über die Sammlung Datenumgebung. Das Diagramm zeigt, wie die verschiedenen Software- und Hardware-Elemente für die Datensammlung verwendet und Vorverarbeitung zueinander. Bitte klicken Sie hier für eine größere Version dieser Figur.
Abbildung 2: Repräsentative Ergebnisse von Münster und Mitarbeiter37. Diese Tafeln zeigen des Sachgebietes mittlere Log-Blick Wahrscheinlichkeit Verhältnisse pro Zustand in der Verb-Region (für die dargestellte Handlung) und in der Verb-Adverb-Region (für den Effekt von emotionalen Prime) kombiniert. Die Ergebnisse zeigen einen deutlich höheren Anteil an Blicke auf das Zielbild, wenn die Handlung im Satz genannten als dargestellt wurde, wenn es nicht abgebildet war. Die Ergebnisse für die Wirkung der emotionalen Gesichts Primzahlen wurden weniger schlüssig: sie schlagen nur eine leichte Erhöhung im Verhältnis bedeuten-Log sieht das Ziel als das Gesicht Prime eine positive emotionale Wertigkeit (ein Lächeln hatte) als wenn es eine negative Valenz (ein trauriges Gesicht) hatte. Die Fehlerbalken repräsentieren den Standardfehler des Mittelwerts. Diese Zahl wurde von Münster Et Al. modifiziert 37. Bitte klicken Sie hier für eine größere Version dieser Figur.
Abbildung 3: Repräsentative Ergebnisse von Guerra und Knoeferle32. Dieses Fenster zeigt die mittlere First-Pass-Lesung Zeit (in Millisekunden) des Adjektivs (Dis) Ähnlichkeit. Die Ergebnisse zeigen kürzere Lesung Zeiten für Ähnlichkeit Sätze nach sehen zwei Spielkarten näher zusammenrücken mit weiter auseinander verglichen. Die Fehlerbalken repräsentieren den Standardfehler des Mittelwerts. Diese Zahl wurde von Guerra und Knoeferle32geändert. Bitte klicken Sie hier für eine größere Version dieser Figur.
Abbildung 4: Repräsentative Ergebnisse von Rodríguez und Mitarbeiter26. Dieses Panel zeigt den Blick des Sachgebietes mittlere Log Wahrscheinlichkeit Verhältnisse pro Zustand in der Verb-Region. Die Proportionen der sieht oben 0 zeigen eine Vorliebe für das Zielbild Agent und die Proportionen unterhalb 0 zeigen eine Vorliebe für die Wettbewerber-Agent-Image. Die Ergebnisse zeigen, dass Teilnehmer wahrscheinlicher waren, das Zielbild Agent zu überprüfen, wenn Sie das Objekt und das Verb im Satz genannten die Vorveranstaltungen Videoaufnahmen abgestimmt als wenn dies nicht der Fall. Darüber hinaus gab es weitere Blicke auf das Zielbild Agent, wenn die Aktion beschrieben durch den Satz Geschlechterstereotypen gleichgestaltet. Die Fehlerbalken repräsentieren den Standardfehler des Mittelwerts. Diese Zahl wurde von Rodríguez Et Al. modifiziert 26. Bitte klicken Sie hier für eine größere Version dieser Figur.
Zusammenfassend lässt sich sagen haben bewerteten Varianten von Eye tracking im visuellen Kontext viele Möglichkeiten entdeckt, in denen visuelle Szene Sprachverständnis beeinflussen kann. Diese Methode bietet entscheidende Vorteile im Vergleich zu Methoden wie Reaktionszeiten zu messen. Zum Beispiel bieten laufende Augenbewegungen mit einem Fenster in die Sprache verstehen Prozesse und wie diese interagieren mit unserer Wahrnehmung der visuellen Welt im Laufe der Zeit. Darüber hinaus sind die Teilnehmer nicht unbedingt erforderlich, um eine explizite Aufgabe während Sprachverständnis (z. B. Beurteilung der Grammaticality einen Satz über einen Knopf drücken). Dies erlaubt Forschern, die Methode mit einer Bevölkerung zu verwenden, die mit offener Verhaltensreaktionen als Auge Blick, wie Säuglinge, kämpfen könnten Kinder und in einigen Fällen, ältere Erwachsene. Eye-tracking ist ökologisch gültig, dass sie Teilnehmer Aufmerksamkeit Antworten widerspiegelt – nicht anders als Menschen visuelle Vernehmung Kommunikationsrelevante Dinge in der Welt um sie herum beim mehr oder weniger aufmerksam zuhören, sich entfaltenden Äußerungen.
Die Grenzen (oder vielleicht Merkmale) der visuellen Welt Paradigma gehört, dass nicht alle Veranstaltungen unkompliziert und eindeutig dargestellt werden können. Konkrete Objekte und Ereignisse, natürlich darstellbar. Aber wie abstrakte Konzepte am besten sind dargestellt ist weniger klar. Dies kann zu begrenzen (Einblicke in das Zusammenspiel von Sprachverarbeitung und die Wahrnehmung der visuellen Welt mit einem Eyetracking-Bildwelt Paradigma oder definieren). Weitere Herausforderungen beziehen sich auf die Verknüpfungen Hypothesen zwischen beobachteten Verhalten und Verständnis Prozesse. Auge Fixierungen sind ein einziges Verhaltensreaktion, die wahrscheinlich viele Teilprozesse im Sprachverständnis (z.B., lexikalische Zugriff, referentielle Prozesse, Sprache-vermittelten Erwartungen, visuellen Kontext Effekte, unter anderem) widerspiegelt. Angesichts dieser Erkenntnis, Forscher müssen vorsichtig sein, nicht zu über- oder fehlinterpretiert werden die beobachteten Blick-Muster. Um dieses Problem zu beheben, hat frühere Forschung die Rolle von Verständnis Teilaufgaben zu klären, die Interpretation der Blick Rekord40hervorgehoben.
Eine Möglichkeit, die Interpretierbarkeit der Augenbewegungen zu verbessern ist, sie mit anderen Maßnahmen wie veranstaltungsbezogenen Gehirn Potentiale (ERPs) zu integrieren. Durch die Untersuchung des gleichen Phänomens mit zwei Methoden, die in ihrer zeitlichen Granularität vergleichbar und ergänzen sich in ihrer Verknüpfungen Hypothesen sind, können Forscher alternative Erklärungen ihrer Ergebnisse ausschließen und bereichern die Interpretation der einzelnen Einzelmaßnahme41. Dieser Ansatz wurde verfolgt über Experimente43aber vor kurzem auch in einem einzigen Experiment (wenn auch in rein sprachlichen Kontexten)44. Zukunftsforschung könnte profitieren von solchen methodischen Integration und Kombination mit Post-Prozess und Post-experimentellen Aufgaben weiter.
Die Eye-Tracking-Methode kann etablierte Ergebnisse zu replizieren sowie neue Hypothesen über die Interaktion der visuellen Aufmerksamkeit in Szenen mit Sprachverständnis zu testen. Das Verfahren des Protokolls muss sorgfältig beachtet werden, da auch kleine Experimentator Fehler Datenqualität beeinträchtigen können. Lesen Sie Studien, z. B. sind die entsprechenden Analysen-Regionen oft einzelne Wörter oder auch Buchstaben, was bedeutet, dass selbst kleine Kalibrierung Fehler die Ergebnisse verzerren könnten (siehe den Artikel von Raney und Kollegen42). Schritte 1.4 und 1.5 des Protokolls, die Kalibrierung des Eye-Trackers und Drift Check/Drift korrekt ist, sind von besonderer Bedeutung, da sie direkten Einfluss auf die Genauigkeit der Aufzeichnung. Nichtbeachtung des Eye-Trackers korrekt kalibrieren kann der Tracker nicht präzise tracking Augenbewegungen zu den vorher festgelegten Bereichen von Interesse. Diese Tracking-Ausfall führt zu fehlenden Datenpunkte und einem Verlust an statistische Aussagekraft, was problematisch sein kann, bei der Untersuchung von Sprache-Welt-Beziehungen, die sind sehr subtil und kleinen statistischen Effekt Größen (siehe die Beschreibung von der Experimente von Guerra und Knoeferle32 und Münster und Kollegen37 unter den Vertreter Ergebnisse).
Angesichts der Notwendigkeit, Kraft und Sensibilität des Gerätes zu maximieren, ist es wichtig, dass die Experimentatoren wissen, wie man mit Problemen umzugehen, die routinemäßig während einer experimentellen Sitzung auftreten. Beispielsweise können die Schüler Position und Bewegung der Teilnehmer, die das Tragen einer Brille Kalibrierung Schwierigkeiten durch Lichtreflexionen auf den Linsen eines Teilnehmers Gläser führen. Eine Möglichkeit zur Lösung dieses Problems ist spiegeln das Bild des Teilnehmers Auge auf dem Display PC und ermutigen sie, ihren Kopf bewegen, bis die Reflexion des Lichtes auf den Gläsern ist nicht mehr sichtbar auf dem Bildschirm, was bedeutet, dass es nicht mehr von der Kamera eingefangen wird. Eine weitere Ursache des Scheiterns der Kalibrierung kann Verengung der Pupille, die eine Folge von einer Überbelichtung Licht sein kann. In diesem Fall wird Dimmen des Lichtes im Labor Erweiterung der Pupille zu erhöhen und so helfen, den Eye-Tracker bei der Aufdeckung von genau der Schüler.
Als ein letzter Gedanke möchten wir das Potenzial zu befassen, das die visuelle Welt Paradigma für die Forschung auf das zweite Sprachenlernen hat. Das Paradigma wurde bereits erfolgreich in die psycholinguistische Forschung verwendet, um wie z. B. sprachübergreifende lexikalischen und phonologischen Interaktion46,47,48Phänomene zu untersuchen. Darüber hinaus wurde die enge Verbindung zwischen visuelle Aufmerksamkeit und Sprachenlernen häufig in die angewandte Linguistik Literatur zum zweiten Spracherwerb49,50,51hervorgehoben. Zukünftige Forschung zum zweiten Sprachenlernen wird wahrscheinlich weiterhin profitieren von vorteilhaften Position Eye Tracking als eine Methode, die ein Index der visuellen Aufmerksamkeit in Millisekunden Auflösung sorgt.
Die Autoren haben nichts preisgeben.
Diese Forschung wurde finanziert durch die ZuKo (Exzellenzinitiative, Humboldt-Universität Zu Berlin), die Exzellenz-Cluster-277 'kognitiven Interaktion-Technologie"(Deutschen Forschungsgemeinschaft, DFG) und der Europäischen Union siebte Rahmenprogramm für Forschung, technologische Entwicklung und Demonstration unter Förderung Vereinbarung n ° 316748 (LanPercept). Die Autoren erkennen auch Unterstützung aus den basalen Fonds für Centers of Excellence, Projekt FB0003 von assoziativen Forschung Programm von CONICYT (Regierung von Chile), und aus dem Projekt "FoTeRo" in der Focus-Center XPrag (DFG). Pia Knoeferle vorausgesetzt, ein erster Entwurf des Artikels mit einem Laborprotokoll teilte mit, Universität Bielefeld und die Helene Kreysa instanziiert, weiterhin an der Humboldt-Universität Zu Berlin verwendet werden. Alle Autoren trugen zu den Inhalt durch Eingabe über Methoden und Ergebnisse im einen oder anderen Form. Camilo Rodríguez Ronderos und Pia Knoeferle koordiniert die Beiträge der Autoren und in zwei Iterationen wesentlich überarbeitet den ersten Entwurf. Ernesto Guerra produziert Abbildungen 2 - 4 am Eingang von Katja Münster, Alba Rodríguez und Ernesto Guerra. Helene Kreysa vorausgesetzt, Abbildung 1 und Pia Knoeferle es aktualisiert. Teile der gemeldeten Ergebnisse wurden in den Proceedings of Annual Meeting der Cognitive Science Societyveröffentlicht.
Name | Company | Catalog Number | Comments |
Desktop mounted eye-tracker including head/chin rest | SR Research Ltd. | EyeLink 1000 plus | http://www.sr-research.com/eyelink1000plus.html |
Software for the design and execution of an eye-tracking experiment | SR Research Ltd. | Experiment Builder | http://www.sr-research.com/eb.html |
Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden
Genehmigung beantragenThis article has been published
Video Coming Soon
Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten