Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.
Eye-Tracking ist eine nicht-invasive Methode, um die Informationsverarbeitung zu untersuchen. In diesem Artikel wird beschrieben, wie Eye-Tracking verwendet werden kann, um das Blickverhalten während einer Flugsimulations-Notfallaufgabe bei Piloten mit geringer Arbeitszeit (z. B. <350 Flugstunden) zu untersuchen.
Eye-Tracking wird in großem Umfang als Proxy eingesetzt, um Einblicke in die kognitiven, wahrnehmungsbezogenen und sensomotorischen Prozesse zu gewinnen, die der Leistung von Fähigkeiten zugrunde liegen. Frühere Arbeiten haben gezeigt, dass traditionelle und fortschrittliche Blickmetriken zuverlässig robuste Unterschiede in der Expertise des Piloten, der kognitiven Belastung, der Müdigkeit und sogar dem Situationsbewusstsein (SA) aufweisen.
Diese Studie beschreibt die Methodik für die Verwendung eines tragbaren Eyetracker- und Gaze-Mapping-Algorithmus, der naturalistische Kopf- und Augenbewegungen (d. h. Anvisieren) in einem bewegungslosen High-Fidelity-Flugsimulator erfasst. Die in diesem Artikel beschriebene Methode beschreibt die Area-of-Interest (AOI)-basierte Blickanalyse, die mehr Kontext in Bezug darauf liefert, wohin die Teilnehmer schauen, und die Verweildauer, die anzeigt, wie effizient sie die fixierten Informationen verarbeiten. Das Protokoll veranschaulicht die Nützlichkeit eines tragbaren Eyetrackers und eines Computer-Vision-Algorithmus, um Änderungen des Blickverhaltens als Reaktion auf einen unerwarteten Notfall während des Fluges zu bewerten.
Repräsentative Ergebnisse zeigten, dass der Blick signifikant beeinflusst wurde, als das Notfallereignis eingeführt wurde. Insbesondere nahmen die Aufmerksamkeitszuweisung, die Blickstreuung und die Komplexität der Blicksequenz signifikant ab und konzentrierten sich während des Notfallszenarios stark auf den Blick aus dem Frontfenster und auf den Geschwindigkeitsmesser (alle p-Werte < 0,05). Der Nutzen und die Grenzen des Einsatzes eines tragbaren Eyetrackers in einer bewegungslosen Flugsimulationsumgebung mit hoher Wiedergabetreue zum Verständnis der raumzeitlichen Eigenschaften des Blickverhaltens und seiner Beziehung zur Informationsverarbeitung in der Luftfahrt werden diskutiert.
Der Mensch interagiert hauptsächlich mit der Welt um ihn herum, indem er zuerst seine Augen und seinen Kopf bewegt, um seine Sichtlinie (d. h. seinen Blick) auf ein bestimmtes Objekt oder einen bestimmten Ort von Interesse zu richten. Dies gilt insbesondere für komplexe Umgebungen wie Flugzeugcockpits, in denen Piloten mit mehreren konkurrierenden Reizen konfrontiert sind. Blickbewegungen ermöglichen das Sammeln von hochauflösenden visuellen Informationen, die es dem Menschen ermöglichen, auf sichere und flexible Weise mit seiner Umgebung zu interagieren1, was in der Luftfahrt von größter Bedeutung ist. Studien haben gezeigt, dass Augenbewegungen und Blickverhalten Einblicke in die zugrunde liegenden Wahrnehmungs-, kognitiven und motorischen Prozesse bei verschiedenen Aufgaben geben 1,2,3. Darüber hinaus hat der Blickwinkel einen direkten Einfluss auf die Planung und Ausführung von Bewegungen der oberen Gliedmaßen3. Daher stellt die Analyse des Blickverhaltens bei Flugaufgaben eine objektive und nicht-invasive Methode dar, die aufzeigen könnte, wie Augenbewegungsmuster mit verschiedenen Aspekten der Informationsverarbeitung und -leistung zusammenhängen.
Mehrere Studien haben einen Zusammenhang zwischen Blick- und Aufgabenleistung über verschiedene Laborparadigmen hinweg sowie bei komplexen Aufgaben in der realen Welt (z. B. beim Bedienen eines Flugzeugs) gezeigt. Zum Beispiel neigen aufgabenrelevante Areale dazu, häufiger und für eine längere Gesamtdauer fixiert zu werden, was darauf hindeutet, dass Fixationsort, -häufigkeit und -verweildauer Proxies für die Zuweisung von Aufmerksamkeit bei neurokognitiven und fliegerischen Aufgaben sind 4,5,6. Sehr erfolgreiche Performer und Experten zeigen im Vergleich zu weniger erfolgreichen Performern oder Anfängern eine signifikante Fixierungsverzerrung auf aufgabenkritische Bereiche 4,7,8. Raum-zeitliche Aspekte des Blicks werden durch Änderungen der Verweilzeitmuster über verschiedene Interessenbereiche (AOIs) oder Messungen der Fixationsverteilung (d.h. Stationary Gaze Entropy: SGE) erfasst. Im Kontext laborbasierter Paradigmen nehmen die durchschnittliche Fixationsdauer, die Länge des Scanpfads und die Komplexität der Blicksequenz (d. h. die Blickübergangsentropie: GTE) tendenziell zu, da mehr Scannen und Verarbeiten erforderlich sind, um Probleme zu lösen und anspruchsvollere Aufgabenziele/-lösungen zu erarbeiten 4,7.
Umgekehrt haben Luftfahrtstudien gezeigt, dass die Länge des Scanpfads und die Komplexität der Blicksequenz mit der Komplexität der Aufgabe und der kognitiven Belastung abnehmen. Diese Diskrepanz unterstreicht die Tatsache, dass das Verständnis der Aufgabenkomponenten und der Anforderungen des verwendeten Paradigmas für die genaue Interpretation von Blickmetriken entscheidend ist. Insgesamt unterstützt die bisherige Forschung, dass Blickmessungen einen aussagekräftigen, objektiven Einblick in die aufgabenspezifische Informationsverarbeitung bieten, die den Unterschieden in der Aufgabenschwierigkeit, der kognitiven Belastung und der Aufgabenleistung zugrunde liegt. Mit den Fortschritten in der Eye-Tracking-Technologie (d. h. Portabilität, Kalibrierung und Kosten) ist die Untersuchung des Blickverhaltens in freier Wildbahn ein aufstrebendes Forschungsgebiet mit konkreten Anwendungen zur Förderung der Berufsausbildung in den Bereichen Medizin 9,10,11 und Luftfahrt 12,13,14.
Die aktuelle Arbeit zielt darauf ab, den Nutzen der Verwendung von blickbasierten Metriken weiter zu untersuchen, um Einblicke in die Informationsverarbeitung zu gewinnen, indem ein tragbarer Eyetracker während einer Notfallflugsimulationsaufgabe bei Piloten mit geringer Zeit eingesetzt wird. Diese Studie baut auf früheren Arbeiten auf, bei denen ein kopfstabilisierter Eyetracker (d. h. EyeLink II) verwendet wurde, um Unterschiede in den Metriken des Blickverhaltens in Abhängigkeit von der Flugschwierigkeit (d. h. Änderungen der Wetterbedingungen) zu untersuchen5. Die in diesem Manuskript vorgestellte Arbeit erweitert auch andere Arbeiten, die die methodischen und analytischen Ansätze für den Einsatz von Eye-Tracking in einem Virtual-Reality-System beschriebenhaben 15. Unsere Studie verwendete einen bewegungslosen Simulator mit höherer Genauigkeit und berichtet über eine zusätzliche Analyse von Augenbewegungsdaten (d. h. Entropie). Über diese Art der Analyse wurde bereits in früheren Arbeiten berichtet. Eine Einschränkung in der aktuellen Literatur ist jedoch die fehlende Standardisierung bei der Berichterstattung über die analytischen Schritte. Zum Beispiel ist die Berichterstattung, wie Interessenbereiche definiert werden, von entscheidender Bedeutung, da sie die resultierenden Entropiewerte16 direkt beeinflusst.
Zusammenfassend lässt sich sagen, dass in der aktuellen Arbeit traditionelle und dynamische Blickverhaltensmetriken untersucht wurden, während die Schwierigkeit der Aufgabe durch die Einführung eines Notfallszenarios während des Fluges (d.h. unerwarteter Totalausfall des Triebwerks) manipuliert wurde. Es wurde erwartet, dass die Einführung eines Notfallszenarios während des Fluges Einblicke in die Veränderungen des Blickverhaltens geben würde, die der Informationsverarbeitung unter schwierigeren Aufgabenbedingungen zugrunde liegen. Die Studie, über die hier berichtet wird, ist Teil einer größeren Studie, die den Nutzen von Eye-Tracking in einem Flugsimulator untersucht, um die kompetenzbasierte Pilotenausbildung zu informieren. Die hier vorgestellten Ergebnisse wurden bisher nicht veröffentlicht.
Das folgende Protokoll kann auf Studien angewendet werden, an denen ein tragbarer Eyetracker und ein Flugsimulator beteiligt sind. In der aktuellen Studie werden Eye-Tracking-Daten neben komplexen luftfahrtbezogenen Aufgaben in einem Flugsimulator aufgezeichnet (siehe Materialtabelle). Der Simulator war so konfiguriert, dass er repräsentativ für eine Cessna 172 war, und wurde mit der erforderlichen Instrumententafel (Dampfanzeigekonfiguration), einem Avionik-/GPS-System, einer Audio-/Lichttafel, einer Unterbrechertafel und einer Flight Control Unit (FCU) verwendet (siehe Abbildung 1). Das in dieser Studie verwendete Flugsimulatorgerät ist zu Schulungszwecken zertifizierbar und wird von der örtlichen Flugschule verwendet, um die Fähigkeiten zu trainieren, die erforderlich sind, um auf verschiedene Notfallszenarien, wie z. B. einen Triebwerksausfall, in einer risikoarmen Umgebung zu reagieren. Die Teilnehmer dieser Studie waren alle lizenziert; Daher haben sie das Szenario des Motorausfallsimulators bereits im Rahmen ihrer Ausbildung erlebt. Diese Studie wurde vom Office of Research Ethics der University of Waterloo genehmigt (43564; Datum: 17. November 2021). Alle Teilnehmer (N = 24; 14 Männer, 10 Frauen; Durchschnittsalter = 22 Jahre; Flugstundenbereich: 51-280 h) gaben eine schriftliche Einverständniserklärung ab.
Abbildung 1: Flugsimulator-Umgebung. Eine Illustration der Flugsimulatorumgebung. Die Sicht des Teilnehmers auf das Cockpit entsprach der eines Piloten, der eine Cessna 172 flog, die für einen Anflug von Lee zur Basis bis zum Endanflug auf den Waterloo International Airport, Breslau, Ontario, Kalifornien, voreingestellt war. Die orangefarbenen Kästchen stellen die zehn Hauptinteressengebiete dar, die in den Blickanalysen verwendet werden. Dazu gehören die (1) Fluggeschwindigkeit, (2) die Fluglage, (3) der Höhenmesser, (4) der Kurvenkoordinator, (5) der Kurs, (6) die vertikale Geschwindigkeit und (7) die Betriebsanzeigen sowie die (8) vorderen, (9) linken und (10) rechten Fenster. Diese Abbildung wurde von Ayala et al.5 modifiziert. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.
1. Teilnehmer-Screening und Einwilligungserklärung
2. Hardware-/Softwareanforderungen und Inbetriebnahme
3. Datenerhebung
HINWEIS: Wiederholen Sie diese Schritte für jede Testversion. Es wird empfohlen, den Laptop auf der Bank außerhalb des Cockpits zu platzieren.
4. Datenverarbeitung und -analyse
Ausdruck | Definition |
Erfolg (%) | Prozentsatz der erfolgreichen Landungsversuche |
Fertigstellungszeit(en) | Zeitdauer vom Beginn des Landeszenarios bis zum vollständigen Stillstand des Flugzeugs auf der Landebahn |
Landehärte (fpm) | Die Rate des Abstands beim Aufsetzen |
Fehler bei der Landung (°) | Die Differenz zwischen der Mitte des Flugzeugs und der Mitte der 500-Fuß-Landebahnmarkierung am Aufsetzpunkt |
Tabelle 1: Variablen für das Ergebnis der Simulatorleistung. Leistungsabhängige Variablen des Luftfahrzeugs und ihre Definitionen.
Abbildung 2: Flugbahn des Landeszenarios. Schematische Darstellung von (A) dem Landekreis, der in allen Versuchen absolviert wurde, und (B) der Landebahn mit den 500-Fuß-Markierungen, die als Referenzpunkt für die Landezone verwendet wurden (d. h. orangefarbener Kreis in der Mitte). Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.
Abbildung 3: Kartierung des Interessenbereichs. Eine Abbildung des Batch-Skripts, das ein Fenster für die Frame-Auswahl zeigt. Die Auswahl eines optimalen Frames umfasst die Auswahl eines Videoframes, der die meisten oder alle zu kartierenden Bereiche von Interesse umfasst. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.
Abbildung 4: Generieren von Area of Interest-Mapping von "In-Screen"-Koordinaten. Eine Illustration des Batch-Skripts, das ein Fenster für die Auswahl von Koordinaten auf dem Bildschirm zeigt. In diesem Schritt wird ein quadratischer/rechteckiger Bereich ausgewählt, der während der gesamten Aufnahme sichtbar bleibt, für das Bild einzigartig ist und statisch bleibt. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.
Abbildung 5: Identifizieren des zu kartierenden Bereichs von Interesse. Eine Abbildung des Batch-Skriptfensters, in dem Sie interessante Bereiche auswählen und beschriften können. Abkürzung: AOIs = Areas of Interest. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.
Abbildung 6: Batch-Skriptverarbeitung. Eine Illustration des Batch-Skripts, das das Video und die Blickzuordnung der während des Versuchs vorgenommenen Fixierungen verarbeitet. Bitte klicken Sie hier, um eine größere Version dieser Abbildung anzuzeigen.
Ausdruck | Definition |
Verweildauer (%) | Prozentsatz der Summe aller über ein AOI kumulierten Fixationsdauern im Verhältnis zur Summe der über alle AOI kumulierten Fixationsdauern |
Durchschnittliche Fixationsdauer (ms) | Durchschnittliche Dauer einer Fixation über einen AOI vom Eintritt bis zum Ausgang |
Blinkfrequenz (Blinken/s) | Anzahl der Blinzeln pro Sekunde |
SGE (Bits) | Dispersion der Fixierung |
GTE (Bits) | Komplexität der Scansequenz |
Anzahl der Kämpfe | Anzahl der kognitiven Tunnelereignisse (>10 s) |
Gesamtzeit des Kampfes (s) | Gesamtzeit von kognitiven Tunnelereignissen |
Tabelle 2: Variablen für das Eye-Tracking-Ergebnis. Anvisieren von verhaltensabhängigen Variablen und deren Definitionen.
Der Einfluss von Aufgabenanforderungen auf die Flugleistung
Die Daten wurden auf der Grundlage erfolgreicher Landeversuche unter einfachen und Notfallbedingungen analysiert. Alle Messungen wurden einem t-Test für paarweise Stichproben unterzogen (Within-Subject-Faktor: Aufgabenbedingung (grundlegend, Notfall)). Alle t-Tests wurden mit einem Alpha-Wert von 0,05 durchgeführt. Vier Teilnehmer stürzten während des Versuchs des Notfallszenarios ab und...
Das hier beschriebene Eye-Tracking-Verfahren ermöglicht die Beurteilung der Informationsverarbeitung in einer Flugsimulator-Umgebung über einen tragbaren Eyetracker. Die Bewertung der räumlichen und zeitlichen Eigenschaften des Blickverhaltens bietet Einblicke in die menschliche Informationsverarbeitung, die mit hochgradig kontrollierten Laborparadigmen ausgiebig untersucht wurde 4,7,28. Die ...
Es bestehen keine konkurrierenden finanziellen Interessen.
Diese Arbeit wird teilweise durch das Canadian Graduate Scholarship (CGS) des Natural Sciences and Engineering Research Council (NSERC) von Kanada und den Exploration Grant (00753) des New Frontiers in Research Fund unterstützt. Alle Meinungen, Erkenntnisse, Schlussfolgerungen oder Empfehlungen, die in diesem Material geäußert werden, stammen von dem/den Autor(en) und spiegeln nicht unbedingt die der Sponsoren wider.
Name | Company | Catalog Number | Comments |
flight simulator | ALSIM | AL-250 | fixed fully immersive flight simulation training device |
laptop | Hp | Lenovo | eye tracking data collection laptop; requirements: Windows 10 and python 3.0 |
portable eye-tracker | AdHawk | MindLink eye tracking glasses (250 Hz, <2° gaze error, front-facing camera); eye tracking batch script is made available with AdHawk device purchase |
Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden
Genehmigung beantragenWeitere Artikel entdecken
This article has been published
Video Coming Soon
Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten