JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Zusammenfassung

Online Datenerhebungsmethoden haben besondere Appell an Verhaltensforscher, weil sie das Versprechen der viel größer und viel repräsentativer Datenstichproben, als in der Regel an den Hochschulen erhoben bieten. In Experimenten, bei denen eine strenge Kontrolle über Reizeigenschaften notwendig ist, insbesondere - aber vor einem solchen Verfahren weithin angenommen werden können, eine Reihe von technischen Herausforderungen überwunden werden. Hier präsentieren wir Methoden für die Erfassung Leistungsdaten auf zwei Tests der visuellen Aufmerksamkeit. Beide Tests erfordern die Kontrolle über den Blickwinkel der Reize (die wiederum die Kenntnis der Betrachtungsabstand, Bildschirmgröße, Bildschirmauflösung, usw. benötigt) und das Timing der Reize (wie die Tests beinhalten entweder kurz blitzte Reize oder Stimuli, die bewegen an bestimmten Raten). Auf diese Tests von über 1.700 Online-Teilnehmer gesammelten Daten waren konsistent mit Daten im Labor-basierten Versionen von der exakt gleichen Tests gesammelt. Diese Ergebnissedarauf hin, dass mit der richtigen Pflege können Timing / Reizgröße abhängigen Vorgänge in Web-basierte Einstellungen eingesetzt werden.

Einleitung

In den letzten fünf Jahren gab es eine Welle von Interesse an der Nutzung von Online-Verhaltensdatenerhebungsmethoden. Während die überwiegende Mehrheit der Publikationen auf dem Gebiet der Psychologie haben möglicherweise nicht repräsentativer unterworfene Bevölkerung genutzt 1 (dh vor allem College-Studenten) und oft recht kleinen Stichproben sowie (dh typischerweise im Bereich von einigen zehn Probanden), Online-Verfahren versprechen eine weit vielfältigere und größere Proben. So hat Amazon Mechanical Turk Service war Gegenstand einer Reihe von aktuellen Studien, sowohl diejenigen Merkmale beschrieben, die "Arbeiter" Bevölkerung und Verwendung dieser Bevölkerung in Verhaltensforschung 6.2.

Ist ein wesentliches Anliegen, solche Verfahren im Zusammenhang jedoch der relative Mangel an Kontrolle über kritische Reiz Variablen. Zum Beispiel in den meisten visuellen Psycho Aufgaben Reize in Bezug auf beschriebenSichtwinkel. Die Berechnung der Blickwinkel erfordert präzise Messungen der Augenabstand, Bildschirmgröße und Bildschirmauflösung. Während diese Parameter sind trivial, Messung und Steuerung in einer Testumgebung (wo es einen bekannten Monitor und die Teilnehmer sehen können Reize und in einer Kinnstütze platziert einen bekannten Abstand vom Monitor), ist dieselbe nicht wahr, von Online-Datenerfassung. In einer Online-Umgebung, nicht nur die Teilnehmer zwangsläufig verwenden eine Vielzahl von Monitoren verschiedener Größen mit unterschiedlicher Software-Einstellungen, können sie auch nicht über einen einfachen Zugang zu Herrschern / Bandmaße, die es ihnen ermöglichen, ihre Bildschirmgröße zu ermitteln oder über die erforderlichen Kenntnisse um ihre Software und Hardware-Einstellungen (zB Bildwiederholfrequenz, Auflösung) zu bestimmen.

Das Nützliche Field of View (UFOV) Paradigma 7 und die mehrfache Objektverfolgung (MOT) Aufgabe - eine Reihe von Methoden, um Daten über zwei bekannte Tests der visuellen Aufmerksamkeit sammeln Hier beschreiben wir 8 -, während so viel wie möglich die Quellen der Variabilität, die inhärent in der Online-Messungen sind vermieden. Diese Aufgaben können von jedem Teilnehmer mit Internet-Anschluss und ein HTML5 fähigen Browser ausgeführt werden. Teilnehmer, die nicht wissen, ihre Bildschirmgröße werden durch ein Messverfahren unter Verwendung von handelsüblichen Produkte der Standardgröße ging (dh, Kreditkarte / CD - siehe Abbildung 1).

Daten zu diesen beiden Aufgaben wurden von über 1.700 Teilnehmern in einem Massive Online Open Course gesammelt. Durchschnittliche Leistung dieser Online-Probe war sehr konsistent mit den Ergebnissen in streng kontrollierten Laborbezogene Maßnahmen der exakt gleichen Aufgaben 9,10 erhalten. Unsere Ergebnisse sind demnach mit dem wachsenden Körper der Literatur, die die Wirksamkeit von Online-Datenerfassungsmethoden, auch in Aufgaben, die spezifische Steuerung über Sichtverhältnisse erfordern.

Protokoll

Das Protokoll wurde von der Ethikkommission der Universität Wisconsin-Madison zugelassen. Die folgenden Schritte sind als Leitfaden für Programmierer geschrieben worden, um den automatisierten Prozess des beschriebenen Web-Anwendung zu replizieren.

1. Melden Sie sich Teilnehmer

  1. Weisen Sie den Teilnehmer, einen internetfähigen Computer und navigieren Sie zur Web-Anwendung mit einem HTML5-kompatiblen Browser: http://brainandlearning.org/jove . Lassen Sie die Teilnehmer sitzen in einem ruhigen Raum frei von Ablenkungen, mit dem Computer in bequemer Höhe.
    HINWEIS: Da das gesamte Experiment wird online gehostet werden die Aufgaben auch aus der Ferne ohne die Anwesenheit von wissenschaftlicher Mitarbeiter durchgeführt werden. Alle Anweisungen für die Teilnehmer werden in der Web-Anwendung enthalten.
  2. Haben die Teilnehmer Eingang eine eindeutige ID, die mit den gesammelten Daten in einer MySQL databas verbunden und gespeichert werdene. Lassen Sie die Teilnehmer wieder verwenden diese ID, wenn die Online-Aufgaben sind nicht in der gleichen Sitzung abgeschlossen. Bevor Sie sich anmelden, erhalten Zustimmung der Teilnehmer über eine Einverständniserklärung auf der Seite verlinkt sind.
    HINWEIS: Fortschritt eines Teilnehmers nach jeder Aufgabe, um für den Abschluss der zwei Aufgaben zu unterschiedlichen Zeiten bei Bedarf ermöglichen gespeichert. Weisen Sie den Teilnehmer, immer die gleiche ID verwenden, um zu starten, wo man aufgehört hat.

2. Bildschirmkalibrierung

HINWEIS: Die Web-Anwendung führt die Teilnehmer durch die drei Schritte bei der Kalibrierung auf Seite beschrieben: http://brainandlearning.org/jove/Calibration .

  1. Bitten Sie die Teilnehmer zur Eingabe der Diagonale des Bildschirms in Zoll in der markierten Textfeld.
    1. Allerdings, wenn der Teilnehmer nicht über diese Informationen verfügen, haben die Teilnehmer finden Sie eine CD oder Kreditkarte als Kalibrierungsobjekt ( Abbildung 1). Wenn man gewählt wird, fordert den Teilnehmer, um das Objekt vor dem Bildschirm platzieren und richten Sie sie an einem repräsentativen Bild der auf dem Bildschirm angezeigten Objekts.
    2. Bitten Sie den Teilnehmer, um die Größe des angezeigten Bildes einstellen, um die Größe des physikalischen Objekts entsprechen. Basierend auf den Messungen einer physikalischen CD (Durchmesser von 4,7 ") oder eine Kreditkarte (Breite von 3,2") zusätzlich zu der Pixelgröße von dem repräsentativen Bild, zu bestimmen, das Verhältnis der Pixel in Zoll für den Bildschirm.
    3. Rufen Sie die Pixelauflösung des Monitors über screen.width und screen.height Eigenschaften von JavaScript zu berechnen dann die Diagonale des Bildschirms in Pixel an. Die Kenntnis dieser Wert und der zuvor geschätzten Pixel-zu-Zoll-Verhältnis (siehe Schritt 2.1.2), konvertieren Sie die Bildschirmdiagonale in Zoll. Lassen Sie die Teilnehmer bestätigen diesen Wert über ein Dialogfeld.
  2. Bitten Sie den Teilnehmer, um den Bildschirm brigh einstellentness Einstellungen bis alle 12 Bänder in einem schwarz-auf-Weiß-Verlauf auf dem Bildschirm angezeigt werden, sind klar zu unterscheiden. Helligkeitseinstellung steuert je nach Computer.
  3. Bitten Sie die Teilnehmer, eine Armlänge in einer bequemen Position weg von dem Monitor zu sitzen und dann das Browserfenster auf Vollbildmodus. Das Browser-Fenster müssen in den Vollbildmodus zu sein, um den Bildraum durch die Aufgaben eingesetzt zu maximieren und keine visuelle Ablenkungen, wie der Browser-Toolbar und Desktop-Taskleisten zu entfernen.
  4. Zu wissen, die Auflösung des Bildschirms des Teilnehmers und die diagonale Größe des Monitors, verwenden Sie die Web-Anwendung, um die Pixel / Grad Umrechnungswert, basierend auf einem 50 cm Betrachtungsabstand automatisch berechnen. Ändern Sie die Größe der Abmessungen der Reize in die Aufgaben mit diesem Wert. Alle Blickwinkel Abmessungen unten berichteten auf dieser Basis angenommene mittlere Abstandswert vom Monitor.
  5. Sobald die Kalibrierung abgeschlossen ist, fragen Sie die Teilnehmer, die zwei Aufgaben describ vervollständigenunterhalb ed. Wählen Sie die Reihenfolge der Aufgaben und den Auftrag über die Web-Anwendung zuordnet.

3. Mehrfache Objektverfolgung Aufgabe (MOT) - Bild 2

  1. Einzuführen und machen die Teilnehmer mit den MOT Reize durch eine selbstgeführte Lernprogramm zu sehen: http://brainandlearning.org/jove/MOT/practice.php . Bitten Sie die Teilnehmer, Schritt-für-Schritt-Anleitungen, die zeigen, wie die Versuche funktionieren zu lesen. Sobald der Teilnehmer beendet das Lesen der Anleitung, fordern den Teilnehmer durch die Praxis Prüfungen gehen.
    1. Richten Sie die Praxis Reize von 8 Punkten auf 0,8 ° mit einer Bewegungsgeschwindigkeit von 2 ° / s aus. Verwenden Sie die HTML5 request API, um Browser-Animation mit einer Bildrate von 60 Hz, um diese Konjunkturbewegung kontrollieren zu optimieren.
    2. Achten Sie darauf, die Punkte innerhalb der Grenzen eines Kreises von 2 ° Exzentrizität und einer circ bewegenle, die nicht größer als die Höhe der Bildschirm des Teilnehmers, ohne den Anweisungen verdeckt.
    3. Festlegen der Punkte, die in einer Zufallsbahn, wobei bei jedem Rahmen mit einem Punkt hat eine 60% ige Chance, Richtungswechsel von einem maximalen Winkel von 0,2 ° zu bewegen. Wenn ein Punkt kollidiert mit einem anderen Punkt oder der inneren oder äußeren radialen Grenzen bewegen den Punkt in die entgegengesetzte Richtung.
    4. Bitten Sie den Teilnehmer, um die blauen Punkte zu verfolgen (zwischen 1 und 2 Punkte pro Praxis-Studie), die mit gelben Punkten als Distraktoren handeln.
    5. Nach 2 sec, ändern Sie die blauen Punkte auf gelben Punkten und sie weiterhin zu den ursprünglichen gelben Punkten für weitere 4 Sekunden zu bewegen. Am Ende jeder Studie, stoppen Sie die Punkte und markieren Sie eine.
    6. Bitten Sie den Teilnehmer per Tastendruck zu reagieren, ob der markierte Punkt war ein Raupen Punkt oder ein Distraktor Punkt. Als nächstes fordert den Teilnehmer auf die Leertaste, um auf die nächste Studie weiter drücken.
    7. Nach 3 aufeinanderfolgenden richtigen Studien oder maximal 6 Versuche, mohabe die Teilnehmer auf die volle Aufgabe.
  2. Starten Sie das vollständige MOT Aufgabe für die Teilnehmer. : Ein Beispiel für die Aufgabe finden Sie unter http://brainandlearning.org/jove/MOT .
    1. Richten Sie die vollständige Aufgabe mit 16 Punkten, die bei 5 ° / s innerhalb des Raumes zwischen 2 ° und 10 ° Exzentrizität Exzentrizität zu bewegen. Wenn der Bildschirm des Teilnehmers nicht passen können Sie einen Kreis von 10 ° Exzentrizität, verwenden Sie die maximale Größe der Bildschirm anstelle enthalten.
    2. Lassen Sie die Teilnehmer zu vervollständigen insgesamt 45 Studien: eine Mischung aus 5 Studien, bestehend aus 1 verfolgt dot und 10 Studien, die jeweils aus 2-5 Punkten verfolgt. Spiel alle anderen Parameter auf die Praxis-Studien (siehe Schritte 3.1.3 - 3.1.6).
    3. Nehmen Antwort und der Antwortzeit des Teilnehmers, sobald der Punkt markiert ist.
    4. Für alle 15 Studien legen nahe, eine Pause an den Teilnehmer. Bei diesen Pausen, zeigen Sie die Teilnehmer7; s Leistung (Prozent der korrekten Studien) innerhalb des Blocks auf dem Bildschirm.

4. Der Übergang von einer Aufgabe zur anderen (Optionaler Schritt)

  1. Lassen Sie die Teilnehmer, eine Pause zwischen den beiden Aufgaben zu übernehmen. Allerdings wiederholen Sie die Schritte 1 und 2, wenn die Aufgaben nicht in der gleichen Benutzersitzung beendet.

5. Nützliche Sichtfeld Aufgabe (UFOV) - 3

  1. Einzuführen und machen die Teilnehmer mit den UFOV Reize durch eine selbstgeführte Lernprogramm zu sehen: http://brainandlearning.org/jove/UFOV/practice.php . Bitten Sie die Teilnehmer, durch 4 Stufen der Schritt-für-Schritt-Anleitungen, die die zwei Zielreize, die während der Aufgabe, besucht werden müssen nachweisen, zu gehen.
    1. Stellen Sie den zentralen Zielreiz als 1 ° smiley, die in der Mitte des Bildschirms entweder lange oder kurze Haare blinkt. Randomize diesmiley Haar Länge über Studien.
    2. Setzen Sie den peripheren Targetstimulus als 1 ° Stern, in 4 in einer von 8 Stellen um den Kreis (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 ° und 315 °) blinkt ° Exzentrizität . Randomisieren die Position des Sterns über Studien.
    3. Steuerreizdauer über Anzahl der Bilder für die Präsentation Zeit verwendet. Optimieren Bildwiederholungs bei etwa 17 ms pro Bild mit der HTML5 request API.
    4. Um zu überprüfen, wenn der erwartete Präsentationszeit erreicht wurde, verwenden Sie die JavaScript getTime () -Methode, um Start-und Endzeit der Reizdauer basierend auf der Teilnehmer Systemuhr zu erhalten. Berechnen Sie die gemessenen Präsentationszeit aus diesen beiden Werten und diesen Wert für die Datenanalyse.
    5. Für jede Praxis-Studie, warten 500 ms, bevor die Anzeige der Impulse für ca. 200 ms (ca. 12 Frames).
    6. Folgen Reiz vorsentation mit einem Rauschmaske von einem zufällig erzeugten Graustufenpunktfeld für 320 ms (etwa 19 Frames) zusammengesetzt ist.
    7. Für die Stufe 1, nur den zentralen Ziel anzuzeigen und dann prompt den Teilnehmer per Tastendruck, die Haarlänge angezeigt wurde, reagieren.
    8. Für die Stufe 2, nur die peripheren Ziel anzuzeigen und dann prompt den Teilnehmer an einem der 8 radialen Linien auf, die die 8 möglichen Zielorten, um anzuzeigen, wo der Stern erschienen.
    9. Im Rahmen der Stufe 3, zeigen die beiden zentralen und peripheren Zielreize und dann aufgefordert, den Teilnehmer, Reaktionen auf sowohl die Art des smiley und die Lage des Sterns liefern.
      HINWEIS: Die Teilnehmer können frei die Reihenfolge dieser beiden Antworten wählen.
    10. Für die Stufe 4, zeigen beide Zielreize neben peripheren Distraktoren, und fordert den Teilnehmer auf beide Ziel Reize reagieren. Für die Distraktoren, an den übrigen sieben Standorten präsentiert Anzeige 1 ° Plätzen bei 4 ° Exzentrizität, in Zusätzlich zu 8 weitere Plätze auf 2 ° Exzentrizität.
    11. Nach Antworten des Teilnehmers, zeigen die Rückmeldungen der Teilnehmer (ein grünes Häkchen für eine richtige Antwort oder ein rotes Kreuz für eine falsche Antwort) für jede Zielreaktion nach jedem Versuch.
    12. Bewegen Sie die Teilnehmer auf die nächste Stufe der Praxis nach dem Aufstehen 3 aufeinanderfolgenden richtigen Studien. Nach der Stufe 4, bewegen Sie den Teilnehmer auf die volle Aufgabe.
  2. Bitten Sie den Teilnehmer, um die volle UFOV Task zu starten. : Ein Beispiel für die Aufgabe finden Sie unter http://brainandlearning.org/jove/UFOV .
    1. Präsentieren Sie die gleichen zentralen Stimulus wie im Training (siehe Schritt 5.1.1). Zeigen Sie das Peripherie-Ziel bei 7 ° Exzentrizität in einem der oben genannten 8 Standorten (siehe Schritt 5.1.2). 24 Distraktor Quadrate werden auch bei 3 ° Exzentrizität 5º Exzentrizität und die restlichen 7 ° angezeigtenExzentrizität Standorten.
    2. Verwenden Sie ein 3-down, 1-up Treppe vor, um die Präsentationszeit der Reize bestimmen: verringern Sie die Dauer der Impulse nach 3 aufeinanderfolgenden richtigen Studien und nach jeder Fehler Studie zu erhöhen.
    3. Vor der ersten 3 Wertaufholungen in der Treppe, mit einem Schrittgröße von 2 Bildern (ca. alle 33 ms). Nach 3 Umkehrungen, verwenden Sie eine Schrittweite von 1 Frame. Variieren Sie die Verzögerung vor dem Beginn des Stimulus zwischen 1 Frame und 99 Bildern pro Studie und halten den Lärm Maske Dauer bei 320 ms (etwa 19 Frames).
      HINWEIS: Auflösungen sind die Punkte, an denen die Laufzeit ändert sich entweder von steigenden zu abnehmenden oder abnehmenden zu erhöhen.
    4. Beenden Sie die Aufgabe, wenn eine der drei Bedingungen erfüllt ist: die Treppe Verfahren erreicht 8 Auflösungen; der Teilnehmer vervollständigt 10 aufeinander folgenden Studien entweder an der Decke Dauer (99 Frames) oder dem Boden Dauer (1 Frame); oder der Teilnehmer erreicht ein Maximum von 72 Versuchen.
    5. Notieren Sie den Teilnehmer response und Reaktionszeit für die Distanz Stimulus und dem peripheren Stimulus.

Ergebnisse

Ausreißerentfernung

Insgesamt 1779 Teilnehmer beendeten die UFOV Aufgabe. Anzahl an Personen, hatten 32 Teilnehmer UFOV Schwellenwerte, die mehr als 3 Standardabweichungen vom Mittelwert waren, was darauf hindeutet, dass sie nicht in der Lage, um die Aufgabe zu erfüllen, wie angewiesen. Als solche wurden die UFOV Daten dieser Teilnehmer aus der abschließenden Analyse entfernt, so dass insgesamt 1747 Teilnehmern.

Die Daten wurden von 1746 Teilnehmern für die MOT ...

Diskussion

Online-Datensammlung hat eine Reihe von Vorteilen gegenüber üblichen Laborbasierte Datensammlung. Dazu gehören das Potenzial, weit mehr repräsentative Populationen als die typische College Bachelor-Pool auf dem Gebiet eingesetzt zu probieren, und die Fähigkeit, viel größere Probenmengen in kürzerer Zeit zu erhalten, als es braucht, um Stichprobengrößen, die um eine Größenordnung kleiner im Labor sind zu erhalten 1-6 (beispielsweise die Datenpunkte von 1.700 Teilnehmer im aktuellen Papier ...

Offenlegungen

This work was supported by the Swiss National Foundation (100014_140676), the National Science Foundation (1227168), and the National Eye Institute of the National Institutes of Health (P30EY001319).

Danksagungen

The authors have nothing to disclose.

Materialien

NameCompanyCatalog NumberComments
Computer/tabletIt must have an internet connection and an HTML5 compatible browser
CD or credit cardMay not be needed if participant already knows the monitor size

Referenzen

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

VerhaltenVerhaltenvisuelle Aufmerksamkeitwebbasierte Bewertung computerbasierte Pr fungvisuelle Suchemehrere Objektverfolgung

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten