JoVE Logo

Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Abstract

Metodi di raccolta dati online hanno particolare appello agli scienziati del comportamento, perché offrono la promessa di molto più grande e molto più campioni di dati rappresentativi che può essere normalmente raccolti nei campus universitari. Tuttavia, prima che tali metodi possono essere ampiamente adottati, una serie di sfide tecnologiche deve essere superato - in particolare negli esperimenti in cui è necessario uno stretto controllo sulle proprietà di stimolo. Qui vi presentiamo i metodi per la raccolta di dati sulle prestazioni su due prove di attenzione visiva. Entrambi i test richiedono controllo sul angolo visivo degli stimoli (che a sua volta richiede la conoscenza della distanza di osservazione, dimensione del monitor, risoluzione dello schermo, etc.) e la sincronizzazione degli stimoli (come le prove coinvolgono sia brevemente lampo stimoli o stimoli che si muovono a tassi specifici). I dati raccolti in questi test da oltre 1.700 partecipanti in linea erano coerenti con i dati raccolti in versioni di laboratorio degli stessi esatti test. Questi risultatisuggeriscono che con la cura adeguata, taglia i tempi / stimolo attività dipendenti possono essere distribuiti in ambienti web-based.

Introduzione

Negli ultimi cinque anni c'è stato un aumento di interesse per l'uso di metodi comportamentali in linea di raccolta dei dati. Mentre la stragrande maggioranza delle pubblicazioni nel campo della psicologia hanno utilizzato le popolazioni potenzialmente non rappresentativi soggetto 1 (vale a dire, principalmente studenti universitari) e spesso ragionevolmente campioni di piccole dimensioni così (cioè, tipicamente nella gamma di decine di soggetti), metodi in linea offrono la promessa di gran lunga più diverse e più grandi campioni. Per esempio, il servizio Mechanical Turk di Amazon è stata oggetto di numerosi studi recenti, sia che descrive le caratteristiche della popolazione "lavoratore" e l'utilizzo di questa popolazione nella ricerca comportamentale 2-6.

Tuttavia, un problema significativo relative a tali metodi è la relativa mancanza di controllo sulle variabili di stimolo critiche. Ad esempio, nella maggior parte dei compiti visivi psicofisici, stimoli sono descritti in termini diangolo visivo. Il calcolo degli angoli visuali richiede misure precise di distanza di visione, dimensioni dello schermo e la risoluzione dello schermo. Mentre questi parametri sono banali per misurare e controllo in un ambiente di laboratorio (dove c'è un monitor chiamata e partecipanti visualizzare stimoli mentre in una mentoniera posta una distanza nota dal monitor), lo stesso non è vero per la raccolta di dati in linea. In un ambiente online, non solo i partecipanti inevitabilmente utilizzare una vasta gamma di monitor di diverse dimensioni con impostazioni software differenti, anche non possono avere facile accesso ai governanti / nastro misure che avrebbe permesso loro di determinare la loro dimensione del monitor o avere le conoscenze necessarie per determinare le impostazioni software e hardware (ad esempio, la frequenza di aggiornamento, risoluzione).

Qui si descrive una serie di metodi per raccogliere i dati su due prove ben noti di attenzione visiva - il campo utile di View (UFOV) paradigma 7 e l'oggetto più tracking (MOT) compito 8 - evitando il più possibile le fonti di variabilità che sono insiti nelle misurazioni in linea. Questi compiti possono essere gestiti da qualsiasi partecipante con una connessione internet e un browser compatibile HTML5. I partecipanti che non conoscono la loro dimensione dello schermo sono camminato attraverso un processo di misurazione che utilizza oggetti comunemente disponibili di dimensioni standard (ad esempio, carta di credito / CD - vedi Figura 1).

I dati su queste due attività sono stati raccolti da oltre 1.700 partecipanti in un Massive linea Open Course. Performance media di questo campione on-line è stato molto coerente con i risultati ottenuti in misure di laboratorio strettamente controllate degli esatti compiti stessi 9,10. I nostri risultati sono quindi coerenti con la crescente corpo di letteratura che dimostrano l'efficacia dei metodi di raccolta dati on-line, anche in compiti che richiedono un controllo specifico su condizioni di visione.

Protocollo

Il protocollo è stato approvato dal comitato istituzionale di revisione presso la University of Wisconsin-Madison. I seguenti punti sono stati scritti come una guida per i programmatori di replicare il processo automatizzato dell'applicazione web descritto.

1. Accesso partecipante

  1. Istruire il partecipante di utilizzare un computer con connessione internet-enabled e passare all'applicazione Web utilizzando un browser compatibile HTML5: http://brainandlearning.org/jove . Avere il partecipante sedere in una stanza tranquilla priva di distrazioni, con il computer ad una altezza confortevole.
    NOTA: Dal momento che l'intero esperimento è ospitato in linea, le attività possono essere eseguite anche da remoto senza la presenza di un assistente di ricerca. Tutte le istruzioni per il partecipante è incluso nell'applicazione web.
  2. Hanno l'ingresso partecipante un ID univoco che verrà associato con i dati raccolti e conservati in un databas MySQLe. Avere il partecipante riutilizzare questo ID se i compiti in linea non vengono completate entro la stessa sessione. Prima di accedere in, ottenere il consenso dal partecipante attraverso un modulo di consenso legato sulla pagina.
    NOTA: i progressi di un partecipante viene salvato dopo ogni attività al fine di consentire il completamento delle 2 compiti a volte separate, se necessario. Istruzioni al partecipante di utilizzare sempre lo stesso ID per iniziare dove si era interrotto.

Calibrazione 2. Schermo

NOTA: L'applicazione web guida il partecipante attraverso le tre fasi descritte nella pagina di calibrazione a: http://brainandlearning.org/jove/Calibration .

  1. Chiedere al partecipante di inserire la dimensione diagonale dello schermo in pollici nella casella di testo etichetta.
    1. Tuttavia, se il partecipante non conosce questa informazione, avere il partecipante trovare un CD o carta di credito come oggetto calibrazione ( Figura 1). Quando si è selezionato, chiederà ai partecipanti di posizionare l'oggetto contro lo schermo e allinearlo con un'immagine rappresentativa dell'oggetto visualizzato sullo schermo.
    2. Chiede ai partecipanti di regolare le dimensioni dell'immagine sullo schermo in base alle dimensioni dell'oggetto fisico. Sulla base delle misurazioni di un CD fisico (diametro 4,7 ") o una carta di credito (larghezza di 3,2") in aggiunta alla dimensione pixel della immagine rappresentativa, determinare il rapporto di pixel per pollici per lo schermo.
    3. Recuperare la risoluzione in pixel del monitor via Screen.Width e Screen.Height proprietà di JavaScript per poi calcolare la dimensione diagonale dello schermo in pixel. Sapendo questo valore e il precedentemente stimato rapporto pixel-per-inch (vedi punto 2.1.2), convertire il diagonale in pollici. Avere il partecipante confermare questo valore tramite una finestra di dialogo.
  2. Chiede ai partecipanti di regolare lo schermo brighImpostazioni tness fino tutte le 12 band in un gradiente dal nero al bianco visualizzati sullo schermo sono chiaramente distinguibili. Controlli impostazione della luminosità variano a seconda del computer.
  3. Chiedere al partecipante di sedere distanza di un braccio di distanza dal monitor in una posizione comoda e quindi impostare la finestra del browser in modalità a schermo intero. La finestra del browser deve essere in modalità a schermo intero per massimizzare lo spazio visivo utilizzato dai compiti e per rimuovere eventuali distrazioni visive, come la barra degli strumenti del browser e barre delle applicazioni desktop.
  4. Conoscendo la risoluzione dello schermo del partecipante e la diagonale del monitor, utilizzare l'applicazione web per calcolare automaticamente il valore di conversione pixel / grado, sulla base di una distanza di visione 50 centimetri. Ridimensionare le dimensioni degli stimoli nelle attività utilizzando questo valore. Tutte le dimensioni angolari visive riportate di seguito sono basate su questo assunto valore distanza media dal monitor.
  5. Una volta completata la calibrazione, chiedere al partecipante di completare la due compiti describcato di seguito. Scegliere l'ordine dei compiti o assegnare a caso l'ordine tramite l'applicazione web.

3. multiplo Object tracking Task (MOT) - Figura 2

  1. Introdurre e conoscere il partecipante con gli stimoli MOT attraverso un tutorial autoguidato, visti a: http://brainandlearning.org/jove/MOT/practice.php . Chiedere al partecipante di leggere le istruzioni passo-passo che dimostrano come le prove funzioneranno. Una volta che il partecipante ha terminato la lettura delle istruzioni, chiederà ai partecipanti di passare attraverso le prove pratiche.
    1. Setup gli stimoli di pratica per consistono di 8 punti a 0,8 ° con una velocità di movimento di 2 ° / sec. Utilizzare l'HTML5 requestAnimationFrame API per ottimizzare l'animazione del browser in un frame rate di 60 Hz per controllare questo movimento di stimolo.
    2. Assicurarsi che i punti si muovono entro i confini di un cerchio di 2 ° eccentricità e circle non più grande di l'altezza dello schermo del partecipante, senza le istruzioni oscurati.
    3. Impostare i punti di muoversi in una traiettoria a caso, in cui ad ogni fotogramma un punto ha una probabilità del 60% di cambiare la direzione di un angolo massimo di 0,2 °. Se un punto scontra con un altro punto o limiti radiali interni o esterni, spostare il punto nella direzione opposta.
    4. Chiede ai partecipanti di seguire i punti blu (variabile tra 1 e 2 punti per prova pratica), con i punti gialli in qualità di distrattori.
    5. Dopo 2 sec, modificare i punti blu a puntini gialli e continuare a spostarli tra i punti gialli originali per altri 4 sec. Alla fine di ogni prova, arrestare i puntini ed evidenziare uno.
    6. Chiede ai partecipanti di rispondere tramite pressione di un tasto se il punto evidenziato è stato un punto cingolato o un punto distrattore. Avanti, chiederà ai partecipanti di premere la barra spaziatrice per continuare sulla prova successiva.
    7. Dopo 3 prove corrette consecutive, o un massimo di 6 prove, move la partecipante sul compito completo.
  2. Avviare il task MOT per il partecipante. Un esempio di attività è disponibile all'indirizzo: http://brainandlearning.org/jove/MOT .
    1. Setup il task con 16 punti che si muovono a 5 ° / sec nello spazio tra 2 ° e 10 ° di eccentricità eccentricità. Se lo schermo del partecipante non può andare bene un cerchio di 10 ° eccentricità, utilizzare la dimensione massima dello schermo può contenere invece.
    2. Avere il partecipante completare un totale di 45 prove: una miscela di 5 studi composti da 1 dot tracciati e 10 prove ognuno composto da 2 - 5 punti monitorati. Abbina tutti gli altri parametri alle prove pratiche (vedi i punti 3.1.3 - 3.1.6).
    3. Registrare la risposta e tempo di risposta del partecipante, una volta il punto è evidenziato.
    4. Per ogni 15 prove, suggerire una pausa per il partecipante. A queste interruzioni, visualizzare il partecipante7; s prestazioni (per cento di prove corrette) all'interno del blocco sullo schermo.

4. Passare da un compito all'altro (Passo opzionale)

  1. Lasciare che il partecipante di prendere una pausa tra le due attività. Tuttavia, ripetere i punti 1 e 2 se i compiti non sono stati completati nel corso della stessa sessione di login.

5. Campo Utili di Vista Task (UFOV) - Figura 3

  1. Introdurre e conoscere il partecipante con gli stimoli UFOV attraverso un tutorial autoguidato, visti a: http://brainandlearning.org/jove/UFOV/practice.php . Chiedere al partecipante di passare attraverso 4 fasi di istruzioni passo-passo che dimostrano i due stimoli bersaglio che deve essere assistito da durante il compito.
    1. Impostare la porta stimolo centrale come smiley 1 ° che lampeggia al centro dello schermo sia con i capelli lunghi o corti. Randomize lalunghezza dei capelli di smiley in tutti gli studi.
    2. Impostare il target stimolo periferico come una stella 1 ° che lampeggia a 4 ° eccentricità in una delle 8 sedi in tutto il cerchio (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 °, 315 ° e) . Randomize la posizione della stella in tutti gli studi.
    3. Controllo dello stimolo della durata tramite il numero di fotogrammi utilizzati per tempo di presentazione. Ottimizzare aggiornamento dei fotogrammi a circa 17 msec per frame utilizzando l'API HTML5 requestAnimationFrame.
    4. Per verificare se il tempo di presentazione previsto è stato raggiunto, utilizzare il metodo getTime di JavaScript () per ottenere l'orario di inizio e di fine della durata del stimolo in base all'orologio di sistema del partecipante. Calcolare il tempo di presentazione misurata da questi due valori e utilizzare questo valore per l'analisi dei dati.
    5. Per ogni prova pratica, attendere 500 msec prima di visualizzare gli stimoli per circa 200 msec (circa 12 fotogrammi).
    6. Segui stimolo presentazione con una maschera di rumore composto da una matrice di punti scala di grigi generata casualmente per 320 msec (circa 19 fotogrammi).
    7. Per la fase 1, solo visualizzare il target centrale e quindi chiederà ai partecipanti di rispondere tramite pressione di un tasto che è stato visualizzato lunghezza dei capelli.
    8. Per la fase 2, solo visualizzare il target periferica e quindi chiederà ai partecipanti di cliccare su una delle 8 linee radiali, in rappresentanza delle 8 possibili località di destinazione, per indicare dove era apparsa la stella.
    9. Per la fase 3, visualizzare sia gli stimoli centrali e periferici di destinazione e quindi chiederà ai partecipanti di fornire risposte sia per il tipo di smiley e la posizione della stella.
      NOTA: I partecipanti possono scegliere liberamente l'ordine di queste due risposte.
    10. Per la fase 4, visualizzare sia stimoli target oltre a distrattori periferici, e quindi chiederà ai partecipanti di rispondere a entrambi gli stimoli bersaglio. Per i distrattori, visualizzazione 1 ° piazze presentati nelle restanti 7 punti a 4 ° eccentricità, in Oltre a 8 più quadrati a 2 ° eccentricità.
    11. Dopo la risposta del partecipante, mostrare il feedback dei partecipanti (un segno di spunta verde per una risposta corretta o una croce rossa per una risposta non corretta) per ogni risposta bersaglio dopo ogni prova.
    12. Spostare il partecipante sul palco pratica successiva dopo aver ottenuto 3 prove corrette consecutive. Dopo la fase 4, spostare il partecipante sul compito completo.
  2. Chiede ai partecipanti di avviare l'attività piena UFOV. Un esempio di attività è disponibile all'indirizzo: http://brainandlearning.org/jove/UFOV .
    1. Presentare lo stesso stimolo centrale come nella sessione di prove libere (vedi punto 5.1.1). Visualizzare il bersaglio periferico a 7 ° eccentricità in uno dei già citati 8 posizioni (vedi punto 5.1.2). 24 distrattori piazze sono anche esposti a 3 ° eccentricità, 5 ° eccentricità, e le restanti 7 °posizioni eccentricità.
    2. Utilizzare un 3-down, Procedura 1-up scala per determinare il tempo di presentazione degli stimoli: diminuire la durata degli stimoli dopo 3 prove corrette consecutive e aumentare dopo ogni prova di errore.
    3. Prima che i primi 3 capovolgimenti di scala, utilizzare un passo di 2 fotogrammi (circa ogni 33 msec). Dopo 3 inversioni, utilizzare un passo di 1 fotogramma. Variare il ritardo prima della comparsa dello stimolo tra 1 telaio e 99 fotogrammi al processo, e mantenere la durata della mascheratura rumore a 320 msec (circa 19 fotogrammi).
      NOTA: ripristini sono i punti in cui la durata cambia sia da aumentare a diminuire, o diminuendo ad aumentare.
    4. Terminare il compito quando una delle tre condizioni: la procedura scalinata raggiunge 8 inversioni; il partecipante compie 10 prove consecutive alle due della durata soffitto (99 fotogrammi) o la durata pavimento (1 fotogramma); o il partecipante raggiunge un massimo di 72 prove.
    5. Registrare r del partecipanteesponse e tempo di risposta sia per lo stimolo centrale e lo stimolo periferico.

Risultati

Rimozione Outlier

Un totale di 1.779 partecipanti ha completato l'operazione UFOV. Di questi, 32 partecipanti hanno avuto soglie UFOV che erano più di 3 deviazioni standard dalla media, suggerendo che non erano in grado di svolgere l'attività secondo le istruzioni. Come tali, i dati UFOV da questi partecipanti sono stati rimossi dalla ultima analisi, lasciando un totale di 1.747 partecipanti.

I dati sono stati ottenuti da 1.746 partecipanti per l'attiv...

Discussione

La raccolta di dati on-line ha un certo numero di vantaggi rispetto raccolta dati standard in laboratorio. Questi includono la possibilità di assaggiare molto più popolazioni rappresentativi del tipico collegio piscina laurea utilizzato nel campo, e la capacità di ottenere ben maggiori dimensioni del campione in meno tempo di quello necessario per ottenere le dimensioni del campione che sono un ordine di grandezza più piccola in laboratorio 1-6 (per esempio, i punti di dati raccolti da 1,700+ par...

Divulgazioni

This work was supported by the Swiss National Foundation (100014_140676), the National Science Foundation (1227168), and the National Eye Institute of the National Institutes of Health (P30EY001319).

Riconoscimenti

The authors have nothing to disclose.

Materiali

NameCompanyCatalog NumberComments
Computer/tabletIt must have an internet connection and an HTML5 compatible browser
CD or credit cardMay not be needed if participant already knows the monitor size

Riferimenti

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

ComportamentoBehaviorattenzione visivala valutazione basata sul Webvalutazione basata su computerricerca visivail monitoraggio multiplo oggetto

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati