JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Résumé

Les méthodes de collecte de données en ligne ont un attrait particulier pour les spécialistes du comportement, car ils offrent la promesse de beaucoup plus grand et beaucoup plus d'échantillons de données représentatives que peuvent généralement être recueillies sur les campus universitaires. Toutefois, avant que ces méthodes peuvent être largement adopté, un certain nombre de défis technologiques doit être surmontée - en particulier dans les expériences où un contrôle serré sur les propriétés de relance est nécessaire. Ici, nous présentons les méthodes de collecte de données de performance sur deux tests d'attention visuelle. Les deux tests nécessitent le contrôle de l'angle visuel des stimuli (qui à son tour nécessite la connaissance de la distance d'observation, la taille de l'écran, la résolution d'écran, etc.) et le calendrier des stimuli (comme les tests concernent soit brièvement flashé stimuli ou des stimuli qui se déplacent à des taux spécifiques). Les données recueillies sur ces tests de plus de 1 700 participants en ligne étaient cohérents avec les données recueillies dans les versions en laboratoire des mêmes tests exacts. Ces résultatssuggèrent que avec des soins appropriés, tâches dépendantes taille calendrier / de relance peuvent être déployés dans des environnements basés sur le Web.

Introduction

Au cours des cinq dernières années, il ya eu un regain d'intérêt dans l'utilisation des méthodes comportementales en ligne de collecte de données. Alors que la grande majorité des publications dans le domaine de la psychologie ont utilisé populations potentiellement non représentatifs thème 1 (c.-à-principalement étudiants des collèges) et de tailles souvent assez petits échantillons ainsi (ce est à dire, généralement de l'ordre de dizaines de sujets), les méthodes en ligne offrir la promesse d'échantillons beaucoup plus divers et plus. Par exemple, le service Mechanical Turk d'Amazon a fait l'objet d'un certain nombre d'études récentes, à la fois décrire les caractéristiques de la population "travailleur" et l'utilisation de cette population dans la recherche comportementale 2-6.

Toutefois, une préoccupation importante liée à ces méthodes est l'absence relative de contrôle sur les variables critiques de relance. Par exemple, dans la plupart des tâches de psychophysique visuelle, les stimuli sont décrits en termes deangle visuel. Le calcul des angles visuels nécessite des mesures précises de la distance de visualisation, taille de l'écran, et la résolution de l'écran. Bien que ces paramètres sont triviaux de mesurer et de contrôle dans un laboratoire (où il ya un moniteur connu et participants considèrent stimuli alors que dans une mentonnière placé une distance connue de l'écran), le même ne est pas vrai de la collecte de données en ligne. Dans un environnement en ligne, non seulement les participants utiliser inévitablement une grande variété de moniteurs de différentes tailles avec différents paramètres du logiciel, ils peuvent aussi ne pas avoir un accès facile aux dirigeants / mesures de bande qui leur permettrait de déterminer la taille de leur moniteur ou posséder les connaissances nécessaires pour déterminer leurs logiciels et matériels paramètres (par exemple, la fréquence de rafraîchissement, résolution).

Nous décrivons ici un ensemble de méthodes pour recueillir des données sur deux tests bien connus de l'attention visuelle - le champ de vision utile (UFOV) paradigme 7 et le suivi (MOT) tâche objets multiples 8 - tout en évitant autant que possible les sources de variabilité qui sont inhérents à des mesures en ligne. Ces tâches peuvent être exécutées par tout participant disposant d'une connexion Internet et un navigateur compatible HTML5. Les participants qui ne connaissent pas leur taille de l'écran sont montés à travers un processus de mesure utilisant articles couramment disponibles de taille standard (ce est à dire, la carte de crédit / CD - voir la figure 1).

Les données sur ces deux tâches ont été recueillies auprès de plus de 1700 participants à une ligne Open Course Massive. Performance moyenne de cet échantillon en ligne était très cohérent avec les résultats obtenus dans les mesures à base de laboratoire étroitement contrôlées de exactement les mêmes tâches 9,10. Nos résultats sont donc conformes à la masse croissante de documents démontrant l'efficacité des méthodes de collecte de données en ligne, même dans les tâches qui nécessitent un contrôle spécifique sur les conditions de visualisation.

Protocole

Le protocole a été approuvé par le comité d'examen institutionnel à l'Université de Wisconsin-Madison. Les étapes suivantes ont été écrit comme un guide pour les programmeurs de reproduire le processus automatisé de l'application Web décrit.

1. Connectez-vous Participant

  1. Demandez au participant d'utiliser un ordinateur connecté à Internet et accédez à l'application Web en utilisant un navigateur compatible HTML5: http://brainandlearning.org/jove . Demandez le participant se asseoir dans une salle tranquille, sans distractions, avec l'ordinateur à une hauteur confortable.
    NOTE: Depuis toute l'expérience est hébergé en ligne, les tâches peuvent également être effectuées à distance sans la présence d'un assistant de recherche. Toutes les instructions pour le participant sont inclus dans l'application Web.
  2. Avoir l'entrée des participants un identifiant unique qui sera associée avec les données collectées et stockées dans un databas MySQLe. Demandez le participant utiliser ce ID si les tâches en ligne ne sont pas terminées dans la même session. Avant de vous connecter, obtenir le consentement du participant par l'intermédiaire d'un formulaire de consentement liée sur la page.
    REMARQUE: les progrès d'un participant est enregistrée après chaque tâche afin de permettre l'achèvement des deux tâches à des moments différents si nécessaire. Demandez au participant d'utiliser toujours le même ID pour commencer là où il se était arrêté.

2. Etalonnage de l'écran

NOTE: L'application Web guide le participant à travers les trois étapes décrites dans la page d'étalonnage à: http://brainandlearning.org/jove/Calibration .

  1. Demandez au participant à l'entrée de la diagonale de l'écran en pouces dans le champ marqué.
    1. Toutefois, si le participant ne sait pas cette information, ont le participant trouver un CD ou carte de crédit comme un objet d'étalonnage ( Figure 1). Quand on est sélectionné, amener le participant à placer l'objet contre l'écran et l'aligner avec une image représentative de l'objet affiché sur l'écran.
    2. Demander le participant pour ajuster la taille de l'image de l'écran en fonction de la taille de l'objet physique. Sur la base des mesures d'un CD physique (diamètre de 4,7 ") ou d'une carte de crédit (largeur de 3,2") en plus de la taille des pixels de l'image représentative, déterminer le rapport de pixels à pouces pour l'écran.
    3. Récupérer la résolution en pixels de l'écran via screen.width et screen.height les propriétés de JavaScript pour calculer ensuite la diagonale de l'écran en pixels. Connaître cette valeur et le ratio estimé précédemment pixel-à-pouce (voir l'étape 2.1.2), convertir la diagonale en pouces. Demandez au participant de confirmer cette valeur par une boîte de dialogue.
  2. Demander aux participants de régler le brigh écranparamètres de tness 12 jusqu'à ce que toutes les bandes dans un gradient de noir à blanc affichées sur l'écran se distinguent clairement. Luminosité contrôles de réglage varient par ordinateur.
  3. Demandez au participant de se asseoir à une longueur de bras à côté du moniteur dans une position confortable, puis réglez la fenêtre du navigateur en mode plein écran. La fenêtre du navigateur doit être en mode plein écran pour maximiser l'espace visuel utilisé par les tâches et d'éliminer toutes les distractions visuelles, telles que la barre d'outils de navigateur et les barres des tâches de bureau.
  4. Connaître la résolution de l'écran du participant et la diagonale de l'écran, utilisez l'application Web pour calculer automatiquement la valeur de conversion pixels / degré, basée sur une distance d'observation de 50 cm. Redimensionner les dimensions des stimuli dans les tâches à l'aide de cette valeur. Toutes les dimensions de l'angle visuel rapportées ci-dessous sont basés sur ce supposé valeur moyenne du moniteur à distance.
  5. Une fois l'étalonnage est terminé, demander au participant de remplir les deux tâches described ci-dessous. Choisissez l'ordre des tâches ou assigner au hasard l'ordre via l'application web.

3. Multiple Object Tracking Groupe (MOT) - Figure 2

  1. Introduire et familiariser le participant avec les stimuli MOT travers un didacticiel auto-guidé, vus à: http://brainandlearning.org/jove/MOT/practice.php . Demandez au participant de lire les instructions étape-par-étape qui démontrent comment les essais vont travailler. Une fois que le participant a fini de lire les instructions, invite le participant à passer par les essais pratiques.
    1. Configurez les stimuli de pratique pour se composent de huit points à 0,8 ° avec une vitesse de déplacement de 2 ° / sec. Utilisez le HTML5 requestAnimationFrame API pour optimiser l'animation du navigateur à un taux de 60 Hz de cadre pour contrôler ce mouvement de relance.
    2. Se assurer que les points se déplacent dans les limites d'un cercle de 2 ° excentricité et un circle pas plus grand que la hauteur de l'écran du participant, sans les instructions obscurcies.
    3. Définissez les points pour se déplacer dans une trajectoire aléatoire, où à chaque image un point a une chance de changer de direction par un angle maximum de 0,2 ° de 60%. Si un point entre en collision avec un autre point ou les limites radiales intérieures ou extérieures, déplacer le point dans la direction opposée.
    4. Demander aux participants de suivre les points bleus (variant entre 1 et 2 points par essai de la pratique), avec les points jaunes agissant comme distracteurs.
    5. Après 2 secondes, changer les points bleus à points jaunes et de continuer à les déplacer parmi les points jaunes originaux pour un autre 4 sec. À la fin de chaque essai, arrêter les points et mettre en évidence une.
    6. Demander aux participants de répondre par appuyer sur la touche si le point était mis en évidence un point chenilles ou un point de distraction. Ensuite, invite le participant à appuyer sur la barre d'espace pour continuer sur le prochain procès.
    7. Après trois essais consécutifs corrects, ou un maximum de six essais, move le participant sur la tâche complète.
  2. Lancer la tâche MOT complète pour le participant. Un exemple de la tâche peut être trouvé à: http://brainandlearning.org/jove/MOT .
    1. Configuration de la tâche complète avec 16 points qui se déplacent à 5 ° / sec à l'intérieur de l'espace compris entre 2 ° et 10 ° excentricité excentricité. Si l'écran du participant ne peut pas se adapter à un cercle de 10 ° d'excentricité, utiliser la taille maximale de l'écran peut contenir à la place.
    2. Demandez au participant de compléter un total de 45 essais: un mélange de cinq essais consistant en une dot suivis et 10 essais chacun consistant en 2-5 points suivis. Correspondre à tous les autres paramètres à des essais pratiques (voir les étapes 3.1.3 - 3.1.6).
    3. Enregistrez la réponse et la réponse du temps du participant une fois que le point est mis en évidence.
    4. Pour toutes les 15 essais, suggérer une pause pour le participant. Lors de ces pauses, afficher le participantLa performance du (des essais corrects pour cent) dans le bloc à l'écran; 7.

4. Passer d'une tâche à l'autre (Facultatif)

  1. Permettre aux participants de prendre une pause entre les deux tâches. Cependant, répétez les étapes 1 et 2 si les tâches ne sont pas achevées au cours de la même session de connexion.

5. Useful Field of View Groupe (UFOV) - Figure 3

  1. Introduire et familiariser le participant avec les stimuli UFOV travers un didacticiel auto-guidé, vus à: http://brainandlearning.org/jove/UFOV/practice.php . Demandez au participant de passer par quatre étapes d'instructions étape-par-étape qui démontrent les deux stimuli cibles qui doivent être pris en charge au cours de la tâche.
    1. Réglez le stimulus central cible comme une ° smiley qui clignote au centre de l'écran soit avec cheveux longs ou courts. Aléatoire lala longueur des cheveux de smiley entre les essais.
    2. Réglez le stimulus cible périphérique comme une étoile 1 ° qui clignote à 4 ° excentricité à l'un des huit endroits autour du cercle (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 ° et 315 °) . Aléatoire l'emplacement de l'étoile entre les essais.
    3. Contrôle des stimuli via durée nombre d'images utilisées pour le temps de présentation. Optimiser cadre rafraîchissement à environ 17 ms par image en utilisant l'API HTML5 requestAnimationFrame.
    4. Pour vérifier si le temps de présentation attendu a été atteint, utiliser la méthode getTime de JavaScript () pour obtenir un temps de début et de fin du temps de la durée de relance basé sur l'horloge système du participant. Calculer le temps de présentation mesurée à partir de ces deux valeurs et utiliser cette valeur pour l'analyse des données.
    5. Pour chaque essai de la pratique, attendre 500 ms avant d'afficher les stimuli pour environ 200 ms (environ 12 cadres).
    6. Suivez relance présentation avec un masque de bruit composé d'une matrice de points en niveaux de gris généré aléatoirement pour 320 ms (environ 19 cadres).
    7. Pour la phase 1, ne affiche que l'objectif central et demandera alors au participant de répondre par appuyer sur la touche dont la longueur des cheveux a été affiché.
    8. Pour la phase 2, ne affiche que la cible périphérique et demandera alors au participant de cliquer sur l'un des huit lignes radiales, représentant les huit emplacements cibles possibles, pour indiquer où l'étoile brillait.
    9. Pour l'étape 3, afficher les deux stimuli cibles centrales et périphériques, puis invite le participant à fournir des réponses à la fois le type de smiley et l'emplacement de l'étoile.
      NOTE: Les participants peuvent choisir librement l'ordre de ces deux réponses.
    10. Pour l'étape 4, afficher les deux stimuli cibles en plus de distracteurs périphériques, puis invite le participant à répondre à deux stimuli cibles. Pour les distracteurs, affichage 1 ° carrés présentés aux sept emplacements restants à 4 ° excentricité, in plus de 8 autres places à 2 ° excentricité.
    11. Après la réponse du participant, montrer les évaluations des participants (une coche verte pour une réponse correcte ou une croix rouge pour une réponse incorrecte) pour chaque réponse cible après chaque essai.
    12. Déplacez le participant sur la scène de la pratique suivante après avoir obtenu trois essais consécutifs corrects. Après l'étape 4, déplacer le participant sur la tâche complète.
  2. Demander le participant pour démarrer la tâche complète UFOV. Un exemple de la tâche peut être trouvé à: http://brainandlearning.org/jove/UFOV .
    1. Présenter le même stimulus central dans la séance d'essais (voir l'étape 5.1.1). Affichez le périphérique cible à 7 ° excentricité à l'un des huit emplacements mentionnés précédemment (voir point 5.1.2). 24 carrés distracteurs sont également affichées à 3 ° excentricité, 5 ° excentricité, et les 7 ° restantsemplacements d'excentricité.
    2. Utiliser un 3-bas, une procédure en place escalier pour déterminer le temps de présentation des stimuli: diminuer la durée des stimuli après trois essais consécutifs corrects et augmenter après chaque essai d'erreur.
    3. Avant les trois premières reprises dans l'escalier, utiliser une taille de pas de deux cadres (environ toutes les 33 ms). Après trois reprises, utiliser une taille de pas d'une trame. Varier le retard avant le début de relance entre une trame et 99 images par procès, et de garder la durée de masque de bruit à 320 msec (environ 19 cadres).
      REMARQUE: Les reprises sont les points où la durée modifie de façon significative à la diminution de l'augmentation ou diminution à une augmentation.
    4. Terminer la tâche lorsque l'une des trois conditions est remplie: la procédure d'escalier atteint huit reprises; le participant remplit 10 essais consécutifs soit à la durée de plafond (99 trames) ou la durée de plancher (1 trame); ou le participant atteint un maximum de 72 essais.
    5. Enregistrez r du participantÉPONSE et temps de réponse pour les deux stimulus central et le stimulus périphérique.

Résultats

Retrait des valeurs aberrantes

Un total de 1 779 participants ont terminé la tâche UFOV. De ce nombre, 32 participants avaient seuils UFOV qui étaient plus de 3 écarts-types de la moyenne, ce qui suggère qu'ils ne ont pas pu effectuer la tâche en suivant les instructions. En tant que tel, les données UFOV de ces participants ont été retirés de l'analyse finale, laissant un total de 1747 participants.

Les données ont été obtenues à partir de 1 7...

Discussion

La collecte de données en ligne a un certain nombre d'avantages par rapport collection standard de données en laboratoire. Il se agit notamment de la possibilité d'échantillonner les populations beaucoup plus représentatif que le collège typique piscine cycle utilisé dans le domaine, et la capacité à obtenir des tailles beaucoup plus d'échantillons en moins de temps qu'il ne faut pour obtenir des tailles d'échantillons qui sont un ordre de grandeur plus petite dans le laboratoire 6.1<...

Déclarations de divulgation

This work was supported by the Swiss National Foundation (100014_140676), the National Science Foundation (1227168), and the National Eye Institute of the National Institutes of Health (P30EY001319).

Remerciements

The authors have nothing to disclose.

matériels

NameCompanyCatalog NumberComments
Computer/tabletIt must have an internet connection and an HTML5 compatible browser
CD or credit cardMay not be needed if participant already knows the monitor size

Références

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

ComportementNum ro 96Comportementl attention visuellel valuation bas e sur le Webl valuation par ordinateurla recherche visuellesuivi d objets multiples

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.