JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Jeunes enfants ne font pas passivement observer le monde, mais plutôt activement Explorer et engager avec leur environnement. Ce protocole prévoit des principes directeurs et des recommandations pratiques pour l’utilisation des trackers visiocasques oeil pour enregistrer des nourrissons et des tout-petits environnements visuels dynamiques et attention visuelle dans le contexte du comportement naturel.

Résumé

Environnements visuels pour jeunes enfants sont dynamiques, changeant de chaque instant comme enfants physiquement et visuellement explorent des espaces et objets et interagissent avec les gens autour d’eux. Visiocasques oculométrique offre une occasion unique pour capturer les enfants dynamiques vues égocentriques et comment ils affectent l’attention visuelle au sein de ces points de vue. Ce protocole prévoit des principes directeurs et des recommandations pratiques pour les chercheurs qui utilisent des traqueurs de visiocasques oeil en laboratoire et des réglages plus naturalistes. Visiocasques oculométrique vient compléter les autres méthodes expérimentales en améliorant les possibilités de collecte de données dans des contextes plus écologiquement valides par le biais de portabilité accrue et de la liberté des mouvements de tête et le corps par rapport à oculométrique axée sur l’écran. Ce protocole peut également être intégré avec d’autres technologies, telles que le suivi de mouvement et rythme cardiaque suivi, afin de fournir un ensemble de données multimodal à haute densité pour examiner le comportement naturel, d’apprentissage et le développement qu’auparavant. Cet article illustre les types de données issues des visiocasques oculométrique dans une étude visant à examiner l’attention visuelle dans un cadre naturel pour les tout-petits : fluide jouet jouer avec un parent. Bonne utilisation de ce protocole permettra aux chercheurs de recueillir des données qui peuvent être utilisées pour répondre à des questions non seulement sur l’attention visuelle, mais aussi sur un large éventail d’autres habiletés perceptives, cognitives et sociales et leur développement.

Introduction

Ces dernières décennies ont vu un intérêt croissant pour l’étude du développement des nourrissons et des tout-petits attention visuelle. Cet intérêt a découlé en grande partie de l’utilisation de la recherche temporelle comme principal moyen d’évaluer d’autres fonctions cognitives dans la petite enfance et a évolué dans l’étude de l’attention visuelle infantile à part entière. Investigations contemporaines des nourrissons et des tout-petits attention visuelle mesurent principalement les mouvements des yeux lors de tâches d’oculométrie axée sur l’écran. Les bébés assis dans une chaise ou sur les genoux du parent devant un écran pendant que leurs mouvements oculaires sont surveillés lors de la présentation d’images statiques ou d’événements. Ces tâches, cependant, ne pas saisir la nature dynamique de l’attention visuelle naturelle et les moyens par lesquels sont générés environnements visuels naturels de l’enfant - exploration active.

Nourrissons et enfants en bas âge sont des créatures actives, déplaçant leurs mains, tête, yeux et organes à explorer les objets, personnes et les espaces autour d’eux. Chaque nouveau développement dans la morphologie du corps, motricité et comportement - ramper, marcher, ramasser des objets, s’engager avec les partenaires sociaux - s’accompagne de changements concomitantes dans l’environnement visual précoce. Parce que les bébés faire détermine ce qu’ils voient, et ce qu’ils voient sert pour ce qu’ils font en action visuellement guidée, étudiant le développement naturel de l’attention visuelle s’effectue mieux dans le contexte du comportement naturel1.

Visiocasques oeil trackers (ETs) ont été inventés et utilisés pour les adultes pour des décennies2,3. Seulement récemment ont avancées technologiques visiocasques oculométrie technologie appropriée pour les nourrissons et les tout-petits. Participants sont équipés de deux caméras légers sur la tête, une caméra de la scène vers l’extérieur qui capte la perspective du participant à la première personne et un appareil d’oeil vers l’intérieur qui saisit l’image de le œil. Une procédure d’étalonnage fournit des données de la formation à un algorithme qui correspond aussi exactement que possible le changement de la position de l’élève et le reflet cornéen (CR) dans l’image de le œil aux pixels correspondants à l’image de la scène qui ont été fréquentée visuellement. L’objectif de cette méthode consiste à capturer les deux milieux visuels naturels d’exploration visuelle active nourrissons et enfants en bas âge de ces environnements comme les nourrissons librement. Ces données peuvent aider à répondre à des questions non seulement sur l’attention visuelle, mais aussi sur un large éventail de développements perceptives, cognitives et sociales4,5,6,7,8. L’utilisation de ces techniques a transformé les compréhensions d’attention conjointe7,8,9, une attention soutenue10, changer des expériences visuelles avec l’âge et le développement de la motricité4 , 6 , 11et le rôle des expériences visuelles dans word apprentissage12. Le présent document fournit des principes directeurs et des recommandations pratiques pour mener à bien les visiocasques oculométrie expériences avec des nourrissons et des tout-petits et illustre les types de données qui peuvent être générées de visiocasques oculométrique dans un naturel contexte pour les tout-petits : fluide jouet jouer avec un parent.

Protocole

Ce tutoriel est basé sur une procédure de collecte de données de suivi oculaire visiocasques aux tout-petits, approuvés par la Commission de révision institutionnelle à l’Université de l’Indiana. Consentement éclairé des parents a été obtenu avant la participation à l’expérience de chasuble.

1. préparation de l’étude

  1. Eye-Tracking Equipment. Sélectionnez l’une des plusieurs visiocasques oculométrie systèmes qui sont disponibles dans le commerce, soit une commercialisés plus spécifiquement pour les enfants ou de modifier le système fonctionne avec une casquette pour bébé sur mesure, par exemple, tel qu’illustré dans les Figures 1 et 2. S’assurer que le système de suivi oculaire a les dispositifs nécessaires pour tester les nourrissons ou enfants en bas âge en procédant comme suit :
    1. Sélectionnez une caméra de la scène qui est réglable en termes de positionnement et a un assez large angle de capturer un champ de vision appropriée pour aborder les questions de recherche. Pour capturer la plupart de l’activité enfant dans un cadre de jeu libre comme celle décrite ici, sélectionnez une caméra qui capte un champ de vision diagonal d’au moins 100 degrés.
    2. Sélectionnez une caméra eye qui est réglable en termes de positionnement et intègre une LED infrarouge soit intégré dans la caméra ou adjacentes à la caméra et positionné de telle manière que la cornée de le œil reflétera cette lumière. Notez que certains modèles d’oculométrie ont fixé de positionnement, mais les modèles que permettre des ajustements souples sont recommandés.
    3. Choisir un système de suivi du regard qui est aussi discret et léger que possible fournir le plus de chance que les bébés/bambins tolérera porter l’équipement.
      1. Intégrer le système dans un plafond en attachant les caméras de la scène et l’oeil à une sangle Velcro qui est apposée sur le côté opposé du Velcro cousu sur la PAC, et le positionnement des caméras hors Centre de vue de l’enfant en bas âge.
        Remarque : Les systèmes conçus pour être semblable à lunettes ne sont pas optimales. La morphologie du visage de l’enfant en bas âge est différente de celle d’un adulte et pièces qui reposent sur le nez ou les oreilles de l’enfant en bas âge peuvent être source de distraction et inconfortable pour le participant.
      2. Si l’ET est connecté à un ordinateur, regroupez les câbles et garder leur dos du participant pour éviter la distraction ou de trébucher. Vous pouvez également utiliser un système autonome qui stocke les données sur un appareil intermédiaire, tel qu’un téléphone mobile, qui peut être placé sur l’enfant, ce qui permet une plus grande mobilité.
    4. Sélectionner un package de logiciel de calibration qui permet pour l’étalonnage en mode hors connexion.
  2. Environnement d’enregistrement.
    1. Examiner l’étendue à laquelle l’enfant se déplace dans tout l’espace au cours de la collecte de données. Si une seule position est préférable, le mentionner à fournisseur de soins de l’enfant donc ils peuvent aider l’enfant à rester à l’endroit désiré. Retirez tous les distracteurs possibles de l’espace à l’exception de ceux de que l’enfant doit interagir avec, qui devrait être à portée de main.
    2. Utiliser une caméra de troisième-personne pour aider à la codification ultérieure du comportement de l’enfant ainsi que pour identifier des moments quand la ET peut devenir déplacé. Si l’enfant se déplace dans tout l’espace, tenir compte aussi bien des caméras supplémentaires.

2. collecter les données de l’Eye-Tracking.

  1. Personnel et activité. Avoir deux expérimentateurs présents, d’interagir avec et d’occuper l’enfant et un pour placer et insérer le ET.
    1. Participer pleinement l’enfant à une activité qui occupe les mains de l’enfant afin que l’enfant ne pas atteindre jusqu'à déplacer ou prenez le ET alors qu’il est mis sur leur tête. Examiner les jouets qui encouragent les interventions manuelles et petits livres que l’enfant peut tenir alors que l’expérimentateur ou lit de la mère à l’enfant.
  2. Placer le ET sur l’enfant. Parce que la tolérance de la chasuble de porter le visiocasques ET varie, suivez ces recommandations pour favoriser la réussite en plaçant et en conservant la ET sur l’enfant :
    1. Dans la période précédant l’étude, demander soignants d’avoir leur usure enfant un bonnet ou bonnet, semblable à ce qui est utilisé avec le He, à la maison pour obtenir les habitués à avoir quelque chose sur leur tête.
    2. À l’étude, ont différents types de capuchons disponibles auxquels le ET peut être attaché. Personnaliser casquettes en achat de différentes tailles et styles de casquettes, tel qu’une casquette qui peut être portée vers l’arrière ou un bonnet avec des oreilles animales et en ajoutant les Velcro auquel le système de suivi oculaire, monté avec le côté opposé de la Velcro, peut être attaché. Également envisager de faire des chapeaux pour être porté par le soignant et les expérimentateurs, afin d’encourager l’intérêt de l’enfant et la volonté de porter aussi un bonnet.
      1. Avant de mettre le cap sur l’enfant, ont un expérimentateur désensibiliser le bambin à la main à la tête de toucher légèrement les cheveux plusieurs fois lorsque l’attention et l’intérêt de l’enfant en bas âge est dirigé vers un jouet.
    3. Pour placer le ET sur l’enfant, être derrière ou à côté de l’enfant (voir la Figure 2A). Placez le ET sur l’enfant lorsque les mains sont occupées, comme quand l’enfant tient un jouet dans chaque main.
      1. Si l’enfant se tourne vers l’expérimentateur plaçant l’ET, dire Bonjour et informez l’enfant ce qui est fait tout en procédant à placer rapidement la ET sur la tête de l’enfant. Évitez de trop lentement tout en mettant le ET, ce qui peut causer la détresse de l’enfant et peut conduire à mauvais positionnement comme l’enfant a plus de chances à bouger leur tête ou à atteindre pour le ET.
      2. Pour réduire le temps passé à régler la caméra après le placement, avant de placer le ET sur le participant, définir les caméras leur position prévue quand à la tête de l’enfant (voir les Sections 2.3.1 et 2.3.2).
  3. Position du ET scène et caméras. Une fois la ET sur la tête de l’enfant, effectuer des réglages sur la position des caméras scène et oculaires tout en contrôlant le flux vidéo de ces caméras :
    1. Position approximative de la caméra de scène faible sur le front au meilleur champ de vision de l’enfant (voir Figure 1B) ; Centrez la scène caméra vue sur ce que l’enfant étudiera au cours de l’étude.
      1. N’oubliez pas que les mains et les objets qui s’est tenues seront toujours très proche de l’enfant et faible selon l’appareil photo de scène, tandis que les autres objets seront dans le fond et plus dans la vue de caméra de scène. Positionner la caméra de la scène pour mieux capter le type d’affichage plus pertinent à la question de recherche.
      2. Tester la position de la caméra de la scène en attirant l’attention de l’enfant vers des emplacements spécifiques dans leur champ de vision à l’aide d’un pointeur laser ou jouet petit. S’assurer que ces endroits sont à l’attendu la distance de visualisation des régions qui seront d’intérêt au cours de l’étude (voir Figure 3).
      3. Évitez d’inclinaison en vérifiant que les surfaces horizontales apparaissent Appartement à la scène vue de caméra. Marquer l’orientation verticale de la caméra de la scène pour atténuer la possibilité de la caméra s’inversée par inadvertance pendant le repositionnement, mais note que des mesures supplémentaires au cours de post-traitement peuvent revenir les images à la bonne orientation si nécessaire.
    2. Pour obtenir des données de haute qualité regard, positionner la caméra eye pour détecter l’élève et le reflet cornéen (CR) (voir la Figure 2).
      1. Positionner la caméra eye afin qu’il soit centré sur la pupille de l’enfant, avec aucune occlusion par joues ou cils tout au long de la gamme complète de le œil du mouvement (voir la Figure 2A-C pour obtenir des exemples d’images du bon et du mauvais œil). Pour vous aider avec ceci, placez la caméra eye sous l’oeil, près de la joue, pointant vers le haut, en gardant la caméra hors Centre de vue de l’enfant. Vous pouvez également positionner la caméra eye ci-dessous et sur le côté extérieur de l’oeil, pointe vers l’intérieur.
      2. Veiller à ce que la caméra est assez proche de le œil que son mouvement produit un déplacement relativement important de la pupille dans l’image oeil de la caméra.
      3. Éviter le tilt en veillant à ce que les coins de le œil à l’image de le œil peuvent former une ligne horizontale (voir Figure 2C).
      4. Veiller à ce que le contraste de la pupille et l’iris est relativement élevé, afin que l’élève peut distinguer avec précision d’iris (voir Figure 2C). Pour vous aider avec ceci, ajustez la position de la lumière de LED (si à côté de la caméra eye) ou la distance de la caméra de le œil de le œil (si la LED n’est pas réglable séparément). Pour la détection de l’élève accrue, positionner le voyant à un angle et pas directement dans le œil. N’oubliez pas que tous les ajustements à la lumière de LED produisent toujours un CR claire (voir Figure 2C).
  4. Obtenir des Points au cours de l’étude pour l’étalonnage en mode hors connexion.
    1. Une fois que les images de la scène et les yeux sont comme de haute qualité comme ils peuvent être, des données d’étalonnage virés en attirant l’attention de l’enfant à différents endroits dans leur champ de vision.
      1. Obtenir des points d’étalonnage sur différentes surfaces avec n’importe quoi qui dirige clairement l’attention de l’enfant à un petit point clair dans leur champ de vision (voir Figure 3). Par exemple, utiliser un pointeur laser contre un arrière-plan Uni, ou une surface avec des petites lumières LED activées indépendamment.
      2. Limiter la présence d’autres cibles intéressantes en vue de l’enfant pour s’assurer que l’enfant regarde les cibles d’étalonnage.
    2. Alterner entre attirant l’attention sur les différents endroits qui nécessitent de grands déplacements angulaires de le œil.
      1. Couvre le champ de vision à la fois et ne bougent pas trop vite entre les points, ce qui vont aidera à trouver les saccades clairs de l’enfant lors de l’étalonnage en mode hors connexion afin d’en déduire quand ils ont regardé à l’emplacement suivant.
      2. Si l’enfant ne ressemble pas immédiatement vers le nouvel emplacement mis en surbrillance, attirer leur attention vers l’emplacement en remuant le laser, tournant Eteindre/Allumer les LEDs ou toucher l’emplacement avec un doigt.
      3. Si possible, obtenir plus de points d’étalonnage que nécessaire dans le cas où certains se pour révéler inutilisable par la suite.
    3. N’oubliez pas que la position du corps de l’enfant lors de l’étalonnage correspond à la position qui sera utilisée lors de l’étude.
      1. Par exemple, ne recueillent pas points d’étalonnage lorsque l’enfant est assis si il est prévu que les enfants seront plus tard debout.
      2. Veiller à ce que la distance entre l’enfant et les cibles d’étalonnage est similaire à la distance entre l’enfant et les régions qui seront d’intérêt au cours de l’étude.
      3. Ne placez pas de points d’étalonnage très proche de corps de l’enfant si, pendant l’expérience, l’enfant sera principalement être Regardez les objets qui sont plus loin. Si on s’intéresse à des objets proches ou lointaines, envisager d’obtenir deux ensembles différents de points d’étalonnage qui plus tard peut être utilisé pour créer des calibrages uniques pour chaque distance de visualisation (pour plus d’informations, voir la Section 3.1).
        NOTE : Binoculaire oculométrique est une technologie en développement13,14 , que les promesses avancées dans suivi regard en profondeur.
    4. Pour tenir compte du drift ou mouvement de la ET au cours de l’étude, cumulez des points d’étalonnage au début et à la fin de l’étude au minimum. Si c’est possible, collecter des points de réglage supplémentaire à intervalles réguliers au cours de la session.
  5. Surveiller les flux vidéo ET et troisième personne au cours de l’étude.
    1. Si le ET obtient la cognée ou mal aligné en raison d’autres mouvements/actions, prenez note du moment dans l’étude de ce qui s’est passé parce qu’il peut être nécessaire de recalibrer et coder les parties de l’étude, avant et après la bosse/désalignement, séparément (voir point 3.1.1).
    2. Si possible, interrompre l’étude après chaque bosse/alignement pour repositionner les caméras de scène et des yeux (voir la Section 2.3), puis obtenir de nouveaux points d’étalonnage (voir la Section 2.4).

3. après l’étude, étalonner les données ET en utilisant le logiciel de Calibration.

Remarque : Une variété de logiciels de calibration sont disponibles dans le commerce.

  1. Pensez à créer plusieurs étalonnages. Personnaliser les points d’étalonnage pour différents segments vidéo pour maximiser la précision de la piste de regard en alimentant ne pas les données de l’algorithme incorrectement correspondent pas.
    1. Si le ET a changé de position à tout moment au cours de l’étude, créer des étalonnages distincts pour les parties avant et après le changement de position ET.
    2. Si intéressé par attention aux objets à une distance d’affichage très différents, créer des étalonnages distincts pour les parties de la vidéo où l’enfant est à la recherche d’objets à chaque distance. Gardez à l’esprit que les différences dans la distance de visualisation peut être créée par des fluctuations dans l’attention visuelle de l’enfant entre très près et varier les objets extrême, mais aussi par des changements dans la position du corps de l’enfant par rapport à un objet, tel que passer d’assis à debout.
  2. Chaque étalonnage. Établir le mappage entre le œil et scène en créant une série de points d’étalonnage - points dans l’image de la scène vers laquelle le regard de l’enfant est clairement dirigée pendant ce laps. Notez que le logiciel d’étalonnage peut extrapoler et interpoler le point du regard (POG) dans toutes les trames à partir d’un ensemble de points d’étalonnage uniformément dispersée à travers l’image de la scène.
    1. Aider le logiciel d’étalonnage dans la détection de l’élève et le CR dans chaque image de la caméra eye vidéo pour s’assurer que le programme de bon gouvernement identifié est fiable. Dans les cas où le logiciel ne peut pas détecter le CR fiable et uniforme, utiliser l’élève seule (note, cependant, que la qualité des données vont souffrir en conséquence).
      1. Obtenir une image de bon œil dans les cadres de caméra eye en ajustant les seuils de l’étalonnage de divers paramètres de détection du logiciel, qui peuvent inclure : la luminosité de l’image de le œil, la taille de la pupille le logiciel attend et un rectangle englobant qui définit la limites d’où le logiciel va chercher de l’élève. Dessiner le cadre englobant aussi petit que possible tout en veillant à ce que l’élève reste à l’intérieur de la boîte dans l’ensemble de la gamme complète de le œil du mouvement. Sachez qu’une plus grande boîte englobante qui englobe l’espace qui l’élève occupe jamais augmente la probabilité de détection de faux élève et peut causer des petits mouvements de la pupille pour être détecté moins précise.
      2. Sachez que, même après ajustement des seuils de détection du logiciel, le logiciel peut localiser encore parfois à tort l’élève ou CR ; par exemple, si l’élève s’étendent sur cils.
    2. Trouver des points de bon étalonnage basés sur les images caméra scène et oculaires. Notez que les meilleurs points d’étalonnage fournies au logiciel sont ceux dont l’élève et CR sont correctement détectés, le œil est solidement fixé sur un point clairement identifiable dans l’espace à l’image de la scène, et les points sont réparties sur toute la gamme de l’image de la scène.
      1. Veiller à ce que la détection de l’élève est exacte pour chaque trame dans laquelle un point d’étalonnage est tracé, afin que tant valide XY scène coordonnées et valide XY élève sont introduits dans l’algorithme.
      2. Lors du premier passage au calibrage, identifier les points d’étalonnage à des moments où l’enfant est résolument tournés vers un point distinct dans l’image de la scène. Gardez à l’esprit que ceux-ci peuvent être des points créés intentionnellement par l’expérimentateur au cours de la collecte de données, par exemple avec un pointeur laser (voir la Figure 3A-B), ou ils peuvent être des points de l’étude dans laquelle le programme de bon gouvernement est facilement identifiable (voir Figure 3C), tant que l’élève est détectée avec précision pour ces cadres.
      3. Pour trouver des moments de regard plus extrême XY scène image coordonnées, de parcourir les images de caméra oeil pour trouver les moments avec détection précise élève quand le œil de l’enfant est à sa position la plus extrême XY.
    3. Faire plusieurs « passes » pour chaque étalonnage de manière itérative perfectionner sur l’étalonnage plus précis possible. Notez qu’après avoir terminé une première « passe » à l’étalonnage, de nombreux logiciels permettra la suppression des points précédemment utilisés sans perdre la piste courante (par exemple en forme de croix). Sélectionner un nouvel ensemble de points d’étalonnage pour former l’algorithme à partir de zéro, mais avec l’aide supplémentaire de la piste POG générée par le col de calibrage précédent, permettant de progressivement augmenter la précision de l’étalonnage par progressivement « nettoyer » tout bruit ou inexactitudes introduites par des passes précédentes.
  3. Évaluation de la qualité de l’étalonnage en observant comment bien le programme de bon gouvernement correspond aux emplacements de regard connus, tels que les points produits par un pointeur laser lors de l’étalonnage et reflète la direction et l’amplitude des saccades de l’enfant. Évitez d’utiliser les points pour évaluer la qualité d’étalonnage qui servaient également de points durant le processus d’étalonnage.
    1. N’oubliez pas que parce que les enfants chefs et les yeux est généralement alignées et une piste précise cela reflétera l’attention visuelle de l’enfant est le plus souvent dirigée vers le centre de l’image de la scène. Pour évaluer l’égocentrisme de la piste, tracer les coordonnées POG XY image par image dans l’image de scène générés par l’étalonnage (voir Figure 4). Confirmer que les points soient plus dense dans le centre de l’image de la scène et distribuées symétriquement, sauf dans les cas où la caméra de la scène n’était pas centrée sur le centre de champ l’enfant lorsque initialement positionné.
    2. Notez que certains logiciels d’étalonnage va générer des scores ajustement linéaires et/ou homographies qui reflètent la précision d’étalonnage. N’oubliez pas que ces scores sont utiles dans une certaine mesure, puisque, s’ils sont pauvres, la piste aussi sera probablement médiocre. Toutefois, n’utilisez pas de scores fit comme la principale mesure de précision d’étalonnage puisqu’elles reflètent le degré auquel les points de calibration choisie d’accord avec eux-mêmes, qui ne fournit aucune information sur l’ajustement de ces points à l’emplacement de vérité au sol du programme.
    3. N’oubliez pas qu’il y a des moments dans l’étude que l’objectif du regard est facilement identifiable et donc peut être utilisé comme une vérité au sol. Calculer la précision en degrés d’angle visuel en mesurant l’erreur entre des cibles connues de regard et le viseur POG (erreur en pixels de l’image vidéo peut être approximativement convertie en degrés basés sur les caractéristiques de la lentille de la caméra de la scène)4.

4. code de régions d’intérêt (ROIs).

Remarque : Le codage de ROI est l’évaluation des données POG pour déterminer quelle région visuellement un enfant fréquente à pendant un moment donné. Retour sur investissement peut être codé avec haute précision et haute résolution à partir des données du programme de bon gouvernement image par image. La sortie de ce codage est un flot de points de données - un point par image vidéo - indiquant la région de POG au fil du temps (voir Figure 5A).

  1. Avant de commencer le codage du ROI, dresser une liste de tous les ROIs qui doivent être codés basés sur les questions de recherche. Sachez que les ROIs qui ne sont pas nécessaires pour répondre à la recherche de codage questions rend codage inutilement fastidieux.
  2. Principes de codage du ROI.
    1. N’oubliez pas que codage réussie exige renonçant hypothèses du codeur sujet où l’enfant doit être à la recherche et à la place un examen attentif de chaque trame oeil image, image de la scène et POG calculée. Par exemple, même si un objet est tenu par l’enfant et est très important dans l’image de la scène pour une trame particulière, ne pas déduire que l’enfant cherche à cet objet à ce moment, sauf s’il est également indiqué par la position des yeux. Notez que les ROIs indiquent quelle région l’enfant est foveating, mais ne pas capturer l’information visuelle complète l’enfant prend en.
    2. Utilisez l’oeil image, image de la scène et piste POG pour déterminer quel retour sur investissement est fréquentée visuellement à.
      1. Utiliser la piste POG comme guide, et non comme réalité-terrain. Bien qu’idéalement la piste POG permettra d’indiquer clairement l’emplacement exact contemplé par l’enfant pour chaque trame, sachez que ce ne sera pas toujours le cas en raison de la nature (2D) dimensions 2 de l’image de la scène par rapport à la nature 3D du monde réel vu par le chil d et la variation de la justesse de la calibration entre les participants.
        1. N’oubliez pas que la piste POG calculée est une estimation basée sur un algorithme de calibration et que la fiabilité de la piste POG pour une trame particulière dépend donc comment bien l’élève et les CR sont détectés ; Si un ou les deux ne sont pas détectés ou sont incorrectes, la voie du programme de bon gouvernement ne sera pas fiable.
          Remarque : Parfois, le viseur sera toujours hors-cible par une distance fixe. Des logiciels plus récents peuvent permettent de corriger par le calcul de cette divergence. Dans le cas contraire, un chercheur qualifié peut faire la correction manuellement.
      2. Utiliser le mouvement de la pupille à l’image de le œil comme le signal primaire que le ROI a peut-être changé.
        1. Défiler les images une par une en regardant l’image de le œil. En cas d’un mouvement visible de l’oeil, vérifier si l’enfant se déplace à leur programme de bon gouvernement pour un nouveau ROI ou aucun ROI défini.
        2. Notez que pas tous les mouvements des yeux indiquent un changement de ROI. Si le retour sur investissement constitue une grande région d’espace (par exemple, un objet près), garder à l’esprit cet œil petit mouvement peut refléter un coup d’oeil vers un nouvel emplacement au sein du même ROI. De même, n’oubliez pas que les mouvements des yeux peuvent se produire car l’enfant suit un retour sur investissement mobile unique, ou comme un enfant qui se déplace la tête déplace également leurs yeux de maintenir le regard sur le même retour sur investissement.
        3. Notez qu’avec certains ETs l’image de le œil est une image miroir de le œil de l’enfant, auquel cas si le œil se déplace vers la gauche qui doit correspondre à un déplacement vers la droite de la scène.
    3. Parce que la piste POG sert uniquement de guide, faire utiliser des données contextuelles disponibles aussi bien pour guider les décisions de codage.
      1. Intégrer l’information provenant de sources différentes ou cadres lors du codage de ROI. Même si le retour sur investissement est codée séparément pour chaque trame, utilisent des images avant et après le frame en cours pour obtenir des informations contextuelles qui peuvent aider à déterminer le retour sur investissement correct. Par exemple, si la piste POG est absent ou incorrect pour une trame donnée en raison de la détection de mauvais élève, mais l’oeil ne bougea pas basé sur les images précédentes et suivantes dans lequel l’élève a été correctement détecté, puis ignorer la piste POG pour cette image et coder la ba de la ROI sed sur les cadres environnants.
      2. Prendre d’autres décisions spécifiques aux questions de recherche des utilisateurs.
        1. Par exemple, faire un protocole pour savoir comment le code retour sur investissement lorsque deux ROIs sont très proches les uns des autres, auquel cas il peut être difficile de déterminer quel est le retour sur investissement « correcte ». Dans les cas où l’enfant semble être fixer à la jonction de la deux ROIs, décider s’il faut coder les deux ROIs en même temps ou s’il faut formuler un ensemble de règles de décision pour savoir comment sélectionner et affecter uniquement une des catégories ROI.
        2. Titre d’exemple supplémentaire, quand un objet d’intérêt est tenu telles qu’une main est obstruant l’objet, décider coder le programme comme un retour sur investissement pour la main ou un retour sur investissement de l’objet qui a eu lieu.
  3. Code de retour sur investissement pour la fiabilité. Mettre en œuvre une fiabilité codage procédure après que le retour sur investissement initial protocole de codage est terminée. Il y a beaucoup de différents types de procédures de codage de fiabilité disponible ; Choisissez la procédure plus pertinente basée sur les questions de recherche spécifiques.

Résultats

La méthode décrite ici a été appliquée à un contexte de jeu jouet fluide entre les tout-petits et leurs parents. L’étude visait à évaluer l’attention visuelle naturelle dans un environnement encombré. Dyades devaient jouer librement avec un ensemble de 24 jouets pendant six minutes. Attention visuelle des tout-petits a été mesurée par l’apparition de codage et offset de recherche spécifique régions d’intérêt (ROIs)--chacun de 24 jouets et visage du parent--et en a...

Discussion

Ce protocole prévoit des principes directeurs et recommandations pratiques pour la mise en œuvre de visiocasques oculométrique nourrissons et jeunes enfants. Ce protocole repose sur l’étude des comportements naturels bambin dans le contexte de jeu parent-enfant en bas âge avec des jouets dans un environnement de laboratoire. Logiciel et matériel d’oculométrie interne ont été utilisés pour l’étalonnage et le codage des données. Néanmoins, ce protocole vise à être généralement applicable aux chercheu...

Déclarations de divulgation

Les auteurs déclarent qu’ils n’ont pas d’intérêts opposés ou contradictoires.

Remerciements

Cette recherche a été financée par les National Institutes of Health, subventions R01HD074601 (c), T32HD007475-22 (J.I.B., D.H.A.) et F32HD093280 (L.K.S.) ; National Science Foundation grant BCS1523982 (L.B.S., C.Y.) ; et par l’Université de l’Indiana par le biais de l’Initiative de recherche zone émergente - apprentissage : cerveau, Machines et les enfants (L.B.S.). Les auteurs remercient les enfants et parents bénévoles qui ont participé à cette recherche et qui ont accepté d’être utilisés dans les figures et tournage du présent protocole. Nous remercions également les membres de la Cognition computationnelle et laboratoire d’apprentissage, surtout Sven Bambach, Chen Anting, Steven Elmlinger, Seth Foster, Grace Lisandrelli et Charlene Tay, pour leur aide dans l’élaboration et le rodage de ce protocole.

matériels

NameCompanyCatalog NumberComments
Head-mounted eye trackerPupil LabsWorld Camera and Eye Camera

Références

  1. Tatler, B. W., Hayhoe, M. M., Land, M. F., Ballard, D. H. Eye guidance in natural vision: Reinterpreting salience. Journal of Vision. 11 (5), 1-23 (2011).
  2. Hayhoe, M. Vision using routines: A functional account of vision. Visual Cognition. 7 (1-3), 43-64 (2000).
  3. Land, M., Mennie, N., Rusted, J. The Roles of Vision and Eye Movements in the Control of Activities of Daily Living. Perception. 28 (11), 1311-1328 (1999).
  4. Franchak, J. M., Kretch, K. S., Adolph, K. E. See and be seen: Infant-caregiver social looking during locomotor free play. Developmental Science. 21 (4), 12626 (2018).
  5. Franchak, J. M., Kretch, K. S., Soska, K. C., Adolph, K. E. Head-mounted eye tracking: a new method to describe infant looking. Child Development. 82 (6), 1738-1750 (2011).
  6. Kretch, K. S., Adolph, K. E. The organization of exploratory behaviors in infant locomotor planning. Developmental Science. 20 (4), 12421 (2017).
  7. Yu, C., Smith, L. B. Hand-Eye Coordination Predicts Joint Attention. Child Development. 88 (6), 2060-2078 (2017).
  8. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLoS One. 8 (11), 79659 (2013).
  9. Yu, C., Smith, L. B. Multiple Sensory-Motor Pathways Lead to Coordinated Visual Attention. Cognitive Science. 41, 5-31 (2016).
  10. Yu, C., Smith, L. B. The Social Origins of Sustained Attention in One-Year-Old Human Infants. Current Biology. 26 (9), 1-6 (2016).
  11. Kretch, K. S., Franchak, J. M., Adolph, K. E. Crawling and walking infants see the world differently. Child Development. 85 (4), 1503-1518 (2014).
  12. Yu, C., Suanda, S. H., Smith, L. B. Infant sustained attention but not joint attention to objects at 9 months predicts vocabulary at 12 and 15 months. Developmental Science. , (2018).
  13. Hennessey, C., Lawrence, P. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions. IEEE Transactions on Biomedical Engineering. 56 (3), 790-799 (2009).
  14. Elmadjian, C., Shukla, P., Tula, A. D., Morimoto, C. H. 3D gaze estimation in the scene volume with a head-mounted eye tracker. Proceedings of the Workshop on Communication by Gaze Interaction. , 3 (2018).
  15. Castellanos, I., Pisoni, D. B., Yu, C., Chen, C., Houston, D. M., Knoors, H., Marschark, M. Embodied cognition in prelingually deaf children with cochlear implants: Preliminary findings. Educating Deaf Learners: New Perspectives. , (2018).
  16. Kennedy, D. P., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C. Face Looking, Eye Contact, and Joint Attention during Naturalistic Toy Play: A Dual Head-Mounted Eye Tracking Study in Young Children with ASD. Poster at the International Society for Autism Research Annual Meeting. , (2018).
  17. Yurkovic, J. R., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C., Kennedy, D. P. Using Dual Head-Mounted Eye Tracking to Index Social Responsiveness in Naturalistic Parent-Child Interaction. Talk at the International Congress for Infant Studies Biennial Congress. , (2018).
  18. Holmqvist, K., Nyström, M., Andersson, R., Dewhurst, R., Jarodzka, H., Van de Weijer, J. . Eye tracking: A comprehensive guide to methods and measures. , (2011).
  19. Saez de Urabain, I. R., Johnson, M. H., Smith, T. J. GraFIX: a semiautomatic approach for parsing low- and high-quality eye-tracking data. Behavior Research Methods. 47 (1), 53-72 (2015).
  20. Franchak, J. M., Hopkins, B., Geangu, E., Linkenauger, S. Using head-mounted eye tracking to study development. The Cambridge Encyclopedia of Child Development 2nd ed. , 113-116 (2017).
  21. Yonas, A., Arterberry, M. E., Granrud, C. E. Four-month-old infants' sensitivity to binocular and kinetic information for three-dimensional-object shape. Child Development. 58 (4), 910-917 (1987).
  22. Smith, T. J., Saez de Urabain, I. R., Hopkins, B., Geangu, E., Linkenauger, S. Eye tracking. The Cambridge Encyclopedia of Child Development. , 97-101 (2017).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

Comportementnum ro 141visiocasques oculom triquevision gocentriqued veloppementenfantenfant en bas geattention visuelle

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.