Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.
Nous avons développé une méthode simple, personnalisable et efficace pour enregistrer des données processuelles quantitatives à partir de tâches spatiales interactives et cartographier ces données de rotation avec des données de suivi oculaire.
Nous présentons une méthode d’enregistrement en temps réel de l’interaction humaine avec des objets virtuels tridimensionnels (3D). L’approche consiste à associer les données de rotation de l’objet manipulé à des mesures comportementales, telles que l’eye tracking, afin de mieux inférence sur les processus cognitifs sous-jacents.
La tâche consiste à afficher deux modèles identiques d’un même objet 3D (une molécule), présentés sur un écran d’ordinateur : un objet interactif en rotation (iObj) et un objet cible statique (tObj). Les participants doivent faire pivoter iObj à l’aide de la souris jusqu’à ce qu’ils considèrent que son orientation est identique à celle de tObj. L’ordinateur suit toutes les données d’interaction en temps réel. Les données du regard du participant sont également enregistrées à l’aide d’un oculomètre. La fréquence de mesure est de 10 Hz sur l’ordinateur et de 60 Hz sur l’eye tracker.
Les données d’orientation de iObj par rapport à tObj sont enregistrées en quaternions de rotation. Les données du regard sont synchronisées avec l’orientation d’iObj et référencées à l’aide de ce même système. Cette méthode nous permet d’obtenir les visualisations suivantes du processus d’interaction humaine avec iObj et tObj : (1) disparité angulaire synchronisée avec d’autres données dépendantes du temps ; (2) trajectoire de rotation 3D à l’intérieur de ce que nous avons décidé d’appeler une « boule de rotations » ; (3) Carte thermique de fixation 3D. Toutes les étapes du protocole ont utilisé des logiciels libres, tels que GNU Octave et Jmol, et tous les scripts sont disponibles en tant que matériel supplémentaire.
Avec cette approche, nous pouvons mener des études quantitatives détaillées du processus de résolution de tâches impliquant des rotations mentales ou physiques, plutôt que seulement le résultat obtenu. Il est possible de mesurer précisément l’importance de chaque partie des modèles 3D pour le participant à la résolution des tâches, et ainsi de relier les modèles à des variables pertinentes telles que les caractéristiques des objets, les capacités cognitives des individus et les caractéristiques de l’interface homme-machine.
La rotation mentale (RM) est une capacité cognitive qui permet aux individus de manipuler et de faire pivoter mentalement des objets, facilitant ainsi une meilleure compréhension de leurs caractéristiques et de leurs relations spatiales. C’est l’une des capacités visuospatiales, un groupe cognitif fondamental qui a été étudié dès 18901. Les capacités visuospatiales sont une composante importante du répertoire cognitif d’un individu qui est influencée à la fois par des facteurs héréditaires et environnementaux 2,3,4,5. L’intérêt pour les capacités visuospatiales s’est accru tout au long du XXe siècle en raison des preuves de plus en plus nombreuses de leur importance dans des sujets clés tels que le vieillissement6 et le développement7, les performances en sciences, technologie, ingénierie et mathématiques (STIM)8,9, la créativité10 et les traits évolutifs11.
L’idée contemporaine de la RM dérive des travaux pionniers publiés par Shepard et Metzler (SM) en 197112. Ils ont mis au point une méthode chronométrique à l’aide d’une série de tâches « identiques ou différentes », présentant deux projections d’objets 3D abstraits présentés côte à côte. Les participants devaient faire pivoter mentalement les objets sur un certain axe et décider si ces projections représentaient le même objet, tournaient différemment ou des objets distincts. L’étude a révélé une corrélation linéaire positive entre le temps de réponse (RT) et la disparité angulaire (DA) entre les représentations d’un même objet. Cette corrélation est connue sous le nom d’effet de disparité d’angle (ADE). L’ADE est considérée comme une manifestation comportementale de la RM et est devenue omniprésente dans plusieurs études ultérieures influentes dans le domaine 13,14,15,16,17,18,19,20,21,22,23,24,25. Les objets 3D utilisés dans l’étude SM étaient composés de 10 cubes contigus générés par le pionnier des graphes informatiques Michael Noll aux Laboratoires Bell26. Ils sont appelés figures SM et sont largement utilisés dans les études RM.
Deux avancées ont été d’une grande importance dans l’œuvre fondamentale de Shepard et Metzler ; tout d’abord, considérer les contributions dans le domaine des évaluations RM. En 1978, Vanderberg et Kuze27 ont développé un test psychométrique de 20 éléments basé sur des figures SM « identiques ou différentes » qui est devenu connu sous le nom de test de rotation mentale (VKMRT). Chaque élément de test présente un stimulus cible. Les participants doivent choisir parmi quatre stimuli, ceux qui représentent le même objet que celui représenté dans le stimulus cible, et ceux qui ne le représentent pas. VKMRT a été utilisé pour étudier la corrélation entre la capacité RM et divers autres facteurs, tels que les différences liées au sexe 6,21,24,28,29,30, le vieillissement et le développement 6,31,32, les performances scolaires8,33, et compétences en musique et sports34. En 1995, Peters et al. ont publié une étude avec des chiffres redessinés pour le VKMRT35,36. De même, à la suite de la conception de tâches « identiques ou différentes », une variété d’autres bibliothèques de stimuli générés par ordinateur ont été utilisées pour étudier les processus RM et pour évaluer les capacités RM (versions 3D des stimuli SM originaux 19,22,23,37,38, corps humain imitant les figures SM 25,39,40, polygones plats pour la rotation 2D 41, 42, l’anatomie et les organes43, les formes organiques44, les molécules45,46, entre autres21). Le Purdue Spatial Visualization Test (PSVT) proposé par Guay en 197647 est également pertinent. Il implique une batterie de tests, y compris MR (PSVT :R). Utilisant des stimuli différents de ceux de VKMRT, PSVT :R demande aux participants d’identifier une opération de rotation dans un stimulus modèle et de l’appliquer mentalement à un autre. PSVT :R est également largement utilisé, en particulier dans les études portant sur le rôle de la RM dans la réalisation des STEM 48,49,50.
La deuxième avancée de grande importance dans les travaux fondamentaux de Shepard et Metzler comprend les contributions à la compréhension du processus MR, en particulier, avec l’utilisation de dispositifs de suivi oculaire. En 1976, Just et Carpenter14 ont utilisé un équipement de suivi oculaire basé sur la vidéo analogique pour mener une étude basée sur l’expérience ADE de Shepard et Metzler. À partir de leurs résultats sur les mouvements oculaires saccadiques et les RT, ils ont proposé un modèle de processus RM composé de trois phases : 1) la phase de recherche, au cours de laquelle des parties similaires des figures sont reconnues ; 2) la phase de transformation et de comparaison, au cours de laquelle l’une des pièces identifiées fait l’objet d’une rotation mentale ; 3) la phase de confirmation, au cours de laquelle il est décidé si les chiffres sont identiques ou non. Les phases sont répétées de manière récursive jusqu’à ce qu’une décision puisse être prise. Chaque pas correspond à des mouvements oculaires saccadiques et fixationnels spécifiques en relation étroite avec les ADE observés. Ainsi, en corrélant l’activité oculaire aux données chronométriques, Just et Carpenter ont fourni une signature cognitive pour l’étude des processus RM. À ce jour, ce modèle, bien qu’avec des adaptations, a été adopté dans plusieurs études 15,42,46,51,52,53.
Suivant cette piste, plusieurs études ont suivi l’activité comportementale 18,19,22,23,25,34,40,54,55 et l’activité cérébrale 20,22,56,57 fonctions pendant la rotation des stimuli ont été effectuées. Leurs résultats mettent en évidence un rôle coopératif entre l’IRM et les processus moteurs. De plus, il y a un intérêt croissant pour l’étude de stratégies de résolution de problèmes impliquant la RM en relation avec les différences individuelles 15,41,46,51,58.
Dans l’ensemble, on peut considérer que la conception d’études visant à comprendre les processus RM est basée sur la présentation d’une tâche avec des stimuli visuels qui demandent aux participants d’effectuer une opération MR qui, à son tour, implique une réaction motrice. Si cette réaction permet la rotation des stimuli, on parle souvent de rotation physique (RP). En fonction des objectifs spécifiques de chaque étude, différentes stratégies et dispositifs ont été utilisés pour l’acquisition de données et l’analyse de la RM et de la RP. Dans l’étape de présentation du stimulus de la tâche, il est possible de changer les types de stimuli (c’est-à-dire les exemples précédemment cités) ; la projection (images de synthèse dans des écrans traditionnels 22,23,25,29,40,41,59, ainsi que dans des environnements de stéréoscopes19 et de réalité virtuelle 60 et mixte 43) ; et l’interactivité des stimuli (images statiques 12,27,36, animations61 et objets virtuels interactifs 19,22,23,43,53,59).
L’IRM est généralement déduite des mesures des RT (ADE), ainsi que de l’activité oculaire et cérébrale 25,46,62. L’activité oculaire est mesurée à l’aide de données de suivi oculaire composées de mouvements saccadiques et de fixations 14,15,42,51,52,54,58,60, ainsi que de la pupillométrie 40. Les données RT proviennent généralement des données de réponse du moteur enregistrées lors de l’utilisation de divers appareils tels que les leviers13, les boutons et interrupteurs14,53, les pédales53, les boutons rotatifs19, les joysticks37, le clavier61 et la souris29,58,60, les roues motrices53, les capteurs inertiels22,23, les écrans tactiles52,59et microphones22. Pour mesurer la RP, en plus des RT, la conception de l’étude comprendra également l’enregistrement des rotations manuelles de stimuli interactifs pendant que les participants effectuent la tâche MR 22,23,52,53.
En 1998, Wohlschläger et Wohlschläger19 ont utilisé des tâches « identiques ou différentes » avec des stimuli SM virtuels interactifs manipulés à l’aide d’un bouton, avec des rotations limitées à un axe par tâche. Ils ont mesuré la RT et l’enregistrement cumulatif des rotations physiques effectuées pendant les tâches. En comparant des situations avec et sans rotation réelle des stimuli interactifs, ils ont conclu que la RM et la RP partagent un processus commun pour les rotations imaginées et réellement effectuées.
En 2014, deux études ont été menées en utilisant le même type de tâches avec des stimuli interactifs virtuels22,23. Cependant, les objets ont été manipulés avec des capteurs inertiels qui capturaient le mouvement dans l’espace 3D. Dans les deux cas, en plus des RT, les trajectoires de rotation ont été enregistrées - l’évolution des différences de rotation entre les stimuli de référence et interactifs au cours des tâches. À partir de ces trajectoires, il a été possible d’extraire à la fois des informations cumulatives (c’est-à-dire le nombre total de rotations, en unités quaternioniques) et des informations détaillées sur les stratégies de solution. Adams et al.23 ont étudié l’effet coopératif entre la RM et la RP. En plus des RT, ils ont utilisé l’intégrale des trajectoires de rotation comme paramètre de précision et d’objectivité de la résolution. Les profils de courbes ont été interprétés selon un modèle en trois étapes63 (planification, rotation majeure, réglage fin). Les résultats indiquent que la RM et la RP n’ont pas nécessairement un seul facteur commun. Gardony et coll.22 ont recueilli des données sur la RT, la précision et la rotation en temps réel. En plus de confirmer la relation entre la RM et la RP, l’analyse des trajectoires de rotation a révélé que les participants manipulaient les figures jusqu’à ce qu’ils puissent identifier si elles étaient différentes ou non. S’ils étaient identiques, les participants les faisaient pivoter jusqu’à ce qu’ils se ressemblent.
Poursuivant cette stratégie, en 2018, Wetzel et Bertel52 ont également utilisé des figures SM interactives dans des tâches « identiques ou différentes » en utilisant des tablettes à écran tactile comme interface. De plus, ils ont utilisé un dispositif de suivi oculaire pour obtenir des données cumulatives sur le temps de fixation et l’amplitude saccadique comme paramètres de la charge cognitive impliquée dans la résolution des tâches d’IRM. Les auteurs ont confirmé les études précédentes discutées ci-dessus concernant les relations entre la RM et la RP et les processus de résolution de tâches. Cependant, dans cette étude, ils n’ont pas utilisé de données de cartographie de fixation et de saccades pour les stimuli.
Des approches méthodologiques pour cartographier les données de suivi oculaire sur des objets 3D virtuels ont été proposées et constamment améliorées, généralement par des chercheurs intéressés par l’étude des facteurs liés à l’attention visuelle dans les environnements virtuels64. Bien qu’elles soient abordables et qu’elles utilisent des dispositifs de suivi oculaire similaires, ces méthodes n’ont apparemment pas été intégrées efficacement dans le répertoire expérimental utilisé dans les études de rotation mentale avec des objets 3D interactifs tels que ceux mentionnés précédemment. À l’inverse, nous n’avons pas trouvé d’études dans la littérature rapportant la cartographie en temps réel des données de mouvement de fixation et de saccade sur des objets 3D interactifs. Il ne semble pas y avoir de méthode pratique pour intégrer facilement les données d’activité oculaire aux trajectoires de rotation. Dans cette recherche, nous visons à contribuer à combler cette lacune. La procédure est présentée en détail, de l’acquisition des données à la génération de sorties graphiques.
Dans cet article, nous décrivons en détail une méthode d’étude des processus de rotation mentale avec des objets 3D interactifs virtuels. Les avancées suivantes sont soulignées. Tout d’abord, il intègre la collecte de données comportementales quantitatives (rotation d’objets pilotée à la main via une interface informatique) et oculaires (eye-tracking) lors de sessions d’interaction avec des modèles virtuels 3D. Deuxièmement, il ne nécessite que du matériel informatique conventionnel et des dispositifs de suivi oculaire pour la conception visuelle des tâches, l’acquisition de données, l’enregistrement et le traitement. Troisièmement, il génère facilement une sortie graphique pour faciliter l’analyse des données - disparité angulaire, rotation physique, trajectoires de rotation quaternionique et cartographie des données de suivi oculaire sur des objets virtuels 3D. Enfin, la méthode ne nécessite que des logiciels libres. Tout le code et les scripts développés sont disponibles gratuitement (https://github.com/rodrigocnstest/rodrigocnstest.github.io).
1. Préparation des outils de collecte de données
2. Collecte des données
3. Traitement et analyse des données
4. Personnalisation des tâches
REMARQUE : Toute cette section est facultative et uniquement recommandée pour ceux qui aiment expérimenter ou comprendre comment coder. Vous trouverez ci-dessous quelques-unes des nombreuses options personnalisables disponibles, et d’autres options seront disponibles au fur et à mesure que nous développerons les méthodes.
Évolution de la disparité angulaire et d’autres variables
Comme illustré à l’étape 3.3.1 du fichier supplémentaire 2, deux canevas sont présentés au participant sur l’écran du moniteur vidéo, affichant des copies du même objet virtuel 3D dans des orientations différentes. Sur le canevas de gauche, l’objet cible (tObj) reste statique et sert de position cible ou de position tObj. Sur le canevas de droite, l’objet ...
Comme indiqué précédemment, cet article vise à présenter une procédure détaillée de cartographie en temps réel des données de mouvement de fixation et de saccade sur des objets 3D interactifs, qui est facilement personnalisable et n’utilise que des logiciels disponibles gratuitement, fournissant des instructions étape par étape pour que tout fonctionne.
Bien que cette configuration expérimentale impliquait une tâche hautement interactive, comme...
Les auteurs n’ont aucun conflit d’intérêts à divulguer.
Les auteurs remercient la Coordination pour l’amélioration du personnel de l’enseignement supérieur (CAPES) - Code des finances 001 et l’Université fédérale de l’ABC (UFABC). João R. Sato a reçu le soutien financier de la Fondation pour la recherche de São Paulo (FAPESP, subventions n° 2018/21934-5, 2018/04654-9 et 2023/02538-0).
Name | Company | Catalog Number | Comments |
Firefox | Mozilla Foundation (Open Source) | Any updated modern browser that is compatible with WebGL (https://caniuse.com/webgl), and in turn with Jmol, can be used | |
GNU Octave | Open Source | https://octave.org/ | |
Google Apps Script | Google LLC | script.google.com | |
Google Sheets | Google LLC | https://www.google.com/sheets/about/ | |
Laptop | Any computer that can run the eye tracking system software. | ||
Mangold Software Suite | Mangold | Software interface used for the Eye tracking device. Any Software that outputs the data with system time values can be used. | |
Mouse | Any mouse capable of clicking and dragging with simple movements should be compatible. Human interfaces analogous to a mouse with the same capabilities, such as a touchscreen or pointer, should be compatible, but may behave differently. | ||
Vt3mini | EyeTech Digital Systems | 60 Hz. Any working Eye Tracking device should be compatible. |
Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE
Demande d’autorisationThis article has been published
Video Coming Soon