Wir haben eine Methode entwickelt, mit der menschliche Interaktionen mit virtuellen 3D-Objekten in Echtzeit aufgezeichnet werden können. Unser Ansatz besteht darin, Rotationsdaten für die manipulierten Objekte mit Verhaltensmaßstäben wie Eye-Tracking zu verknüpfen. Auf diese Weise erhalten wir tiefere Einblicke in den kognitiven Prozess hinter der Aufgabe und nicht nur in das Endergebnis.
Die folgenden Themen werden betrachtet: die Beziehung zwischen Materialrotation und Augenbewegungen, individuelle Unterschiede, Anwendungen und praktische Implikationen, methodische Fortschritte, kognitive Modelle und Theorien, entwicklungsbezogene und klinische Perspektiven sowie neurokognitive Mechanismen. Diese Arbeit leistet einen Beitrag zur Methodik. Es scheint, dass es keinen einfachen Ansatz gibt, um Augenaktivitätsdaten in Rotationsverläufe zu integrieren.
In dieser Forschung wollen wir dazu beitragen, diese Lücke zu schließen. Es wurde ein einfacher und kostengünstiger Versuchsaufbau entwickelt, um konventionelle Eye-Tracking-Daten über 3D-Modellen mit Rotationstests abzubilden. Unsere zukünftige Forschung wird sich auf die Weiterentwicklung unserer Methode zur Untersuchung individueller Unterschiede in der Interpretation und Interaktion mit virtuellen und physischen dreidimensionalen Objekten konzentrieren.
Wir werden zum Beispiel den Fall für Studenten und Experten in der Chemie untersuchen.