需要订阅 JoVE 才能查看此. 登录或开始免费试用。
我们开发了一种简单、可定制且高效的方法来记录来自交互式空间任务的定量过程数据,并使用眼动追踪数据映射这些旋转数据。
我们提出了一种实时记录人类与 3D (3D) 虚拟对象交互的方法。该方法包括将纵对象的旋转数据与行为测量(例如眼动追踪)相关联,以更好地推断潜在的认知过程。
该任务包括在计算机屏幕上显示同一 3D 对象(分子)的两个相同模型:一个旋转的交互式对象 (iObj) 和一个静态的目标对象 (tObj)。参与者必须使用鼠标旋转 iObj,直到他们认为其方向与 tObj 的方向相同。计算机实时跟踪所有交互数据。参与者的眼动数据也使用眼动仪进行记录。计算机的测量频率为 10 Hz,眼动仪的测量频率为 60 Hz。
iObj 相对于 tObj 的方向数据以旋转四元数记录。注视数据与 iObj 的方向同步,并使用相同的系统进行引用。这种方法使我们能够获得人类与 iObj 和 tObj 交互过程的以下可视化:(1) 与其他时间相关数据同步的角度视差;(2) 我们决定称之为“旋转球”的内部 3D 旋转轨迹;(3) 3D 固定热图。该协议的所有步骤都使用了免费软件,例如 GNU Octave 和 Jmol,并且所有脚本都作为补充材料提供。
通过这种方法,我们可以对涉及心理或身体旋转的任务解决过程进行详细的定量研究,而不仅仅是达到的结果。可以精确测量 3D 模型的每个部分对参与者解决任务的重要性,从而将模型与相关变量相关联,例如对象的特征、个体的认知能力和人机界面的特征。
心理旋转 (MR) 是一种认知能力,使个体能够在心理上操纵和旋转物体,从而促进更好地理解其特征和空间关系。它是视觉空间能力之一,早在 1890 年 1 就被研究过一个基本的认知群。视觉空间能力是个体认知能力的重要组成部分,它受遗传和环境因素的影响 2,3,4,5。在整个 20 世纪,人们对视觉空间能力的兴趣不断增长,因为越来越多的证据表明它们在关键学科中的重要性,例如衰老6 和发展 7 (development7)、科学、技术、工程和数学 (STEM) 的表现 8,9、创造力10 和进化特征 11。
MR 的当代理念源于 Shepard 和 Metzler (SM) 于 1971 年发表的开创性工作12。他们设计了一种计时方法,使用一系列“相同或不同”的任务,呈现并排显示的抽象 3D 对象的两个投影。参与者必须在脑海中沿某个轴旋转物体,并决定这些投影是否描绘了同一物体、不同旋转或不同的物体。该研究揭示了响应时间 (RT) 和同一对象表示之间的角度差异 (AD) 之间存在正线性相关。这种相关性被称为角度视差效应 (ADE)。ADE 被认为是 MR 的一种行为表现,并在该领域随后的几项有影响力的研究中变得无处不在 13,14,15,16,17,18,19,20,21,22,23,24,25.SM 研究中采用的 3D 对象由 10 个连续的立方体组成,由贝尔实验室26 的计算机图形先驱 Michael Noll 生成。它们被称为 SM 图,并广泛用于 MR 研究。
在 Shepard 和 Metzler 的开创性工作中,有两项进步非常重要;首先,考虑 MR 评估领域的贡献。1978 年,Vanderberg 和 Kuze27 开发了一种基于 SM“相同或不同”数字的 20 项心理测量纸笔测试,后来被称为心理旋转测试 (VKMRT)。每个测试项目都呈现一个目标刺激。参与者必须在四种刺激中进行选择,哪些代表目标刺激中描绘的相同对象,哪些不代表。VKMRT 已用于研究 MR 能力与各种其他因素之间的相关性,例如性别相关差异 6,21,24,28,29,30,衰老和发育 6,31,32,学习成绩8,33 以及音乐和体育技能34。1995 年,Peters 等人发表了一项研究,其中重绘了 VKMRT35,36 的数字。同样,在“相同或不同”的任务设计之后,已经采用了各种其他计算机生成的刺激库来研究 MR 过程并评估 MR 能力(原始 SM 刺激19、22、23、37、38 的 3D 版本,模拟 SM 图形的人体25、39、40,用于 2D 旋转的平面多边形41,42、解剖学和器官43,有机形状44,分子45,46 等21)。Guay 在 197647 年提出的普渡空间可视化测试 (PSVT) 也是相关的。它需要一系列测试,包括 MR (PSVT:R)。PSVT:R 采用与 VKMRT 中的刺激不同的刺激,要求参与者识别模型刺激中的旋转操作,并在心理上将其应用于不同的刺激。PSVT:R 也被广泛使用,特别是在调查 MR 在 STEM 成就中的作用的研究 48,49,50。
Shepard 和 Metzler 的开创性工作中非常重要的第二个进步包括对理解 MR 过程的贡献,特别是使用眼动追踪设备。1976 年,Just 和 Carpenter14 使用基于模拟视频的眼动追踪设备进行了一项基于 Shepard 和 Metzler 的 ADE 实验的研究。根据他们对扫视眼球运动和 RT 的结果,他们提出了一个 MR 过程模型,该模型由三个阶段组成:1) 搜索阶段,其中识别了图形的相似部分;2) 转换和比较阶段,其中识别的部分之一在精神上旋转;3) 确认阶段,决定数字是否相同。这些阶段以递归方式重复,直到可以做出决定。每个步骤对应于与观察到的 ADE 密切相关的特定扫视和注视眼球运动模式。因此,通过将眼睛活动与计时数据相关联,Just 和 Carpenter 为 MR 过程的研究提供了认知特征。迄今为止,该模型尽管进行了调整,但已在多项研究中采用 15,42,46,51,52,53。
沿着这条轨道,随后的几项研究监测行为 18,19,22,23,25,34,40,54,55 和大脑活动 20,22,56,57进行刺激旋转期间的功能。他们的研究结果表明 MR 和运动过程之间的合作作用。此外,人们对研究涉及 MR 与个体差异相关的问题解决策略的兴趣日益浓厚 15,41,46,51,58。
总的来说,可以认为旨在了解 MR 过程的研究设计是基于提出带有视觉刺激的任务,要求参与者执行 MR 操作,进而导致运动反应。如果这种反应允许刺激旋转,则通常称为物理旋转 (PR)。根据每项研究的具体目标,采用了不同的策略和设备来获取和分析 MR 和 PR。在任务刺激呈现步骤中,可以改变刺激的类型(即前面引用的例子);投影(传统显示器22、23、25、29、40、41、59 以及立体镜19 和虚拟60 和混合43 现实环境中的计算机生成图像);以及刺激的交互性(静态图像12、27、36、动画61 和交互式虚拟对象19、22、23、43、53、59)。
MR 通常从 RTs (ADE) 以及眼部和脑部活动的测量中推断出来 25,46,62。使用眼动追踪数据测量眼球活动,包括扫视运动和注视14、15、42、51、52、54、58、60 以及瞳孔测量40。RT 数据通常来自操作各种设备时记录的电机响应数据,例如杠杆13、按钮和开关14,53、踏板53、旋钮19、操纵杆37、键盘61 和鼠标 29,58,60、驱动轮53、惯性传感器22,23、触摸屏52,59和microphones 22。为了测量 PR,除了 RT 之外,研究设计还将包括在参与者执行 MR 任务时记录交互式刺激的手动旋转 22,23,52,53。
1998 年,Wohlschläger 和 Wohlschläger19 使用“相同或不同”的任务,通过旋钮操纵交互式虚拟 SM 刺激,每个任务的旋转仅限于一个轴。他们测量了 RT 和任务期间执行的身体旋转的累积记录。比较有和没有交互式刺激实际旋转的情况,他们得出结论,MR 和 PR 对于想象和实际执行的旋转共享一个共同的过程。
2014 年,进行了两项研究,采用具有虚拟交互刺激的相同类型的任务22,23。然而,这些物体是用惯性传感器操纵的,这些传感器可以捕捉 3D 空间中的运动。在这两种情况下,除了 RT 之外,还记录了旋转轨迹 - 任务期间参考和交互刺激之间旋转差异的演变。从这些轨迹中,可以提取累积信息(即以四元数为单位的旋转总数)和有关求解策略的详细信息。Adams 等人 23 研究了 MR 和 PR 之间的协同效应。除了 RT 之外,他们还使用旋转轨迹的积分作为分辨率的准确性和客观性的参数。根据三步模型63 (规划、主要旋转、微调) 解释曲线剖面。结果表明 MR 和 PR 不一定具有单一的公因子。Gardony 等人22 收集了有关 RT、准确性和实时旋转的数据。除了确认 MR 和 PR 之间的关系外,对旋转轨迹的分析还表明,参与者会操纵这些数字,直到他们能够识别它们是否不同。如果它们相同,参与者会轮换它们,直到它们看起来相同。
延续这一策略,在 2018 年,Wetzel 和 Bertel52 还使用触摸屏平板电脑作为界面,在“相同或不同”的任务中使用交互式 SM 图形。此外,他们使用眼动追踪设备来获得有关注视时间和扫视振幅的累积数据,作为解决 MR 任务所涉及的认知负荷参数。作者证实了上面讨论的关于 MR 和 PR 之间关系以及任务解决过程的先前研究。然而,在这项研究中,他们没有对刺激使用注视映射和扫视数据。
在虚拟 3D 对象上映射眼动追踪数据的方法已经提出并不断改进,通常由对研究虚拟环境中视觉注意力相关因素感兴趣的研究人员提出64。尽管价格实惠并且使用类似的眼动追踪设备,但显然,这些方法尚未有效地整合到使用交互式 3D 对象(如前面提到的那些)进行精神旋转研究的实验库中。相反,我们在文献中没有发现任何研究报告了交互式 3D 物体上注视和扫视运动数据的实时映射。似乎没有方便的方法可以轻松地将眼球活动数据与旋转轨迹整合在一起。在这项研究中,我们的目标是为填补这一空白做出贡献。详细介绍了从数据采集到图形输出生成的过程。
在本文中,我们详细描述了一种使用虚拟交互式 3D 对象研究心理旋转过程的方法。重点介绍了以下进展。首先,它在与 3D 虚拟模型的交互过程中集成了定量行为运动(通过计算机界面手动驱动物体旋转)和目测(眼动追踪)数据收集。其次,它只需要传统的计算机设备和眼动追踪设备进行视觉任务设计、数据采集、记录和处理。第三,它可以轻松生成图形输出以促进数据分析 - 角度视差、物理旋转、四元数旋转轨迹以及眼动追踪数据在 3D 虚拟对象上的命中映射。最后,该方法只需要免费软件。所有开发的代码和脚本均免费提供 (https://github.com/rodrigocnstest/rodrigocnstest.github.io)。
1. 准备数据收集工具
2. 数据收集
3. 数据处理和分析
4. 任务定制
注意:整个部分是可选的,仅推荐给那些喜欢尝试或了解如何编码的人。下面,您将找到许多可用的可自定义选项中的一些,随着我们进一步开发这些方法,将提供更多选项。
角度视差和其他变量的演变
如补充文件 2 中的步骤 3.3.1 所示,在视频监视器屏幕上向参与者显示两个画布,以不同方向显示同一 3D 虚拟对象的副本。在左侧画布上,目标对象 (tObj) 保持静态,并用作目标位置或 tObj 位置。在右侧画布上,交互式对象 (iObj) 显示在不同的位置,并允许参与者使用鼠标围绕固定的旋转中心随时间...
如前所述,本文旨在介绍在交互式 3D 对象上实时映射注视和眼跳运动数据的详细过程,该程序易于定制,并且仅使用免费提供的软件,提供分步说明以使一切正常工作。
虽然这个实验设置涉及高度交互的任务,例如在三个可能轴中的两个轴上移动 3D 对象以匹配另一个对象的方向和 PR,但我们通过适当的注释确保对脚本进行全面记录,以促进任何自?...
作者没有需要披露的利益冲突。
作者感谢高等教育人员改进协调 (CAPES) - 财务代码 001 和 ABC 联邦大学 (UFABC)。João R. Sato 获得了圣保罗研究基金会(FAPESP,拨款号 2018/21934-5、2018/04654-9 和 2023/02538-0)的财政支持。
Name | Company | Catalog Number | Comments |
Firefox | Mozilla Foundation (Open Source) | Any updated modern browser that is compatible with WebGL (https://caniuse.com/webgl), and in turn with Jmol, can be used | |
GNU Octave | Open Source | https://octave.org/ | |
Google Apps Script | Google LLC | script.google.com | |
Google Sheets | Google LLC | https://www.google.com/sheets/about/ | |
Laptop | Any computer that can run the eye tracking system software. | ||
Mangold Software Suite | Mangold | Software interface used for the Eye tracking device. Any Software that outputs the data with system time values can be used. | |
Mouse | Any mouse capable of clicking and dragging with simple movements should be compatible. Human interfaces analogous to a mouse with the same capabilities, such as a touchscreen or pointer, should be compatible, but may behave differently. | ||
Vt3mini | EyeTech Digital Systems | 60 Hz. Any working Eye Tracking device should be compatible. |
请求许可使用此 JoVE 文章的文本或图形
请求许可探索更多文章
This article has been published
Video Coming Soon
版权所属 © 2025 MyJoVE 公司版权所有,本公司不涉及任何医疗业务和医疗服务。