JoVE Logo

登录

需要订阅 JoVE 才能查看此. 登录或开始免费试用。

本文内容

  • 摘要
  • 摘要
  • 引言
  • 研究方案
  • 结果
  • 讨论
  • 披露声明
  • 致谢
  • 材料
  • 参考文献
  • 转载和许可

摘要

幼儿不是被动地观察世界, 而是积极探索和参与他们的环境。该协议为使用头戴式眼动仪记录婴儿和幼儿在自然行为背景下的动态视觉环境和视觉注意力提供了指导原则和实用建议。

摘要

幼儿的视觉环境是动态的, 随着儿童在身体和视觉上探索空间和物体并与周围的人互动, 他们的视觉环境也在不断变化。头戴式眼动追踪提供了一个独特的机会来捕捉儿童的动态自我中心视图, 以及他们如何在这些视图中分配视觉注意力。该协议为研究人员在实验室和更自然的环境中使用头戴式眼动仪提供了指导原则和实用建议。与基于屏幕的眼动追踪相比, 通过提高头部和身体运动的可移植性和自由度, 通过增加在生态上更有效的环境中收集数据的机会, 头戴式眼动是对其他实验方法的补充。该协议还可以与其他技术 (如运动跟踪和心率监测) 集成, 以提供高密度多式联运数据集, 用于检查自然行为、学习和开发, 而不是以前可能的。本文在一项旨在调查幼儿在一个自然背景下的视觉注意力的研究中, 说明了头戴式眼动过程中产生的数据类型: 与家长自由流动的玩具游戏。成功使用该协议将使研究人员能够收集数据, 这些数据不仅可用于回答有关视觉注意力的问题, 还可用于回答有关其他感知、认知和社交技能及其发展的广泛问题。

引言

在过去的几十年里, 人们对研究婴幼儿视觉注意力的发展越来越感兴趣。这种兴趣在很大程度上源于利用时间测量作为评估婴儿时期其他认知功能的主要手段, 并已演变为研究婴儿视觉注意力本身。当代对婴幼儿视觉注意力的调查主要是在屏幕眼动追踪任务中测量眼动。婴儿坐在椅子或父母的腿在屏幕前, 而他们的眼睛运动是监测在呈现静态图像或事件。然而, 这些任务未能反映自然视觉注意力的动态性质和儿童自然视觉环境产生的手段----积极的探索。

婴儿和幼儿是活跃的生物, 移动他们的手、头、眼睛和身体来探索周围的物体、人和空间。身体形态、运动技能和行为的每一个新发展--爬行、行走、拾取物体、与社会伙伴接触--伴随着早期视觉环境的变化。因为婴儿所做的决定了他们所看到的, 他们所看到的服务于他们在视觉引导的行动中所做的事情, 因此研究视觉注意力的自然发展最好是在自然行为的背景下进行1。

头戴式眼动仪 (et) 已经发明并用于成人几十年的时间为 2,3。直到最近, 技术进步才使头戴式眼动技术适合婴儿和幼儿。参与者头上安装了两个轻量级相机, 一个场景摄像头朝外, 捕捉参与者的第一人称视角, 一个眼睛摄像头朝内拍摄眼睛图像。校准过程为算法提供训练数据, 该算法尽可能准确地将眼睛图像中瞳孔和角膜反射 (cr) 的变化位置映射到视觉上所关注的场景图像中的相应像素。该方法的目的是捕捉婴儿和婴儿在婴儿自由移动时对这些环境进行主动视觉探索的自然视觉环境。这些数据不仅可以帮助回答关于视觉注意力的问题, 还可以帮助回答关于广泛的感知、认知和社会发展的问题 456、7、8。这些技术的使用改变对共同关注的理解 789、持续关注10、随着年龄和运动的发展而改变的视觉体验4,6,11、视觉体验在单词学习中的作用12。本文为婴儿和幼儿进行头部安装的眼动追踪实验提供了指导原则和实际建议, 并说明了在一个自然情况下, 头戴式眼动追踪可以产生的数据类型。幼儿的背景: 与家长自由流动的玩具游戏。

研究方案

本教程是基于一个程序, 收集头戴式眼动数据与幼儿批准的机构审查委员会在印第安纳大学。在幼儿参与实验之前, 获得了知情的父母同意。

1. 研究的准备工作

  1. 眼动追踪设备.选择几种商用眼动追踪系统中的一个, 该系统要么专门为儿童销售, 要么修改系统, 使其使用定制的婴儿帽, 如图1和图 2所示。通过以下步骤, 确保眼动追踪系统具有对婴儿和幼儿进行检测所需的功能:
    1. 选择一个在定位方面可调节的场景摄像机, 该摄像机具有足够宽的角度来捕捉适合于解决研究问题的视场。要在这里描述的自由游戏环境中捕捉大多数幼儿的活动, 请选择一个能捕捉到至少100度对角线视野的相机。
    2. 选择一个在定位方面可调节的眼睛摄像头, 并有一个红外 led 内置到相机或相邻的相机, 并定位在这样一个方式, 眼睛的角膜将反映这种光。请注意, 某些眼动追踪模型具有固定定位, 但建议采用可提供灵活调整的模型。
    3. 选择一个眼动追踪系统, 是尽可能不显眼和轻量级, 以提供最大的机会, 婴儿幼儿将容忍佩戴设备。
      1. 将系统嵌入到一个盖帽中, 方法是将场景和眼相机连接到贴在尼龙搭扣的另一侧的 velcro 表带上, 并将摄像机放置在幼儿视线中心之外。
        注: 设计类似于眼镜的系统不是最佳的。幼儿面部的形态与成人不同, 停留在幼儿鼻子或耳朵上的部位可能会分散参与者的注意力和不舒服。
      2. 如果 et 连接到计算机上, 将电缆捆绑在一起, 并将其放在参与者的背部后面, 以防止分心或绊倒。或者, 使用一个独立的系统, 将数据存储在中间设备 (如移动电话) 上, 该系统可以放置在孩子身上, 从而实现更大的移动性。
    4. 选择允许离线校准的校准软件包。
  2. 录制环境。
    1. 在数据收集过程中, 请考虑孩子在整个空间中移动的程度。如果一个职位是可取的, 提到这一点的孩子的照顾者, 以便他们可以帮助孩子留在所需的位置。从空间中取出所有潜在的干扰物, 除了孩子应该与之互动的干扰, 这些干扰物应该是触手可及的。
    2. 使用第三人称相机, 协助以后对孩子们的行为进行编码, 并确定 e t 可能被取代的时刻。如果孩子将在整个空间中移动, 也可以考虑增加相机。

2. 收集眼动追踪数据。

  1. 人事和活动.有两个实验者在场, 一个是与孩子互动和占据孩子, 另一个是放置和定位 e t。
    1. 让孩子充分参与占据孩子手的活动, 这样孩子在被放在头上的时候, 就不会伸手去移动或抓住 e t。考虑鼓励人工操作的玩具和孩子在实验者或家长给孩子读书时可以持有的小书。
  2. 将 et 放在孩子身上.由于幼儿佩戴头戴式 et 的耐受性各不相同, 因此请遵循以下建议, 以促进在儿童身上放置和维护 et 的成功:
    1. 在研究前的时间里, 要求照顾者让孩子戴上帽子或豆豆, 类似于 e t 使用的东西, 让他们习惯头上有什么东西。
    2. 在研究中, 有不同类型的盖帽可用于 e t。通过购买不同大小和风格的帽子定制帽子, 如可以向后戴的球帽或动物耳朵的豆豆, 并添加 velcro, 其中的眼动追踪系统, 安装在 velcro 的另一侧, 可以附加。还可以考虑让照顾者和实验者戴上帽子, 以鼓励孩子有兴趣和意愿也戴上帽子。
      1. 在给孩子戴上帽子之前, 让实验者脱敏幼儿的头部, 当幼儿的注意力和兴趣被引导到玩具上时, 轻轻触摸头发几次。
    3. 要将 et 放在孩子身上, 请在孩子的后面或一侧 (参见图 2a)。当孩子的手被占据时, 比如孩子手里拿着玩具时, 把 e t 放在孩子身上。
      1. 如果孩子看着放置 e t 的实验者, 打招呼, 让孩子知道正在做什么, 同时迅速将 e t 放在孩子的头上。在放置 et 时避免移动太慢, 这可能会导致儿童痛苦, 并可能导致定位不良, 因为孩子有更多的机会移动他们的头或到达 e t。
      2. 为了减少放置后调整相机所花费的时间, 在将 et 放置在参与者身上之前, 请将摄像机设置为在孩子头部时处于预期位置 (请参见2.3.1 节和 2.3.2)。
  3. 定位 et 的场景和眼睛摄像头.一旦 e t 在孩子的头上, 在监控这些摄像机的视频源的同时, 对场景和眼睛摄像头的位置进行调整:
    1. 将场景摄像机放在额头的较低位置, 以最好地接近孩子的视野 (参见图 1b);将场景摄像机视图居中, 显示孩子在研究过程中将看到的内容。
      1. 请记住, 手和手持的对象将始终非常接近孩子, 并在场景相机视图中较低, 而更多的对象将在背景和更高的场景相机视图中。定位场景摄像机, 以最佳方式捕捉与研究问题最相关的视图类型。
      2. 通过使用小玩具或激光笔吸引孩子对视野中特定位置的关注, 测试场景相机的位置。确保这些位置处于研究期间感兴趣的区域的预期查看距离 (请参见图 3)。
      3. 通过检查水平表面在场景摄像机视图中是否显示为平面来避免倾斜。标记场景摄像机的垂直方向, 以减少相机在重新定位过程中意外倒置的可能性, 但请注意, 在后处理过程中的额外步骤可以在必要时将图像恢复到正确的方向。
    2. 要获得高质量的凝视数据, 请定位眼相机以检测瞳孔和角膜反射 (cr) (参见图 2)。
      1. 放置眼睛摄像头, 使其以孩子的瞳孔为中心, 在眼睛的整个运动范围内, 没有脸颊或睫毛的遮挡 (有关好的和坏的眼睛图像的例子, 请参见图 2c-f) 。为了帮助解决这个问题, 把眼睛摄像头放在眼睛下面, 靠近脸颊, 向上指着, 不让相机靠近孩子的视线中心。或者, 将眼睛摄像头放置在眼睛下方和眼睛的外侧, 指向内。
      2. 确保相机离眼睛足够近, 使其运动在眼睛相机图像中产生相对较大的瞳孔位移。
      3. 通过确保眼睛图像中的眼角可以形成一条水平线来避免倾斜 (见图 2c)。
      4. 确保瞳孔与虹膜的对比度相对较高, 以便将瞳孔与虹膜准确区分开来 (参见图 2c)。为了帮助解决这个问题, 请调整 led 灯的位置 (如果靠近眼睛摄像头) 或眼睛摄像头与眼睛的距离 (如果 led 不能独立调节)。为了增加瞳孔检测, 将 led 指示灯放置在一个角度, 而不是直接进入眼睛。确保对 led 指示灯的任何调整仍然会产生清晰的 cr (参见图 2c)。
  4. 在研究过程中获取点, 以便进行离线校准。
    1. 一旦场景和眼睛图像尽可能高质量, 通过提请孩子注意他们视野中的不同位置来收集校准数据。
      1. 在不同表面上获取校准点, 并将孩子的注意力明确地引导到他们视野中的一个小的、清晰的点 (参见图 3)。例如, 在坚实的背景下使用激光指针, 或使用带有独立激活的小 led 灯的表面。
      2. 限制孩子眼中存在其他有趣的目标, 以确保孩子看校准目标。
    2. 在提请注意需要眼睛大角度位移的不同位置之间进行交替处理。
      1. 平等地覆盖视野, 不要在点之间移动太快, 这将有助于在离线校准过程中从孩子那里找到清晰的囊, 以帮助推断他们在寻找下一个位置时。
      2. 如果孩子没有立即查看新的突出显示位置, 请通过晃动激光、打开 led 或用手指触摸位置来吸引他们对该位置的关注。
      3. 如果可行, 获得比需要更多的校准点, 以防有些校准点以后无法使用。
    3. 在校准过程中, 确保孩子的身体位置与研究期间将使用的位置相匹配。
      1. 例如, 如果预计孩子稍后会站立, 则不要在孩子坐着时收集校准点。
      2. 确保孩子与校准目标之间的距离与研究期间孩子与区域之间的距离相似。
      3. 如果在实验过程中, 孩子主要是看距离较远的物体, 不要将校准点放置在非常靠近孩子身体的地方。如果对远近和远的物体都感兴趣, 请考虑获取两组不同的校准点, 这些校准点以后可用于为每个观看距离创建唯一的校准 (有关详细信息, 请参阅第3.1 节)。
        注: 双目眼动追踪是一项发展中的技术13,14 , 有望在深度跟踪凝视方面取得进展。
    4. 为了适应在研究过程中 et 的漂移或移动, 在研究的开始和结束时至少收集校准点。如果可行, 在会话期间定期收集额外的校准点。
  5. 在研究过程中监控 e t 和第三人称视频源。
    1. 如果 et 由于其他运动/操作而被碰撞或不对齐, 请注意在研究中发生这种情况的时间, 因为可能需要分别对研究前后的部分进行重新校准和编码 (请参见3.1.1 节)。
    2. 如果可能, 在每次凹凸/错位后中断研究, 重新定位场景和眼相机 (见第2.3 节), 然后获得校准的新点 (见第2.4 节)。

3. 研究结束后, 使用校准软件校准 et 数据。

注: 各种校准软件包可在市场上购买。

  1. 请考虑创建多个校准.自定义对不同视频段的校准点, 通过不向算法提供不正确匹配的数据来最大限度地提高凝视轨迹的准确性。
    1. 如果 et 在研究期间的任何时候改变了位置, 请为 et 位置变化前后的部分创建单独的校准。
    2. 如果对注意不同观看距离的对象感兴趣, 请为视频中孩子在每个观看距离查看对象的部分创建单独的校准。请记住, 观察距离的差异可能是由孩子的视觉注意力在非常接近和变化的物体之间的变化造成的, 也可能是由孩子相对于物体的身体位置的变化造成的, 比如从坐着到站立。
  2. 执行每个校准.通过在场景图像中创建一系列校准点 (在该帧中, 孩子的视线清晰地指向这些点) 来建立场景和眼睛之间的映射。请注意, 校准软件可以从均匀分布在场景图像中的一组校准点中推断和插值所有帧中的凝视点 (pog)。
    1. 协助校准软件检测眼睛摄像机视频的每一帧中的瞳孔和 cr, 以确保识别的 pog 是可靠的。在软件无法可靠和一致地检测 cr 的情况下, 仅使用瞳孔 (但是, 请注意, 数据质量将因此受到影响)。
      1. 通过调整校准软件的各种检测参数 (其中可能包括: 眼睛图像的亮度、软件所需瞳孔的大小, 以及设置软件将在何处查找瞳孔的边界。绘制尽可能小的边界框, 同时确保瞳孔在眼睛的整个运动范围内保持在盒子内。请注意, 包含瞳孔从未占用的空间的较大边界框会增加错误瞳孔检测的可能性, 并可能导致瞳孔的小运动检测不太准确。
      2. 请注意, 即使在调整了软件的各种检测阈值后, 软件有时仍可能错误地定位瞳孔或 cr;例如, 如果睫毛覆盖瞳孔。
    2. 根据场景和眼睛摄像头帧找到良好的校准点。请注意, 提供给软件的最佳校准点是那些准确检测瞳孔和 cr 的校准点, 眼睛稳定地固定在场景图像中可清晰识别的空间点上, 这些点均匀地分布在整个范围内的场景图像。
      1. 确保在绘制校准点的每个帧中的瞳孔检测都是准确的, 以便将有效的 x-y 场景坐标和有效的 x-y 瞳孔坐标输入算法。
      2. 在校准时的第一次传递中, 在孩子清楚地看到场景图像中的一个不同点的时刻识别校准点。请记住, 这些点可以是实验者在数据收集过程中故意创建的点, 例如使用激光指针 (参见图 3a-b), 也可以是易于识别 pog 的研究点 (参见图 3c), 只要准确检测到这些帧的瞳孔。
      3. 要找到凝视更极端的 x-y 场景图像坐标的时刻, 扫描眼相机帧, 以找到时刻与准确的瞳孔检测时, 孩子的眼睛是在其最极端的 x-y 位置。
    3. 对每次校准进行多次 "刀路", 以迭代方式进行最精确的校准。请注意, 在校准时完成第一次 "通过" 后, 许多软件程序将允许删除以前使用的点, 而不会丢失当前的轨道 (例如十字线)。选择一组新的校准点, 从零开始训练算法, 但在以前的校准通道生成的 pog 轨道的额外帮助下, 可以通过逐步 "清除" 任何噪声或早期传球带来的不准确之处。
  3. 通过观察 pog 与已知凝视位置 (如激光指针在校准过程中产生的点) 的对应程度来评估校准的质量, 并反映孩子的囊面的方向和大小.避免使用点评估校准质量, 这些点也被用作校准过程中的点。
    1. 请记住, 由于儿童的头部和眼睛通常是对齐的, 因此儿童的视觉注意力通常指向场景图像的中心, 准确的轨迹将反映这一点。若要评估轨道的中心性, 请在校准生成的场景图像中绘制逐帧 x-y pog 坐标 (参见图 4)。确认点在场景图像的中心是最密集的, 并且是对称分布的, 除非在场景摄像机最初定位时没有以孩子的视场中心为中心的情况除外。
    2. 请注意, 某些校准软件将生成线性和/或同源匹配分数, 以反映校准精度。请记住, 这些分数在一定程度上是有用的, 因为如果它们差, 赛道也很可能是差的。但是, 不要使用拟合分数作为校准精度的主要度量, 因为它们反映了所选校准点与自身一致的程度, 而这些点没有提供有关这些点与 pog 地面真实位置的拟合的信息。
    3. 请记住, 在研究中, 有些时刻, 凝视的目标很容易识别, 因此可以作为地面真理。通过测量已知凝视目标和 pog 十字线之间的误差 (视频图像中的像素误差可根据场景摄像机的镜头特征近似转换为度数)4

4. 利益区域代码。

注: roi 编码是对 pog 数据的评估, 以确定孩子在特定时刻直观地关注的区域。roi 可以从逐帧 pog 数据中进行高精度和高分辨率的编码。此编码的输出是一个数据点流 (每个视频帧一个点), 指示 pog 随时间的推移的区域 (参见图 5a)。

  1. 在开始 roi 编码之前, 请编译一份所有应根据研究问题进行编码的 roi 列表.请注意, 对不需要回答研究问题的 roi 进行编码会使编码不必要地耗时。
  2. 投资回报率编码的原则。
    1. 请记住, 成功的编码需要放弃编码器对孩子应该看什么的假设, 而是仔细检查每个帧的眼睛图像、场景图像和计算的 pog。例如, 即使某个对象被孩子抱着, 并且在特定帧的场景图像中非常大, 也不要推断孩子当时正在查看该对象, 除非还通过眼睛的位置来指示。请注意, roi 表示孩子正在进食的区域, 但不能捕获孩子所从事的完整视觉信息。
    2. 使用眼睛图像、场景图像和 pog 轨道来确定视觉上注意到的 roi。
      1. 使用 pog 轨道作为指南, 而不是地面真相.虽然理想情况下, pog 轨道将清楚地表明孩子对每个帧的确切位置, 但要知道, 由于场景图像相对于 chil 所观察的真实世界的三维性质而言, 场景图像的二维 (2d) 性质并不总是如此d 和参与者之间校准精度的变化。
        1. 请记住, 计算的 pog 轨道是基于校准算法的估计, 因此, 特定帧的 pog 轨道的可靠性取决于检测瞳孔和 cr 的程度;如果其中一个或两个未检测到或不正确, 则 pog 轨道将不可靠。
          注: 有时, 十字线将始终偏离目标的固定距离。较新的软件可能允许一个计算正确的这种差异。否则, 受过训练的研究人员可以手动进行校正。
      2. 使用眼睛图像中瞳孔的运动作为 roi 可能已更改的主要提示。
        1. 一个接一个地滚动帧, 观察眼睛的图像。当眼睛发生明显的运动时, 检查孩子是将其 pog 转移到新的 roi 还是没有定义的 roi。
        2. 请注意, 并非所有的眼动都表示投资回报率的变化。如果 roi 构成了一个大的空间区域 (例如,近距离物体), 请记住, 小的眼动可能反映了对同一投资回报率内的新位置的外观。同样, 请记住, 当孩子跟踪单个移动的 roi 时, 眼睛的运动可能会发生, 或者当一个移动头部的孩子也会移动他们的眼睛, 以保持对相同的 roi 的注视时。
        3. 请注意, 对于某些 et, 眼睛图像是孩子眼睛的镜像图像, 在这种情况下, 如果眼睛向左移动, 则应与场景中向右移动相对应。
    3. 由于 pog 轨道仅用作指南, 因此请使用可用的上下文信息, 并指导编码决策。
      1. 在编码 roi 时集成来自不同来源或帧的信息。即使对每个帧分别编码 roi, 也可以利用当前帧前后的帧来获取上下文信息, 从而帮助确定正确的 roi。例如, 如果由于瞳孔检测不良而导致给定帧的 pog 轨迹不存在或不正确, 但眼睛没有根据准确检测到瞳孔的前一个帧和随后的帧移动, 则忽略该帧的 pog 轨迹并对 roi ba 进行编码在周围的框架。
      2. 针对用户的研究问题做出其他决策。
        1. 例如, 在两个 roi 彼此接近时, 制定一个如何对 roi 进行编码的协议, 在这种情况下, 可能很难确定哪一个是 "正确" 的 roi。如果孩子似乎固定在两个 roi 的交汇点上, 则决定是同时对两个 roi 进行编码, 还是为如何只选择和分配一个 roi 类别制定一组决策规则。
        2. 作为另一个示例, 当持有感兴趣的对象以将对象遮挡时, 请决定是将 pog 编码为手的 roi 还是被持有对象的 roi。
  3. 可靠性的代码投资回报率.在初始 roi 编码协议完成后, 实现可靠性编码过程。有许多不同类型的可靠性编码程序可用;根据具体的研究问题选择最相关的程序。

结果

这里讨论的方法被应用到幼儿和父母之间自由流动的玩具游戏背景中。这项研究旨在调查在杂乱无章的环境中的自然视觉注意。dyads 被指示在6分钟内自由玩一套24个玩具。幼儿的视觉注意力是通过将外观的开始和偏移编码到特定感兴趣的区域 (roi)----24个玩具和父母的脸----以及分析每个 roi 的外观时间和时间的持续时间和比例来衡量的。结果如图 5所?...

讨论

该议定书为实施婴儿和幼儿头戴式眼动追踪提供了指导原则和实际建议。该方案是基于对父母幼儿在实验室环境中免费玩玩具的背景下的自然幼儿行为的研究。内部眼动追踪设备和软件用于校准和数据编码。然而, 该协议旨在普遍适用于使用各种头部式眼动追踪系统研究婴儿和儿童发展中的各种主题的研究人员。虽然该协议的最佳使用将涉及特定于研究的定制, 但这些一般做法的采用导致了在各种...

披露声明

提交人声明, 他们没有相互竞争或相互冲突的利益。

致谢

这项研究由国家卫生研究院资助 r01hd07401 (c. y.)、T32HD007475-22 (j. i. b., d. h. a.) 和 f32hd093280 (l. k. s.);国家科学基金会赠款 bcs1523982 (l. b. s., c. y.);和印第安纳大学通过新兴领域研究倡议-学习: 大脑, 机器和儿童 (l. b. s.)。作者感谢参与这项研究的儿童和家长志愿者, 他们同意被用于这一协议的数字和拍摄。我们也感谢计算认知和学习实验室的成员, 特别是斯文·班巴赫、陈安亭、史蒂文·埃尔姆林格、塞思·福斯特、格雷斯·利桑德里和查琳·泰在制定和完善这一协议方面提供的协助。

材料

NameCompanyCatalog NumberComments
Head-mounted eye trackerPupil LabsWorld Camera and Eye Camera

参考文献

  1. Tatler, B. W., Hayhoe, M. M., Land, M. F., Ballard, D. H. Eye guidance in natural vision: Reinterpreting salience. Journal of Vision. 11 (5), 1-23 (2011).
  2. Hayhoe, M. Vision using routines: A functional account of vision. Visual Cognition. 7 (1-3), 43-64 (2000).
  3. Land, M., Mennie, N., Rusted, J. The Roles of Vision and Eye Movements in the Control of Activities of Daily Living. Perception. 28 (11), 1311-1328 (1999).
  4. Franchak, J. M., Kretch, K. S., Adolph, K. E. See and be seen: Infant-caregiver social looking during locomotor free play. Developmental Science. 21 (4), 12626 (2018).
  5. Franchak, J. M., Kretch, K. S., Soska, K. C., Adolph, K. E. Head-mounted eye tracking: a new method to describe infant looking. Child Development. 82 (6), 1738-1750 (2011).
  6. Kretch, K. S., Adolph, K. E. The organization of exploratory behaviors in infant locomotor planning. Developmental Science. 20 (4), 12421 (2017).
  7. Yu, C., Smith, L. B. Hand-Eye Coordination Predicts Joint Attention. Child Development. 88 (6), 2060-2078 (2017).
  8. Yu, C., Smith, L. B. Joint Attention without Gaze Following: Human Infants and Their Parents Coordinate Visual Attention to Objects through Eye-Hand Coordination. PLoS One. 8 (11), 79659 (2013).
  9. Yu, C., Smith, L. B. Multiple Sensory-Motor Pathways Lead to Coordinated Visual Attention. Cognitive Science. 41, 5-31 (2016).
  10. Yu, C., Smith, L. B. The Social Origins of Sustained Attention in One-Year-Old Human Infants. Current Biology. 26 (9), 1-6 (2016).
  11. Kretch, K. S., Franchak, J. M., Adolph, K. E. Crawling and walking infants see the world differently. Child Development. 85 (4), 1503-1518 (2014).
  12. Yu, C., Suanda, S. H., Smith, L. B. Infant sustained attention but not joint attention to objects at 9 months predicts vocabulary at 12 and 15 months. Developmental Science. , (2018).
  13. Hennessey, C., Lawrence, P. Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions. IEEE Transactions on Biomedical Engineering. 56 (3), 790-799 (2009).
  14. Elmadjian, C., Shukla, P., Tula, A. D., Morimoto, C. H. 3D gaze estimation in the scene volume with a head-mounted eye tracker. Proceedings of the Workshop on Communication by Gaze Interaction. , 3 (2018).
  15. Castellanos, I., Pisoni, D. B., Yu, C., Chen, C., Houston, D. M., Knoors, H., Marschark, M. Embodied cognition in prelingually deaf children with cochlear implants: Preliminary findings. Educating Deaf Learners: New Perspectives. , (2018).
  16. Kennedy, D. P., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C. Face Looking, Eye Contact, and Joint Attention during Naturalistic Toy Play: A Dual Head-Mounted Eye Tracking Study in Young Children with ASD. Poster at the International Society for Autism Research Annual Meeting. , (2018).
  17. Yurkovic, J. R., Lisandrelli, G., Shaffer, R., Pedapati, E., Erickson, C. A., Yu, C., Kennedy, D. P. Using Dual Head-Mounted Eye Tracking to Index Social Responsiveness in Naturalistic Parent-Child Interaction. Talk at the International Congress for Infant Studies Biennial Congress. , (2018).
  18. Holmqvist, K., Nyström, M., Andersson, R., Dewhurst, R., Jarodzka, H., Van de Weijer, J. . Eye tracking: A comprehensive guide to methods and measures. , (2011).
  19. Saez de Urabain, I. R., Johnson, M. H., Smith, T. J. GraFIX: a semiautomatic approach for parsing low- and high-quality eye-tracking data. Behavior Research Methods. 47 (1), 53-72 (2015).
  20. Franchak, J. M., Hopkins, B., Geangu, E., Linkenauger, S. Using head-mounted eye tracking to study development. The Cambridge Encyclopedia of Child Development 2nd ed. , 113-116 (2017).
  21. Yonas, A., Arterberry, M. E., Granrud, C. E. Four-month-old infants' sensitivity to binocular and kinetic information for three-dimensional-object shape. Child Development. 58 (4), 910-917 (1987).
  22. Smith, T. J., Saez de Urabain, I. R., Hopkins, B., Geangu, E., Linkenauger, S. Eye tracking. The Cambridge Encyclopedia of Child Development. , 97-101 (2017).

转载和许可

请求许可使用此 JoVE 文章的文本或图形

请求许可

探索更多文章

141

This article has been published

Video Coming Soon

JoVE Logo

政策

使用条款

隐私

科研

教育

关于 JoVE

版权所属 © 2025 MyJoVE 公司版权所有,本公司不涉及任何医疗业务和医疗服务。