JoVE Logo

登录

需要订阅 JoVE 才能查看此. 登录或开始免费试用。

本文内容

  • 摘要
  • 摘要
  • 引言
  • 研究方案
  • 结果
  • 讨论
  • 披露声明
  • 致谢
  • 材料
  • 参考文献
  • 转载和许可

摘要

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

摘要

在线数据收集方法有特殊的吸引力行为科学家,因为他们提供了更大的承诺,更具有代表性的数据样本比通常可以收集在大学校园里。然而,这样的方法可以广泛地采用之前,一些技术挑战必须克服 - 特别是在实验中严格控制的刺激特性是必要的。这里,我们提出的方法,用于收集关于视觉注意两个试验的性能数据。这两项测试要求控制在刺激的视觉角度(而这又需要观看距离,显示器的尺寸,屏幕分辨率方面的知识)和刺激的时机(如测试涉及两种简单地闪过了移动的刺激或刺激在具体的利率)。从超过1700在线参与者收集了这些测试数据与收集在实验室为基础的版本完全相同的测试数据一致。这些结果建议适当的照顾,定时/刺激大小相关的任务可以部署在基于web的设置。

引言

在过去的五年里,一直关注于利用在线行为数据收集方法激增。虽然刊物的心理学领域绝大多数都采用潜在非代表受人口1( 即,主要是大学本科生),往往相当小的样本量,以及( 通常在几十科目的范围),在线方式提供了更加多样化和更大的样品的承诺。举例来说,亚马逊的机械土耳其人的服务一直是最近的一些研究的主题,既描述了"工人"群体的特点和行为研究2-6使用这种人口。

然而,涉及到这样的方法之一显著关注的是相对缺乏对关键变量刺激控制。例如,在大多数的视觉心理物理学的任务,刺激在来描述可视角度。视觉角度的计算需要观看距离,屏幕大小,以及屏幕分辨率的精确测量。虽然这些参数是微不足道的测量和控制在实验室设置中(其中,有一个已知的显示器和参与者观看的刺激而在下巴休息置于从监视器的已知距离),同样是不在线数据收集如此。在网络环境下,不仅会参与者难免使用各种不同尺寸不同的软件设置的显示器,他们也可能不容易接触到的统治者/磁带措施,让他们来决定自己的显示器尺寸还是有必要的知识,以确定他们的软件和硬件设置( 例如,刷新率,分辨率)。

在这里,我们描述了一套方法来收集关于视觉注意力两个著名的测试数据-的视图(UFOV)用现场范式7和多目标跟踪(MOT)的任务 8 -同时避免尽可能变异中固有在线测量的来源。这些任务可以通过与互联网连接和HTML5兼容的浏览器的任何参与者运行。与会者谁不知道他们的屏幕尺寸是通过采用标准尺寸的常用项目的测量过程中走了( 即,信用卡/ CD -参见图1)。

这两个任务的数据是从1700多名参与者在海量网络公开课收集。这个在线样本平均表现在完全相同的任务9,10严格控制的实验室为基础的措施,得到的结果高度一致。我们的结果是由此与文献证明的在线数据收集方法的效果的增长的身体相一致,即使是在需要超过观看条件的具体的控制任务。

研究方案

该协议在美国威斯康星大学麦迪逊分校是经机构审查委员会。下列步骤已被写入作为导向程序员来复制所述的Web应用程序的自动化的过程。

1.登录参加

  1. 指导参与者使用互联网的计算机,然后导航到使用HTML5兼容的浏览器的Web应用程序: http://brainandlearning.org/jove 。有参与者坐在一个安静的房间免费杂念,随着计算机在一个舒适的高度。
    注:由于整个实验的在线托管,任务也可以远程没有一个研究助理的存在下进行。对于参加者的所有说明都包括在Web应用程序。
  2. 有参加者输入一个唯一的ID,将与所收集的数据相关联,并存储在一个MySQL数据库平台即有参与者重用此ID,如果网上的任务在同一会话内完成。在登录之前,通过页面上的链接的同意书,获得参与者的同意。
    注:参与者的进度每个任务之后保存,以便允许对任务2在不同的时间完成,如果需要的。指导参与者始终使用相同的ID,以启动其中一个离开的。

2.屏幕校准

注:Web应用程序通过在校准页面列出的三个步骤引导参与者http://brainandlearning.org/jove/Calibration

  1. 请参与者输入屏幕的对角线尺寸为英寸,在标记的文本框。
    1. 然而,如果参加者不知道该信息,具有参与者找到的CD或信用卡作为校准物体( 图1)。当一个被选择时,提示参与者到对象放置靠在屏幕和与屏幕上显示的对象的代表图像对齐。
    2. 提示参与者来调整屏幕图像的尺寸以匹配物理对象的大小。基于对物理CD(4.7直径")或信用卡(宽3.2"),除了代表图像的像素大小的测量结果,确定为象素以英寸为屏幕的比率。
    3. 检索显示器通过JavaScript的screen.widthscreen.height属性的像素分辨率,以再计算的像素在屏幕的对角线尺寸。知道了这一点值与先前估计的像素到英寸比例(见步骤2.1.2),对角线尺寸转换为英寸。有参加者通过对话框确认此值。
  2. 提示参与者调整屏幕brigh适应度设置,直到在一个黑色到白色梯度所有16个频段的屏幕上显示清晰可辨。亮度设置不同的控制计算机。
  3. 请参与者坐在一个手臂的长度远离显示器放在舒适的位置,然后设置浏览器窗口到全屏模式。浏览器窗口必须处于全屏模式,以最大程度地使用的任务的视觉空间,并除去任何视觉干扰,如浏览器工具栏和桌面任务栏。
  4. 知道参与者的屏幕的分辨率和显示器的对角线尺寸,可以使用该web应用程序自动计算的象素/度换算值,基于一个50厘米观看距离。调整使用这个值中的任务的刺激的尺寸。报道如下基于这一切的视觉角度尺寸假设从显示器平均距离值。
  5. 一旦校准完成,要求参加者完成两个任务describ下面编。选择的任务的顺序或随机分配通过web应用程序的顺序。

3.多目标跟踪任务(MOT) - 图2

  1. 引进并通过自导教程MOT刺激,在看到熟悉的参与者: http://brainandlearning.org/jove/MOT/practice.php 。请参与者阅读一步一步的指导,演示如何审判将工作。一旦参与者完成阅读说明,提示参与者要经过实践考验。
    1. 设置的做法刺激到包括8点在0.8°,2°/秒的移动速度。使用HTML5 requestAnimationFrame API来,为了控制这种刺激运动优化浏览器的动画以60Hz的帧速率。
    2. 确保的点的2°偏心和CIRC的圆的边界内移动乐不超过参与者的屏幕的高度大,没有遮蔽的说明。
    3. 设定点,以在随机的轨迹,其中,在每个帧的点具有由0.2°的最大角度改变方向的60%的机会移动。如果一个点与另一个点或内部或外部的径向界限碰撞时,移动该点在相反的方向。
    4. 提示参与者跟踪蓝点(变化每实践试验1和2之间的点),其中所述黄点充当干扰项。
    5. 2秒后,更改蓝点黄点,继续移动它们之间原有的黄色小点再持续4秒。在每次试验结束时,停止点和突出的。
    6. 提示参与者通过按键响应高亮点是否被跟踪点或牵引点。接下来,促使参与者按下空格键,继续到下一个试验。
    7. 经过连续3次正确的试验,或最多6个试验,莫已经参加到完整的任务。
  2. 启动全MOT任务的参与者。 :任务的例子可以在这里找到http://brainandlearning.org/jove/MOT
    1. 设置有16个点,在5℃/秒的移动2°偏心和10°之间的偏心空间内的完整的任务。如果参与者的屏幕不能容纳的10°的偏心圆,使用屏幕可含有代替的最大大小。
    2. 有参与者完成共45项试验:5试验由1跟踪点和10次试验的每个由2的混合物 - 5跟踪点。匹配所有其它参数的做法试验(参见3.1.3步骤- 3.1.6)。
    3. 记录参与者的反应和响应时间,一旦点被突出显示。
    4. 对于每一个15项试验,提出一个休息的参与者。在这些休息时间,显示参与者7;性能(正确试验百分比)屏幕上的块内。

4.从一个任务移动到另一个(可选步骤)

  1. 让参与者采取两个任务之间的休息时间。然而,重复步骤1和2,如果任务相同的登录会话期间没有完成。

中查看任务(UFOV)5有用的现场 - 图3

  1. 引进并通过自导教程UFOV刺激,在看到熟悉的参与者: http://brainandlearning.org/jove/UFOV/practice.php 。要求参与者要经过4个阶段的一步一步的指示,展示必须在任务期间将出席这两个目标刺激。
    1. 设置在中央靶刺激为1°笑脸该闪烁在屏幕与任一长或短发的中心。随机的整个试验笑脸的头发长度。
    2. 设置外围靶刺激为1°恒星闪烁在4°的偏心处的绕圆8的位置(0°,45°,90°,135°,180°,225°,270°和315°)1 。随机试验各地的明星的位置。
    3. 控制刺激时间,通过用于显示时间的帧数。通过使用HTML5 requestAnimationFrame API以优化每帧约17毫秒的帧刷新。
    4. 要检查是否预期的呈现时间达到了,使用JavaScript的的getTime()方法来获得基于参与者的系统时钟的刺激时间的开始时间和结束时间。从这两个值计算所测量的显现时间,并使用该值进行数据分析。
    5. 对于每一个实践试验,等待500毫秒显示刺激约200毫秒(约12帧)之前。
    6. 按照预先的刺激sentation一个随机生成的灰度点阵为320毫秒(约19帧)组成的噪音屏蔽。
    7. 对于第一阶段,只显示核心目标,然后提示参与者通过其头发长度显示按键回应。
    8. 对于阶段2中,仅显示该外设目标,然后提示参与者点击1 8的径向线,代表8个可能的目标位置,以指示该星出现。
    9. 对于第3阶段,显示中央和外围目标的刺激,然后提示参与者提供响应笑脸的的类型和恒星的位置。
      注:学员可自由选择这两种反应的顺序。
    10. 对于第4阶段中,显示除了外围干扰项既目标刺激,然后提示参与者两者目标刺激作出反应。为干扰项,显示1°广场呈现在剩余的7个城市,在4°偏心,我ñ除了8个平方,在2°偏心。
    11. 参与者的响应后,显示参与者的反馈(绿色的对勾的正确答案或红十字会不正确的答案)每次试验后,各项指标反应。
    12. 将参与到下一阶段的实践中获得3个连续正确试验后。第4阶段后,将参加到全任务。
  2. 提示参与者开始全面UFOV任务。 :任务的例子可以在这里找到http://brainandlearning.org/jove/UFOV
    1. 目前同中央的刺激作为练习(见步骤5.1.1)。显示外设目标在7°的偏心在前面提到的8个位置之一(见步骤5.1.2)。 24牵引方块也被显示在3℃偏心,5°偏心,其余7°偏心位置。
    2. 使用3向下,1-向上楼梯过程来确定所述刺激的呈现时间:后连续3次正确试验减少刺激的持续时间和每个误差试验之后增加。
    3. 前前3逆转楼梯,使用2帧(大约每33毫秒)的步长。经过3逆转,使用1帧的步长。不同1帧和每个审判99帧之间的刺激出现前的延迟,并保持噪音屏蔽持续时间在320毫秒(约19帧)。
      注:逆转是在该期间改变点或者从增大变为减小,或减少到增加。
    4. 结束任务时遇到的三个条件之一:楼梯的过程达到8逆转;参与者完成连续10次试验,在任一天花板的持续时间(99帧)或地板上的持续时间(1帧);或参与者达到最大值的72试验。
    5. 记录下参与者的ř反应的影响和响应时间为在中央的刺激和周边刺激。

结果

离群去除

共有1,779参与者完成了UFOV任务。这些中,32参与者UFOV的阈值是从平均大于3个标准差,这表明它们无法作为指示执行的任务。这样,从这些参与者UFOV数据来自最后的分析除去,留下总共1747参与者。

数据来自1746参与者的MOT任务获得。两个参与者意味着精度分数即低于平均值超过3个标准差,从而从这些参与者中的数据被从最后的MOT分析除去,留下总?...

讨论

在线数据采集的数超过标准实验室为基础的数据采集的优点。这些包括采样远远代表种群比典型的大学本科池在该领域中使用的潜力,并获得更大的样本大小在更短的时间比需要获得样本大小是一个数量级在实验室小的能力1-6( 例如,从1,700+参与者当前纸张收集到的数据点是在不到一周获得)。

所描述的方法在网上都能够复制从之前进行的实验为基础的研究?...

披露声明

This work was supported by the Swiss National Foundation (100014_140676), the National Science Foundation (1227168), and the National Eye Institute of the National Institutes of Health (P30EY001319).

致谢

The authors have nothing to disclose.

材料

NameCompanyCatalog NumberComments
Computer/tabletIt must have an internet connection and an HTML5 compatible browser
CD or credit cardMay not be needed if participant already knows the monitor size

参考文献

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

转载和许可

请求许可使用此 JoVE 文章的文本或图形

请求许可

探索更多文章

96

This article has been published

Video Coming Soon

JoVE Logo

政策

使用条款

隐私

科研

教育

关于 JoVE

版权所属 © 2025 MyJoVE 公司版权所有,本公司不涉及任何医疗业务和医疗服务。