JoVE Logo

Iniciar sesión

Se requiere una suscripción a JoVE para ver este contenido. Inicie sesión o comience su prueba gratuita.

En este artículo

  • Resumen
  • Resumen
  • Introducción
  • Protocolo
  • Resultados
  • Discusión
  • Divulgaciones
  • Agradecimientos
  • Materiales
  • Referencias
  • Reimpresiones y Permisos

Resumen

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Resumen

Métodos de recolección de datos en línea tienen un atractivo especial para los científicos del comportamiento, ya que ofrecen la promesa de mucho más grande y muestras mucho más datos representativos que normalmente se pueden recoger en los campus universitarios. Sin embargo, antes de que tales métodos pueden ser ampliamente adoptadas, una serie de desafíos tecnológicos debe ser superado - en particular, en experimentos en los que es necesario un estricto control sobre las propiedades de estímulo. Aquí presentamos los métodos de recogida de datos de rendimiento en dos pruebas de la atención visual. Ambas pruebas requieren control sobre el ángulo visual de los estímulos (que a su vez requiere el conocimiento de la distancia de visualización, el tamaño del monitor, resolución de pantalla, etc.) y el momento de los estímulos (como las pruebas involucran ya sea brevemente brilló estímulos o estímulos que mueven a tipos específicos). Los datos recogidos en estas pruebas de más de 1.700 participantes en línea fueron consistentes con los datos recogidos en las versiones basadas en el laboratorio de las mismas pruebas exactas. Estos resultadossugieren que con el cuidado adecuado, las tareas dependientes del tamaño de temporización / estímulo se pueden implementar en los entornos basados ​​en la web.

Introducción

En los últimos cinco años ha habido un aumento del interés en el uso de métodos de recolección de datos en línea de comportamiento. Si bien la gran mayoría de las publicaciones en el dominio de la psicología han utilizado poblaciones sujetas potencialmente no representativos 1 (es decir, principalmente estudiantes universitarios) y con frecuencia razonablemente pequeños tamaños de muestra, así (es decir, por lo general en el rango de decenas de sujetos), métodos en línea ofrecer la promesa de mucho más diversas y más grandes muestras. Por ejemplo, el servicio Mechanical Turk de Amazon ha sido objeto de una serie de estudios recientes, tanto en la descripción de las características de la población "trabajador" y el uso de esta población en la investigación del comportamiento 2-6.

Sin embargo, una preocupación importante relacionada con tales métodos es la relativa falta de control sobre las variables críticas de estímulo. Por ejemplo, en la mayoría de tareas psicofísica visual, los estímulos se describen en términos deángulo visual. El cálculo de ángulos visuales requiere mediciones precisas de distancia de visión, tamaño de pantalla y resolución de la pantalla. Aunque estos parámetros son triviales para medir y controlar en un laboratorio (donde hay un monitor conocido y participantes ven estímulos, mientras que en una mentonera colocado una distancia conocida del monitor), lo mismo no puede decirse de la recopilación de datos en línea. En un entorno en línea, no sólo los participantes inevitablemente utilizar una amplia variedad de monitores de diferentes tamaños con diferentes configuraciones de software, sino que también pueden no tener fácil acceso a los gobernantes / cintas métricas que les permita determinar su tamaño del monitor o tener los conocimientos necesarios para determinar sus ajustes de software y hardware (por ejemplo, frecuencia de actualización, resolución).

Aquí se describe un conjunto de métodos para recopilar datos sobre dos pruebas conocidas de la atención visual - el campo de visión útil (CVU) paradigma 7 y el objeto múltiple seguimiento (MOT) tarea 8 - evitando al mismo tiempo tanto como sea posible las fuentes de variabilidad que son inherentes en las mediciones en línea. Estas tareas se pueden ejecutar por cualquier participante con una conexión a Internet y un navegador compatible con HTML5. Los participantes que no conocen su tamaño de pantalla se camina a través de un proceso de medición que utiliza elementos comúnmente disponibles de tamaño estándar (es decir, tarjeta de crédito / CD - ver Figura 1).

Los datos sobre estos dos tareas fueron recogidos de más de 1.700 participantes en un curso abierto masivo en línea. Rendimiento medio de esta muestra en línea fue muy consistente con los resultados obtenidos en las medidas basadas en el laboratorio estrictamente controladas de las mismas tareas exactas 9,10. Nuestros resultados son por lo tanto compatible con el creciente cuerpo de literatura que demuestra la eficacia de los métodos de recolección de datos en línea, incluso en tareas que requieren un control específico sobre las condiciones de visión.

Protocolo

El protocolo fue aprobado por la junta de revisión institucional de la Universidad de Wisconsin-Madison. Los siguientes pasos se han escrito como una guía para los programadores para replicar el proceso automatizado de la aplicación web se describe.

1. Entrar Participante

  1. Instruya a los participantes a utilizar una computadora conectada a Internet y vaya a la aplicación web utilizando un navegador compatible con HTML5: http://brainandlearning.org/jove . Haga que el participante se sienta en una habitación tranquila libre de distracciones, con el ordenador a una altura cómoda.
    NOTA: Dado que todo el experimento se encuentra alojado en línea, las tareas también se pueden realizar de forma remota sin la presencia de un asistente de investigación. Todas las instrucciones para que el participante se incluyen en la aplicación web.
  2. Tener la entrada participante un identificador único que se asocia con los datos recogidos y almacenados en un databas MySQLe. Haga que el participante reutilizar este ID si las tareas en línea no se completan dentro de la misma sesión. Antes de iniciar la sesión, obtener el consentimiento del participante a través de un formulario de consentimiento vinculada de la página.
    NOTA: se guarda el progreso de un participante después de cada tarea con el fin de permitir la realización de las tareas a 2 veces por separado si es necesario. Instruya a los participantes a utilizar siempre el mismo ID con el fin de empezar donde uno dejó.

Calibración 2. Pantalla

NOTA: La aplicación web guía al participante a través de los tres pasos que se indican en la página de calibración en: http://brainandlearning.org/jove/Calibration .

  1. Pida al participante para introducir el tamaño diagonal de la pantalla en pulgadas en el cuadro de texto etiquetado.
    1. Sin embargo, si el participante no conoce esta información, tiene el participante encuentra un CD o tarjeta de crédito como un objeto de calibración ( Figura 1). Cuando se selecciona uno, solicitará al participante para colocar el objeto contra la pantalla y alinearlo con una imagen representativa del objeto que se muestra en la pantalla.
    2. Preguntar al participante para ajustar el tamaño de la imagen de la pantalla para que coincida con el tamaño del objeto físico. Basándose en las mediciones de un CD físico (diámetro de 4,7 ") o una tarjeta de crédito (anchura de 3,2"), además de el tamaño de píxel de la imagen representativa, determinar la relación de píxeles a pulgadas de la pantalla.
    3. Recuperar la resolución de píxeles de la pantalla a través de Screen.Width y Screen.Height propiedades de JavaScript a continuación, calcular el tamaño diagonal de la pantalla en píxeles. Conociendo este valor y la relación estimada previamente de píxel a pulgadas (consulte el paso 2.1.2), convertir el tamaño diagonal de pulgadas. Haga que el participante confirmar este valor a través de un cuadro de diálogo.
  2. Preguntar al participante para ajustar la pantalla brighajustes de aptitud hasta los 12 bandas en un gradiente de blanco y negro a-aparecen en la pantalla son claramente distinguibles. Ajuste los controles de brillo varían según el equipo.
  3. Pídale al participante que se siente a un brazo de distancia de la pantalla en una posición cómoda y ajuste la ventana del navegador en modo de pantalla completa. La ventana del navegador debe estar en modo de pantalla completa para maximizar el espacio visual utilizado por las tareas y para eliminar las distracciones visuales, como la barra de herramientas del navegador y barras de tareas de escritorio.
  4. Conocer la resolución de la pantalla del participante y el tamaño diagonal de la pantalla, use la aplicación web para calcular automáticamente el valor de conversión píxeles / grado, en base a una distancia de visión de 50 cm. Cambiar el tamaño de las dimensiones de los estímulos en las tareas utilizando este valor. Todas las medidas de ángulos visuales se presentan a continuación se basan en este asumieron media distancia del monitor.
  5. Una vez completada la calibración, pida al participante para completar la describ dos tareased a continuación. Elija el orden de las tareas o asignar aleatoriamente el orden a través de la aplicación web.

3. Objeto Múltiple Supervisión de tareas (MOT) - Figura 2

  1. Introducir y familiarizar al participante con los estímulos de ITV a través de un tutorial autoguiado, vistos en: http://brainandlearning.org/jove/MOT/practice.php . Pida al participante que lea las instrucciones paso a paso que muestran cómo funcionan los ensayos. Una vez que el participante termina de leer las instrucciones, solicitará al participante que ir a través de los ensayos de práctica.
    1. Configuración de los estímulos a la práctica consisten en 8 puntos a 0,8 ° con una velocidad de desplazamiento de 2 ° / seg. Utilice el HTML5 requestAnimationFrame API para optimizar la animación navegador a una velocidad de 60 Hz con el fin de controlar este movimiento estímulo.
    2. Asegúrese de que los puntos se mueven dentro de los límites de un círculo de 2 ° excentricidad y una circle no mayor que la altura de la pantalla del participante, sin las instrucciones oscurecidas.
    3. Establecer los puntos para moverse en una trayectoria aleatoria, donde en cada marco de un punto tiene una probabilidad del 60% de cambio de dirección por un ángulo máximo de 0,2 °. Si un punto choca con otro punto o los límites radiales interiores o exteriores, mover el punto en la dirección opuesta.
    4. Preguntar a los participantes a realizar un seguimiento de los puntos azules (que varía entre 1 y 2 puntos por prueba práctica), con los puntos amarillos actuar como distractores.
    5. Después de 2 segundos, cambiar los puntos azules a puntos amarillos y continuar para moverlos entre los puntos amarillos originales para otro 4 seg. Al final de cada ensayo, deje los puntos y resaltar uno.
    6. Preguntar a los participantes a responder a través de pulsar la tecla si el punto destacado fue un punto orugas o un punto distractor. A continuación, pedirá al participante que pulsar la barra espaciadora para continuar a la siguiente prueba.
    7. Después de 3 intentos consecutivos correctos, o un máximo de 6 ensayos, move el participante en la tarea completa.
  2. Iniciar la tarea MOT completo para el participante. Un ejemplo de la tarea se puede encontrar en: http://brainandlearning.org/jove/MOT .
    1. Configuración de la tarea completa con 16 puntos que se mueven a 5 ° / seg dentro del espacio entre 2 ° y 10 ° excentricidad excentricidad. Si la pantalla del participante no puede ajustarse a un círculo de 10 ° excentricidad, usar el tamaño máximo de la pantalla puede contener en su lugar.
    2. Haga que el participante que complete un total de 45 pruebas: una mezcla de 5 ensayos, con 1 punto seguido y 10 ensayos cada uno formado por 2-5 rastreado puntos. Coincidir con todos los otros parámetros a los ensayos de práctica (véanse los pasos 3.1.3 - 3.1.6).
    3. Registre la respuesta y el tiempo de respuesta del participante una vez que se puso de relieve el punto.
    4. Por cada 15 ensayos, sugerir un descanso para el participante. En estos descansos, visualice el participante7; s rendimiento (ciento de los ensayos correctos) dentro del bloque en la pantalla.

4. Pasar de una tarea a otra (Paso opcional)

  1. Permita que el participante para tomar un descanso entre las dos tareas. Sin embargo, repita los pasos 1 y 2 si las tareas no se completan durante la misma sesión de inicio de sesión.

5. El campo de visión útil de tareas (CVU) - Figura 3

  1. Introducir y familiarizar al participante con los estímulos UFOV través de un tutorial autoguiado, vistos en: http://brainandlearning.org/jove/UFOV/practice.php . Pida al participante que pasar por 4 etapas de instrucciones paso a paso que demuestran los dos estímulos objetivo que deben ser atendidos durante la tarea.
    1. Ajuste el estímulo objetivo central, como un emoticono 1 ° que parpadea en el centro de la pantalla, ya sea con el pelo largo o corto. Selección aleatoria de lala longitud del cabello de smiley entre los ensayos.
    2. Ajuste el objetivo estímulo periférico como 1 ° estrella que destella a 4 ° excentricidad en una de las 8 localidades de todo el círculo (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 ° y 315 °) . Selección aleatoria de la ubicación de la estrella entre los ensayos.
    3. Control de estímulos duración a través del número de fotogramas utilizados para tiempo de presentación. Optimizar actualización del fotograma en alrededor de 17 ms por fotograma utilizando la API de HTML5 requestAnimationFrame.
    4. Para comprobar si se alcanzó el tiempo de presentación prevista, utilizar el método getTime de JavaScript () para obtener la hora de inicio y de finalización de la duración del estímulo basado en el reloj del sistema del participante. Calcular el tiempo de presentación medido a partir de estos dos valores y utilizar este valor para el análisis de datos.
    5. Para cada ensayo práctica, espere 500 milisegundos antes de mostrar los estímulos durante aproximadamente 200 milisegundos (unos 12 frames).
    6. Siga estímulo presentación con una máscara de ruido compuesto por una serie de puntos en escala de grises generadas aleatoriamente para 320 ms (aproximadamente 19 fotogramas).
    7. Para la etapa 1, sólo visualizar el objetivo central y luego solicitar al participante para responder a través de pulsación de tecla que se muestra la longitud del cabello.
    8. Para la etapa 2, sólo visualizar el objetivo periférica y luego pedir al participante que hacer clic en una de las 8 líneas radiales, en representación de los 8 posibles ubicaciones de destino, para indicar dónde apareció la estrella.
    9. Para la etapa 3, mostrar ambos estímulos objetivo central y periférico y luego solicitar al participante para proporcionar respuestas a tanto el tipo de smiley y la ubicación de la estrella.
      NOTA: Los participantes pueden elegir libremente el orden de estas dos respuestas.
    10. Para la etapa 4, mostrar ambos estímulos objetivo, además de distractores periféricos y, a continuación, pedirá al participante para responder a los estímulos objetivo. Para los distractores, visualización 1 ° plazas presentados en los 7 lugares restantes a 4 ° excentricidad, iA demás de 8 plazas más en el 2 ° excentricidad.
    11. Después de la respuesta del participante, mostrar la retroalimentación de los participantes (una marca de verificación verde para una respuesta correcta o una cruz roja para una respuesta incorrecta) para cada respuesta del objetivo después de cada ensayo.
    12. Mueva el participante en el escenario práctica siguiente después de conseguir 3 ensayos consecutivos correctos. Después de la etapa 4, mueva el participante en la tarea completa.
  2. Preguntar al participante para iniciar la tarea completa CVU. Un ejemplo de la tarea se puede encontrar en: http://brainandlearning.org/jove/UFOV .
    1. Presentar el mismo estímulo central como en la sesión de práctica (véase el paso 5.1.1). Visualizar el periférico objetivo a 7 ° excentricidad en uno de los mencionados anteriormente 8 ubicaciones (consulte el paso 5.1.2). 24 plazas distractores también se muestran en el 3 ° excentricidad, 5 ° excentricidad, y los restantes 7 °ubicaciones de excentricidad.
    2. Utilice un 3-down, procedimiento 1-up escalera para determinar el tiempo de presentación de los estímulos: disminuir la duración de los estímulos después de 3 ensayos consecutivos correctos y aumentar después de cada ensayo error.
    3. Antes de los 3 primeros reveses en la escalera, use un tamaño de paso de 2 marcos (aproximadamente cada 33 ms). Después de 3 reveses, utilice un tamaño de paso de 1 fotograma. Varíe el retraso antes de la aparición de estímulo entre 1 marco y 99 fotogramas por juicio y mantener la duración de la máscara de ruido en 320 milisegundos (unos 19 frames).
      NOTA: Los retrocesos son los puntos en los que la duración cambia ya sea de creciente a decreciente, o decreciente a creciente.
    4. Poner fin a la tarea cuando se cumple una de tres condiciones: el procedimiento escalera alcanza 8 reveses; el participante completa 10 ensayos consecutivos, ya sea en la duración de techo (99 cuadros) o la duración piso (1 cuadro); o el participante alcanza un máximo de 72 ensayos.
    5. Registre r del participanteESPUESTA y tiempo de respuesta tanto para el estímulo central y el estímulo periférico.

Resultados

Eliminación de las demás

Un total de 1.779 participantes completaron la tarea CVU. De ellos, 32 participantes tuvieron umbrales UFOV que eran más de 3 desviaciones estándar de la media, lo que sugiere que no fueron capaces de realizar la tarea con las instrucciones. Como tal, los datos UFOV de estos participantes se retiraron del análisis final, dejando un total de 1.747 participantes.

Los datos fueron obtenidos a partir de 1.746 participantes para la tarea MOT...

Discusión

La recolección de datos en línea tiene una serie de ventajas con respecto a la recopilación de datos basada en el laboratorio estándar. Estos incluyen la posibilidad de probar muchas más poblaciones representativas de la piscina de pregrado universitario típico utilizado en el campo, y la capacidad de obtener mucho mayores tamaños de muestras en menos tiempo de lo que se necesita para obtener tamaños de muestra que son un orden de magnitud menor en el laboratorio 1-6 (por ejemplo, los puntos ...

Divulgaciones

This work was supported by the Swiss National Foundation (100014_140676), the National Science Foundation (1227168), and the National Eye Institute of the National Institutes of Health (P30EY001319).

Agradecimientos

The authors have nothing to disclose.

Materiales

NameCompanyCatalog NumberComments
Computer/tabletIt must have an internet connection and an HTML5 compatible browser
CD or credit cardMay not be needed if participant already knows the monitor size

Referencias

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Reimpresiones y Permisos

Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos

Solicitar permiso

Explorar más artículos

ComportamientoN mero 96comportamientola atenci n visualla evaluaci n basada en la webla evaluaci n basada en computadorab squeda visualseguimiento de objetos m ltiples

This article has been published

Video Coming Soon

JoVE Logo

Privacidad

Condiciones de uso

Políticas

Investigación

Educación

ACERCA DE JoVE

Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados