JoVE Logo

Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

To replicate laboratory settings, online data collection methods for visual tasks require tight control over stimulus presentation. We outline methods for the use of a web application to collect performance data on two tests of visual attention.

Resumo

Métodos de coleta de dados on-line têm um apelo especial para os cientistas comportamentais, porque eles oferecem a promessa de muito maior e muito mais amostras de dados representativos do que normalmente podem ser coletadas nos campi universitários. No entanto, antes de tais métodos podem ser amplamente adoptada, um número de desafios tecnológicos deve ser superada - em particular, em experiências em que é necessário um controlo apertado sobre as propriedades de estímulo. Aqui apresentamos métodos para a recolha de dados de desempenho em dois testes de atenção visual. Ambos os testes exigem controle sobre o ângulo visual dos estímulos (que por sua vez exige o conhecimento da distância de visualização, o tamanho do monitor, resolução de tela, etc.) e que o calendário dos estímulos (como os testes envolvem tanto brevemente brilhou estímulos ou estímulos que se movem a taxas específicas). Os dados coletados nesses testes em mais de 1.700 participantes on-line foram consistentes com dados coletados em versões com base em laboratório dos mesmos testes exatos. Estes resultadossugerem que, com os devidos cuidados, as tarefas dependentes do tamanho de temporização / estímulo pode ser implantado em configurações baseadas na web.

Introdução

Nos últimos cinco anos, tem havido uma onda de interesse no uso de métodos de coleta de dados comportamentais on-line. Embora a grande maioria das publicações no domínio da psicologia têm utilizado populações sujeitas potencialmente não-representativos 1 (ie, principalmente estudantes universitários) e muitas vezes razoavelmente pequeno tamanho das amostras, bem (ou seja, tipicamente na faixa de dezenas de indivíduos), métodos on-line oferecem a promessa de muito mais diversificadas e maiores amostras. Por exemplo, o serviço Mechanical Turk da Amazon tem sido objecto de um número de estudos recentes, tanto descrever as características da população "trabalhador" e a utilização dessa população em estudos de comportamento 2-6.

No entanto, uma preocupação significativa em relação a esses métodos é a relativa falta de controle sobre as variáveis ​​de estímulo críticos. Por exemplo, na maioria das tarefas visuais psychophysics, estímulos são descritos em termos deângulo visual. O cálculo dos ângulos visuais requer medidas precisas de distância de visualização, tamanho da tela e resolução de tela. Embora estes parâmetros são triviais para medir e controlar num ambiente de laboratório (onde existe um monitor de participantes conhecido e visualizar estímulos enquanto em um resto queixo colocada a uma distância conhecida a partir do monitor), o mesmo não é verdadeiro para a recolha de dados on-line. Em um ambiente on-line, não só irá inevitavelmente participantes utilizam uma grande variedade de monitores de tamanhos diferentes, com diferentes configurações de software, eles também não podem ter acesso fácil aos governantes / fitas métricas que lhes permita determinar o seu tamanho do monitor ou ter o conhecimento necessário para determinar as suas configurações de hardware e software (por exemplo, taxa de atualização, resolução).

Aqui nós descrevemos um conjunto de métodos para a coleta de dados em dois testes bem conhecidos de atenção visual - o Campo de Visão Útil (UFOV) paradigma 7 eo objeto múltiplo rastreamento (MOT) tarefa 8 - enquanto evitando tanto quanto possível, as fontes de variabilidade que são inerentes nas medições em linha. Estas tarefas podem ser executados por qualquer participante com uma conexão à internet e um navegador compatível com HTML5. Os participantes que não conhecem o seu tamanho de tela são atravessou um processo de medição utilizando itens comumente disponíveis de tamanho padrão (ou seja, cartão de crédito / CD - veja a Figura 1).

Os dados sobre estas duas tarefas foram coletados de mais de 1.700 participantes de um massivo online Open Course. O desempenho médio da amostra online foi altamente consistentes com os resultados obtidos em medidas em laboratório rigidamente controladas de exatamente as mesmas tarefas 9,10. Nossos resultados são, portanto, consistentes com o crescente corpo de literatura demonstrando a eficácia dos métodos de coleta de dados on-line, mesmo em tarefas que requerem controle específico sobre condições de visualização.

Protocolo

O protocolo foi aprovado pelo Comitê de Ética da Universidade de Wisconsin-Madison. Os passos seguintes foram escritos como um guia para programadores para replicar o processo automatizado de aplicação web descrito.

1. Faça login Participante

  1. Instrua o participante a usar um computador com acesso à internet e navegar para a aplicação web usando um navegador compatível com HTML5: http://brainandlearning.org/jove . Já o participante se sentar em uma sala silenciosa livre de distrações, com o computador a uma altura confortável.
    NOTA: Uma vez que todo o experimento está hospedado on-line, as tarefas também podem ser executadas remotamente sem a presença de um assistente de pesquisa. Todas as instruções para o participante estão incluídos na aplicação web.
  2. Já a entrada participante uma identificação única que será associada com os dados coletados e armazenados em um MySQL database. Já o participante reutilizar esse ID se as tarefas on-line não são concluídos dentro da mesma sessão. Antes de iniciar a sessão, obter o consentimento do participante através de um formulário de consentimento ligado na página.
    NOTA: o progresso de um participante é salvo depois de cada tarefa, a fim de permitir a conclusão das duas tarefas em horários separados, se necessário. Instrua o participante a usar sempre o mesmo ID, a fim de começar de onde saiu fora.

Calibração 2. Tela

Nota: O aplicativo web orienta o participante através das três etapas descritas na página de calibração em: http://brainandlearning.org/jove/Calibration .

  1. Pergunte ao participante para introduzir o tamanho diagonal da tela em polegadas no campo de texto.
    1. No entanto, se o participante não sabe esta informação, tem o participante encontrar um CD ou cartão de crédito como um objeto de calibração ( Figura 1). Quando for seleccionado, solicitar ao participante para colocar o objecto contra a tela e alinhá-lo com uma imagem representativa do objecto apresentado no ecrã.
    2. Solicita que o participante para ajustar o tamanho da imagem na tela para combinar com o tamanho do objeto físico. Com base nas medições de um CD físico (diâmetro de 4,7 ") ou um cartão de crédito (largura de 3,2"), para além do tamanho do pixel de uma imagem representativa, determinar o índice de pixels para polegadas para o ecrã.
    3. Recuperar a resolução de pixels do monitor via Screen.Width e Screen.Height propriedades do JavaScript para, em seguida, calcular o tamanho da diagonal da tela em pixels. Sabendo esse valor eo rácio estimado anteriormente pixel-a-inch (veja o passo 2.1.2), converter o tamanho diagonal em polegadas. Já o participante confirmar este valor através de uma caixa de diálogo.
  2. Solicita que o participante para ajustar o brigh telaconfigurações forma física até que todos os 12 bandas em um gradiente de preto para branco exibidos na tela são claramente distinguíveis. Controles de configuração de brilho variam por computador.
  3. Pergunte ao participante para se sentar a um braço de distância do monitor em uma posição confortável e, em seguida, definir a janela do navegador para o modo de tela cheia. A janela do navegador deve estar no modo de tela cheia para maximizar o espaço visual utilizado pelas tarefas e remover todos os distrações visuais, como a barra de ferramentas do navegador e barras de tarefas do desktop.
  4. Sabendo da resolução da tela do participante e do tamanho diagonal do monitor, use o aplicativo web para calcular automaticamente o valor de conversão pixels / grau, com base em uma distância de visualização 50 cm. Redimensionar as dimensões dos estímulos nas tarefas que utilizam este valor. Todas as dimensões ângulo visual relatados abaixo são baseados nesta assumido valor médio distância do monitor.
  5. Após concluir a calibração, peça ao participante para completar o describ duas tarefased abaixo. Escolha a ordem das tarefas ou atribuir aleatoriamente a ordem através da aplicação web.

3. Multiple objeto de acompanhamento de tarefas (MOT) - Figura 2

  1. Apresentar e familiarizar o participante com os estímulos MOT através de um tutorial auto-guiada, vistos em: http://brainandlearning.org/jove/MOT/practice.php . Pergunte ao participante para ler as instruções passo-a-passo que demonstram como os ensaios vai funcionar. Uma vez que o participante terminar de ler as instruções, solicitar ao participante que passar pelas provas práticas.
    1. Configure os estímulos prática consistir de 8 pontos em 0.8 ° com uma velocidade de movimento do 2 ° / seg. Use o HTML5 requestAnimationFrame API para otimizar animação navegador em um frame rate de 60 Hz, a fim de controlar este movimento de estímulo.
    2. Assegurar os pontos mover dentro dos limites de um círculo de 2 ° e uma excentricidade circle não maior do que a altura da tela do participante, sem as instruções obscurecidos.
    3. Defina os pontos para mover-se em uma trajetória aleatória, onde a cada quadro um ponto tem 60% de chance de mudar de direção por um ângulo máximo de 0,2 °. Se um ponto colide com outro ponto ou os limites radiais internos ou externos, mover o ponto na direcção oposta.
    4. Solicita que o participante para rastrear os pontos azuis (variando entre 1 e 2 pontos por julgamento prática), com os pontos amarelos na qualidade de distractors.
    5. Após 2 segundos, mudar os pontos azuis para pontos amarelos e continuar a movê-los entre os pontos amarelos originais para outra de 4 s. No final de cada julgamento, parar os pontos e destacar uma.
    6. Solicita que o participante para responder via imprensa chave se o ponto destacado foi um ponto monitorados ou um ponto distracção. Em seguida, levar o participante a pressionar a barra de espaço para continuar para o próximo julgamento.
    7. Depois de três julgamentos corretos consecutivos, ou um máximo de 6 ensaios, move o participante para a tarefa completa.
  2. Inicie a tarefa MOT cheio para o participante. Um exemplo da tarefa pode ser encontrado em: http://brainandlearning.org/jove/MOT .
    1. Configuração da tarefa cheia com 16 pontos que se movem a 5 ° / seg dentro do espaço entre 2 ° e 10 ° excentricidade excentricidade. Se a tela do participante não pode caber um círculo de 10 ° excentricidade, utilize o tamanho máximo da tela pode conter em seu lugar.
    2. Já o participante completar um total de 45 ensaios: uma mistura de 5 ensaios consistem de um ponto rastreados e 10 ensaios consistindo cada um de 2 - 5 rastreados pontos. Combinar todos os outros parâmetros para as provas práticas (ver passos 3.1.3 - 3.1.6).
    3. Grave resposta e tempo de resposta do participante uma vez que o ponto é destacado.
    4. Para cada 15 tentativas, sugerem uma pausa para o participante. Nesses intervalos, exibir o participante7; s performance (por cento dos julgamentos corretos) dentro do bloco na tela.

4. Mover-se de uma tarefa para outra (Etapa opcional)

  1. Permitir que o participante para fazer uma pausa entre as duas tarefas. No entanto, repita os passos 1 e 2 se as tarefas não são concluídas durante a mesma sessão de login.

5. O campo útil de Exibição de Tarefa (UFOV) - Figura 3

  1. Apresentar e familiarizar o participante com os estímulos UFOV através de um tutorial auto-guiada, vistos em: http://brainandlearning.org/jove/UFOV/practice.php . Pergunte ao participante que passar por quatro fases de instruções passo-a-passo que demonstram os dois estímulos alvo que deve ser atendido durante a tarefa.
    1. Defina o estímulo alvo central como 1 ° do smiley que pisca no centro da tela com tanto cabelo longo ou curto. Randomize ocomprimento do cabelo do emoticon em todos os ensaios.
    2. Defina o estímulo alvo periférico como 1 ° estrela que pisca a 4 ° excentricidade em um dos oito locais ao redor do círculo (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 ° e 315 °) . Randomize a localização da estrela em todos os ensaios.
    3. Controle de estímulos duração através do número de quadros utilizados para o tempo de apresentação. Otimizar o quadro de atualização em cerca de 17 ms por quadro usando a API HTML5 requestAnimationFrame.
    4. Para verificar se foi atingido o tempo de apresentação esperado, use o método getTime de JavaScript () para obter o tempo de início e término da duração do estímulo com base no relógio do sistema do participante. Calcula-se o tempo de apresentação medido a partir destes dois valores e usa esse valor para análise de dados.
    5. Para cada ensaio prática, espere 500 ms antes de exibir os estímulos para cerca de 200 milissegundos (cerca de 12 quadros).
    6. Siga pré estímulotação com uma máscara de ruído composto por um conjunto de pontos em tons de cinza gerada aleatoriamente para 320 milissegundos (cerca de 19 quadros).
    7. Durante a fase 1, só mostra o alvo central e, em seguida, levar o participante a responder via imprensa chave que o comprimento do cabelo foi apresentado.
    8. Para a fase 2, apenas mostra o alvo periférico e, em seguida, levar o participante a clicar em um de 8 linhas radiais, representando os oito possíveis locais de destino, para indicar onde a estrela apareceu.
    9. Durante a fase 3, exibir ambos os estímulos alvo central e periférico e, em seguida, levar o participante a dar respostas tanto para o tipo de smiley e a localização da estrela.
      NOTA: Os participantes podem escolher livremente a ordem destas duas respostas.
    10. Durante a fase 4, exibir ambos os estímulos-alvo, além de distrações periféricas e, em seguida, solicitar que o participante para responder a ambos os estímulos alvo. Para os distractors, exibição 1 ° quadrados apresentados nas restantes 7 locais a 4 ° excentricidade, iAlém n para mais 8 praças a 2 ° excentricidade.
    11. Após a resposta do participante, mostrar o feedback dos participantes (a marca de seleção verde para uma resposta correta ou uma cruz vermelha para uma resposta errada) para cada resposta de destino após cada tentativa.
    12. Mova o participante para a próxima fase prática depois de receber três julgamentos corretos consecutivos. Após o estágio 4, mover o participante para a tarefa completa.
  2. Solicita que o participante para iniciar a tarefa completa UFOV. Um exemplo da tarefa pode ser encontrado em: http://brainandlearning.org/jove/UFOV .
    1. Apresentar o mesmo estímulo central, como na sessão de treinos (veja o passo 5.1.1). Mostrar a meta periférica a 7 ° excentricidade em um dos mencionados anteriormente 8 locais (veja o passo 5.1.2). 24 quadrados distrator também são mostradas na 3 ° excentricidade, 5 ° excentricidade, e os restantes 7 °localizações excentricidade.
    2. Usar um 3-down, 1-procedimento acima a escadaria para determinar o tempo de apresentação de estímulos: diminuir a duração dos estímulos após 3 ensaios consecutivos de correcção e um aumento após cada ensaio de erro.
    3. Antes das primeiras três reversões no escadaria, use um tamanho de passo de 2 quadros (aproximadamente a cada 33 ms). Após 3 reversões, use um tamanho de passo de um quadro. Varie o atraso antes do início do estímulo entre um quadro e 99 quadros por julgamento e manter a duração máscara de ruído a 320 milissegundos (cerca de 19 quadros).
      NOTA: As reversões são os pontos em que a duração de muda ou aumentando a diminuir, aumentando ou diminuindo a.
    4. Terminar a tarefa, quando um dos três condições: o procedimento escada atinge 8 reversões; o participante completa 10 tentativas consecutivas em qualquer duração de teto (99 quadros) ou a duração andar (1 frame); ou o participante atinge um máximo de 72 ensaios.
    5. Grave r do participanteesposta e tempo de resposta para ambos o estímulo central e o estímulo periférico.

Resultados

Remoção Outlier

Um total de 1779 participantes completaram a tarefa UFOV. Desses, 32 participantes apresentaram limiares UFOV que eram maiores que 3 desvios-padrão da média, sugerindo que eles não foram capazes de realizar a tarefa com as instruções. Como tal, os dados a partir desses participantes UFOV foram removidos a partir da análise final, deixando um total de 1747 participantes.

Os dados foram obtidos a partir de 1746 os participantes para a tarefa MO...

Discussão

Recolha de dados em linha tem um número de vantagens sobre a recolha de dados padrão baseado em laboratório. Estes incluem o potencial para provar populações muito mais representativos do que a piscina de graduação da faculdade típica utilizada no campo, e a capacidade de obter muito maiores tamanhos de amostra em menos tempo do que é preciso para obter o tamanho das amostras que são uma ordem de magnitude menor no laboratório 1-6 (por exemplo, os pontos de dados coletados de 1.700 partici...

Divulgações

This work was supported by the Swiss National Foundation (100014_140676), the National Science Foundation (1227168), and the National Eye Institute of the National Institutes of Health (P30EY001319).

Agradecimentos

The authors have nothing to disclose.

Materiais

NameCompanyCatalog NumberComments
Computer/tabletIt must have an internet connection and an HTML5 compatible browser
CD or credit cardMay not be needed if participant already knows the monitor size

Referências

  1. Henrich, J., Heine, S. J., Norenzayan, A. The weirdest people in the world. The Behavioral And Brain Sciences. 33, 61-135 (2010).
  2. Buhrmester, M., Kwang, T., Gosling, S. D. Amazon's Mechanical Turk: A new source of inexpensive, yet high-quality, data. Perspectives on Psychological Science. 6 (1), 3-5 (2011).
  3. Goodman, J. K., Cryder, C. E., Cheema, A. Data collection in a flat world: the strengths and weaknesses of mechanical turk samples. Journal of Behavioral Decision Making. 26 (3), 213-224 (2013).
  4. Mason, W., Suri, S. Conducting behavioral research on Amazon's Mechanical Turk. Behavior Research Methods. 44 (1), 1-23 (2012).
  5. Crump, M. J., McDonnell, J. V., Gureckis, T. M. Evaluating Amazon's Mechanical Turk as a tool for experimental behavioral research. PLoS One. 8, e57410 (1371).
  6. Lupyan, G. The difficulties of executing simple algorithms: why brains make mistakes computers don't. Cognition. 129, 615-636 (2013).
  7. Ball, K., Owsley, C. The useful field of view test: a new technique for evaluating age-related declines in visual function. J Am Optom Assoc. 64 (1), 71-79 (1993).
  8. Pylyshyn, Z. W., Storm, R. W. Tracking multiple independent targets: Evidence for a parallel tracking mechanism. Spatial Vision. 3 (3), 179-197 (1988).
  9. Dye, M. W. G., Bavelier, D. Differential development of visual attention skills in school-age children. Vision Research. 50 (4), 452-459 (2010).
  10. Green, C. S., Bavelier, D. Enumeration versus multiple object tracking: The case of action video game players. Cognition. 101 (1), 217-245 (2006).
  11. Chengalur, S. N., Rodgers, S. H., Bernard, T. E. Chapter 1. Kodak Company. Ergonomics Design Philosophy. Kodak’s Ergonomic Design for People at Work. , (2004).
  12. Elze, T., Bex, P. P1-7: Modern display technology in vision science: Assessment of OLED and LCD monitors for visual experiments. i-Perception. 3 (9), 621 (2012).
  13. Elze, T., Tanner, T. G. Temporal Properties of Liquid Crystal Displays: Implications for Vision Science Experiments. PLoS One. 7 (9), e44048 (2012).

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

ComportamentoEdi o 96Behavioraten o visualavalia o baseada na weba avalia o assistida por computadorbusca visualrastreamento de objetos m ltiplos

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados