Trata-se de um método eficiente para coletar e analisar julgamentos de similaridade, e não assume nada sobre as propriedades geométricas dos sujeitos subjacentes às representações mentais. As principais vantagens do método são sua flexibilidade e minimização de suposições sobre a natureza da representação perceptiva. Os tipos de estímulos e a complexidade dos ensaios podem ser variados, e uma ampla gama de modelos geométricos podem ser adequados aos dados.
Esse método pode ser útil para pesquisadores interessados em caracterizar as representações mentais de aspectos de baixo e alto nível dos estímulos visuais. Selecione um experimento para executar. Navegue até o experimento da palavra clicando em semelhanças, depois experimentos, depois word_exp, ou ao experimento de imagem clicando em semelhanças, depois experimentos, e image_exp.
Finalize os estímulos experimentais. Se a palavra experiência está sendo executada, prepare uma lista de palavras. E para o experimento de imagem, faça um novo diretório e coloque todas as imagens de estímulo nele.
No diretório de experimentos, encontre o arquivo de configuração chamado config. yaml clicando similaridades, em seguida, experimentos, e, em seguida, config.yaml. Abra o arquivo em um editor de código-fonte e atualize o valor da variável arquivo para o caminho para o diretório contendo o conjunto de estímulos.
É aqui que o PsychoPy procurará os estímulos de imagem. Crie configurações de teste abrindo o config. arquivo yaml no diretório de análise, em seguida, definir o valor do parâmetro path_2_stimulus_list para o caminho para estímulos.txt.
A partir do diretório de semelhanças, execute o script executando os comandos exibidos na janela um após o outro. Isso cria um arquivo chamado trial_conditions. csv em semelhanças em que cada linha contém os nomes dos estímulos que aparecem em um ensaio junto com suas posições.
Quebre o conjunto completo de 222 ensaios gerados em sessões e randomize a ordem de julgamento executando os comandos exibidos na janela. No design típico, as sessões compreendem 111 ensaios, cada um deles requer aproximadamente uma hora para serem executados. Quando solicitado, digite os parâmetros de entrada exibidos.
Renomeie e salve cada um dos arquivos gerados como condições. csv em seu próprio diretório. Copie as condições.
arquivo csv e cole-o no diretório atual contendo o arquivo psyexp. Abra o PsychoPy e abra o arquivo psyexp ou py no diretório de experimentos relevante. Em PsychoPy, clique no botão de reprodução verde para executar o experimento.
No pop-up modal, digite o nome do assunto ou ID e número da sessão e clique em OK para iniciar. As instruções serão exibidas no início de cada sessão. Permita que o sujeito complete a tarefa cerca de uma hora e, como a tarefa é auto-acelerada, incentive os sujeitos a fazer pausas, se necessário.
Depois que todas as sessões forem concluídas, combine os arquivos de dados brutos e reforme-os em um único arquivo JSON para processamento posterior, executando o pré-processo. py no terminal usando os comandos visíveis na tela. Quando solicitado, insira os parâmetros de entrada solicitados, incluindo o caminho para o diretório de dados do assunto, os IDs do assunto para pré-processar os dados e o nome do experimento usado para nomear o arquivo de saída e pressione Enter.
Isso criará um arquivo JSON no diretório de saída que combina respostas entre repetições para cada teste. Para determinar as probabilidades de escolha em pares a partir de julgamentos de ordem de classificação, vá para semelhanças, em seguida, análise e execução describe_data. py na linha de comando.
Quando solicitado, insira o caminho para submeter dados e a lista de sujeitos para executar a análise. Isso criará três tipos de parcelas. Gerar modelos euclidianos de baixa dimensão dos espaços perceptivos usando as probabilidades de escolha executando model_fitting.
py usando a linha de comando exibida na tela. Quando solicitado, forneça as entradas para o diretório para o assunto-dados/pré-processados, o número de estímulos, que serão 37 por padrão, o número de iterações, o diretório de saída e a quantidade de ruído gaussiano, que será de 0,18 por padrão. Visualize a probabilidade de registro dos modelos obtidos e avalie seu ajuste executando semelhanças, análises model_fitting_figure.py.
Quando solicitado, insira o caminho necessário para os arquivos CSV contendo probabilidades de log. Visualize os espaços perceptivos para cada sujeito e gere parcelas de dispersão mostrando os pontos do modelo 5D projetados nos dois primeiros componentes-princípio executando os comandos exibidos. Quando solicitado, insira os parâmetros de entrada e o caminho para o arquivo NPY contendo os pontos 5D.
Depois que o script for executado, saia do ambiente virtual. No arquivo gerado para o experimento da palavra, a primeira linha corresponde a um ensaio no qual oito estímulos aparecem em torno do macaco de estímulo de referência. Os julgamentos de classificação foram decompostos em escolhas par-wise.
A distribuição das probabilidades de escolha foi altamente consistente entre os sujeitos. O agrupamento de dados perto da diagonal em cada painel indica uma grande consistência nas probabilidades de escolha entre os sujeitos e para os julgamentos que não estão nos extremos. A diagonal dominante indica que as probabilidades de escolha nos dois contextos, incluindo as probabilidades de escolha intermediária entre zero e um, são próximas de idênticas para cada sujeito.
As probabilidades de log são mostradas em relação à probabilidade de log do melhor modelo, que é um modelo que atribui a probabilidade de escolha observada a cada comparação sem restringir essas probabilidades por qualquer consideração geométrica. A análise dos componentes de princípio foi realizada nos pontos do modelo 5D do espaço perceptivo onde os animais percebidos como semelhantes foram denotados por pontos próximos uns aos outros. É crucial decidir sobre todos os parâmetros ao projetar um experimento e defini-los nos arquivos de config antes de iniciar o segundo passo.
Manter o controle cuidadoso dos dados de cada sujeito também é muito importante. O método fornece um grande número de julgamentos de similaridade, de modo que uma série de análises poderiam ser aplicadas, como análise de cluster, foco no contexto ou modelagem com diferentes espaços geométricos.