JoVE Logo

Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

Este artigo descreve como implementar uma bateria de tarefas comportamentais para examinar reconhecimento de emoções de emoção expressões faciais e vocais isoladas, e uma nova tarefa usando televisão e cinema clipes comerciais para avaliar multimodal reconhecimento de emoções que inclui pistas contextuais.

Resumo

O presente estudo apresentou 60 pessoas com traumatismo crânio-encefálico (TCE) e 60 controles com emoção expressões faciais isolados, emoção expressões vocais isolados, e multimodal (ie., Clipes de filmes) estímulos que incluíram pistas contextuais. Todos os estímulos foram apresentados via computador. Os participantes foram obrigados a indicar a forma como a pessoa em cada estímulo estava sentindo usando um formato de escolha forçada. Além disso, para os clipes de filmes, os participantes tiveram de indicar como se sentiam em resposta ao estímulo, e o nível de intensidade com que eles experimentaram essa emoção.

Introdução

Traumatismo crânio-encefálico (TCE) afeta aproximadamente 10 milhões de pessoas a cada ano em todo o mundo 1. Seguindo o TCE, a capacidade de reconhecer emoções em outras pessoas usando sinais não-verbais, tais como expressões faciais e vocais (ie., Tom de voz) e as pistas contextuais, é muitas vezes comprometida significativamente 2-7. Desde interações interpessoais de sucesso e relacionamentos de qualidade são, pelo menos parcialmente dependente interpretação precisa das emoções dos outros 7-10, não é surpreendente que a dificuldade com reconhecimento de emoções tem sido relatada a contribuir para os pobres resultados sociais comumente relatados seguinte TBI 3,8, 11,12.

Estudos investigando reconhecimento de emoções por pessoas com TCE tendem a se concentrar em pistas isoladas, particularmente reconhecimento de expressões faciais de emoção usando fotografias estáticas 2. Embora este trabalho foi importante para informar o desenvolvimento de pro tratamentogramas, ele não representa adequadamente a capacidade de reconhecer e interpretar sinais não-verbais da emoção nas interações diárias. Não somente imagens estáticas dar tempo para interpretar a emoção retratada aumento, eles também normalmente só retratam o ápice (ie., A representação máxima) das expressões 13-16. Além disso, as imagens estáticas não têm as pistas temporais que ocorrem com o movimento 12,13,15, e não são representativos dos mudando rapidamente expressões faciais de emoção encontrados em situações cotidianas. Além disso, não há evidências que indicam que expressões visuais estáticas e dinâmicas são processados ​​em diferentes áreas do cérebro, com respostas mais precisas a estímulos dinâmica 17-24.

Vocal emoção reconhecimento por pessoas com TCE também foi estudado, com e sem conteúdo verbal significativa. Tem sido sugerido que a presença de conteúdo verbal aumenta exigências perceptuais porque inte precisasrpretation requer o processamento simultâneo de o tom não verbal de voz com o conteúdo semântico incluído na mensagem verbal 25. Enquanto muitos estudos têm mostrado um melhor reconhecimento de voz afeta na ausência de conteúdo verbal significativa, Dimoska et al. 25 não encontraram nenhuma diferença no desempenho. Eles argumentam que as pessoas com TCE tem um viés em direção conteúdo semântico em frases afetivos; assim mesmo quando o conteúdo é semanticamente neutro ou eliminado, eles continuam a concentrar-se na informação verbal na sentença. Assim, os seus resultados não mostram claramente se o conteúdo verbal significativa ajuda ou atrapalha vocal emoção expressão.

Além do conteúdo verbal significativa que pode acompanhar os sinais vocais não-verbais, o contexto também é fornecido através da própria situação social. contexto situacional fornece informações básicas sobre as circunstâncias em que a expressão emoção foi produzido e pode, assim, muito emfluência a interpretação da expressão. Ao avaliar como alguém está sentindo, usamos contexto para determinar se a situação é consistente com desejos e expectativas dessa pessoa. Esta última análise, afeta o modo como alguém se sente, por isso o conhecimento do contexto situacional deve resultar em inferência mais precisa da emoção dos outros 26. A capacidade de fazer isso é conhecido como teoria da mente, uma construção encontrados para ser significativamente prejudicada após o TCE 6,27-31. Milders et al. 8,31 relatório que as pessoas com TCE têm dificuldade significativa fazer julgamentos precisos sobre e compreender as intenções e sentimentos de personagens das histórias breves.

Embora esses estudos têm destacado déficits na não-verbal e situacional processamento de emoções, é difícil generalizar os resultados para as interações sociais cotidianas, onde estes sinais ocorrem lado a lado e dentro de um contexto social. Para entender melhor como as pessoascom TCE interpretar emoção nas interações sociais cotidianas, precisamos usar os estímulos que são multimodal na natureza. Apenas dois estudos anteriores incluíram estímulos multimodais como parte de sua investigação sobre a forma como as pessoas com TCE pistas processo de emoção. McDonald e Saunders 15 e Williams e Wood 16 extraído estímulos do Emoção Teste de Avaliação (EET), que faz parte da consciência de uma Inference social Teste 26. A EET consiste em vinhetas filmadas que mostram sexo masculino e feminino atores que interpretam sinais não-verbais emoção enquanto se envolve na conversa. O conteúdo verbal nas conversas é semanticamente neutro; sugestões a respeito de como os atores estão sentindo e informação contextual não são fornecidos. Assim, a necessidade de processar e integrar o conteúdo verbal significativa, ao mesmo tempo fazendo isso com os sinais faciais e vocais não-verbais foi eliminado. Os resultados destes estudos indicaram que as pessoas com TCE foram significanqüentemente menos precisos do que os controles em sua capacidade de identificar a emoção a partir de estímulos multimodais. Uma vez que nenhum estudo considerou a influência da informação semântica ou contextual na interpretação de expressões de emoção, não fica claro se a adição deste tipo de informação seria facilitar o processamento por causa do aumento de redundância intersensory ou negativamente afetar a percepção por causa do aumento das demandas cognitivas.

Este artigo descreve um conjunto de tarefas usados ​​para comparar a percepção de pistas emocionais faciais e vocais de forma isolada, e percepção desses sinais que ocorrem simultaneamente no contexto situacional significativa. As tarefas isolamentos fazem parte de um teste maior de não-verbal reconhecimento de emoções - a análise diagnóstica de Precisão não verbal 2 (DANVA2) 32. Neste protocolo, usamos os rostos de adultos (DANVA-faces) e Adulto Paralinguagem (DANVA-Vozes) subtestes. Cada um destes subensaios inclui 24 estímulos,representando seis representações cada uma das emoções felizes, tristes, com raiva, e medo. O DANVA2 exige dos participantes a identificar a emoção retratada usando uma escolha forçada formato (4 opções). Aqui, uma quinta opção (Eu não sei) é fornecido para ambos os subtestes. A quantidade de tempo cada expressão facial foi mostrado foi aumentado de dois segundos para cinco segundos para garantir que estávamos avaliando afetar o reconhecimento e não a velocidade de processamento. Nós não alterou o subteste adulto paralanguage além de adicionar a opção adicional no formato de resposta da escolha forçada. Os participantes ouviram cada frase apenas uma vez. O feedback não foi fornecido em qualquer tarefa.

clipes de filmes foram usadas para avaliar a percepção de pistas emoções faciais e vocais que ocorrem simultaneamente no contexto situacional. Embora o conteúdo verbal dentro desses clipes de não declarar explicitamente que os personagens os clipes estavam sentindo, foi significativa para o contexto situacional. Quinze clipes extraídos de cofilmes mmercial e séries de televisão foram incluídos no estudo, cada um variando 45-103 (média = 71,87) segundos. O feedback não foi fornecido aos participantes durante esta tarefa. Havia três clips que representam cada uma das seguintes categorias emoção: feliz, triste, irritado, temível, neutro. Estes clipes foram escolhidos com base nos resultados de um estudo realizado com adultos jovens (n = 70) Zupan, B. & Babbage, DR estímulos Emoção elicitação de clipes de filmes e texto narrativo. Manuscrito submetido a J Soc Psyc. Nesse estudo, os participantes foram apresentados com seis clipes de filmes para cada uma das categorias-alvo emoção, e seis clipes de filmes neutros, variando de 24 a 127 segundos (média = 77,3 segundos). Embora o objetivo era incluir clipes de filmes relativamente curtos, cada clipe escolhido para inclusão precisava ter informações contextuais suficientes de que poderia ser entendido pelos telespectadores sem ter conhecimento adicional do filme a partir do qual ela foi tirada 33.

Os clipes selecionados para o estudo tinha sido correctamente identificados nas Zupan e Babbage estudo Emoção estímulos elicitação de clipes de filmes e texto narrativo, já referido, como a emoção alvo entre 83 e 89% para feliz, 86-93 % para triste, 63-93% para raiva, 77-96% para o medo, e 81 - 87% para neutro. Apesar de ter o mesmo número de exemplares de cada categoria emoção como foi nas tarefas DANVA2 (n = 6) teria sido ideal, optamos por apenas três devido ao aumento da duração dos estímulos clipe em comparação com estímulos nos DANVA-Faces e as tarefas DANVA-vozes.

Os dados destas tarefas foram coletados de 60 participantes com TCE e 60 anos de idade e sexo controles pareados. Os participantes foram vistos individualmente ou em pequenos grupos (max = 3) e a ordem das três tarefas foi randomizada entre sessões de teste.

Protocolo

Este protocolo foi aprovado pelos conselhos de revisão institucionais da Universidade Brock e nas Carolinas Reabilitação.

1. Antes do teste

  1. Criar 3 listas separadas para os 15 clipes de filmes, cada um listando os clipes em uma ordem restrito diferente.
  2. Assegurar que cada lista começa e termina com um estímulo neutro e que há dois clipes que têm como alvo a mesma emoção ocorrem consecutivamente.
  3. Criar uma pasta separada na área de trabalho para cada lista de apresentação fim cinema e rotular a pasta com o nome de Ordem (por exemplo., Ordem 1).
  4. Salvar os 15 clipes em cada uma das três pastas.
  5. Re-etiquetar cada clipe de filme para que ele reflete o número de apresentação e não dá pistas sobre a emoção de destino (ou seja, 01;. 02; 03;. Etc).
  6. Criar seis ordens randomizados de apresentação de tarefas (DANVA-Faces, DANVA-Vozes, clipes de filmes) (veja a Figura 1).
  7. Atribuir a particip de entradaant para um dos três ordens restritas de apresentação excertos de filmes.
  8. Atribuir o participante de entrada para um dos seis ordens randomizados de apresentação tarefa.

2. dia de testes

  1. Traga participante (s) para o laboratório e encaixá-los confortavelmente na mesa.
  2. Rever o formulário de consentimento com o participante através da leitura de cada seção com ele / ela.
  3. Responder a quaisquer perguntas que o participante possa ter sobre o formulário de consentimento e que ele / ela assinar.
  4. Já os participantes completar o questionário demográfico (data de nascimento, gênero). Peça aos participantes com TCE, adicionalmente preencher a seção do questionário on questionário pertinente médico história (data da lesão, causa de lesão, a gravidade da lesão).
    NOTA: Quando os participantes estão o preenchimento do questionário, informações sobre quaisquer dificuldades de processamento visual conhecidos para que possam acomodar os participantes com o TCE em conformidade
  5. Posicione o participante na frente do the computador em uma cadeira. Certifique-se que todos os participantes (se houver mais de um) tem uma visão clara da tela.

3. DANVA-Faces Task

  1. Dê a cada participante uma placa de grampo com o DANVA-Faces folha de resposta em anexo e uma caneta para respostas círculo.
  2. Fornecer ao participante os seguintes instruções: "Depois de ver cada item, circule sua resposta (feliz, triste, irritado, temível, ou neutro) na linha que corresponde ao número do item mostrado em cada slide."
    NOTA: Se os participantes com TCE indicaram dificuldades de processamento visual ou dificuldades motoras finas são evidentes, fornecer o participante com a página de resposta alternativo. Esta página lista os cinco respostas em texto maior no formato de paisagem.
  3. Abra a tarefa DANVA-Faces em uma apresentação e reproduzi-lo usando o Slide Show View.
  4. Dê aos participantes as seguintes instruções: "Para esta atividade, eu vou lhe mostrar rostos de algumas pessoas e eu quero que vocême dizer como se sentem. Eu quero que você me diga se eles estão felizes, tristes, com raiva ou com medo. Terrível é a mesma coisa que com medo ou com medo. Se você não tiver certeza da emoção, escolher a resposta 'não sei'. Há 24 rostos completamente. Cada rosto vai estar na tela por cinco segundos. Você deve responder perante a face desaparece por sua resposta para contar. Indique a sua resposta, circulando-lo na folha na frente de você ".
    NOTA: Se o participante for incapaz de circular seus / suas próprias respostas e está participando no estudo como parte de um pequeno grupo, forneça as seguintes instruções: "Indique a sua resposta ao apontar para ele na folha na frente de você". Então, o examinador gravar a resposta do participante na folha de resposta DANVA-Caras.
  5. Verificar se os participantes não têm dúvidas antes de começar.
  6. Iniciar a tarefa com os dois ensaios de prática. Dê aos participantes as seguintes instruções: "Estamos indo para completar dois praensaios ctice para que você ter uma noção de quanto tempo cada rosto vai aparecer na tela, e quanto tempo você tem que fornecer a sua resposta ".
  7. Aperte enter no teclado quando o rosto desaparece para passar para a próxima estímulo. Garantir que todos os participantes estão olhando para a tela antes de fazer isso.
  8. Certifique-se de que os participantes não têm perguntas. Se nenhum, começam os ensaios de teste. Garantir que todos os participantes estão olhando para a tela. Pressione Enter para iniciar os estímulos de teste.
  9. Continue o procedimento descrito para as tarefas de prática até que os 24 estímulos estão completos.
  10. Recolher as folhas de resposta do participante.

4. DANVA-vozes Task

  1. Dê a cada participante uma placa de grampo com a folha de resposta DANVA-Vozes em anexo e uma caneta para respostas círculo.
    NOTA: Se os participantes com TCE indicaram dificuldades de processamento visual ou dificuldades motoras finas são evidentes, fornecer o participante com a página de resposta alternativo. este page lista as cinco respostas em texto maior no formato de paisagem.
  2. Abra a tarefa DANVA-Vozes, indo para o seguinte site:
    http://www.psychology.emory.edu/clinical/interpersonal/danva.htm
  3. Clique no link para o adulto Rostos, Vozes e posturas.
  4. Preencha o login e senha, digitando qualquer letra para o login e digitar EMORYDANVA2 para a senha.
  5. Clique em Continuar.
  6. Clique em Voices (círculo verde no centro da tela).
  7. Testar o nível de volume. Fornecer as seguintes instruções: "Eu quero ter certeza de que você pode ouvir o som do computador e que é em um volume confortável para você eu vou clique teste de som Por favor, me diga se você pode ouvir o som, e.. também se você precisa do som a ser mais alto ou mais tranquilo para ser confortável para você ".
  8. Clique som de teste.
  9. Ajuste o volume de acordo com a solicitação do participante (aumento / diminuição).
  10. Clique em 'teste de som' novamente. Ajuste o volume de acordo com o pedido do participante. Faça isso até que o participante informa que está em um volume confortável.
  11. Reveja as instruções de tarefas com o participante. Dê aos participantes as seguintes instruções: Para esta atividade, você vai ouvir alguém dizer a frase "Eu vou sair da sala agora, mas eu vou estar de volta mais tarde. ' Eu quero que você me diga se eles estão felizes, tristes, com raiva ou com medo. Terrível é a mesma coisa que com medo ou com medo. Se você não tiver certeza da emoção, escolher a resposta 'não sei'. Há 24 frases. Antes de cada frase é falada, um número será anunciado. Você precisa ouvir a frase que se segue. As frases não será repetido então você precisa ouvir atentamente. Diga-me como a pessoa está sentindo, circulando sua resposta sobre a folha na frente de você ". Depois de ter feito sua seleção, eu preciso selecionar uma resposta na tela do computador para passar para o próximo item. Eu sempre irá selecionar tele mesma emoção (medo). Minha selecção não indica a resposta correta de qualquer maneira. "
    NOTA: Se o participante for incapaz de circular seus / suas próprias respostas e está participando no estudo como parte de um pequeno grupo, forneça as seguintes instruções: "Indique a sua resposta ao apontar para ele na folha na frente de você". Então, o examinador gravar a resposta do participante na folha de resposta DANVA-Vozes.
  12. Clique em 'continuar'.
  13. participantes diretos círculo (ou ponto a) a sua resposta sobre sua folha de resposta quando a sentença tem desempenhado.
  14. Clique em 'medo'. Clique em 'Next'.
  15. Continue esse procedimento até as 24 frases estão completos.
  16. Saia do site quando você chegar ao final da tarefa.
  17. Recolher folhas de resposta dos participantes.

5. Filme Clipe Task

  1. participantes acomodar confortavelmente em frente ao computador. Certifique-se de que a tela pode ser fully visto por todos.
  2. Dê a cada pessoa uma prancheta com uma cópia da folha de resposta Film Clip emocional.
    NOTA: Se os participantes com TCE indicaram dificuldades de processamento visual ou dificuldades motoras finas são evidentes, fornecer o participante com duas páginas de resposta alternativos. A primeira página lista as cinco respostas de escolha forçada ea segunda fornece a escala 0-9. Ambas as páginas de resposta estão em texto maior e no formato de paisagem.
  3. Abra a pasta no computador para a ordem atribuído de apresentação clipe de filme.
  4. Proporcionar aos participantes as seguintes instruções: "Você está indo para ver um total de 15 clipes de filme em cada clipe de filme, você vai ver um personagem que parece que eles estão sentindo uma certa emoção Elas podem parecer" feliz ",".. triste ',' raiva ',' medo ', ou' neutro '. primeiro, eu quero que você me diga o que emoção o caráter está mostrando. Então me diga o que emoção que você experimentou enquanto assistia o filmegrampo. Finalmente, diga-me o número que melhor descreve a intensidade da emoção que você sentiu enquanto assiste o clipe. Por exemplo, se o rosto da pessoa que você se sinta 'levemente' feliz ou triste, circule um número que varia de 1 a 3. Se você se sentiu "moderadamente" feliz ou triste, círculo um número que varia de 4 a 6. Se você se sentiu "muito 'feliz ou triste, círculo um número que varia de 7 a 9. círculo Apenas 0 se você não sentir nenhuma emoção. Você tem alguma pergunta?"
    NOTA: Somente a primeira pergunta (Diga-me o que emoção o caráter está mostrando) foi analisada para o estudo atual.
  5. Dê um clique duplo 01 para abrir o primeiro clipe do filme.
  6. Diga ao participante que a personagem se concentrar em enquanto visualiza o clipe.
  7. Escolha 'View Full Screen "no menu de opções para reproduzir o clipe.
  8. Direcionar os participantes para responder a linha um (Que emoção é o personagem principal experimentando?) Na sua folha de resposta quando o clipe tiver terminado de jogar.
  9. i> Direcionar os participantes a responder a linha de b (Escolha uma emoção que melhor descreve como se sentiu enquanto assiste o clipe) na folha de resposta, uma vez uma linha foi respondida.
  10. Dirigir o participante para responder a linha C (Como você avaliaria a intensidade da emoção que você experimentou enquanto assiste o clipe?) Uma vez linha de b foi respondida.
  11. Dirigir o participante para voltar a dirigir o seu / sua atenção para a tela do computador uma vez que as respostas estão completas.
  12. Retornar para a pasta no computador que contém os clipes de filmes na ordem atribuído para o participante.
  13. CCK duas vezes em 02 para abrir o segundo clipe de filme. Repita os passos 5,5-5,12 até que o participante tenha visto todos os 15 clipes de filmes.
  14. Recolha a folha de resposta do participante (s).

6. Mover-se de uma tarefa para outra (Etapa opcional)

  1. Proporcionar aos participantes a opção de fazer uma pausa entre as tarefas 2 e 3.
e_title "> 7. marcar o Tarefas

  1. Consulte a chave de resposta na página 25 do manual DANVA2 32 para marcar a tarefa DANVA-Faces.
  2. Marque os itens que correspondem a chave resposta como 1 e itens incorretos como 0. 'Eu não sei' respostas são pontuadas como 0.
  3. Calcular um escore bruto, adicionando o número total de respostas corretas. Divida a pontuação bruta por 24 (total das rubricas) para obter uma pontuação percentual precisão.
  4. Consulte a chave de resposta na página 27 do manual DANVA2 32 e repita os passos 7.2 e 7.3 para marcar a tarefa DANVA-Vozes.
  5. Consulte a chave de resposta para a ordem atribuído de apresentação clipe de filme para o participante. Marcar um 1 se o participante identificou a emoção alvo ao responder à pergunta sobre o que a emoção do personagem foi mostrando, e 0 se o participante não tiver selecionado a emoção alvo (incluindo se o participante disse: 'Eu não sei').
  6. Calcular um escore bruto, adicionando o número de correcrespostas T. Divida a pontuação bruta por 15 (total de itens) para obter uma pontuação percentual precisão.
  7. Criar uma pontuação subconjunto para a tarefa clipe que contém apenas as respostas aos clips feliz, triste, irritado, e com medo de cinema, adicionando as respostas corretas para apenas estes 12 clipes. Divida o número de respostas corretas por 12 para obter uma pontuação percentual precisão.
  8. Criar uma pontuação para respostas a trechos de filmes neutros, adicionando o número de respostas corretas para os clipes neutros. Divida o número de respostas corretas por 3 a obter uma pontuação percentual precisão.
    NOTA: A pontuação subconjunto precisa ser criado porque as tarefas DANVA não incluem retratos de neutro enquanto a tarefa clipes de filmes fez.
  9. Calcular uma pontuação para as respostas aos itens valência positiva (ie., Feliz) e valência negativa itens (combinar as respostas aos estímulos com raiva, medo e tristeza) para todas as três tarefas.
  10. Divida a pontuação para itens valência positiva para cada tarefa por 3 a obtenção de percpontuação precisão entuais.
  11. Divida a pontuação para itens de valência negativa para cada tarefa, 9, para obter pontuação de precisão percentuais.

Análise 8. Dados

  1. Realizar análises de um modelo misto de variância (ANOVA) para examinar respostas a estímulos isolados faciais emoção, isolados estímulos emoção vocais, e estímulos clipe multimodais por participantes com os participantes do TCE e Controle.
  2. Explorar principais efeitos encontradas na ANOVA usando comparações univariadas de acompanhamento.

Resultados

Esta bateria tarefa foi utilizado para comparar o reconhecimento emoção para emoção expressões isoladas (isto é, face-only;. Exclusivamente vocal) e emoção expressões combinadas (. Ie, rosto e voz), que ocorrem dentro de um contexto situacional. Um total de 60 (37 homens e 23 mulheres) participantes com moderada a grave TCE entre as idades de 21 e 63 anos (média = 40,98) e 60 (38 homens e 22 mulheres) de idade -matched Controls (intervalo = 18-63; média = 40,...

Discussão

O manuscrito descreve três tarefas usadas para avaliar habilidades emoção de reconhecimento de pessoas com TCE. O objetivo do método descrito foi comparar a precisão de resposta para pistas emocionais faciais e vocais de forma isolada, a percepção desses sinais que ocorrem simultaneamente no contexto situacional significativa. clipes de filmes foram incluídos no estudo porque a sua aproximação de situações cotidianas fez ecologicamente mais válido do que representações isoladas de expressões da emoção....

Divulgações

The author has nothing to disclose.

Agradecimentos

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

Materiais

NameCompanyCatalog NumberComments
Diagnostic Analysis of Nonverbal Accuracy-2Department of Pychology, Emory University. Atlanta, GADANVA-Faces subtest, DANVA-Voices subtest
ComputerApple iMac Desktop, 27" display
Statistical Analysis SoftwareSPSSUniversity Licensed software for data analysis
Happy Film Clip 1Sweet Home Alabama, D&D Films, 2002, Director: A TennantA man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2Wedding Crashers, New Line Cinema, 2005, Director: D. DobkinA couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. YakinAn African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1Grey's Anatomy, ABC, 2006, Director: P. HortonA father is only able to communicate with his family using his eyes. 
Sad Film Clip 2Armageddon, Touchstone Pictures, 1998, Director: M. BayA daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3Grey's Anatomy, ABC, 2006, Director: M. TinkerA woman is heartbroken her fiance has died
Angry Film Clip 1Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. SullivanAn older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2Enough, Columbia Pictures, 2002, Director: M. AptedA wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3Pretty Woman, Touchstone Pictures, 1990, Director: G. MarshallA call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1Blood Diamond, Warner Bros Pictures, 2006, Director: E. ZwickNumerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. PerelmanTwo teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. ShyamalanA young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1The Other Sister, Mandeville Films, 1999, Director: G. MarshallA mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2The Game, Polygram Filmed Entertainment, 1999, Director: D. FincherOne gentleman is explaining the rules of a game to another
Neutral Film Clip 3The Notebook, New Line Cinema, 2004, Director: N. CassavetesAn older gentleman and his doctor are conversing during a routine check-up

Referências

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O'Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context - SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

ComportamentoEdi o 111reconhecimento de emo esexpress es faciais isoladoisolado emo o express es vocaispistas contextuaisclipes de filmesles o cerebral traum tica

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados