JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Cet article décrit comment mettre en œuvre une batterie de tâches comportementales pour examiner la reconnaissance des émotions des expressions isolées émotion du visage et vocales, et une tâche nouvelle en utilisant des clips de télévision et de films commerciaux pour évaluer la reconnaissance des émotions multimodal qui inclut des indices contextuels.

Résumé

L'étude actuelle a présenté 60 personnes avec des lésions traumatiques cérébrales (TBI) et 60 contrôles avec isolés expressions d'émotions faciales, isolées expressions d'émotions vocales et multimodales (ie., Des extraits de films) stimuli qui comprenaient des indices contextuels. Tous les stimuli ont été présentés par ordinateur. Les participants devaient indiquer comment la personne dans chaque stimulus se sentait en utilisant un format à choix forcé. En outre, pour les extraits de films, les participants devaient indiquer comment ils se sentaient en réponse au stimulus, et le niveau d'intensité avec laquelle ils ont connu cette émotion.

Introduction

Lésion cérébrale traumatique (TBI) affecte environ 10 millions de personnes chaque année à travers le monde 1. Après TBI, la capacité de reconnaître l' émotion dans les autres en utilisant des indices non verbaux comme les expressions faciales et vocales (ie., Le ton de la voix), et des indices contextuels, est souvent compromise de manière significative 2-7. Depuis les interactions interpersonnelles réussies et des relations de qualité sont au moins partiellement dépendante de l' interprétation précise des émotions des autres 7-10, il est pas surprenant que la difficulté avec la reconnaissance des émotions a été rapporté à contribuer aux pauvres résultats sociaux fréquemment rapportés ci - après TBI 3,8, 11,12.

Les études portant sur ​​la reconnaissance des émotions par des personnes avec TBI ont tendance à se concentrer sur des indices isolés, en particulier la reconnaissance des expressions faciales de l' émotion à l' aide de photographies statiques 2. Bien que ce travail a été important en informant le développement du traitement programmes, il ne représente pas adéquatement sa capacité à reconnaître et à interpréter les indices non verbaux de l'émotion dans les interactions quotidiennes. Non seulement les images statiques fournissent le temps d'interpréter l'émotion dépeint augmenté, ils ont aussi généralement que dépeignent le sommet (ie., Représentation maximum) des expressions 13-16. En outre, des images statiques manquent de repères temporels qui se produisent avec le mouvement 12,13,15, et ne sont pas représentatifs des expressions faciales changent rapidement de l' émotion rencontrées dans des situations quotidiennes. En outre, il existe des preuves pour indiquer que des expressions visuelles statiques et dynamiques sont traitées dans différentes zones du cerveau, avec des réponses plus précises à des stimuli dynamiques 17-24.

reconnaissance des émotions Vocal par des personnes avec TBI a également été étudié, à la fois avec et sans contenu verbal significatif. Il a été suggéré que la présence du contenu verbal augmente parce que les exigences de perception inte préciserpretation nécessite un traitement simultané de la tonalité de la voix non verbale avec le contenu sémantique inclus dans le message verbal 25. Alors que de nombreuses études ont montré une meilleure reconnaissance des voix affecte en l'absence de contenu verbal significatif, Dimoska et al. 25 n'a trouvé aucune différence dans la performance. Ils font valoir que les personnes atteintes de TBI ont un biais vers le contenu sémantique des phrases affectives; de sorte que même lorsque le contenu est sémantiquement neutre ou éliminé, ils continuent de se concentrer sur l'information verbale dans la phrase. Ainsi, les résultats ne montrent pas clairement si le contenu verbal significatif facilite ou entrave l'expression de l'émotion vocale.

En plus du contenu verbal significatif qui peut accompagner les signaux vocaux non verbaux, le contexte est également assuré par la situation sociale elle-même. contexte situationnel fournit des informations générales sur les circonstances dans lesquelles l'expression de l'émotion a été produit et peut ainsi grandementfluence l'interprétation de l'expression. Lors de l'évaluation comment se sent quelqu'un, nous utilisons le contexte pour déterminer si la situation est compatible avec les besoins et les attentes de cette personne. Cela affecte finalement comment quelqu'un se sent, donc la connaissance du contexte de la situation devrait se traduire par inférence plus précise de l'émotion des autres 26. La capacité de le faire est appelée théorie de l' esprit, une construction jugée être altérée de façon significative après TBI 6,27-31. Milders et al. 8,31 rapport que les personnes ont de la difficulté TBI significative des jugements précis au sujet et de comprendre les intentions et les sentiments des personnages en bref des histoires.

Bien que ces études ont mis en évidence des déficits dans le traitement des émotions non verbale et de la situation, il est difficile de généraliser les résultats à des interactions sociales quotidiennes où ces indices se produisent aux côtés de l'autre et dans un contexte social. Pour mieux comprendre comment les gensavec TBI interpréter l'émotion dans les interactions sociales quotidiennes, nous avons besoin d'utiliser des stimuli qui sont multimodal dans la nature. Seules deux études précédentes ont inclus des stimuli multimodaux dans le cadre de leur enquête sur la façon dont les personnes ayant subi un TCC processus émotion indices. McDonald et Saunders 15 et Williams et Wood 16 extraits stimuli de l'émotion Test d' évaluation (EET), qui fait partie de la prise de conscience sociale Inference test 26. Le EET se compose de vignettes enregistrées sur bande vidéo qui montrent des hommes et des femmes acteurs représentant non verbales émotion des indices tout en engageant la conversation. Le contenu verbal dans les conversations est sémantiquement neutre; des indices sur la façon dont les acteurs se sentent et des informations contextuelles ne sont pas fournis. Ainsi, la nécessité de traiter et d'intégrer le contenu verbal significatif tout en faisant simultanément cela avec les indices faciaux et vocaux non verbaux a été éliminé. Les résultats de ces études ont indiqué que les personnes atteintes de TBI étaient significantly moins précis que les contrôles dans leur capacité à identifier l'émotion de stimuli multimodaux. Étant donné que ni l'étude considérée l'influence de l'information sémantique ou contextuelle sur l'interprétation des expressions de l'émotion, on ne sait pas si l'ajout de ce type d'information faciliterait le traitement en raison d'une redondance accrue intersensorielle ou négatif sur la perception en raison des exigences cognitives accrues.

Cet article décrit un ensemble de tâches utilisées pour comparer la perception des signaux émotionnels faciales et vocales dans l'isolement, et la perception de ces signaux se produisant simultanément dans le contexte de la situation significative. Les tâches de isolations font partie d'un test plus large de reconnaissance des émotions non verbale - L'analyse diagnostique de précision Nonverbal 2 (DANVA2) 32. Dans ce protocole, nous avons utilisé les visages d'adultes (DANVA-Faces) et adultes ParaLangage (DANVA-Voix) sous - tests. Chacun de ces sous-tests comprend 24 stimuli,représentant six représentations chacune des émotions heureuses, tristes, en colère, et craintifs. Le DANVA2 demande aux participants d'identifier l'émotion dépeint l'aide d'un choix forcé le format (4 choix). Ici, une cinquième option (je ne sais pas) est prévu pour les deux sous-tests. La quantité de temps chaque expression du visage a été montré a été augmentée de deux secondes à cinq secondes pour nous assurer que nous évaluions affecte la reconnaissance et non la vitesse de traitement. Nous ne modifions le subtest de paralangage adulte au-delà de l'ajout d'un choix supplémentaire dans le format de réponse à choix forcé. Les participants ont entendu chaque phrase une seule fois. Feedback n'a pas été fourni dans les deux tâches.

Des extraits de films ont été utilisés pour évaluer la perception des indices d'émotion faciales et vocales qui se produisent simultanément dans le contexte de la situation. Bien que le contenu verbal au sein de ces clips n'a pas explicitement ce que les personnages dans les clips se sentaient, il était significatif dans le contexte de la situation. Quinze clips extraits de cofilms mmercial et séries télévisées ont été inclus dans l'étude, chaque allant de 45 à 103 (moyenne = 71,87) secondes. Feedback n'a pas été fournie aux participants au cours de cette tâche. Il y avait trois clips représentant chacune des catégories d'émotion suivantes: heureux, triste, en colère, peur, neutre. Ces clips ont été choisis en fonction des résultats d'une étude menée auprès des jeunes adultes (n = 70) Zupan, B. & Babbage, DR Emotion explicitation stimuli provenant des extraits de films et texte narratif. Manuscrit soumis à J Soc Psyc. Dans cette étude, les participants ont été présentés avec six extraits de films pour chacune des catégories cible d'émotion, et six extraits de films neutres, allant de 24 à 127 secondes (moyenne = 77,3 secondes). Alors que l'objectif était d'inclure relativement courts extraits de films, chaque clip choisi pour l' inclusion nécessaire d'avoir suffisamment d' informations contextuelles qu'il pourrait être compris par les téléspectateurs sans avoir une connaissance supplémentaire du film à partir duquel elle a été prise 33.

Les clips sélectionnés pour l'étude avaient été correctement identifiés dans l'étude Emotion explicitation stimuli Zupan et Babbage des clips de films et texte narratif, cité ci - dessus comme l'émotion cible entre 83 et 89% pour les heureux, 86-93 % pour triste, 63-93% pour colère, 77-96% pour les craintifs, et 81-87% pour le neutre. Tout en ayant le même nombre d'exemplaires de chaque catégorie d'émotion était dans les tâches de DANVA2 (n = 6) aurait été idéal, nous avons opté pour trois seulement en raison de la longueur accrue du clip stimuli du film par rapport à des stimuli dans les DANVA-Faces et les tâches DANVA-Voix.

Les données de ces tâches ont été recueillies auprès de 60 participants avec TBI et 60 ans et le sexe des contrôles appariés. Les participants ont été vus individuellement ou en petits groupes (max = 3) et l'ordre des trois tâches ont été randomisés entre les sessions de test.

Protocole

Ce protocole a été approuvé par les comités d'éthique de l'Université Brock et à Carolinas réadaptation.

1. Avant d'essais

  1. Créer 3 listes distinctes pour les 15 extraits de films, chaque liste des clips dans un ordre restreint différent.
  2. Assurez-vous que chaque liste commence et se termine par un stimulus neutre et que deux clips qui ciblent la même émotion se produisent consécutivement.
  3. Créer un dossier séparé sur le bureau pour chaque liste de présentation de l' ordre du film et de l' étiquette du dossier avec le nom de la commande (par exemple., Ordre 1).
  4. Enregistrer les 15 clips dans chacun des trois dossiers.
  5. Re-étiqueter chaque extrait de film de sorte qu'il reflète le numéro de présentation et donne aucun indice concernant l'émotion cible (ie, 01;. 02; 03;. Etc).
  6. Créer six ordres aléatoires de tâche (DANVA-Faces, DANVA-voix, des clips de film) présentation (voir Figure 1).
  7. Attribuer le particip entrantant l'une des trois ordres limités de présentation des séquences de films.
  8. Attribuer le participant entrant à l'un des six ordres aléatoires de présentation de la tâche.

2. Journée des tests

  1. Apportez participant (s) dans le laboratoire et le siège entre eux confortablement à la table.
  2. Passez en revue le formulaire de consentement avec le participant en lisant chaque section avec lui / elle.
  3. Répondez à toutes les questions que le participant peut avoir sur le formulaire de consentement et avoir lui / elle le signer.
  4. Demandez aux participants de remplir le bref questionnaire démographique (Date de naissance, le sexe). Demandez aux participants avec TBI en outre compléter la section du questionnaire sur les antécédents médicaux pertinents (date de la blessure, cause de la blessure, la gravité des blessures).
    NOTE: Lorsque les participants terminent le questionnaire, se renseigner sur les difficultés connues de traitement visuel de sorte que vous pouvez accueillir les participants avec TBI en conséquence
  5. Positionner le participant devant eordinateur e dans un fauteuil. Veiller à ce que tous les participants (si plus d'un) ont une vision claire de l'écran.

3. DANVA-Faces Task

  1. Donnez à chaque participant une carte de clip avec le-Faces DANVA feuille de réponse ci-joint et un stylo pour les réponses de cercle.
  2. Fournir au participant les instructions suivantes: "Une fois que vous voyez chaque élément, encercler votre réponse (heureux, triste, en colère, peur, ou neutre) sur la ligne qui correspond au numéro de l'article figurant sur chaque diapositive."
    NOTE: Si les participants avec TBI ont indiqué des difficultés de traitement visuel ou des difficultés motrices fines sont évidentes, fournir aux participants à la page de réponse alternative. Cette page répertorie les cinq réponses dans un texte plus grand au format paysage.
  3. Ouvrez la tâche DANVA-Faces dans une présentation et jouer en utilisant le Slide Show.
  4. Donner aux participants les instructions suivantes: «Pour cette activité, je vais vous montrer les visages de certaines personnes et je vous veuxme dire comment ils se sentent. Je veux que vous me disiez s'ils sont heureux, triste, en colère ou de peur. Fearful est la même chose que peur ou peur. Si vous n'êtes pas sûr de l'émotion, choisissez la réponse «Je ne sais pas». Il y a 24 visages tout à fait. Chaque visage sera sur l'écran pendant cinq secondes. Vous devez répondre avant que le visage disparaît pour votre réponse à compter. Indiquez votre réponse en encerclant sur la feuille en face de vous. "
    NOTE: Si le participant est incapable de faire le tour de son / ses propres réponses et participe à l'étude dans le cadre d'un petit groupe, fournir l'instruction suivante: "Indiquez votre réponse en pointant sur la feuille en face de vous." L'examinateur va alors enregistrer la réponse du participant sur la feuille de réponse DANVA-Faces.
  5. Vérifiez que les participants ne sont pas des questions avant de commencer.
  6. Lancer la tâche avec les deux essais de pratique. Donner aux participants les instructions suivantes: «Nous allons terminer deux praessais de ctice de sorte que vous obtenez un sens de la durée de chaque visage apparaîtra sur l'écran, et combien de temps vous devez fournir votre réponse ".
  7. Appuyez sur Entrée sur le clavier lorsque le visage disparaît pour passer à la prochaine relance. Vérifiez que tous les participants sont à la recherche jusqu'à l'écran avant de le faire.
  8. Veiller à ce que les participants ne sont pas des questions. Si aucune, commencer les essais de test. Vérifiez que tous les participants sont à la recherche à l'écran. Appuyez sur Entrée pour démarrer les stimuli de test.
  9. Continuer la procédure décrite pour les tâches de pratique jusqu'à ce que les 24 stimuli sont complets.
  10. Ramassez les feuilles de réponse des participants.

4. DANVA-Voices Task

  1. Donnez à chaque participant une carte de clip avec la feuille de réponse DANVA-Voices ci-joint et un stylo pour les réponses de cercle.
    NOTE: Si les participants avec TBI ont indiqué des difficultés de traitement visuel ou des difficultés motrices fines sont évidentes, fournir aux participants à la page de réponse alternative. Cette page énumère les cinq réponses dans un texte plus grand au format paysage.
  2. Ouvrez la tâche DANVA-voix en allant sur le site Web suivant:
    http://www.psychology.emory.edu/clinical/interpersonal/danva.htm
  3. Cliquez sur le lien pour adultes visages, des voix, des postures.
  4. Remplissez le login et mot de passe en entrant toute lettre pour la connexion et en tapant EMORYDANVA2 pour le mot de passe.
  5. Cliquez sur Continuer.
  6. Cliquez sur Voices (cercle vert dans le centre de l'écran).
  7. Testez le niveau de volume. Fournir les instructions suivantes: «Je veux être sûr que vous pouvez entendre le son sur l'ordinateur et qu'il est à un volume confortable pour vous, je vais cliquer sur son test S'il vous plaît me dire si vous pouvez entendre le son, et.. aussi si vous avez besoin que le son soit plus fort ou plus calme pour être à l'aise pour vous. "
  8. Cliquez sur son test.
  9. Réglez le volume en fonction de la demande du participant (augmentation / diminution).
  10. Cliquez sur 'son de test »à nouveau. Ajuster le volume en fonction de la demande du participant. Pour ce faire, jusqu'à ce que le participant signale qu'il est à un volume confortable.
  11. Passez en revue les instructions de la tâche avec le participant. Donner aux participants les instructions suivantes: Pour cette activité, vous allez entendre quelqu'un dire la phrase «Je vais sortir de la chambre, mais je reviendrai plus tard. ' Je veux que vous me disiez s'ils sont heureux, triste, en colère ou de peur. Fearful est la même chose que peur ou peur. Si vous n'êtes pas sûr de l'émotion, choisissez la réponse «Je ne sais pas». Il y a 24 phrases. Avant chaque phrase est parlée, un numéro sera annoncé. Vous devez écouter la phrase qui suit. Les peines ne seront pas répétées si vous avez besoin d'écouter attentivement. Dites-moi comment la personne se sent en encerclant votre réponse sur la feuille en face de vous ". Une fois que vous avez fait votre choix, je dois choisir une réponse sur l'écran d'ordinateur pour passer à l'élément suivant. Je vais toujours sélectionner til même émotion (peur). Ma sélection ne signifie pas la bonne réponse en tout cas ".
    NOTE: Si le participant est incapable de faire le tour de son / ses propres réponses et participe à l'étude dans le cadre d'un petit groupe, fournir l'instruction suivante: "Indiquez votre réponse en pointant sur la feuille en face de vous." L'examinateur va alors enregistrer la réponse du participant sur la feuille de réponse DANVA-voix.
  12. Cliquez sur "continuer".
  13. Les participants directs au cercle (ou point à) leur réponse sur leur feuille de réponse lorsque la phrase a joué.
  14. Cliquez sur 'peur'. Cliquez sur Suivant'.
  15. Continuez cette procédure jusqu'à ce que les 24 phrases sont complètes.
  16. Quittez le site Web lorsque vous atteignez la fin de la tâche.
  17. Ramasser les feuilles de réponse des participants.

5. Film clip Task

  1. participants de siège confortablement en face de l'ordinateur. Assurez-vous que l'écran peut être fully vu par tous.
  2. Donner à chaque personne un presse-papiers avec une copie de la feuille de réponse Clip du film Emotional.
    NOTE: Si les participants avec TBI ont indiqué des difficultés de traitement visuel ou des difficultés motrices fines sont évidentes, fournir aux participants des deux pages de réponse de remplacement. La première page répertorie les cinq réponses à choix forcé et la seconde fournit l'échelle 0-9. pages deux de réponse sont en plus grand texte et en format paysage.
  3. Ouvrez le dossier sur l'ordinateur pour l'ordre assigné de la présentation du clip de film.
  4. Fournir aux participants les directions suivantes: "Vous allez voir un total de 15 extraits de films Dans chaque clip de film, vous allez voir un personnage qui ressemble qu'ils ressentent une certaine émotion Ils pourraient regarder 'heureux', '.. triste »,« en colère »,« peur », ou« neutre ». tout d'abord, je veux que vous me disiez quelle émotion le personnage montre. alors, dites-moi ce que vous avez vécu l'émotion en regardant le filmagrafe. Enfin, dites-moi le nombre qui décrit le mieux l'intensité de l'émotion que vous avez ressenti en regardant le clip. Par exemple, si le visage de la personne qui vous a fait sentir «modérément» heureux ou triste, encercler un nombre allant de 1 à 3. Si vous vous êtes senti «modérément» heureux ou triste, encercler un nombre allant de 4 à 6. Si vous vous êtes senti «très «heureux ou triste, encercler un nombre allant de 7 à 9. Seulement encercler 0 si vous ne ressentez une émotion. Avez-vous des questions?"
    NOTE: Seule la première question (Dites-moi quelle émotion le personnage montre) a été analysé pour l'étude en cours.
  5. Double-cliquez 01 pour ouvrir le premier clip de film.
  6. Dites au participant quel personnage de se concentrer sur tout en regardant le clip.
  7. Sélectionnez 'Afficher en plein écran »dans le menu des options pour lire le clip.
  8. Diriger les participants à répondre à la ligne un (Quelle émotion est le personnage principal connaît?) Sur leur feuille de réponse lorsque le clip a fini de jouer.
  9. i> diriger les participants à répondre à la ligne b (Choisissez une émotion qui décrit le mieux ce que vous avez ressenti en regardant le clip) sur la feuille de réponse , une fois la ligne d' un a reçu une réponse.
  10. Diriger le participant pour répondre à la ligne c (Comment évaluez-vous l'intensité de l'émotion vous avez vécu tout en regardant le clip?) Une fois la ligne b a été répondu.
  11. Diriger le participant de re-diriger sa / son attention sur l'écran d'ordinateur une fois que les réponses sont complètes.
  12. Retour au dossier sur l'ordinateur qui contient les extraits de films dans l'ordre assigné pour le participant.
  13. Double CCK sur 02 pour ouvrir le second clip de film. Répétez les étapes 5.5 à 5.12 jusqu'à ce que le participant a vu l'ensemble des 15 extraits de films.
  14. Recueillir la feuille du participant (s) de réponse.

6. Passer d'une tâche à l'autre (étape facultative)

  1. Fournir aux participants la possibilité de prendre une pause entre les tâches 2 et 3.
e_title "> 7. Scoring les tâches

  1. Reportez - vous à la clé de réponse à la page 25 du manuel de DANVA2 32 pour marquer la tâche DANVA-Faces.
  2. Note des objets qui correspondent à la clé de réponse que 1 et éléments incorrects comme 0. Je ne sais pas »sont notés comme 0.
  3. Calculer un score brut en ajoutant le nombre total de réponses correctes. Divisez le score brut de 24 (points totaux) pour obtenir un score de pourcentage de précision.
  4. Reportez - vous à la clé de réponse à la page 27 du manuel de DANVA2 32 et répétez les étapes 7.2 et 7.3 pour marquer la tâche DANVA-voix.
  5. Reportez-vous à la clé de réponse de l'ordre assigné de la présentation du clip de film pour le participant. Note 1 si le participant a identifié l'émotion cible lors de la réponse à la question sur ce que l'émotion du personnage montrait, et 0 si le participant n'a pas choisi l'émotion cible (y compris si le participant a dit: «Je ne sais pas»).
  6. Calculer un score brut en ajoutant le nombre de correct réponses. Divisez le score brut de 15 (points totaux) pour obtenir un score de pourcentage de précision.
  7. Créer un score de sous-ensemble pour la tâche du plan-séquence qui ne contient que des réponses aux extraits de films heureux, triste, en colère, et craintifs en ajoutant des réponses correctes à ces seuls 12 clips. Diviser le nombre de réponses correctes par 12 pour obtenir un score de pourcentage de précision.
  8. Créer un score pour les réponses aux extraits de films neutres en ajoutant le nombre de réponses correctes aux clips neutres. Diviser le nombre de réponses correctes par 3 pour obtenir un score de pourcentage de précision.
    NOTE: Un score de sous-ensemble doit être créé parce que les tâches DANVA ne comprennent pas les représentations de neutre alors que la tâche des clips du film a fait.
  9. Calculer un score de réponses à des éléments valenced positivement (ie., Heureux) et les articles valenced négativement (combiner des réponses à des stimuli en colère, peur et tristes) pour les trois tâches.
  10. Divisez le score pour les articles valenced positivement pour chaque tâche par 3 pour obtenir percentage score précision.
  11. Divisez le score pour les articles valenced négativement pour chaque tâche de 9 pour obtenir pourcentage des scores de précision.

Analyse 8. Données

  1. Procéder à un modèle mixte analyse de variance (ANOVA) pour examiner les réponses aux stimuli isolés du visage émotion, isolé stimuli émotion vocales et multimodales stimuli clip de film par les participants avec les participants TBI et de contrôle.
  2. Explorez les principaux effets trouvés dans l'ANOVA en utilisant des comparaisons univariées suivi.

Résultats

Cette tâche batterie a été utilisée pour comparer la reconnaissance des émotions pour les expressions d'émotion isolées (c. -à- face seulement;. Voix seulement) et les expressions d'émotion combinées (. -À- dire, le visage et la voix) qui se produisent dans un contexte situationnel. Un total de 60 (37 hommes et 23 femmes) participants modérée à sévère TBI entre les âges de 21 et 63 ans (moyenne = 40,98) et 60 (38 hommes et 22 femmes) âge -match...

Discussion

Le manuscrit décrit trois tâches utilisées pour évaluer les capacités de reconnaissance des émotions des personnes atteintes de TBI. Le but de la méthode décrite était de comparer la précision de la réponse pour les signaux émotionnels faciales et vocales dans l'isolement, à la perception de ces signaux se produisant simultanément dans le contexte de la situation significative. Des extraits de films ont été inclus dans l'étude actuelle parce que leur rapprochement des situations de tous les jour...

Déclarations de divulgation

The author has nothing to disclose.

Remerciements

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

matériels

NameCompanyCatalog NumberComments
Diagnostic Analysis of Nonverbal Accuracy-2Department of Pychology, Emory University. Atlanta, GADANVA-Faces subtest, DANVA-Voices subtest
ComputerApple iMac Desktop, 27" display
Statistical Analysis SoftwareSPSSUniversity Licensed software for data analysis
Happy Film Clip 1Sweet Home Alabama, D&D Films, 2002, Director: A TennantA man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2Wedding Crashers, New Line Cinema, 2005, Director: D. DobkinA couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. YakinAn African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1Grey's Anatomy, ABC, 2006, Director: P. HortonA father is only able to communicate with his family using his eyes. 
Sad Film Clip 2Armageddon, Touchstone Pictures, 1998, Director: M. BayA daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3Grey's Anatomy, ABC, 2006, Director: M. TinkerA woman is heartbroken her fiance has died
Angry Film Clip 1Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. SullivanAn older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2Enough, Columbia Pictures, 2002, Director: M. AptedA wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3Pretty Woman, Touchstone Pictures, 1990, Director: G. MarshallA call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1Blood Diamond, Warner Bros Pictures, 2006, Director: E. ZwickNumerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. PerelmanTwo teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. ShyamalanA young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1The Other Sister, Mandeville Films, 1999, Director: G. MarshallA mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2The Game, Polygram Filmed Entertainment, 1999, Director: D. FincherOne gentleman is explaining the rules of a game to another
Neutral Film Clip 3The Notebook, New Line Cinema, 2004, Director: N. CassavetesAn older gentleman and his doctor are conversing during a routine check-up

Références

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O'Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context - SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

Comportementnum ro 111la reconnaissance de l motionles expressions faciales isol esisol es expressions d motions vocalesdes indices contextuelsdes extraits de filmsdes l sions c r brales traumatiques

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.