JoVE Logo

Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

Questo documento descrive come implementare una serie di compiti comportamentali per esaminare il riconoscimento emozione di isolati emozione espressioni facciali e vocali, e un compito romanzo utilizzando televisivi e cinematografici clip commerciali per valutare il riconoscimento emozione multimodale che include segnali contestuali.

Abstract

L'attuale studio presentato 60 persone con lesioni traumatiche cerebrali (TBI) e 60 controlli con isolate espressioni di emozione facciali, isolate emozione espressioni vocali, e multimodale (cioè., Filmati) stimoli che comprendeva segnali contestuali. Tutti gli stimoli sono stati presentati per via telematica. I partecipanti sono stati tenuti a indicare come la persona in ogni stimolo si sentiva utilizzando un formato a scelta forzata. Inoltre, per i filmati, i partecipanti dovevano indicare come hanno ritenuto in risposta allo stimolo, e il livello di intensità con cui essi hanno sperimentato questa emozione.

Introduzione

Traumatica lesioni cerebrali (TBI) colpisce circa 10 milioni di persone ogni anno in tutto il mondo 1. A seguito di trauma cranico, la capacità di riconoscere le emozioni negli altri che utilizzano segnali non verbali, come le espressioni facciali e vocali (es., Il tono della voce), e segnali contestuali, è spesso compromessa in modo significativo 2-7. Dal momento che le interazioni interpersonali di successo e relazioni di qualità sono almeno in parte dipende dalla precisa interpretazione delle emozioni degli altri 7-10, non è sorprendente che la difficoltà con riconoscimento delle emozioni è stato segnalato per contribuire ai poveri risultati sociali comunemente riportati dopo TBI 3,8, 11,12.

Gli studi che indagano riconoscimento delle emozioni da parte di persone con TBI hanno avuto la tendenza a concentrarsi su spunti isolati, in particolare il riconoscimento delle espressioni facciali emozione utilizzando fotografie statiche 2. Anche se questo lavoro è stato importante per informare lo sviluppo di trattamenti programmi, non adeguatamente rappresentare la capacità di riconoscere e interpretare segnali non verbali di emozioni nelle interazioni quotidiane. Non solo immagini statiche forniscono maggiore tempo per interpretare l'emozione ritratta, ma anche in genere ritraggono solo l'apice (es., Massima rappresentazione) delle espressioni 13-16. Inoltre, le immagini statiche mancano gli spunti temporali che si verificano con il movimento 12,13,15, e non sono rappresentative delle rapidamente mutevoli espressioni facciali delle emozioni incontrate in situazioni quotidiane. Inoltre, ci sono prove per indicare che le espressioni visive statiche e dinamiche vengono elaborati in diverse aree del cervello, con risposte più precise agli stimoli dinamica 17-24.

Vocal riconoscimento delle emozioni da parte di persone con trauma cranico è stato anche studiato, con e senza contenuto verbale significativo. È stato suggerito che la presenza di contenuto verbale aumenta richieste percettive perchè inte accuraterpretation richiede l'elaborazione simultanea del tono di voce non verbale con il contenuto semantico inclusi nel messaggio verbale 25. Mentre molti studi hanno dimostrato una migliore riconoscimento della voce influenzare in assenza di contenuto verbale significativo, Dimoska et al 25. Trovato alcuna differenza in termini di prestazioni. Essi sostengono che le persone con trauma cranico hanno una polarizzazione verso contenuto semantico in frasi affettivi; quindi, anche se il contenuto è semanticamente neutro o eliminati, continuano a concentrarsi sulle informazioni verbali nella frase. Così, i loro risultati non hanno mostrato chiaramente se significativo contenuto verbale aiuta o ostacola emozione espressione vocale.

Oltre al contenuto verbale significativo che può accompagnare i segnali vocali non verbali, il contesto è prevista anche attraverso la situazione sociale stessa. contesto situazionale fornisce informazioni sulle circostanze in cui l'espressione emozione è stata prodotta e può così notevolmente aFluence l'interpretazione dell'espressione. Quando si valuta come qualcuno si sente, usiamo contesto per determinare se la situazione è in linea con desideri e le aspettative di quella persona. Questo riguarda in ultima analisi, come qualcuno si sente, quindi la conoscenza del contesto situazionale dovrebbe tradursi in più accurata di inferenza delle emozioni degli altri 26. La capacità di fare questo viene indicato come teoria della mente, un costrutto trovati ad essere significativamente ridotta dopo TBI 6,27-31. Milders et al. 8,31 di rapporto che le persone con trauma cranico hanno notevole difficoltà a dare giudizi precisi circa e capire le intenzioni ei sentimenti dei personaggi di storie brevi.

Anche se questi studi hanno evidenziato deficit nella trasformazione emozione non verbale e della situazione, è difficile generalizzare i risultati di interazioni sociali quotidiane in cui questi segnali si verificano uno accanto all'altro e all'interno di un contesto sociale. Per capire meglio come personecon TBI interpretare emozioni nelle interazioni sociali quotidiane, abbiamo bisogno di utilizzare stimoli che sono multimodale in natura. Solo due studi precedenti hanno incluso stimoli multimodali come parte della loro indagine sul modo in cui le persone con TBI spunti processo di emozione. McDonald e Saunders 15 e Williams e legno 16 estratti stimoli dal Emotion test di valutazione (EET), che fa parte della consapevolezza del sociale Inference test 26. La EET è costituito da vignette videoregistrate che mostrano maschili e femminili attori che interpretano segnali non verbali emozione e impegnarsi in una conversazione. Il contenuto verbale nelle conversazioni è semanticamente neutra; spunti su come gli attori si sentono e informazioni contestuali non sono forniti. Quindi, la necessità di elaborare e integrare contenuto verbale significativo e contemporaneamente fare questo con i segnali facciali e vocali non verbali è stato eliminato. I risultati di questi studi hanno indicato che le persone con trauma cranico erano RILIEVOtly meno accurato rispetto ai controlli nella loro capacità di identificare l'emozione da stimoli multimodali. Dal momento che né studio considerata l'influenza delle informazioni semantico o contestuale sulla interpretazione delle espressioni di emozione, non è chiaro se l'aggiunta di questo tipo di informazioni faciliterebbe di trasformazione per aumentare la ridondanza intersensoriale o negativamente influenzare la percezione a causa dei maggiori vincoli cognitivi.

Questo articolo delinea una serie di attività utilizzate per confrontare la percezione di spunti emozionali facciali e vocali in isolamento, e la percezione di questi segnali che si verificano simultaneamente nel contesto situazionale significativo. I compiti isolamenti sono parte di un test più ampio di riconoscimento delle emozioni non verbale - l'analisi diagnostica di Precisione non verbale 2 (DANVA2) 32. In questo protocollo, abbiamo utilizzato i volti adulti (DANVA-Faces) e per adulti paralanguage (DANVA-voci) test secondari. Ciascuno di questi subtests include 24 stimoli,raffigurante sei rappresentazioni ciascuno di emozioni felici, tristi, arrabbiati e impauriti. Il DANVA2 richiede ai partecipanti di identificare l'emozione ritratta con una scelta forzata formato (4 scelte). Qui, una quinta opzione (non so) è previsto per entrambi i test. La quantità di tempo è stato mostrato ogni espressione del viso è stato aumentato da due secondi a cinque secondi per assicurarsi che stavamo valutando influenzano il riconoscimento e non la velocità di elaborazione. Non abbiamo alterare il test secondario adulto paralanguage al di là aggiungendo la scelta aggiuntiva in formato risposta scelta forzata. I partecipanti hanno ascoltato ogni frase una sola volta. I commenti non è stato fornito in entrambi i compiti.

Filmati sono stati usati per valutare la percezione dei segnali emozioni facciali e vocali che si verificano simultaneamente nel contesto situazionale. Mentre il contenuto verbale all'interno di queste clip non esplicitamente dichiarare ciò che sentivano i personaggi dei clip, è stato significativo per il contesto situazionale. Quindici clip estratti da cofilm mmercial e serie televisive sono stati inclusi nello studio, ciascuna che vanno 45-103 (media = 71.87) secondi. I commenti non è stato fornito ai partecipanti nel corso di questo compito. C'erano tre clip in rappresentanza di ciascuna delle seguenti categorie di emozione: felice, triste, arrabbiato, paura, neutrale. Queste clip sono stati scelti sulla base dei risultati di uno studio condotto con i giovani adulti (n = 70) Zupan, B. & Babbage, DR Emozione elicitazione stimoli da filmati e testo narrativo. Manoscritto sottoposto a J Soc Psyc. In questo studio, i partecipanti sono stati presentati con sei filmati per ciascuna delle categorie di destinazione emozione, e sei filmati neutri, che vanno da 24 a 127 secondi (media = 77,3 secondi). Mentre l'obiettivo era quello di includere relativamente brevi filmati, ogni clip scelti per l'inclusione bisogno di avere sufficienti informazioni contestuali che potrebbe essere compreso dagli spettatori senza avere ulteriori conoscenze del film da cui è stata presa 33.

I clip selezionati per questo studio erano stati correttamente identificati nei Zupan e Babbage studio Emotion stimoli elicitazione da filmati e testo narrativo, citata come l'emozione di destinazione tra il 83 e il 89% per il felice, 86-93 % per triste, 63-93% per arrabbiato, 77 - 96% per la paura, e l'81 - 87% per il neutro. Pur avendo lo stesso numero di esemplari di ogni categoria emozioni come era nei compiti DANVA2 (n = 6) sarebbe stato ideale, abbiamo optato per solo tre a causa della maggiore lunghezza degli stimoli filmato rispetto a stimoli nei DANVA-Faces e compiti DANVA-voci.

I dati provenienti da queste attività sono stati raccolti da 60 partecipanti con TBI e 60 di età e sesso abbinati controlli. I partecipanti sono stati visti individualmente o in piccoli gruppi (max = 3) e l'ordine delle tre attività è stato randomizzato tra le sessioni di test.

Protocollo

Questo protocollo è stato approvato dalle commissioni di revisione istituzionali a Brock University e al Carolinas riabilitazione.

1. Prima di Testing

  1. Creare 3 liste separate per i filmati 15, ogni elenco dei clip in un diverso ordine limitato.
  2. Assicurarsi che ogni lista inizia e finisce con uno stimolo neutro e che non esistono due clip che hanno come target la stessa emozione si verificano consecutivamente.
  3. Creare una cartella separata sul desktop per ogni elenco di presentazione dell'ordine pellicola ed etichettare la cartella con il nome Ordina (ad es., Ordine 1).
  4. Salvare le 15 clip in ciascuna delle tre cartelle.
  5. Re-etichettare ogni filmato in modo che rifletta il numero di presentazione e non dà indizi per quanto riguarda l'emozione di destinazione (ad esempio, 01,. 02, 03;., Ecc).
  6. Creare sei ordini randomizzati compito (DANVA-Faces, DANVA-voci, filmati) presentazione (vedi Figura 1).
  7. Assegnare il particip arrivoformica ad uno dei tre ordini ristrette di presentazione filmati.
  8. Assegnare il partecipante in arrivo per uno dei sei ordini randomizzati di presentazione compito.

2. giornata di test

  1. Portare partecipante (s) nel laboratorio e farli sedere comodamente a tavola.
  2. Rivedere il modulo di consenso con il partecipante leggendo ogni sezione con lui / lei.
  3. Rispondere alle domande che la partecipante può avere su il modulo di consenso e lo hanno / lei firmarlo.
  4. Sono i partecipanti completare la breve questionario demografico (data di nascita; genere). Avere partecipanti con TBI inoltre completare la sezione del questionario sul relativo questionario medico storia (data della lesione, causa del pregiudizio, la gravità delle lesioni).
    NOTA: Quando i partecipanti stanno completando il questionario, informarsi su eventuali difficoltà di elaborazione visiva noti quindi si può sedere ai partecipanti TBI di conseguenza
  5. Posizionare il partecipante di fronte the computer in una sedia. Assicurarsi che tutti i partecipanti (se più di uno) hanno una chiara visione dello schermo.

3. DANVA-Faces Task

  1. Dare ad ogni partecipante una scheda di clip con il DANVA-Faces foglio di risposta allegato e una penna per risposte cerchio.
  2. Fornire il partecipante le seguenti istruzioni: "Dopo aver visto ogni elemento, cerchio attorno alla risposta (felice, triste, arrabbiato, paura, o neutro) sulla linea che corrisponde al numero di articolo indicato in ogni diapositiva."
    NOTA: Se i partecipanti con trauma cranico hanno indicato difficoltà di elaborazione visiva o difficoltà motorie sono evidenti, fornire al partecipante con la pagina di risposta alternativa. In questa pagina sono elencate le cinque risposte nel testo più grande in formato orizzontale.
  3. Aprire il compito DANVA-Faces in una presentazione e riprodurlo utilizzando il Slide Show.
  4. Dare ai partecipanti le seguenti istruzioni: "Per questa attività, ho intenzione di mostrare i volti dei popoli 'e ti vogliodirmi come si sentono. Voglio che tu mi dica se sono felice, triste, arrabbiato o paura. Timoroso è la stessa cosa di paura o paura. Se non siete sicuri delle emozioni, scegli la risposta 'non lo so'. Ci sono 24 volti del tutto. Ogni faccia sarà sullo schermo per cinque secondi. È necessario rispondere prima il volto scompare per la risposta a contare. Indicare la risposta cerchiando sul foglio di fronte a voi ".
    NOTA: Se il partecipante è in grado di circondare i suoi / le proprie risposte e partecipa allo studio come parte di un piccolo gruppo, fornire le seguenti istruzioni: "Indicare la risposta indicando sul foglio di fronte a voi". L'esaminatore quindi registrare la risposta del partecipante sul foglio risposta DANVA-Faces.
  5. Assicurarsi che i partecipanti non hanno tutte le domande prima di iniziare.
  6. Avviare l'attività con le due prove pratiche. Dare ai partecipanti le seguenti istruzioni: "Stiamo andando a completare due praprove ctice in modo che si ottiene un senso di quanto tempo apparirà ogni faccia sullo schermo, e per quanto tempo è necessario fornire la vostra risposta ".
  7. Premere Invio sulla tastiera quando il volto scompare per passare al successivo stimolo. Assicurarsi che tutti i partecipanti stanno osservando in su lo schermo prima di farlo.
  8. Assicurarsi che i partecipanti non hanno domande. Se nessuno, iniziano le prove di laboratorio. Assicurarsi che tutti i partecipanti stanno guardando lo schermo. Premi Invio per avviare gli stimoli di prova.
  9. Continuare la procedura descritta per i compiti di pratica fino a quando i 24 stimoli sono completi.
  10. Raccogliere i fogli di risposta dei partecipanti.

4. DANVA-Voci Task

  1. Dare ad ogni partecipante una scheda di clip con il foglio di risposta DANVA-Voci allegato e una penna per risposte cerchio.
    NOTA: Se i partecipanti con trauma cranico hanno indicato difficoltà di elaborazione visiva o difficoltà motorie sono evidenti, fornire al partecipante con la pagina di risposta alternativa. Questo page sono elencate le cinque risposte nel testo più grande in formato orizzontale.
  2. Aprire il compito DANVA-Voices andando sul seguente sito web:
    http://www.psychology.emory.edu/clinical/interpersonal/danva.htm
  3. Clicca sul link per adulti volti, voci e posture.
  4. Compilare il login e la password da inserire alcuna lettera per il login e digitando EMORYDANVA2 per la password.
  5. Fare clic su Continua.
  6. Clicca su Voices (cerchio verde al centro dello schermo).
  7. Verificare il livello del volume. Fornire le seguenti istruzioni: "Voglio essere sicuro che si può ascoltare il suono del computer e che è a un volume comodo per voi sto andando a cliccare suono prova prego di dirmi se è possibile sentire il suono, e.. anche se è necessario il suono di essere più forte o più tranquillo per essere comodo per voi. "
  8. Clicca suono di prova.
  9. Regolare il volume secondo la richiesta del partecipante (aumento / diminuzione).
  10. Fai clic su 'test suono' di nuovo. Regolare il volume in base alla richiesta del partecipante. Fate questo fino a quando il partecipante segnala che è a un volume adeguato.
  11. Rivedere le istruzioni di attività con il partecipante. Dare ai partecipanti le seguenti istruzioni: Per questa attività, che si sta per sentire qualcuno dire la frase 'Io vado fuori dalla stanza ora, ma Torno più tardi.' Voglio che tu mi dica se sono felice, triste, arrabbiato o paura. Timoroso è la stessa cosa di paura o paura. Se non siete sicuri delle emozioni, scegli la risposta 'non lo so'. Ci sono 24 frasi. Prima di ogni frase è parlato, sarà annunciato un numero. È necessario ascoltare la frase che segue. Le frasi non si ripeteranno quindi è necessario ascoltare con attenzione. Dimmi come la persona si sente cerchiando la risposta sul foglio davanti a te ". Una volta effettuata la selezione, ho bisogno di selezionare una risposta sullo schermo del computer per passare alla voce successiva. Sarò sempre selezionare tegli stessa emozione (paura). La mia selezione non indica la risposta corretta in ogni caso. "
    NOTA: Se il partecipante è in grado di circondare i suoi / le proprie risposte e partecipa allo studio come parte di un piccolo gruppo, fornire le seguenti istruzioni: "Indicare la risposta indicando sul foglio di fronte a voi". L'esaminatore quindi registrare la risposta del partecipante sul foglio risposta DANVA-Voices.
  12. Fare clic su 'continua'.
  13. I partecipanti diretti a cerchio (o punto a) la loro risposta sul loro foglio di risposta quando la sentenza ha giocato.
  14. Fare clic su 'paura'. Fare clic su 'Avanti'.
  15. Continuare questa procedura fino a quando le 24 frasi sono completi.
  16. Uscire dal sito web quando si raggiunge la fine del compito.
  17. Raccogliere fogli di risposta dei partecipanti.

5. Film Task clip

  1. partecipanti seduta comodamente davanti al computer. Assicurarsi che lo schermo può essere fully visto da tutti.
  2. Dare ad ogni persona un blocco per appunti con una copia del foglio di risposta Film Clip emotiva.
    NOTA: Se i partecipanti con trauma cranico hanno indicato difficoltà di elaborazione visiva o difficoltà motorie sono evidenti, fornire al partecipante con due pagine di risposta alternative. La prima pagina sono elencate le cinque risposte costretto a scelta e il secondo fornisce la scala 0-9. Entrambe le pagine di risposta sono nel testo più grandi e in formato orizzontale.
  3. Aprire la cartella sul computer per l'ordine assegnato di presentazione filmato.
  4. Fornire ai partecipanti le seguenti istruzioni: "Stai per visualizzare un totale di 15 filmati In ogni filmato, si sta andando a vedere un personaggio che sembra si sentono una certa emozione Potrebbero sembrare 'felice', '.. triste ',' arrabbiato ',' paura ', o' neutral '. In primo luogo, voglio che tu mi dica quale emozione il personaggio sta mostrando. Allora dimmi quale emozione si è verificato durante la visione del filmclip. Infine, mi dicono il numero che meglio descrive l'intensità dell'emozione si sentiva mentre si guarda la clip. Per esempio, se il viso della persona ha fatto sentire 'leggermente' felice o triste, cerchio un numero che va da 1 a 3. Se si sentiva 'moderatamente' felice o triste, cerchio un numero che va da 4 a 6. Se si sentiva 'molto 'felice o triste, cerchio un numero che va da 7 a 9. cerchio Solo 0 se non si sentiva alcuna emozione a tutti. Avete domande?"
    NOTA: Solo la prima domanda (Dimmi che emozione il personaggio sta mostrando) è stato analizzato per questo studio.
  5. Fare doppio clic per aprire 01 il primo filmato.
  6. Dite al partecipante quale personaggio di concentrarsi su durante la visualizzazione del clip.
  7. Seleziona 'View Full Screen' nel menu delle opzioni per riprodurre il clip.
  8. Dirigere i partecipanti a rispondere a linea A (Che emozione è il protagonista sperimentando?) Sul loro foglio di risposta quando il clip è finito di giocare.
  9. i> diretta i partecipanti a rispondere alla linea B (Scegliere una emozione che meglio descrive come ti sei sentito durante la visione del clip) sul foglio di risposta una volta che la linea A è stato risposto.
  10. Dirigere il partecipante a rispondere alla linea C (Come giudica l'intensità dell'emozione si è verificato mentre si guarda la clip?) Una volta che la linea B è stato risposto.
  11. Dirigere il partecipante di ri-dirigere il suo / la sua attenzione allo schermo del computer una volta che le risposte sono completi.
  12. Tornare alla cartella sul computer che contiene i filmati nell'ordine assegnato per il partecipante.
  13. Doppia CCK il 02 per aprire il secondo filmato. Ripetere i passaggi 5,5-5,12 fino a quando il partecipante ha visto tutti i 15 filmati.
  14. Raccogliere il foglio risposta dal partecipante (s).

6. Il passaggio da un compito all'altro (Fase facoltativa)

  1. Fornire ai partecipanti la possibilità di prendere una pausa tra le attività 2 e 3.
e_title "> 7. punteggio Compiti

  1. Fare riferimento al tasto di risposta a pagina 25 del manuale DANVA2 32 a segnare il compito DANVA-Faces.
  2. Punteggio elementi che corrispondono il tasto di risposta come 1 e gli elementi non corretti come 0. 'Non lo so' le risposte sono segnati come 0.
  3. Calcolare un punteggio grezzo aggiungendo il numero totale di risposte corrette. Dividere il punteggio grezzo di 24 (punti totali) per ottenere un punteggio percentuale precisione.
  4. Fare riferimento al tasto di risposta a pagina 27 del manuale DANVA2 32 e ripetere i punti 7.2 e 7.3 di segnare il compito DANVA-Voices.
  5. Fare riferimento al tasto di risposta per l'ordine assegnato di presentazione filmato per il partecipante. Segna un 1 se il partecipante ha identificato l'emozione di destinazione quando rispondendo alla domanda su quale emozione il personaggio stava mostrando, e 0 se il partecipante non ha selezionato l'emozione di destinazione (incluso se il partecipante ha detto 'Non lo so').
  6. Calcolare un punteggio grezzo aggiungendo il numero di Cort risposte. Dividere il punteggio grezzo di 15 (punti totali) per ottenere un punteggio percentuale precisione.
  7. Creare un punteggio sottoinsieme per l'attività filmato che contiene solo le risposte alle felici, tristi, arrabbiati e impauriti filmati con l'aggiunta di risposte corrette a solo questi 12 clip. Dividere il numero di risposte corrette per 12 per ottenere un punteggio percentuale precisione.
  8. Creare un punteggio per le risposte ai filmati neutralità aggiungendo il numero di risposte corrette alle clip neutri. Dividere il numero di risposte corrette del 3 per ottenere un punteggio percentuale precisione.
    NOTA: Un punteggio sottoinsieme deve essere creato perché i compiti DANVA non includono rappresentazioni di neutro, mentre la clip compito film ha fatto.
  9. Calcolare un punteggio per le risposte agli elementi a valenza positiva (es., Felice) e negativamente gli elementi a valenza (combinare risposte agli stimoli rabbia, paura e tristi) per tutte e tre le attività.
  10. Dividere il punteggio per gli elementi a valenza positiva per ogni attività del 3 per ottenere percpunteggio accuratezza entage.
  11. Dividere il punteggio per gli elementi a valenza negativa per ogni attività del 9 per ottenere percentuali punteggi di precisione.

Analisi 8. Dati

  1. Condurre un modello misto di analisi della varianza (ANOVA) per esaminare le risposte a stimoli isolati viso emozione, isolati stimoli emozione vocali e multimodali stimoli filmato da parte dei partecipanti con i partecipanti TBI e controllo.
  2. Esplora effetti principali si trovano nel ANOVA usando confronti univariata di follow-up.

Risultati

Questa batteria compito è stato utilizzato per confrontare il riconoscimento emozione per emozione espressioni isolati (ad esempio, faccia sola,. Voice-only) e espressioni di emozione combinati (. Cioè, volto e la voce) che si verificano in un contesto situazionale. Un totale di 60 (37 maschi e 23 femmine) i partecipanti con moderata a grave trauma cranico di età compresa tra 21 e 63 anni tra (media = 40.98) e 60 (38 maschi e 22 femmine) di età Controlli -matched (r...

Discussione

Il manoscritto descrive tre compiti utilizzati per valutare le capacità di riconoscimento emozione di persone con trauma cranico. L'obiettivo del metodo descritto è stato quello di confrontare l'accuratezza di risposta per spunti emozionali facciali e vocali in isolamento, alla percezione di questi segnali che si verificano simultaneamente nel contesto situazionale significativo. Filmati sono stati inclusi in questo studio perché il loro ravvicinamento delle situazioni quotidiane li ha resi più ecologicament...

Divulgazioni

The author has nothing to disclose.

Riconoscimenti

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

Materiali

NameCompanyCatalog NumberComments
Diagnostic Analysis of Nonverbal Accuracy-2Department of Pychology, Emory University. Atlanta, GADANVA-Faces subtest, DANVA-Voices subtest
ComputerApple iMac Desktop, 27" display
Statistical Analysis SoftwareSPSSUniversity Licensed software for data analysis
Happy Film Clip 1Sweet Home Alabama, D&D Films, 2002, Director: A TennantA man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2Wedding Crashers, New Line Cinema, 2005, Director: D. DobkinA couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. YakinAn African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1Grey's Anatomy, ABC, 2006, Director: P. HortonA father is only able to communicate with his family using his eyes. 
Sad Film Clip 2Armageddon, Touchstone Pictures, 1998, Director: M. BayA daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3Grey's Anatomy, ABC, 2006, Director: M. TinkerA woman is heartbroken her fiance has died
Angry Film Clip 1Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. SullivanAn older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2Enough, Columbia Pictures, 2002, Director: M. AptedA wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3Pretty Woman, Touchstone Pictures, 1990, Director: G. MarshallA call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1Blood Diamond, Warner Bros Pictures, 2006, Director: E. ZwickNumerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. PerelmanTwo teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. ShyamalanA young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1The Other Sister, Mandeville Films, 1999, Director: G. MarshallA mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2The Game, Polygram Filmed Entertainment, 1999, Director: D. FincherOne gentleman is explaining the rules of a game to another
Neutral Film Clip 3The Notebook, New Line Cinema, 2004, Director: N. CassavetesAn older gentleman and his doctor are conversing during a routine check-up

Riferimenti

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O'Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context - SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

Comportamentoil riconoscimento Emozioneisolate espressioni faccialiisolate emozione espressioni vocalisegnali contestualifilmatitrauma cranico

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati