JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Dieser Beitrag beschreibt, wie eine Batterie von Verhaltens Aufgaben zu implementieren Emotionserkennung von isolierten Gesichts- und Stimm Emotionen Ausdrücken zu untersuchen und eine neue Aufgabe kommerzielle Fernseh- und Filmclips mit multimodalen Emotionserkennung zu bewerten, die kontextuellen Hinweise enthält.

Zusammenfassung

Die aktuelle Studie präsentiert 60 Menschen mit traumatischen Hirnverletzungen (TBI) und 60 Kontrollen mit isolierten Gesichts Emotionen Ausdrücken, isoliert vocal Emotion Ausdrücke und multimodal (dh., Filmclips) Reize , die kontextuellen Hinweise enthalten. Alle Stimuli wurden per Computer vorgestellt. Die Teilnehmer waren erforderlich, um anzuzeigen, wie die Person in jedem Stimulus wurde das Gefühl ein Forced-Choice-Format. Zusätzlich wird für die Filmclips, hatten die Teilnehmer, um anzuzeigen, wie sie in Antwort auf den Stimulus gefühlt, und die Höhe der Intensität, mit der sie diese erfahren Emotion.

Einleitung

Schädel - Hirn - Verletzung (TBI) leiden etwa 10 Millionen Menschen jedes Jahr auf der ganzen Welt ein. Im Anschluss an TBI, die Fähigkeit , Emotionen in anderen zu erkennen mit nonverbale Signale wie Gesichts- und Stimm Ausdrücke (dh., Ton der Stimme) und kontextuelle Cues wird oft deutlich 2-7 beeinträchtigt. Da eine erfolgreiche zwischenmenschliche Interaktionen und Qualität Beziehungen zumindest teilweise auf eine genaue Interpretation abhängig sind von anderen Emotionen 7-10, ist es nicht verwunderlich , dass mit Emotionserkennung Schwierigkeit der schlechten sozialen Ergebnisse berichtet worden , häufig folgende TBI 3,8 berichtet beizutragen, 11,12.

Studien Emotionserkennung von Menschen mit TBI Untersuchung haben sich auf isolierte Hinweise zu konzentrieren neigten, vor allem die Anerkennung der Gesichts Emotionen Ausdrücken mit statischen Fotografien 2. Während dieser Arbeiten können bei der Information der Entwicklung von Behandlungs pro wichtigGramm, ist es nicht ausreichend die Fähigkeit, in alltäglichen Interaktionen nonverbale Signale von Emotionen zu erkennen, darstellen und interpretieren. Nicht nur statische Bilder sorgen für mehr Zeit , um die Emotion porträtiert zu interpretieren, sie auch in der Regel schildern nur die Spitze (dh., Maximale Darstellung) der Ausdrücke 13-16. Zusätzlich statische Bilder nicht über die zeitlichen Hinweise , die mit der Bewegung auftreten 12,13,15, und sind nicht repräsentativ für die schnell in alltäglichen Situationen begegnet Mimik Emotionen zu verändern. Ferner gibt es Hinweise , um anzuzeigen , dass statische und dynamische visuelle Ausdrücke in verschiedenen Bereichen des Gehirns verarbeitet werden, genauere Antworten auf Stimuli dynamische 17-24.

Vocal Emotionserkennung von Menschen mit TBI hat auch sowohl mit als auch ohne sinnvolle verbale Inhalt untersucht worden. Es wurde vorgeschlagen, dass die Anwesenheit von verbalen Inhalt Wahrnehmungs Anforderungen, weil genaue inte erhöhtrpretation erfordert die gleichzeitige Verarbeitung der nonverbalen Tonfall mit dem semantischen Inhalt der verbalen Nachricht enthalten 25. Während viele Studien eine verbesserte Anerkennung von Gesang gezeigt haben , beeinflussen in Abwesenheit von sinnvollen verbalen Inhalt, Dimoska et al. 25 keinen Unterschied in der Leistung gefunden. Sie argumentieren, dass Menschen mit TBI haben eine Tendenz zu semantischen Gehalt in affektiven Sätze; so dass selbst wenn der Inhalt semantisch neutrale oder beseitigt ist, sie weiterhin auf die mündlichen Informationen in dem Satz zu konzentrieren. So haben ihre Ergebnisse nicht eindeutig zeigen, ob sinnvolle verbale Inhalt fördert oder behindert vocal emotionalen Ausdruck.

Neben der sinnvollen verbalen Inhalt, der die nonverbale Gesangs Cues begleiten kann, wird Kontext auch durch die soziale Situation selbst zur Verfügung gestellt. Situativen Kontext liefert Hintergrundinformationen über die Umstände, unter denen die Emotion Ausdruck erzeugt wurde, und kann somit stark ineinflussen die Interpretation des Ausdrucks. Bei der Bewertung, wie jemand fühlt, verwenden wir Kontext zu bestimmen, ob sich die Situation mit dieser Person Wünsche und Erwartungen in Einklang steht. Dies wirkt sich letztlich , wie jemand fühlt, so die Kenntnis der situativen Kontext sollte 26 Emotion 'in genauer Inferencing anderer führen. Die Fähigkeit , dies zu tun , wird als Theorie des Geistes, ein Konstrukt zu wesentlich beeinträchtigt folgenden TBI 6,27-31 gefunden. Milders et al. 8,31 Bericht , dass die Menschen mit TBI erhebliche Schwierigkeiten haben , um genaue Urteile über und das Verständnis der Absichten und Gefühle der Charaktere in kurzen Geschichten.

Während diese Studien Defizite in nonverbale und situationsEmotionsVerarbeitung hervorgehoben haben, ist es schwierig, die Ergebnisse zu alltäglichen sozialen Interaktionen, wo diese Signale auftreten, nebeneinander und im sozialen Kontext zu verallgemeinern. Um besser zu verstehen, wie Menschenmit TBI Emotion in alltäglichen sozialen Interaktionen zu interpretieren, müssen wir Stimuli zu verwenden, die in der Natur multimodal sind. Nur zwei frühere Studien haben eingeschlossen multimodale Stimuli im Rahmen ihrer Untersuchung, wie die Menschen mit TBI Prozess Emotion Cues. McDonald und Saunders 15 und Williams und Holz 16 extrahiert Reize aus der Emotion Auswerteversuch (EET), die 26 Teil , das Bewusstsein für soziale Inference - Test ist. Die EET besteht aus Video aufgezeichnet Vignetten, die männliche und weibliche Schauspieler zeigen porträtiert nonverbale Emotion Cues, während im Gespräch eingreifen. Die verbale Inhalt in den Gesprächen ist semantisch neutral; Hinweise darüber, wie die Akteure fühlen und Kontextinformationen sind nicht vorgesehen. Daher die Notwendigkeit, zu verarbeiten und sinnvolle verbale Inhalte zu integrieren und gleichzeitig diese Weise mit den nonverbalen Gesichts- und Stimm Cues eliminiert wurde. Die Ergebnisse dieser Studien zeigten, dass Menschen mit TBI waren significantly weniger genau als die Kontrollen in ihrer Fähigkeit, Emotionen aus multimodale Stimuli zu identifizieren. Da weder eine Studie der Einfluss von semantischen oder Kontextinformationen zur Interpretation von Emotionen Ausdrücken betrachtet, bleibt unklar, ob die Zugabe von dieser Art der Informationsverarbeitung wegen der erhöhten intersensorischen Redundanz erleichtern würde oder negativ wegen der erhöhten kognitiven Anforderungen beeinflussen Wahrnehmung.

Dieser Artikel beschreibt eine Reihe von Aufgaben verwendet Wahrnehmung von Gesichts- und Stimm emotionale Signale in Isolation zu vergleichen, und die Wahrnehmung dieser Signale gleichzeitig innerhalb sinnvoller situativen Kontext auftreten. Die Isolationen Aufgaben sind Teil eines größeren Test der nonverbalen Emotionserkennung - Die Diagnose - Analyse der nonverbalen Genauigkeit 2 (DANVA2) 32. In diesem Protokoll haben wir die Erwachsenen Faces (DANVA-Faces) und Adult Parasprache (DANVA-Stimmen) Subtests. Jede dieser Untertests umfasst 24 Stimuli,zeigt sechs Darstellungen jeder glücklich, traurig, wütend und ängstlich Emotionen. Die DANVA2 erfordert Teilnehmer die Emotion porträtiert mit einem Forced-Choice-Format (4 Möglichkeiten) zu identifizieren. Hier wird eine fünfte Option (ich weiß nicht) wird für beide Subtests zur Verfügung gestellt. Die Zeitdauer jeder Gesichtsausdruck wurde von 2 Sekunden bis fünf Sekunden erhöht gezeigt, um sicherzustellen, dass wir Erkennungs beeinflussen wurden bewertet und nicht Geschwindigkeit der Verarbeitung. Wir änderte nichts an der erwachsenen Parasprache Subtest über das Hinzufügen der zusätzlichen Wahl in der Forced-Choice-Antwort-Format. Die Teilnehmer hörten jeder Satz nur einmal. Das Feedback war nicht in jeder Aufgabe zur Verfügung gestellt.

Film-Clips wurden verwendet Wahrnehmung von Gesichts- und Stimm Emotion Hinweise zu beurteilen gleichzeitig im situativen Kontext auftreten. Während die verbale Inhalte innerhalb dieser Clips nicht explizit angeben, welche die Zeichen in den Klammern Gefühl wurden, war es auf den situativen Kontext sinnvoll. Fünfzehn Clips Co extrahiertmmercial Filme und Fernsehserien wurden in die Studie aufgenommen, angefangen jeweils 45 bis 103 (Mittelwert = 71,87) Sekunden. Das Feedback war während dieser Aufgabe an die Teilnehmer zur Verfügung gestellt. Es gab drei Clips für jede der folgenden Kategorien Emotion darstellen: glücklich, traurig, wütend, ängstlich, neutral. Diese Clips wurden basierend auf den Ergebnissen einer Studie mit jungen Erwachsenen durchgeführt wurden gewählt (n = 70) , Zupan, B. & Babbage, DR Emotion elicitation Reize aus Filmclips und Erzähltext. Manuskript eingereicht J Soc Psyc. In dieser Studie wurden die Teilnehmer mit sechs Filmclips für jede der Ziel Emotion Kategorien vorgestellt und sechs neutralen Filmclips, von 24 bis 127 Sekunden (Mittelwert = 77,3 Sekunden). Während das Ziel relativ kurzen Filmclips enthalten war, die jeweils für die Aufnahme ausgewählt Clip benötigt ausreichend Kontextinformationen zu haben , dass es ohne zusätzliche Kenntnisse des Films von den Zuschauern verstanden werden könnte , von dem es 33 genommen wurde.

Die Clips für die aktuelle Studie ausgewählt hatte in den Zupan und Babbage Studie Emotion elicitation Reize aus Filmclips und Erzähltext, wie oben zitiert als Ziel Emotion zwischen 83 und 89% für glücklich korrekt identifiziert wurde, 86-93 % für traurig, 63-93% für wütend, 77-96% für ängstliche, und 81-87% für neutral. Während die gleiche Anzahl von Exemplaren jeder Emotion Kategorie, wie sie in den DANVA2 Aufgaben war (n = 6) wäre ideal gewesen, entschieden wir uns wegen drei der erhöhten Länge der Filmclip Stimuli im Vergleich zu Stimuli in den DANVA-Faces für nur und DANVA-Voices Aufgaben.

Die Daten aus diesen Aufgaben wurden von 60 Teilnehmern mit TBI gesammelt und 60 nach Alter und Geschlecht abgestimmte Kontrollen. Die Teilnehmer wurden entweder einzeln oder in kleinen Gruppen (max = 3) und die Reihenfolge der in Testsitzungen wurde randomisiert drei Aufgaben gesehen.

Protokoll

Dieses Protokoll wurde von den Institutional Review Boards an der Brock University und an Carolinas Rehabilitation genehmigt.

1. Vor der Prüfung

  1. Erstellen Sie drei separate Listen für die 15 Filmclips, die jeweils die Auflistung der Clips in einem anderen eingeschränkten Reihenfolge.
  2. Stellen Sie sicher, dass jede Liste beginnt und endet mit einem neutralen Reiz und dass keine zwei Clips, die die gleiche Emotion nacheinander auftreten Ziel.
  3. Erstellen Sie einen separaten Ordner auf dem Desktop für jede Liste von Film um Präsentation und beschriften Sie den Ordner mit dem Bestellbezeichnung (z. B. Auftrag 1).
  4. Speichern Sie die 15 Clips in jeder der drei Ordner.
  5. Re-label jeden Film - Clip , so dass es die Präsentation Zahl reflektiert und gibt keine Hinweise in Bezug auf die Ziel Emotion (dh 01;. 02; 03;. Usw.).
  6. Erstellen Sie sechs randomisierten Aufträge von Aufgabe (DANVA-Faces, DANVA-Stimmen, Film - Clips) Präsentation (siehe Abbildung 1).
  7. Ordnen Sie die eingehenden participAmeise auf einer der drei beschränkt Aufträge von Filmclips Präsentation.
  8. Ordnen Sie die eingehenden Teilnehmer zu einer der sechs randomisierten Ordnungen Aufgabe Präsentation.

2. Testtag

  1. Bringen Sie (n) Teilnehmer in das Labor und Sitz sie bequem am Tisch.
  2. Überprüfen Sie die Einverständniserklärung mit dem Teilnehmer durch jeden Abschnitt mit ihm / ihr zu lesen.
  3. Beantworten Sie alle Fragen der Teilnehmer kann über die Zustimmung Form haben und ihn / sie es unterzeichnen.
  4. Haben die Teilnehmer die kurze demographischen Fragebogen (Geburtsdatum, Geschlecht) abzuschließen. Lassen Sie die Teilnehmer mit TBI zusätzlich den Abschnitt des Fragebogens auf relevante medizinische Fragebogen ausfüllen (Datum der Verletzung, Ursache für Verletzungen, Verletzungsschwere).
    HINWEIS: Wenn die Teilnehmer den Fragebogen absolvieren, erkundigen sich über bekannte visuelle Schwierigkeiten Verarbeitung, so dass Sie entsprechend Teilnehmer mit TBI Sitz kann
  5. Positionieren Sie den Teilnehmer vor the Computer in einem Stuhl. Stellen Sie sicher, dass alle Teilnehmer (wenn mehr als ein), um eine klare Sicht auf den Bildschirm.

3. DANVA-Faces-Task

  1. Geben Sie jedem Teilnehmer eine Clip-Board mit dem DANVA-Faces Antwortbogen angebracht und einem Stift Kreis Antworten.
  2. Geben Sie die Teilnehmer die folgenden Anweisungen: "Nachdem Sie die einzelnen Elemente zu sehen, kreisen Ihre Antwort (glücklich, traurig, wütend, ängstlich oder neutral) auf der Linie, die auf jeder Folie gezeigt, der Artikelnummer entspricht."
    HINWEIS: Wenn die Teilnehmer mit TBI visuelle Verarbeitungsschwierigkeiten angegeben haben, oder feinmotorischen Schwierigkeiten sind offensichtlich, liefern die Teilnehmer mit der alternativen Antwortseite. Diese Seite listet die fünf Antworten in größeren Text im Querformat.
  3. Öffnen Sie die DANVA-Faces Aufgabe in einer Präsentation und spielen Sie die Diashow-Ansicht.
  4. Geben Sie den Teilnehmern die folgenden Anweisungen: "Für diese Tätigkeit werde ich Ihnen einige Völker Gesichter zu zeigen, und ich will dichsagen Sie mir, wie sie sich fühlen. Ich möchte Sie, mir zu sagen, ob sie glücklich, traurig, wütend oder ängstlich sind. Ängstliche ist das gleiche wie Angst oder Angst. Wenn Sie unsicher über die Emotion sind, wählen Sie die "Ich weiß es nicht" Antwort. Es gibt 24 Gesichter zusammen. Jedes Gesicht wird fünf Sekunden lang auf dem Bildschirm sein. Sie müssen beantworten, bevor das Gesicht verschwindet für deine Antwort zu zählen. Geben Sie Ihre Antwort, indem sie auf dem Blatt vor Ihnen kreisen ".
    HINWEIS: Wenn der Teilnehmer nicht in der Lage ist, seine / ihre eigenen Antworten zu umkreisen und in der Studie als Teil einer kleinen Gruppe, geben Sie die folgende Anweisung beteiligt: ​​"Geben Sie Ihre Antwort auf das Blatt vor Ihnen auf sie zeigen". Der Prüfer wird dann aufzeichnen Antwort des Teilnehmers auf der DANVA-Faces Antwortbogen.
  5. Achten Sie darauf, die Teilnehmer vor dem Start keine Fragen haben.
  6. Starten Sie die Aufgabe mit den beiden Trainings Studien. Geben Sie den Teilnehmern die folgenden Anweisungen: "Wir zwei pra abgeschlossen werdenctice Studien, so dass Sie bekommen ein Gefühl dafür, wie lange jedes Gesicht auf dem Bildschirm angezeigt wird, und wie lange haben Sie Ihre Antwort zu geben ".
  7. Hit auf der Tastatur eingeben, wenn das Gesicht auf den nächsten Reiz zu bewegen verschwindet. Sicherstellen, dass alle Teilnehmer auf den Bildschirm, bevor dies zu tun.
  8. Stellen Sie sicher, dass die Teilnehmer nicht Fragen haben. Falls keine, beginnen die Testversuche. Sicherstellen, dass alle Teilnehmer auf dem Bildschirm suchen. Hit geben Sie die Teststimuli zu starten.
  9. Wiederholen Sie diesen Vorgang für die Praxis Aufgaben umrissen, bis die 24 Stimuli abgeschlossen sind.
  10. Sammeln Sie die Teilnehmer Antwortblätter.

4. DANVA-Voices Aufgabe

  1. Geben Sie jedem Teilnehmer eine Clip-Board mit dem DANVA-Voices Antwortbogen angebracht und einem Stift Kreis Antworten.
    HINWEIS: Wenn die Teilnehmer mit TBI visuelle Verarbeitungsschwierigkeiten angegeben haben, oder feinmotorischen Schwierigkeiten sind offensichtlich, liefern die Teilnehmer mit der alternativen Antwortseite. Dieses page listet die fünf Antworten in größeren Text im Querformat.
  2. Öffnen Sie die DANVA-Voices Aufgabe, indem Sie auf der folgenden Website:
    http://www.psychology.emory.edu/clinical/interpersonal/danva.htm
  3. Klicken Sie auf den Link für Erwachsene Gesichter, Stimmen und Haltungen.
  4. Füllen Sie das Login und Passwort durch einen Buchstaben für das Login eingeben und EMORYDANVA2 für das Passwort eingeben.
  5. Klicken Sie auf Weiter.
  6. Klicken Sie auf Stimmen (grüner Kreis in der Mitte des Bildschirms).
  7. Testen Sie die Lautstärke. Geben Sie die folgenden Anweisungen: "Ich sicher sein wollen, dass Sie den Ton auf dem Computer hören können, und dass es in einem komfortablen Volumen für Sie werde ich Testton klicken Sie mir bitte sagen, ob Sie den Ton hören kann, und.. auch wenn Sie den Ton müssen für Sie sein lauter oder leiser zu sein, komfortabel. "
  8. Klicken Sie auf Test-Sound.
  9. Stellen Sie die Lautstärke entsprechend der Teilnehmeranforderung (Zunahme / Abnahme).
  10. Klicken Sie auf "Testton" wieder. Stellen Sie die Lautstärke nach Wunsch des Teilnehmers. Tun Sie dies, bis der Teilnehmer meldet es auf einem komfortablen Volumen ist.
  11. Überprüfen Sie die Aufgabenanweisungen mit dem Teilnehmer. Geben Sie den Teilnehmern die folgenden Anweisungen: Für diese Tätigkeit, werden Sie jemand sagen, den Satz zu hören: "Ich bin jetzt aus dem Zimmer gehen, aber ich werde später wieder sein." Ich möchte Sie, mir zu sagen, ob sie glücklich, traurig, wütend oder ängstlich sind. Ängstliche ist das gleiche wie Angst oder Angst. Wenn Sie unsicher über die Emotion sind, wählen Sie die "Ich weiß es nicht" Antwort. Es gibt 24 Sätze. Vor jedem Satz gesprochen wird, wird eine Reihe bekannt gegeben. Sie müssen, um den Satz zu hören, die folgt. Die Sätze werden nicht wiederholt, so dass Sie aufmerksam zuhören müssen. Sag mir, wie die Person durch kreisen Ihre Antwort auf das Blatt vor Ihnen ist das Gefühl ". Nachdem Sie Ihre Auswahl getroffen haben, ich brauche eine Antwort auf dem Computer-Bildschirm zu wählen, um zum nächsten Punkt zu bewegen. Ich werde immer t wählener gleiche Emotion (ängstlich). Meine Auswahl zeigt nicht die richtige Antwort in sowieso. "
    HINWEIS: Wenn der Teilnehmer nicht in der Lage ist, seine / ihre eigenen Antworten zu umkreisen und in der Studie als Teil einer kleinen Gruppe, geben Sie die folgende Anweisung beteiligt: ​​"Geben Sie Ihre Antwort auf das Blatt vor Ihnen auf sie zeigen". Der Prüfer wird dann die Antwort der Teilnehmer aufzeichnen, die auf der DANVA-Voices Antwortbogen.
  12. Klicken Sie auf "Weiter".
  13. Direkte Teilnehmer an Kreis (oder Punkt), um ihre Antwort auf ihre Antwort Blatt, wenn der Satz gespielt hat.
  14. Klicken Sie auf "ängstlich". Klicken Sie auf "Weiter".
  15. Wiederholen Sie diesen Vorgang, bis die 24 Sätze abgeschlossen sind.
  16. Verlassen Sie die Website, wenn Sie das Ende der Aufgabe erreichen.
  17. Sammeln Sie die Antwortbögen der Teilnehmer.

5. Film Clip Aufgabe

  1. Sitz Teilnehmer bequem vor dem Computer. Stellen Sie sicher, dass der Bildschirm ful sein kannly von allen gesehen.
  2. Geben Sie jeder Person, die eine Zwischenablage mit einer Kopie des Emotional Film Clip Antwortblatt.
    HINWEIS: Wenn die Teilnehmer mit TBI visuelle Verarbeitungsschwierigkeiten angegeben haben, oder feinmotorischen Schwierigkeiten sind offensichtlich, liefern die Teilnehmer mit zwei alternativen Antwortseiten. Die erste Seite listet die fünf Forced-Choice-Antworten und die zweite stellt die Skala von 0-9. Beide Antwort Seiten in größeren Text und im Querformat.
  3. Öffnen Sie den Ordner auf dem Computer für die zugeordnete Reihenfolge der Videoclip-Präsentation.
  4. Geben Sie den Teilnehmern die folgenden Anweisungen: "Sie werden insgesamt 15 Filmclips zu sehen jeden Film-Clip, werden Sie ein Zeichen sehen, wer wie sieht sie eine bestimmte Emotion Gefühl sind sie aussehen könnte" glücklich ",".. traurig "," wütend "," ängstlich "oder" neutral ". Zuerst habe ich Sie mir zu sagen wollen, was Emotion der Charakter zeigt. Dann mir sagen, welche Emotionen Sie erfahren beim Anschauen des FilmsClip. Schließlich erklären mir die Zahl, die die Intensität der Emotion am besten beschreibt man den Clip fühlte, während Sie. Zum Beispiel, wenn das Gesicht der Person hat dich 'mild' glücklich oder traurig fühlen, kreisen eine Zahl von 1 bis 3 im Bereich Wenn Sie fühlte 'mäßig' glücklich oder traurig, kreisen eine Zahl im Bereich von 4 bis 6. Wenn Sie "sehr wohl 'glücklich oder traurig, kreisen eine Zahl im Bereich von 7 bis 9. Nur 0 kreisen, wenn Sie keine Emotion überhaupt fühlen. Haben Sie irgendwelche Fragen?"
    ANMERKUNG: Nur die erste Frage (Sag mir, welche Emotion das Zeichen angezeigt) wurde für die aktuelle Studie analysiert.
  5. Klicken Sie doppelt 01 den ersten Film-Clip zu öffnen.
  6. Teilen Sie den Teilnehmern, die Zeichen auf das zu konzentrieren, während Sie den Clip sehen.
  7. Wählen Sie "View Full Screen 'im Optionsmenü den Clip zu spielen.
  8. Richten Sie die Teilnehmer zu reagieren, an der Linie (Was Emotion ist die Hauptfigur erlebt?) Auf ihre Antwort Blatt, wenn der Clip abgespielt ist.
  9. i> Richten Sie die Teilnehmer auf der Linie b (Wählen Sie eine Emotion , die am besten beschreibt , wie Sie sich gefühlt , während der Clip zu beobachten) reagieren auf die Antwortblatt einmal Zeile ein beantwortet wurde.
  10. Richten Sie die Teilnehmer auf der Linie C zu reagieren (Wie würden Sie die Intensität der Emotion bewerten Sie erfahren, während Sie den Clip zu beobachten?) Einmal Leitung b beantwortet wurde.
  11. Richten Sie die Teilnehmer erneut zu lenken seine / ihre Aufmerksamkeit auf den Computer-Bildschirm, sobald die Antworten vollständig sind.
  12. Zurück zu dem Ordner auf dem Computer, der die Filmclips in der zugewiesenen Reihenfolge für den Teilnehmer enthält.
  13. Doppel CCK auf 02 den zweiten Videoclip zu öffnen. Wiederholen Sie die Schritte 5,5-5,12 bis der Teilnehmer alle 15 Filmclips angezeigt hat.
  14. Sammeln Sie die Antwortblatt vom Teilnehmer (n).

6. Der Übergang von einer Aufgabe zur anderen (optionaler Schritt)

  1. Geben Sie die Option Teilnehmer eine Pause zwischen Tasks 2 und 3 zu übernehmen.
e_title "> 7. Scoring die Aufgaben

  1. Beachten Sie die Antwortschlüssel auf Seite 25 der DANVA2 Handbuch 32 die DANVA-Faces Aufgabe zu punkten.
  2. "Ich weiß nicht, die Antworten werden ausgewertet als Score 0 Elemente, die den Antwortschlüssel als 1 und falsche Elemente als 0 entsprechen.
  3. Berechnen Sie eine rohe Punktzahl durch die Gesamtzahl der richtigen Antworten hinzugefügt wird. Teilen Sie die Rohwert von 24 (insgesamt Artikel) eine prozentuale Genauigkeit Punktzahl zu erhalten.
  4. Beachten Sie die Antwortschlüssel auf Seite 27 der DANVA2 Handbuch 32 und wiederholen Sie die Schritte 7.2 und 7.3 die DANVA-Voices Aufgabe zu punkten.
  5. Beachten Sie die Antwortschlüssel für zugeordnete Reihenfolge der Präsentation Filmclip für den Teilnehmer. Ergebnis eine 1, wenn der Teilnehmer die Ziel Emotion identifiziert, wenn auf die Frage nach reagiert, was Emotion der Charakter zeigte, und 0, wenn der Teilnehmer nicht das Ziel Emotion wählen (einschließlich, wenn der Teilnehmer sagte: "Ich weiß nicht").
  6. Berechnen Sie eine rohe Punktzahl durch Addieren der Anzahl von correct Antworten. Teilen Sie die Rohwert von 15 (insgesamt Artikel) eine prozentuale Genauigkeit Punktzahl zu erhalten.
  7. Erstellen Sie eine Teilmenge Score für den Film Clip Aufgabe, die durch Zugabe von richtigen Antworten nur auf diese 12 Clips nur Antworten auf die glücklich, traurig, wütend und ängstlich Film-Dateien enthalten. Teilen Sie die Anzahl der richtigen Antworten um 12, um eine prozentuale Genauigkeit Punktzahl erhalten.
  8. Erstellen Sie eine Partitur für Antworten auf neutralen Filmclips, indem die Anzahl der richtigen Antworten auf die neutralen Clips hinzufügen. Teilen Sie die Anzahl der richtigen Antworten von 3, um eine prozentuale Genauigkeit Punktzahl erhalten.
    HINWEIS: Eine Teilmenge Punktzahl muss erstellt werden, weil die DANVA Aufgaben nicht Schilderungen von Neutral umfassen, während der Film-Clips Aufgabe gemacht haben.
  9. Berechnen Sie eine Partitur für Antworten auf positiv Artikel valente (dh., Glücklich) und negativ valente Elemente (kombinieren Antworten zu wütend, ängstlich und traurig Reize) für alle drei Aufgaben.
  10. Teilen Sie die Punktzahl für positiv valente Elemente für jede Aufgabe von 3 zu erhalten percentage Genauigkeit Punktzahl.
  11. Teilen Sie die Punktzahl für negativ valente Elemente für jede Aufgabe von 9 bis prozentuale Genauigkeit Noten erhalten.

8. Datenanalyse

  1. ein gemischtes Modell Varianzanalysen (ANOVA) Verhalten Antworten auf isolierte Gesichts Emotion Reize, isoliert vocal Emotion Reize und multimodale Filmclip Stimuli von den Teilnehmern mit TBI und die Kontrolle von Teilnehmern zu prüfen.
  2. Entdecken Haupt in der ANOVA gefunden Effekte mit Follow-up-univariate Vergleiche.

Ergebnisse

Diese Aufgabe Batterie verwendet wurde Emotionserkennung für isolierte Emotionen Ausdrücken zu vergleichen (dh von Angesicht nur,. Voice-only) und kombiniert Emotionen Ausdrücken (. Dh, Gesicht und Stimme) , die innerhalb eines situativen Kontext auftreten. Insgesamt 60 (37 Männer und 23 Frauen) Teilnehmer mit mittelschwerer bis schwerer TBI im Alter von 21 bis 63 Jahren (Mittelwert = 40,98) und 60 (38 Männer und 22 Frauen) Alter -matched Controls (Bereich = 18 bis...

Diskussion

Das Manuskript beschreibt drei Aufgaben verwendet, um Emotionserkennung Fähigkeiten von Menschen mit TBI beurteilen. Das Ziel des beschriebenen Verfahrens war Ansprechgenauigkeit für Gesichts- und Stimm emotionale Signale in Isolation, um die Wahrnehmung dieser Signale gleichzeitig innerhalb sinnvoller situativen Kontext auftreten, zu vergleichen. Film-Clips wurden in der aktuellen Studie aufgenommen, weil ihre Annäherung an Alltagssituationen machte sie ökologisch gültig als isolierte Darstellungen von Emotionen A...

Offenlegungen

The author has nothing to disclose.

Danksagungen

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

Materialien

NameCompanyCatalog NumberComments
Diagnostic Analysis of Nonverbal Accuracy-2Department of Pychology, Emory University. Atlanta, GADANVA-Faces subtest, DANVA-Voices subtest
ComputerApple iMac Desktop, 27" display
Statistical Analysis SoftwareSPSSUniversity Licensed software for data analysis
Happy Film Clip 1Sweet Home Alabama, D&D Films, 2002, Director: A TennantA man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2Wedding Crashers, New Line Cinema, 2005, Director: D. DobkinA couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. YakinAn African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1Grey's Anatomy, ABC, 2006, Director: P. HortonA father is only able to communicate with his family using his eyes. 
Sad Film Clip 2Armageddon, Touchstone Pictures, 1998, Director: M. BayA daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3Grey's Anatomy, ABC, 2006, Director: M. TinkerA woman is heartbroken her fiance has died
Angry Film Clip 1Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. SullivanAn older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2Enough, Columbia Pictures, 2002, Director: M. AptedA wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3Pretty Woman, Touchstone Pictures, 1990, Director: G. MarshallA call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1Blood Diamond, Warner Bros Pictures, 2006, Director: E. ZwickNumerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. PerelmanTwo teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. ShyamalanA young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1The Other Sister, Mandeville Films, 1999, Director: G. MarshallA mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2The Game, Polygram Filmed Entertainment, 1999, Director: D. FincherOne gentleman is explaining the rules of a game to another
Neutral Film Clip 3The Notebook, New Line Cinema, 2004, Director: N. CassavetesAn older gentleman and his doctor are conversing during a routine check-up

Referenzen

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O'Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context - SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

VerhaltenHeft 111Emotion Anerkennungisoliert Mimikisoliert vocal Emotionen Ausdr ckenkontextuelle CuesFilmclipsSch del Hirn Verletzung

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten