JoVE Logo

Войдите в систему

Для просмотра этого контента требуется подписка на Jove Войдите в систему или начните бесплатную пробную версию.

В этой статье

  • Резюме
  • Аннотация
  • Введение
  • протокол
  • Результаты
  • Обсуждение
  • Раскрытие информации
  • Благодарности
  • Материалы
  • Ссылки
  • Перепечатки и разрешения

Резюме

В данной статье описывается, как реализовать батарею поведенческих задач для изучения распознавания эмоций изолированных лица и вокального выражения эмоций, а роман задача с использованием коммерческих телевизионных и кинематографических роликов для оценки мультимодального распознавания эмоций, которая включает в себя контекстные подсказки.

Аннотация

В настоящем исследовании представлены 60 человек с черепно - мозговой травмой (ЧМТ) и 60 управления с изолированными выражения лица эмоции, изолированных вокальных выражения эмоций и мультимодальных (то есть., Видеороликами) раздражители , которые включали контекстные сигналы. были представлены все раздражители с помощью компьютера. Участники должны были указать, каким образом человек в каждом раздражителя чувствовал себя с использованием принудительного выбора формата. Кроме того, для клипов, участники должны были указать, как они чувствовали себя в ответ на стимул, и уровень интенсивности, с которой они испытали, что эмоции.

Введение

Черепно - мозговая травма (ЧМТ) страдают около 10 миллионов человек каждый год по всему миру 1. После ЧМТ, способность распознавать эмоции в других , используя невербальные сигналы , такие как лицевые и вокальные выражения (то есть., Тон голоса), и контекстные подсказки, часто значительно скомпрометирована 2-7. Так как успешные межличностные взаимодействия и качества отношений, по крайней мере частично зависит от точной интерпретации эмоций других людей 7-10, это не удивительно , что трудности с распознавания эмоций, как сообщается, внести свой ​​вклад в бедных социальных результатов обычно сообщается после TBI 3,8, 11,12.

Исследования , расследующие распознавания эмоций люди с ЧМТ имели тенденцию сосредотачиваться на изолированных киев, в частности , распознавания лица выражения эмоций с использованием статических фотографий 2. Хотя эта работа была важна в деле информирования развития лечения программ, он не адекватно представлять свою способность распознавать и интерпретировать невербальные сигналы эмоций в повседневных взаимодействиях. Мало того, что статические изображения обеспечивают увеличенное время , чтобы интерпретировать эмоции изображаемого, они также , как правило , только изображают вершину (т.е.., Максимальное представление) выражений 13-16. Кроме того, статические изображения отсутствуют временные сигналы , которые возникают при движении 12,13,15, и не являются репрезентативными быстро меняющимся мимики эмоций , возникающих в повседневных ситуациях. Кроме того, есть данные, указывающие , что статические и динамические визуальные выражения обрабатываются в различных областях мозга, с более точной реакции на раздражители динамическим 17-24.

Вокальный распознавания эмоций люди с ЧМТ также была изучена, так и без значимого словесного содержания. Было высказано предположение, что наличие вербального содержания повышает требования восприятия, так как точную интеrpretation требует одновременную обработку невербальной тоном с смыслового содержания , включенного в вербальном сообщении 25. В то время как многие исследования показали , улучшенное распознавание вокала влияет в отсутствие значимого словесного содержания, Dimoska и др. 25 не обнаружили никакой разницы в производительности. Они утверждают, что люди с ЧМТ имеют уклон к смысловому содержанию в аффективных предложениях; так что даже когда содержание семантически нейтральным или устранены, они по-прежнему сосредоточены на вербальной информации в предложении. Таким образом, их результаты не ясно показывают, помогает ли смысл словесное содержание или препятствует вокального выражения эмоций.

В дополнение к содержательной словесного содержания, которое может сопровождать невербальные голосовые сигналы, контекст также обеспечивается через саму социальную ситуацию. Ситуационный контекст содержит справочную информацию об обстоятельствах, при которых выражение эмоций, был получен и может, таким образом, в значительной степени вфлюенса интерпретацию выражения. При оценке, как кто-то чувствует, мы используем контекст, чтобы определить, если ситуация согласуется с желаниями и ожиданиями этого человека. Это в конечном счете влияет как кто - то чувствует, так что знание ситуационного контекста должно привести к более точному логического вывода эмоций чужих 26. Возможность сделать это называется теорией разума, конструкцию найденного быть значительно нарушена следующие ЧМТ 6,27-31. Milders и др. 8,31 отчет о том , что люди с ЧМТ имеют значительные трудности , делая точные суждения о том, и понимание намерения и чувства персонажей в кратких рассказах.

В то время как эти исследования выявили дефицит в невербальной и ситуативной обработки эмоций, трудно обобщить результаты повседневных социальных взаимодействий, где эти сигналы встречаются рядом друг с другом и в социальном контексте. Чтобы лучше понять, как людис ЧМТ интерпретировать эмоции в повседневных социальных взаимодействиях, мы должны использовать стимулы, которые мультимодальным по своей природе. Только две предыдущие исследования включали мультимодальные стимулы как часть их расследование, как люди с ЧМТ киев процесс эмоций. Макдональд и Сондерс 15 и Уильямс и Вуд 16 извлеченный раздражители из Emotion апробацию (EET), которая является частью осознании социального Inference Test 26. EET состоит из записанных на видео виньетками, которые показывают мужские и женские актеры, изображающие невербальные сигналы эмоций, участвуя в разговоре. Вербальное содержание в разговорах семантически нейтральным; киев относительно того, как актеры чувствуют и контекстная информация не предоставляется. Таким образом, необходимость обрабатывать и интегрировать значимые словесные содержание, одновременно делая это с помощью невербальных лицевых и голосовых подсказок было устранено. Результаты этих исследований показали, что люди с ЧМТ были significanTLY менее точны, чем контроль в их способности идентифицировать эмоции от мультимодальных стимулов. Поскольку ни исследования рассматривали влияние семантической или контекстную информацию по интерпретации эмоций выражений, остается неясным, является ли добавление такого рода информации будет способствовать обработке из-за увеличения межчувственных избыточности или отрицательно влияют на восприятие из-за увеличения познавательных потребностей.

В данной статье рассматривается ряд задач, используемых для сравнения восприятия лица и вокальных эмоциональных сигналов в изоляции, и восприятие этих реплик, происходящих одновременно в пределах значимого ситуационного контекста. Выделений задачи являются частью большого теста невербального распознавания эмоций - Диагностический анализ невербального точности 2 (DANVA2) 32. В этом протоколе, мы использовали для взрослых Faces (DANVA-начертаний) и взрослых паралингвистика (DANVA-голоса) субтестов. Каждый из этих субтестов включает в себя 24 стимулов,изображающие шесть представлений каждого из счастливых, печальных, сердитых, и страшные эмоции. DANVA2 требует от участников, чтобы идентифицировать эмоции изображаются с использованием принудительного выбора формата (4 варианта). Здесь, пятый вариант (я не знаю) предусмотрен для обоих субтестов. Количество времени, было показано, каждое выражение лица было увеличено с двух секунд до пяти секунд, чтобы гарантировать, что мы оценивали влияют на распознавание, а не скорость обработки. Мы не изменили взрослых паралингвистика подтест за добавления дополнительного выбора в формате принудительного выбора ответа. Участники слышали каждое предложение только один раз. Обратная связь не была предоставлена ​​в любой задаче.

Фильм клипы были использованы для оценки восприятия лица и голосовых эмоций репликами, происходящих одновременно в ситуационном контексте. В то время как вербальное содержание в этих клипов не явно указать, какие были ощущения персонажи в клипах, имело бы смысл ситуационного контекста. Пятнадцать клипов, извлеченные из сотрудничестваmmercial фильмов и телесериалов были включены в исследование, каждый в пределах от 45 до 103 (среднее значение = 71.87) секунд. Обратная связь не была предоставлена ​​участникам во время выполнения этой задачи. Были три клипа, представляющие каждый из следующих категорий: эмоции счастье, печаль, гнев, страх, нейтральная. Эти клипы были выбраны на основе результатов исследования , проведенного с молодыми взрослыми (п = 70) Жупан, Б. и Бэббидж, DR Emotion заключениях раздражители из фильма клипов и повествовательной текста. Рукопись представляется J Soc Ре дак ци. В этом исследовании участники были представлены шесть фильмов клипов для каждой из категорий целевой эмоции, и шесть нейтральных клипов фильма, начиная от 24 до 127 секунд (среднее значение = 77,3 секунды). В то время как цель состояла в том, чтобы включать в себя относительно короткие клипы фильма, каждый клип , выбранный для включения необходимо иметь достаточно контекстную информацию , что это может быть понято зрителями без дополнительных знаний пленки , из которой оно было принято 33.

Клипы , выбранные для данного исследования были правильно определены в исследовании Emotion выясняющих раздражители Zupan и Бэббидж из клипов и повествовательного текста, приведенное выше в качестве целевой эмоции между 83 и 89% для счастливых, 86 - 93 % для грустной, 63 - 93% для сердится, 77 - 96% за страх, а 81 - 87% для нейтральных. В то время как имеющие одинаковое количество экземпляров каждой категории эмоций, как это было в задачах DANVA2 (п = 6) был бы идеальным, мы выбрали только три из-за увеличения длины клипа раздражителей пленки по сравнению с раздражителями в DANVA-Faces и DANVA-Voices задачи.

Данные из этих задач были собраны из 60 участников с ЧМТ и 60 по возрасту и полу контрольной группы. Участники были замечены либо индивидуально, либо в небольших группах (максимум = 3) и порядка трех задач была рандомизированы по тестированию сеансов.

протокол

Этот протокол был одобрен этическими комитетами в Брок Университете и в Carolinas реабилитации.

1. Перед тестированием

  1. Создание 3 отдельные списки для 15 клипов, каждый из которых содержит клипы в другом ограниченном порядке.
  2. Убедитесь в том, что каждый список начинается и заканчивается с нейтральным раздражителем, и что никакие два клипа, которые нацелены на те же эмоции не происходит последовательно.
  3. Создайте отдельную папку на рабочем столе для каждого списка представления заказа пленки и пометить папку с именем Order (например., Заказ 1).
  4. Сохраните 15 клипов в каждой из трех папок.
  5. Повторно маркировать каждую клипом , так что отражает количество презентаций и не дает никаких намеков относительно целевой эмоции (то есть, 01;. 02; 03;. И т.д.).
  6. Создайте шесть рандомизированные порядков задачи (DANVA-Faces, DANVA-голоса, кино клипы) презентации (рисунок 1).
  7. Назначают входящий participмуравей к одному из трех ограниченных порядках видеороликом презентации.
  8. Назначают входящего участника к одному из шести рандомизированных порядков представления задач.

2. День тестирования

  1. Доведите участника (ов) в лабораторию и место их удобно за столом.
  2. Прочтите форму согласия с участником, читая каждый раздел с ним / ней.
  3. Ответьте на любые вопросы, участник может иметь о форме согласия и иметь его / ее подписать.
  4. Были ли участники завершить краткий демографический вопросник (дата рождения, пол). У участников с ЧМТ дополнительно заполнить раздел вопросника по соответствующей медицинской истории вопросник (дата получения травмы, причиной травмы, тяжесть травмы).
    Примечание: Когда участники завершают вопросник, узнать о каких-либо известных визуальных трудностей обработки, так что вы можете усадить участников с ЧМТ соответственно
  5. Поместите участника перед гое компьютер в кресле. Убедитесь в том, что все участники (если их больше одного) иметь четкое представление экрана.

Задача 3. DANVA-Грани

  1. Дайте каждому участнику клип доски с Faces-DANVA лист ответа прилагается и ручка, чтобы круг ответов.
  2. Обеспечить участника следующие инструкции: "После того, как вы видите, каждый элемент, круг вашего ответа (счастье, печаль, гнев, страх, или нейтральный) на линии, которая соответствует номеру элемента, показанного на каждом слайде."
    ПРИМЕЧАНИЕ: Если участники с ЧМТ показали визуальные трудности обработки или мелкие трудности двигателя очевидны, обеспечивают участника со страницей альтернативного ответа. На этой странице перечислены пять ответов в большем тексте в альбомном формате.
  3. Откройте задачу DANVA-фейсы в презентации и воспроизвести его с помощью слайд-шоу View.
  4. Дайте участникам следующие инструкции: "Для этой деятельности, я собираюсь показать вам некоторые лица народов, и я хочу, чтобы выскажите мне, как они чувствуют. Я хочу, чтобы вы сказать мне, если они счастливы, грустно, гнев или страх. Опасаясь это то же самое, боится или страшно. Если вы не уверены в правильности эмоций, выбрать ответ: «Я не знаю». Есть 24 лица в целом. Каждое лицо будет на экране в течение пяти секунд. Вы должны ответить, прежде чем лицо исчезает ваш ответ рассчитывать. Укажите свой ответ, обведя его на листе перед вами ".
    Примечание: Если участник не в состоянии окружить его / ее собственные ответы и участвует в в исследовании в составе небольшой группы, предоставьте следующую инструкцию: "Укажите свой ответ, указав на него на листе перед вами". Экзаменатор будет записывать реакцию участника на DANVA-Faces листа ответа.
  5. Убедитесь в том, что участники не имеют каких-либо вопросов, прежде чем начать.
  6. Запустить задачу с двумя практических испытаний. Дайте участникам следующие инструкции: "Мы собираемся завершить два PRActice испытания, так что вы получите ощущение того, как долго каждая грань будет появляться на экране, и как долго вы должны предоставить свой ответ ".
  7. Хит ввести на клавиатуре, когда лицо исчезает, чтобы перейти к следующему стимулу. Убедитесь, что все участники смотрят на экран, прежде чем сделать это.
  8. Убедитесь в том, что участники не имеют вопросы. Если нет, начать тестовые испытания. Убедитесь, что все участники смотрят на экран. Нажмите Enter, чтобы начать тестовые стимулы.
  9. Продолжайте процедуру, описанную для задач практики, пока 24 раздражители не будут завершены.
  10. Соберите листы ответов участника.

4. DANVA-Голоса задач

  1. Дайте каждому участнику клип борту с ответом листа DANVA-голоса и прикрепленной ручкой к кругу ответов.
    ПРИМЕЧАНИЕ: Если участники с ЧМТ показали визуальные трудности обработки или мелкие трудности двигателя очевидны, обеспечивают участника со страницей альтернативного ответа. Это годовыхGE перечислены пять ответов в большем тексте в альбомном формате.
  2. Откройте задачу DANVA-Voices, перейдя на следующий веб-сайт:
    http://www.psychology.emory.edu/clinical/interpersonal/danva.htm
  3. Нажмите на ссылку для взрослых лица, голоса и позы.
  4. Заполните логин и пароль, введя любую букву для входа в систему и набрав EMORYDANVA2 для ввода пароля.
  5. Нажмите кнопку Продолжить.
  6. Нажмите на голоса (зеленый круг в центре экрана).
  7. Проверьте уровень громкости. Предоставить следующие инструкции: "Я хочу, чтобы быть уверенным, что вы можете услышать звук на компьютере и что она находится в удобном объеме для Вас я собираюсь нажать тестовый звук Пожалуйста, скажите мне, если вы можете услышать звук, и.. Кроме того, если вам нужен звук громче или тише, чтобы быть удобным для вас ".
  8. Нажмите тестовый звук.
  9. Отрегулируйте громкость в соответствии с запросом участника (увеличение / уменьшение).
  10. Нажмите кнопку "Проверить звук" еще раз, Отрегулируйте громкость в соответствии с запросом участника. Делайте это до тех пор, пока участник сообщает, что находится в удобном объеме.
  11. Просмотрите инструкции задач с участником. Дайте участникам следующие инструкции: Для этой деятельности, вы собираетесь услышать кто-то сказал фразу "Я выхожу из комнаты, но я вернусь позже. Я хочу, чтобы вы сказать мне, если они счастливы, грустно, гнев или страх. Опасаясь это то же самое, боится или страшно. Если вы не уверены в правильности эмоций, выбрать ответ: «Я не знаю». Есть 24 предложения. Перед тем как каждое предложение говорится, номер будет объявлено дополнительно. Вы должны слушать предложения, которое следует. Предложения, не будут повторяться, так что вам нужно внимательно слушать. Скажите, как человек чувствует, обведя свой ответ на листе перед вами ". После того, как вы сделали свой выбор, мне нужно выбрать ответ на экране компьютера, чтобы перейти к следующему пункту. Я всегда буду выбирать тон же эмоции (страшно). Мой выбор не указывает на правильный ответ в любом случае. "
    Примечание: Если участник не в состоянии окружить его / ее собственные ответы и участвует в в исследовании в составе небольшой группы, предоставьте следующую инструкцию: "Укажите свой ответ, указав на него на листе перед вами". Экзаменатор будет записывать реакцию участника на листе ответа DANVA-голоса.
  12. Нажмите кнопку "Продолжить".
  13. Прямые участники круга (или точки) на их ответ на их ответ листа, когда предложение играл.
  14. Нажмите 'страшно'. Нажмите "Далее'.
  15. Продолжайте эту процедуру до тех пор, 24 предложения не являются полными.
  16. Выйдите из веб-сайта, когда вы дойдете до конца задачи.
  17. Сбор листов ответов участников.

5. Фильм Целевой клип

  1. Участники сидений комфортно в передней части компьютера. Убедитесь в том, что экран может быть FULLY видно все.
  2. Дайте каждому человеку буфер обмена с копией эмоциональный фильм клип листа Response.
    ПРИМЕЧАНИЕ: Если участники с ЧМТ показали визуальные трудности обработки или мелкие трудности двигателя очевидны, обеспечивают участника двух альтернативных страниц ответа. На первой странице перечислены пять принудительного выбора ответов, а второй обеспечивает шкалу 0-9. Обе страницы ответа в большем тексте и в альбомном формате.
  3. Откройте папку на компьютере для назначенного порядка пленки клипа презентации.
  4. Предоставьте участникам по следующим направлениям: "Вы собираетесь просмотреть в общей сложности 15 фильмов клипов В каждом клипе фильма, вы собираетесь увидеть персонаж, который выглядит, как они чувствуют определенные эмоции они могут выглядеть" счастливый ",".. печально "," сердится "," страшно ", или" нейтральной ". Во-первых, я хочу, чтобы вы сказать мне, какие эмоции характер показывает. Тогда скажите, какие эмоции вы испытывали во время просмотра фильмаклип. И, наконец, скажите мне номер, который наилучшим образом описывает интенсивность эмоций вы чувствовали во время просмотра клипа. Например, если лицо человека заставило вас чувствовать себя 'мягко' счастливым или грустным, круг число в диапазоне от 1 до 3. Если вы почувствовали "умеренно" счастливым или грустным, круг число в диапазоне от 4 до 6. Если вы чувствовали себя "очень 'счастливым или грустным, круг число в диапазоне от 7 до 9. только круг 0, если вы не чувствуете никаких эмоций вообще. У вас есть вопросы?"
    Примечание: Только первый вопрос (Скажи мне, что эмоции характер показывает) была проанализирована для текущего исследования.
  5. Двойной щелчок 01, чтобы открыть первый клипом.
  6. Скажите участника, какой символ, чтобы сосредоточиться на время просмотра клипа.
  7. Выберите "Просмотреть в полноэкранном режиме 'в меню опций для воспроизведения клипа.
  8. Направьте участников ответить на линии а (Какие эмоции главный герой испытывает?) На их ответного листа, когда клип закончил играть.
  9. я> Прямая участников ответить на линии Ъ (Выберите одну эмоцию , которая наилучшим образом описывает , как вы чувствовали себя во время просмотра клипа) на листе ответа , как только линия а был дан ответ.
  10. Прямой участник ответить на линии с (Как бы вы оценили интенсивность эмоции вы испытывали во время просмотра клипа?) Один раз линия б был дан ответ.
  11. Прямой участник перенаправлять его / ее внимание на экране компьютера, как только ответы являются полными.
  12. Вернитесь в папку на компьютере, который содержит зажимы пленки в указанном порядке для участника.
  13. Двойной ССК на 02, чтобы открыть второй клипом. Повторите шаги от 5,5 до 5,12, пока участник не просмотрел все 15 видеороликами.
  14. Возьмите лист ответа от участника (ов).

6. Переход от одной задачи к другой (необязательный шаг)

  1. Предоставить участникам возможность сделать перерыв между задачами 2 и 3.
e_title "> 7. Забив задачи

  1. Обратитесь к ключу ответов на странице 25 руководства 32 DANVA2 забить задачу DANVA-Faces.
  2. Оценка предметов, которые соответствуют ключ ответа как 1 и неправильные детали как 0. 'я не знаю' ответы оцениваются как 0.
  3. Вычислить сырой балл, добавив общее число правильных ответов. Разделить сырой балл по 24 (всего позиций), чтобы получить оценку процент точности.
  4. Обратитесь к ключу ответов на странице 27 руководства 32 DANVA2 и повторите шаги 7.2 и 7.3 , чтобы забить задачу DANVA-голоса.
  5. Обратитесь к ключу для ответа назначенного порядка фильма клипа презентации для участника. 1 балл, если участник определил целевой эмоции при ответе на вопрос о том, какие эмоции характер показывал, и 0, если участник не выбрать целевой эмоции (в том числе, если участник сказал: «Я не знаю»).
  6. Вычислить сырой балл, добавив количество correcт ответы. Разделить сырой балл по 15 (всего позиций), чтобы получить оценку процент точности.
  7. Создать счет подмножество для клипа задачи Film, которая содержит только ответы на счастье, печаль, гнев, и страшные сцены из фильмов, добавляя правильные ответы только эти 12 клипов. Разделите количество правильных ответов на 12, чтобы получить оценку процент точности.
  8. Создание оценки ответов на нейтральных клипов фильма, добавив количество правильных ответов на нейтральных клипов. Разделите количество правильных ответов на 3, чтобы получить оценку процент точности.
    ПРИМЕЧАНИЕ: оценка подмножество должен быть создан, потому что задачи DANVA не включают в себя представления образа Нейтральная в то время как клипы задача фильм сделал.
  9. Вычислить оценки ответов положительно valenced пунктов (то есть., Счастливые) и отрицательно valenced элементы (объединить ответы на сердитых, печальных и страшных раздражителей) для всех трех задач.
  10. Разделите оценку положительно valenced пунктов для каждой задачи на 3, чтобы получить PERCentage Точность оценка.
  11. Разделите оценку отрицательно valenced пунктов для каждой задачи на 9, чтобы получить процентные показатели точности.

Анализ 8. Данные

  1. Провести смешанная модель анализа дисперсии (ANOVA) для изучения ответов на изолированных лицевых эмоциональных раздражителей, изолированных вокальной эмоции раздражители и мультимодальных фильм клип раздражители участников с ЧМТ и управления участниками.
  2. Изучите основные эффекты, обнаруженные в ANOVA с помощью последующих унивариантный сравнений.

Результаты

Эта задача батарея была использована для сравнения распознавания эмоций для отдельных выражений эмоций (т.е. лицом только;. Голос только) и комбинированные выражения эмоций (т. Е, лицо и голос) , которые происходят в ситуационном контексте. В общей сложности 60 (...

Обсуждение

Рукопись описывает три задачи, используемые для оценки способности распознавания эмоций людей с ЧМТ. Целью описанного метода было сравнение точности отклика для лица и голосовых эмоциональных сигналов в изоляции, к восприятию этих реплик, происходящих одновременно в пределах значим?...

Раскрытие информации

The author has nothing to disclose.

Благодарности

This work was supported by the Humanities Research Institute at Brock University in St. Catharines, Ontario, Canada and by the Cannon Research Center at Carolinas Rehabilitation in Charlotte, North Carolina, USA.

Материалы

NameCompanyCatalog NumberComments
Diagnostic Analysis of Nonverbal Accuracy-2Department of Pychology, Emory University. Atlanta, GADANVA-Faces subtest, DANVA-Voices subtest
ComputerApple iMac Desktop, 27" display
Statistical Analysis SoftwareSPSSUniversity Licensed software for data analysis
Happy Film Clip 1Sweet Home Alabama, D&D Films, 2002, Director: A TennantA man surprises his girlfriend by proposing in a jewelry store
Happy Film Clip 2Wedding Crashers, New Line Cinema, 2005, Director: D. DobkinA couple is sitting on the beach and flirting while playing a hand game
Happy Film Clip 3Reme-mber the Titans, Jerry Bruckheimer Films, 2000, Director: B. YakinAn African American football coach and his family are accepted by their community when the school team wins the football championship
Sad Film Clip 1Grey's Anatomy, ABC, 2006, Director: P. HortonA father is only able to communicate with his family using his eyes. 
Sad Film Clip 2Armageddon, Touchstone Pictures, 1998, Director: M. BayA daughter is saying goodbye to her father who is in space on a dangerous mission
Sad Film Clip 3Grey's Anatomy, ABC, 2006, Director: M. TinkerA woman is heartbroken her fiance has died
Angry Film Clip 1Anne of Green Gables, Canadian Broadcast Corporation, 1985, Director: K. SullivanAn older woman speaks openly about a child's physical appearance in front of her
Angry Film Clip 2Enough, Columbia Pictures, 2002, Director: M. AptedA wife confronts her husband about an affair when she smells another woman's perfume on his clothing
Angry Film Clip 3Pretty Woman, Touchstone Pictures, 1990, Director: G. MarshallA call girl attempts to purchase clothing in an expensive boutique and is turned away
Fearful Film Clip 1Blood Diamond, Warner Bros Pictures, 2006, Director: E. ZwickNumerous vehicles carrying militia approach a man and his son while they are out walking
Fearful Film Clip 2The Life Before Her Eyes, 2929 Productions, 2007, Directors: V. PerelmanTwo teenaged gilrs are talking in the school bathroom when they hear gunshots that continue to get closer
Fearful Film Clip 3The Sixth Sense, Barry Mendel Productions, 1999, Director: M. N. ShyamalanA young boy enters the kitchen in the middle of the night and finds his mother behaving very atypically
Neutral Film Clip 1The Other Sister, Mandeville Films, 1999, Director: G. MarshallA mother and daughter are discussing an art book while sitting in their living room
Neutral Film Clip 2The Game, Polygram Filmed Entertainment, 1999, Director: D. FincherOne gentleman is explaining the rules of a game to another
Neutral Film Clip 3The Notebook, New Line Cinema, 2004, Director: N. CassavetesAn older gentleman and his doctor are conversing during a routine check-up

Ссылки

  1. Langlois, J., Rutland-Brown, W., Wald, M. The epidemiology and impact of traumatic brain injury: A brief overview. J. Head Trauma Rehabil. 21 (5), 375-378 (2006).
  2. Babbage, D. R., Yim, J., Zupan, B., Neumann, D., Tomita, M. R., Willer, B. Meta-analysis of facial affect recognition difficulties after traumatic brain injury. Neuropsychology. 25 (3), 277-285 (2011).
  3. Neumann, D., Zupan, B., Tomita, M., Willer, B. Training emotional processing in persons with brain injury. J. Head Trauma Rehabil. 24, 313-323 (2009).
  4. Bornhofen, C., McDonald, S. Treating deficits in emotion perception following traumatic brain injury. Neuropsychol Rehabil. 18 (1), 22-44 (2008).
  5. Zupan, B., Neumann, D., Babbage, D. R., Willer, B. The importance of vocal affect to bimodal processing of emotion: implications for individuals with traumatic brain injury. J Commun Disord. 42 (1), 1-17 (2009).
  6. Bibby, H., McDonald, S. Theory of mind after traumatic brain injury. Neuropsychologia. 43 (1), 99-114 (2005).
  7. Ferstl, E. C., Rinck, M., von Cramon, D. Y. Emotional and temporal aspects of situation model processing during text comprehension: an event-related fMRI study. J. Cogn. Neurosci. 17 (5), 724-739 (2005).
  8. Milders, M., Fuchs, S., Crawford, J. R. Neuropsychological impairments and changes in emotional and social behaviour following severe traumatic brain injury. J. Clin. Exp. Neuropsychol. 25 (2), 157-172 (2003).
  9. Spikman, J., Milders, M., Visser-Keizer, A., Westerhof-Evers, H., Herben-Dekker, M., van der Naalt, J. Deficits in facial emotion recognition indicate behavioral changes and impaired self-awareness after moderate to severe tramatic brain injury. PloS One. 8 (6), e65581 (2013).
  10. Zupan, B., Neumann, D. Affect Recognition in Traumatic Brain Injury: Responses to Unimodal and Multimodal Media. J. Head Trauma Rehabil. 29 (4), E1-E12 (2013).
  11. Radice-Neumann, D., Zupan, B., Babbage, D. R., Willer, B. Overview of impaired facial affect recognition in persons with traumatic brain injury. Brain Inj. 21 (8), 807-816 (2007).
  12. McDonald, S. Are You Crying or Laughing? Emotion Recognition Deficits After Severe Traumatic Brain Injury. Brain Impair. 6 (01), 56-67 (2005).
  13. Cunningham, D. W., Wallraven, C. Dynamic information for the recognition of conversational expressions. J. Vis. 9 (13), 1-17 (2009).
  14. Elfenbein, H. A., Marsh, A. A., Ambady, W. I. N. Emotional Intelligence and the Recognition of Emotion from Facid Expressions. The Wisdom in Feeling: Psychological Processes in Emotional Intelligence. , 37-59 (2002).
  15. McDonald, S., Saunders, J. C. Differential impairment in recognition of emotion across different media in people with severe traumatic brain injury. J. Int Neuropsycho. Soc. : JINS. 11 (4), 392-399 (2005).
  16. Williams, C., Wood, R. L. Impairment in the recognition of emotion across different media following traumatic brain injury. J. Clin. Exp. Neuropsychol. 32 (2), 113-122 (2010).
  17. Adolphs, R., Tranel, D., Damasio, A. R. Dissociable neural systems for recognizing emotions. Brain Cogn. 52 (1), 61-69 (2003).
  18. Biele, C., Grabowska, A. Sex differences in perception of emotion intensity in dynamic and static facial expressions. Exp. Brain Res. 171, 1-6 (2006).
  19. Collignon, O., Girard, S., et al. Audio-visual integration of emotion expression. Brain Res. 1242, 126-135 (2008).
  20. LaBar, K. S., Crupain, M. J., Voyvodic, J. T., McCarthy, G. Dynamic perception of facial affect and identity in the human brain. Cereb. Cortex. 13 (10), 1023-1033 (2003).
  21. Mayes, A. K., Pipingas, A., Silberstein, R. B., Johnston, P. Steady state visually evoked potential correlates of static and dynamic emotional face processing. Brain Topogr. 22 (3), 145-157 (2009).
  22. Sato, W., Yoshikawa, S. Enhanced Experience of Emotional Arousal in Response to Dynamic Facial Expressions. J. Nonverbal Behav. 31 (2), 119-135 (2007).
  23. Schulz, J., Pilz, K. S. Natural facial motion enhances cortical responses to faces. Exp. Brain Res. 194 (3), 465-475 (2009).
  24. O'Toole, A., Roark, D., Abdi, H. Recognizing moving faces: A psychological and neural synthesis. Trends Cogn. Sci. 6 (6), 261-266 (2002).
  25. Dimoska, A., McDonald, S., Pell, M. C., Tate, R. L., James, C. M. Recognizing vocal expressions of emotion in patients with social skills deficits following traumatic brain injury. J. Int. Neuropsyco. Soc.: JINS. 16 (2), 369-382 (2010).
  26. McDonald, S., Flanagan, S., Rollins, J., Kinch, J. TASIT: A new clinical tool for assessing social perception after traumatic brain injury. J. Head Trauma Rehab. 18 (3), 219-238 (2003).
  27. Channon, S., Pellijeff, A., Rule, A. Social cognition after head injury: sarcasm and theory of mind. Brain Lang. 93 (2), 123-134 (2005).
  28. Henry, J. D., Phillips, L. H., Crawford, J. R., Theodorou, G., Summers, F. Cognitive and psychosocial correlates of alexithymia following traumatic brain injury. Neuropsychologia. 44 (1), 62-72 (2006).
  29. Martìn-Rodrìguez, J. F., Leòn-Carriòn, J. Theory of mind deficits in patients with acquired brain injury: a quantitative review. Neuropsychologia. 48 (5), 1181-1191 (2010).
  30. McDonald, S., Flanagan, S. Social perception deficits after traumatic brain injury: interaction between emotion recognition, mentalizing ability, and social communication. Neuropsychology. 18 (3), 572-579 (2004).
  31. Milders, M., Ietswaart, M., Crawford, J. R., Currie, D. Impairments in theory of mind shortly after traumatic brain injury and at 1-year follow-up. Neuropsychology. 20 (4), 400-408 (2006).
  32. Nowicki, S. . The Manual for the Receptive Tests of the Diagnostic Analysis of Nonverbal Accuracy 2 (DANVA2). , (2008).
  33. Gross, J. J., Levenson, R. W. Emotion Elicitation Using Films. Cogn. Emot. 9 (1), 87-108 (1995).
  34. Spell, L. A., Frank, E. Recognition of Nonverbal Communication of Affect Following Traumatic Brain Injury. J. Nonverbal Behav. 24 (4), 285-300 (2000).
  35. Edgar, C., McRorie, M., Sneddon, I. Emotional intelligence, personality and the decoding of non-verbal expressions of emotion. Pers. Ind. Dif. 52, 295-300 (2012).
  36. Nowicki, S., Mitchell, J. Accuracy in Identifying Affect in Child and Adult Faces and Voices and Social Competence in Preschool Children. Genet. Soc. Gen. Psychol. 124 (1), (1998).
  37. Astesano, C., Besson, M., Alter, K. Brain potentials during semantic and prosodic processing in French. Cogn. Brain Res. 18, 172-184 (2004).
  38. Kotz, S. A., Paulmann, S. When emotional prosody and semantics dance cheek to cheek: ERP evidence. Brain Res. 115, 107-118 (2007).
  39. Paulmann, S., Pell, M. D., Kotz, S. How aging affects the recognition of emotional speech. Brain Lang. 104 (3), 262-269 (2008).
  40. Pell, M. D., Jaywant, A., Monetta, L., Kotz, S. A. Emotional speech processing: disentangling the effects of prosody and semantic cues. Cogn. Emot. 25 (5), 834-853 (2011).
  41. Bänziger, T., Scherer, K. R. Using Actor Portrayals to Systematically Study Multimodal Emotion Expression: The GEMEP Corpus. Affective Computing and Intelligent Interaction, LNCS 4738. , 476-487 (2007).
  42. Busselle, R., Bilandzic, H. Fictionality and Perceived Realism in Experiencing Stories: A Model of Narrative Comprehension and Engagement. Commun. Theory. 18 (2), 255-280 (2008).
  43. Zagalo, N., Barker, A., Branco, V. Story reaction structures to emotion detection. Proceedings of the 1st ACM Work. Story Represent. Mech. Context - SRMC. 04, 33-38 (2004).
  44. Hagemann, D., Naumann, E., Maier, S., Becker, G., Lurken, A., Bartussek, D. The Assessment of Affective Reactivity Using Films: Validity, Reliability and Sex Differences. Pers. Ind. Dif. 26, 627-639 (1999).
  45. Hewig, J., Hagemann, D., Seifert, J., Gollwitzer, M., Naumann, E., Bartussek, D. Brief Report. A revised film set for the induction of basic emotions. Cogn. Emot. 19 (7), 1095-1109 (2005).
  46. Wranik, T., Scherer, K. R. Why Do I Get Angry? A Componential Appraisal Approach. International Handbook of Anger. , 243-266 (2010).
  47. Neumann, D., Zupan, B., Malec, J. F., Hammond, F. M. Relationships between alexithymia, affect recognition, and empathy after traumatic brain injury. J. Head Trauma Rehabil. 29 (1), E18-E27 (2013).
  48. Russell, J. A. Is there universal recognition of emotion from facial expression? A review of the cross-cultural studies. Psychol. Bull. 115 (1), 102-141 (1994).

Перепечатки и разрешения

Запросить разрешение на использование текста или рисунков этого JoVE статьи

Запросить разрешение

Смотреть дополнительные статьи

111

This article has been published

Video Coming Soon

JoVE Logo

Исследования

Образование

О JoVE

Авторские права © 2025 MyJoVE Corporation. Все права защищены