JoVE Logo

로그인

JoVE 비디오를 활용하시려면 도서관을 통한 기관 구독이 필요합니다. 전체 비디오를 보시려면 로그인하거나 무료 트라이얼을 시작하세요.

기사 소개

  • 요약
  • 초록
  • 서문
  • 프로토콜
  • 결과
  • 토론
  • 공개
  • 감사의 말
  • 자료
  • 참고문헌
  • 재인쇄 및 허가

요약

자동화 표정 분석 소프트웨어를 사용하여 관능 평가 실험실에서 음료 및 액상 식품에 인구의 감정적 반응을 캡처 및 통계적 분석을위한 프로토콜을 설명한다.

초록

We demonstrate a method for capturing emotional response to beverages and liquefied foods in a sensory evaluation laboratory using automated facial expression analysis (AFEA) software. Additionally, we demonstrate a method for extracting relevant emotional data output and plotting the emotional response of a population over a specified time frame. By time pairing each participant's treatment response to a control stimulus (baseline), the overall emotional response over time and across multiple participants can be quantified. AFEA is a prospective analytical tool for assessing unbiased response to food and beverages. At present, most research has mainly focused on beverages. Methodologies and analyses have not yet been standardized for the application of AFEA to beverages and foods; however, a consistent standard methodology is needed. Optimizing video capture procedures and resulting video quality aids in a successful collection of emotional response to foods. Furthermore, the methodology of data analysis is novel for extracting the pertinent data relevant to the emotional response. The combinations of video capture optimization and data analysis will aid in standardizing the protocol for automated facial expression analysis and interpretation of emotional response data.

서문

자동 얼굴 표정 분석 (AFEA)는 음료 및 음식에 대한 감정적 인 반응을 특성화하기위한 전향 적 분석 도구입니다. 기존의 감각 과학 방법론, 식품 평가 사례 및 쾌락 규모의 평가에 여분의 차원을 추가 할 수 있습니다 감정적 인 분석은 일반적으로 연구 및 산업 설정에서 모두 사용했다. 감정 분석은 식품 및 음료에 대한 더 정확한 응답을 알 추가적인 측정을 제공 할 수있다. 반응 1을 기록 오류로 인해 쾌락 점수는 참가자 바이어스를 포함 할 수있다.

AFEA 연구는 컴퓨터 게임, 사용자 행동, 교육 / 교육학과 공감과기만에 심리학 연구 등 많은 연구 응용 프로그램에서 사용되어왔다. 대부분의 식품 관련 연구는 식품의 품질과 음식 인간 행동에 대한 감정적 반응의 특성에 초점을 맞추고있다. 음식의 행동에 대한 통찰력을 얻고있는 최근의 추세, 문학 보고서의 성장 몸은 AFEA의 사용식품, 음료 및 냄새 물질 1-12과 관련된 인간의 감정적 반응의 특성을합니다.

AFEA는 얼굴 액션 코딩 시스템 (FACS)에서 파생됩니다. 얼굴 동작 코딩 시스템 (FACS)를 5 점 강도 스케일 (13) 상에 작용 유닛 (AUS)을 특징으로 얼굴의 움직임을 구별한다. FACS 접근 방식은 훈련 된 리뷰 전문가, 수동 코딩, 중요한 평가 시간을 필요로하며, 제한된 데이터 분석 옵션을 제공합니다. AFEA 감정을 결정하기 위해 빠른 평가 방법으로 개발되었다. AFEA 소프트웨어는 감정적 반응 14-18의 특성을 얼굴 근육의 움직임, 얼굴 데이터베이스, 알고리즘에 의존합니다. 본 연구에 사용 된 AFEA 소프트웨어는 감정적 인 표정 사진의 바르샤바 세트 (WSEFEP)과 0.70의 표준 계약에 가까운 (ADFES) 설정 암스테르담 동적 얼굴 표정, 모두에서 평균 0.67 합의의 "FACS 지수에 도달 수동 코딩 "19 . 분석에 포함 보편적 인 감정은 1-0의 별도의 규모 (각 행복 (​​긍정적), (음) 슬픔, 혐오 (음), 놀란 (양 또는 음), 화가 (음), 무서워 (음) 및 중립 0 발현되지 = 1 = 완전) 20 표명했다. 또한, 심리학 문헌은 무서워하고, (멀리 혐오 자극에서) 21 "철수"감정으로 혐오, 행복 놀라게하고 화가 "접근"감정 등 (자극 방향)과 슬픈이 포함되어 있습니다.

식품과 관련된 감정을 특성화에 대한 현재 AFEA 소프트웨어 중 하나 제한은 씹는과 삼키는뿐만 아니라 극단적 인 머리의 움직임과 같은 다른 총 모터 동작과 관련된 안면 운동의 간섭이다. 이 소프트웨어는 얼굴 16, 17에 500 개 이상의 근육 포인트를 기준으로 작은 얼굴 근육의 움직임, 관련 위치 및 운동의 정도를 목표로하고있다. 씹는 운동 식의 분류를 방해합니다. 이 제한ATION은 액상 식품을 사용하여 해결 될 수있다. 그러나, 다른 방법의 어려움은 또한 데이터 수집 환경 기술 연구원 설명서, 참가자 행동 및 참가자 속성을 포함한 비디오 감도 AFEA 분석을 감소시킬 수있다.

표준 방법론을 개발하고 최적의 비디오 캡처 및 관능 평가 실험실 환경에서 음식과 음료에 대한 감정적 반응에 대한 AFEA를 사용하여 데이터 분석을 위해 확인되지 않았습니다. 여러 측면 조명 참가자 방향 참가자 동작 참가자 높이이며, 또한, 카메라 높이 카메라, 낚시 및 장치 설정으로 인한 그림자 조명을 포함하는 비디오 캡쳐 환경에 영향을 미칠 수있다. 또한, 데이터 분석 방법론은 상충하는 감정적 반응을 평가하는 표준 방법이 부족하다. 여기, 우리는 (음료를 사용하여 의미있는 결과로 감정적 인 데이터 처리 데이터를 캡처에 대한 우리의 표준 운영 절차를 시연 할 예정이다맛 우유, 평가 향이 우유와 향이 물). 우리의 지식 하나의 피어 검토 출판에, 우리의 실험실 그룹에서, 감정 분석 8 데이터 해석에 대한 시계열을 이용하고있다; 그러나,이 방법은 우리의 표시 방법에 대해 업데이트되었습니다. 우리의 목표는 관능 평가 실험실 설정에서 재현성을 돕는 개선 된 일관된 방법을 개발하는 것이다. 데모를 들어, 연구 모델의 목적은 AFEA는 맛 우유, 향이 우유와 향이 물 기존의 쾌락 수용 평가를 보완 할 수 있는지 평가하는 것입니다. 동영상 프로토콜의 목적은, AFEA 방법론을 확립 도와 관능 평가 실험실에서 비디오 캡쳐 조건 (감각 부스 설정) 표준화, 및 모집단의 시간적 감정 데이터 분석을위한 방법을 도시한다.

프로토콜

윤리 진술 : 본 연구는 이전에 프로젝트를 시작으로 버지니아 공대 임상 시험 심사위원회 (IRB) (IRB 14-229)의 사전 승인을했다.

주의 : 인간 대상 연구에 참여하기 전에 동의가 필요합니다. 정지 또는 비디오 이미지의 사용을위한 IRB 승인, 동의 외에도 인쇄, 비디오 또는 그래픽 영상에 대해 어떤 이미지를 해제하기 전에 필요합니다. 또한, 식품 알레르겐은 테스트 이전에 개시되어있다. 그들이 어떤 편협, 알레르기 또는 다른 문제가 있으면 참가자들은 패널 시작하기 전에 묻는 메시지가 표시됩니다.

참고 : 제외 기준 : 자동화 된 표정 분석은 두꺼운 프레임 안경, 크게 수염이 얼굴과 피부 톤에 민감합니다. 이러한 기준이 참가자로 인해 실패 비디오의 위험 증가에 소프트웨어 분석과 호환되지 않습니다. 이것은 얼굴을 찾을 수있는 소프트웨어의 무능력에 기인한다.

1. 샘플 준비 및 참가자 모집

  1. 음료 또는 소프트를 준비음식 샘플.
    1. 코스텔로와 클라크 (2009 년) 22에서 2 % 우유를 이용하여 유제품 솔루션을 강화하고 제안 맛뿐만 아니라 다른 맛을 준비합니다. 다음과 같은 솔루션을 준비한다 : (1) 향이 우유 (2 % 감소 지방 우유); (2) 향이 물 (식수); 우유 (3) 바닐라 추출액의 맛 (0.02 g / ㎖) (모방 분명 바닐라 맛); 우유 (4) 짠 맛 (g / ㎖ 요오드 소금 0.004).
      참고 :이 솔루션은 데모 용으로 만 사용됩니다.
    2. 이온스에 각 솔루션의 절반 온스 씩 (~ 15g)을 따르십시오. 색상 코드 뚜껑 투명 플라스틱 샘플 컵과 모자.
      참고 : 투명 컵을 사용하는 것이 좋습니다; 그러나, 본 연구자의 판단에 달려있다.
  2. 캠퍼스 또는 지역 사회에서 모집 참가자들은 연구에 참여한다.
    참고 : 연구에 필요한 참가자 표본의 크기가 연구자의 판단에 달려있다. 우리는 10 ~ 50 참가자의 범위를 권장합니다.
  3. 이전 연구에 참여하는 피험자의 동의를 얻습니다.

비디오 캡처 용 패널 룸 2. 준비

참고 :이 프로토콜은 관능 평가 실험실에서 데이터 캡처를위한 것입니다. 이 프로토콜은 감각 부스 설정에 대한 AFEA 데이터 캡처 유용하게하는 것입니다.

  1. 앞으로 자신의 초점을 유지하고 아래를 내려다 보면서 방지하기 위해 그들 (페이스 레벨)의 전면에 터치 스크린 모니터와 함께 개별 부스를 사용합니다.
  2. 다시 지원 높이 조절 의자를 사용합니다.
    주 : 이들 참가자 수직 조정 비디오 캡처를위한 적절한 범위에 배치 할 수 있도록하기위한 필수적이다. 참가자의 움직임이 감소되도록 조정 다시 높이를 지원하는 고정 의자 (더 롤링 기능)를 사용합니다.
  3. (; R = 206, G = 242, B = 255 발광체 6504K) 최적의 얼굴 감정적 비디오 캡처에 대해 "100 % 일광"에서 오버 헤드 조명을 설정합니다.
    참고 : 강한 음영을 방지하기 위해, 확산 정면 조명 IDE입니다알은 빛의 강도 나 색상은 20 관련이 없습니다있다. 궁극적으로 캡처 조명을 제어하는​​ 연구자 개별 프로토콜 / 방법론 및 환경의 재량에 달려있다.
  4. 녹음을위한 터치 스크린 모니터 위의 조정 카메라를 부착합니다.
    1. 적어도 640 x 480 픽셀 (또는 그 이상) (20)의 해상도로 카메라를 사용합니다. 구입 및 설치 20 전에 소프트웨어 공급 업체에 필요한 카메라 기능에 대해 설명합니다. 주 : 종횡비가 20 중요하지 않다.
    2. 일관성을 위해 두 번째 (또는 다른 표준 속도) 당 30 프레임 카메라 캡처 속도를 설정합니다.
    3. 연결 기록 소프트웨어를 기록하고 참가자의 비디오를 저장하는 카메라에 설정되어있는 미디어를 확인합니다.

3. 참가자 조정 및 구두 지시

  1. 한 번에 하나의 참가자가 감각 부스에서 샘플을 평가해야합니다.
    참고 : 이상 테스트동시에 하나의 참가자는 테스트 환경을 방해 참가자의 농도를 방해하거나 바이어스를 생성 할 수있다.
  2. 도착 후, 참가자들에게 공정 및 표준 운영 절차에 대한 언어 적 지침을 제공합니다.
    1. 참가자 똑바로과 의자의 뒤쪽에 앉아 있습니다.
    2. 참가자의 얼굴이 턱 또는 눈 주위에 그림자, 녹화의 중심에서 캡처되도록 의자 높이, 의자 (카메라에서의 거리)의 위치, 카메라 각도를 조정합니다.
      참고 : 감각 부스에서 참가자의 머리는 대략 20 - 이십사인치 멀리 카메라와 카메라 비디오 피드 중앙에있는 얼굴을 가진 모니터에서.
    3. 위치 및 모니터 디스플레이를 향 중심으로 지시 참가자 장착 상태를 유지합니다. 또한, 샘플 당 30 초 평가 기간 후 샘플 소비 갑작스런 움직임을 자제 참가자를 지시합니다.
    4. 전체 음료 또는 액화 식품 샘플을 소비하고 삼킬 수있는 참가자를 지시한다.
    5. 샘플이 입안에 후 신속하게 바로 테이블에 턱 아래 및 아래 샘플 컵을 이동하는 참가자를 지시한다. 이 얼굴 폐색을 제거한다. 모니터를 향해 찾고 유지하도록 상기시킨다.
      참고 : 샘플을 제공하는 샘플 캐리어는 연구자의 판단에 달려있다. 짚이나 컵에 사용될 수있다. 얼굴이 폐색 또는 소비로 인해 왜곡 될 수 있기 때문에 관계없이, 초기 얼굴 폐쇄가 불가피하다.
  3. 그들은 터치 스크린 모니터에 나타나는 지침을 따르 참가자를 지시한다. 참고 : 자동화 된 감각 소프트웨어로 프로그래밍으로 지침이 자동으로 순서가된다.

비디오 캡처 4. 개인 참가자 프로세스

  1. 참가자가 장착되는 동안 확인 비디오 카메라가 최적 참가자의 얼굴을 캡처편안 (샘플 프레젠테이션 전에) 부스에서 비디오 캡쳐 표시되는 컴퓨터 모니터를 보면서. 컴퓨터 모니터에 기록 버튼을 클릭하여 녹음을 시작합니다.
  2. 자신의 미각을 정화 물을 마시 참가자를 지시한다.
  3. 기준 또는 제어 처리 (향이없는 물)부터 시작하여 한 번에 처리에게 하나를 제공합니다. 동영상 내의 샘플 처리 식별 샘플 컬러 코드와 관련된 각각의 샘플의 상부에 배치 된 독특한 컬러 인덱스 카드 각각의 샘플을 식별한다.
    참고 : 터치 스크린 모니터에 프로그램 된 지침 참가자를 지시합니다. 명령들은 각 처리 샘플 표준화 일련의 단계를 통해 학습자 지시.
  4. 터치 스크린 모니터를 통해, 참가자에 직접 :
    1. 비디오에서 샘플 확인을위한 관련 색상 색인 카드 프리 소비를 잡으십시오.
      주 : 컬러 카드 방식 연구자 동영상 A의 치료를 식별 할 수있다ND 샘플 평가를위한 적절한 시간 프레임 (0시)을 표시한다.
    2. 간단히 카드를 들고 한 후, 다시 트레이의 카드를 놓습니다.
    3. 카메라를 향해 직면하면서 완전는 샘플을 소비하고 모니터의 프로그램 안내를 통해 강제 약 30 초를 기다립니다.
      참고 : 30 초 제어 샘플링주기는 전체 샘플링 평가 기간 동안 적절한 시간 범위를 포함한다 (즉, 인덱스 카드를 보여주는 샘플 (뚜껑을 제거), 소비, 감정적 캡처 개방).
    4. 약간 같은, 1 = 매우, 2 = 아주 많이, 3 = 적당히 싫어 싫어 싫어 (터치 스크린 모니터에 자신의 쾌락 수용 점수를 입력, 4 = 싫어하는 약간, 5 =도 같은도 싫어하는 6 = 적당히을 추천 = 8 = 같은 아주 많이, 9 =) 매우있다.
    5. 다음 샘플 프로세스 전에 물을 마시는 입을 씻어.

5. 자동 얼굴 표정 분석 옵션 평가

주 : 많은 표정 분석 소프트웨어 프로그램이 존재한다. 소프트웨어 명령과 기능이 다를 수 있습니다. 이는 제조업체의 사용 지침을 따라 수동 (20)을 참조하는 것이 중요합니다.

  1. 미디어 형식으로 기록을 저장하고 자동 얼굴 표정 분석 소프트웨어로 전송합니다.
  2. 자동 안면 분석 소프트웨어를 이용하여 참가자 비디오를 분석한다.
    1. 컴퓨터 바탕 화면에 소프트웨어 아이콘을 두 번 클릭합니다.
    2. 프로그램이 열리면 "... 프로젝트", "파일"을 클릭 선택 "새 ..."선택
    3. 팝업 창에서 프로젝트 이름을 지정하고 프로젝트를 저장합니다.
    4. (A (+) 기호 사람)은 "참가자 추가"아이콘을 클릭하여 프로젝트에 참가자를 추가합니다. 이상의 참가자가이 단계를 반복함으로써 첨가 될 수있다.
    5. 분석을 위해 각 참가자에게 참가자의 비디오를 추가합니다.
      1. 화면 좌측에 필름 릴 (Wi)의 아이콘을 클릭플러스 (+) 기호 번째 동영상을 분석하기 위해 추가 할 수 있습니다.
      2. 추가 할 비디오를 찾아 관심있는 참가자 아래에있는 "돋보기"를 클릭합니다.
  3. 소프트웨어의 지속적인 교정 분석 설정에서 동영상을 프레임 단위를 분석합니다.
    1. 각 참가자의 동영상의 '설정'탭에서 창 하단의 설정을 조정하려면 연필 아이콘을 클릭합니다.
      1. 일반에 "얼굴 모델"을 설정합니다. Yes (예)로 "부드럽게 분류"를 설정합니다. 모든 프레임 설정 "샘플 레이트".
      2. Yes (예)로 호 설정을 "이미지 회전" "연속 교정"을 설정합니다. 없음 "선택한 교정"을 설정합니다.
    2. 프로젝트 설정을 저장합니다.
    3. 프로젝트 비디오를 분석하기 위해 배치 분석 아이콘 (동일한 빨간색과 검은 색 대상과 같은 기호)를 누르십시오.
    4. 분석이 완료되면 결과를 저장합니다.
      참고 : 다른 비디오 설정이 researc 경우 소프트웨어에 존재그녀의 취향은 다른 분석 방법을 보증합니다.
    5. 심각한 얼굴 폐색 또는 얼굴을 매핑 할 수없는이 지정된 후 소비 창 (그림 1) 동안 지속되면 동영상의 실패를 고려한다. 또한, 모델은 데이터를 내 보낸 출력 파일의 "FIT_FAILED"또는 "FIND_FAILED"(그림 2) 말할 것이다 실패 할 경우. 소프트웨어가 분류 또는 참가자의 감정을 분석 할 수 없기 때문에이 손실 된 데이터를 나타냅니다.
      참고 : AFEA 각 감정에 대해 (완전 표현) 0에서 1로 규모, 중성 행복, 혐오, 슬픔, 분노, 깜짝 무서워 (표시되지 않음) 얼굴 근육의 움직임을 변환합니다.
  4. 추가 분석을 위해 로그 파일 (.txt)로 같은 AFEA 데이터 출력을 내 보냅니다.
    1. 분석이 완료되면, 전체 프로젝트를 내보낼 수 있습니다.
      1. "파일", "수출", "수출 프로젝트 결과"를 클릭합니다.
      2. 창이 열리면 수출 수오 곳의 위치를​​ 선택LD는 저장 폴더에 로그 파일 (.txt 인)에 저장 될 수있다.
      3. 데이터 스프레드 시트에 각 참가자 로그 삶 변환 (.CSV 또는 .XLSX) 관련 데이터를 추출 할 수 있습니다.
        1. 오픈 데이터를 스프레드 시트 소프트웨어와는 "데이터"탭을 선택합니다.
        2. "데이터"탭에서 "외부 데이터 가져 오기"그룹에서 "텍스트에서"를 클릭합니다.
        3. "주소 표시 줄"에서 찾아 가져올 참여자 텍스트 파일을 두 번 클릭하고 화면 마법사의 지시에 따릅니다.
        4. 모든 관련 참여자 파일을 내보내기 프로세스를 계속합니다.

데이터 분석 6. 타임 스탬프 참가자 비디오

  1. AFEA 소프트웨어를 사용하여 수동으로 각 참가자의 비디오를 검토하고 각 샘플에 대한 사후 소비 시간 제로를 식별합니다. 데이터 스프레드 시트의 타임 스탬프를 기록합니다. 샘플 컵 OC 더이상 참가자의 턱 아래 없을 때 이후 소비 정의얼굴을 cludes.
    참고 : 타임 스탬프의 위치는 평가를위한 중요합니다. 컵 더 이상 얼굴을 폐색 점은 최적의 추천과 타임 스탬프는 모든 참가자 일치해야합니다.
  2. 동영상에서 관련 데이터를 추출하기위한 기준으로 (.csv)로 타임 스탬프 데이터를 스프레드 시트를 저장합니다.
    참고 : 참가자의 동영상은 "이벤트가 표시"로 소프트웨어에서 내부적으로 코딩 할 수있다.

7. 시계열 감성 분석

참고 : 컨트롤 (이 예에서는 즉, 향이없는 물)되도록 "기준"을 고려한다. 연구자는 다른 "기본 치료 자극"또는 조사의 이익에 따라 쌍 비교를위한 "자극없이 기준 시간"을 만들 수있는 능력을 보유하고 있습니다. 이 방법은 한 쌍의 통계 시험을 사용하여 "기본"상태의 계정을 제안 하였다. 즉, 프로 시저가 차단 통계를 사용한다 (즉,페어링 시험) 각 참가자의 기본 모양을 조정하기 때문에 참가자에 걸쳐 변화가 줄어 듭니다.

  1. 내 보낸 파일 (.CSV 또는 .XLSX)에서 관련 데이터를 추출합니다.
    1. 연구 평가 (초)에 관련된 시간 프레임을 확인합니다.
    2. 수동으로 참가자 타임 스탬프 (시간 제로) 컨설팅 보낸 참가자 파일에서 각각의 데이터 (기간)를 추출한다.
    3. 새로운 데이터 스프레드 시트의 선택 기간 (초) 각 참가자의 치료 데이터 (참가자 수, 치료, 원본 비디오 시간, 감정 응답) 감정 당 (행복, 중립, 슬픔, 분노, 놀란, 두려워하고 혐오) 컴파일 미래 분석 (그림 3)에 대한.
    4. 모든 참가자에 대해이 과정을 계속합니다.
  2. (각 참가자 치료 쌍에 대한 타임 스탬프 파일에서 해당 시간 제로를 확인하고 직접 비교를위한 진정한 시간 "0"비디오 시간을 조정 그림 4, 그림 5).
    참고 : 참가자 데이터 따라서 각 처리 "시간 제로는"다른 연속 비디오에서 수집 (: 13.5과 향이 우유 비디오 시간 제로 03 : 즉, 향이 물 비디오 시간 제로 02 15.4). 그림 4에서 다양한으로 인해 치료 감정적 반응 데이터의 직접 시간 비교를 위해 "00.0 0"또는 다른 표준 치료 시작 시간 "시간 제로"는 비디오 시간 재조정하고 시작하도록 재조정 될 필요가있다.
  3. 각 참가자, 감정 및 조정 시점의 경우, 한 쌍의 치료 (예를 들면, 향이 우유) 및 제어 처리 (예를 들면, 향이없는 물) 양적 감정적 인 점수의 압축을 풉니 다. 즉, 각 감정 (도 5)에 대한 응답의 참가자의 처리 및 제어 시계열을 정렬.
  4. 모든 참가자 정보 (참가자, 조정 시간, 한 쌍의 치료를 컴파일(예 향이없는 물, 향이 우유) 각 시점에서 (도 6).
    참고 : 아래 단계 손으로 페어링 윌콕스 시험 단계를 보여줍니다. 대부분의 데이터 분석 소프트웨어 프로그램은 자동으로 수행된다. 통계와 통계 분석 과정을 논의하는 것이 좋습니다.
  5. 샘플을 재설정하고 새로운 조정 비디오 시대에 부합되면, 직접 각 샘플의 감정 결과 및 제어 (향이없는 물) 참가자에 걸쳐 순차적 쌍 비모수 윌 콕슨 테스트를 사용하여 (그림 7) 사이에 비교합니다.
    참고 : 샘플의 새로운 시간 정렬이 오초 후 소비 기간 내에 직접 비교를 허용합니다. 페어링 관찰은 치료에 존재하지 않는다면, 그 시점에서 비교 참가자 놓는다.
    1. spreadshe 데이터를 사용하여 각 쌍의 비교 제어부 및 각 샘플 사이의 차이를 계산등 관리 소프트웨어.
      참고 : 비교 소프트웨어의 감정적 인 분석을 위해 선택한 프레임 속도에 따라 달라질 수 있습니다. 이 프로토콜은 5 초 (선택 기간)에 대한 초당 30 개별 비교를 보여줍니다.
      참고 : 사용 그림 7 열 및 절차에 대한 기준으로.
      1. 차이를 결정하는 제어 (예를 들면, 향이없는 물)의 값과 우유 (예 향이 우유)의 값을 뺀다. "치료의 차이"라는 제목의 새 열을 입력 "= (C2) - (D2)"의 데이터를 스프레드 시트 관리 소프트웨어에서 "C2는"제어 감정적 값이다 "D2"는 선택한 치료 감정적 값입니다. 모든 시점에 대해이 과정을 계속합니다.
      2. 처리의 차이의 절대 값을 계산한다. 새 열에서 데이터 스프레드 시트 관리 소프트웨어에서 "E2"는 치료의 차이입니다 "= ABS (E2)"를 입력합니다. 이 과정을 계속모든 시간을 가리 킵니다.
      3. 치료 차의 순위를 결정합니다. 새 열에서 데이터 스프레드 시트 관리 소프트웨어에 입력 "= RANK (G2를, $ G는 $ 2 : $ G $ 25 1)"여기서 "G2"는 절대 차이이며, "1", "상승"입니다. 모든 시점에 대해이 과정을 계속합니다.
      4. 스프레드 시트에 순위의 서명 순위를 결정합니다. 치료 차이가 음수 인 경우 음의 부호 (열 I)을 변경합니다.
      5. 순위 값의 I25) : I25, "> 0", I2 : I25) 및 음의 합 = SUMIF (I2 : I25, "<0", I2 양의 합 (= SUMIF (I2를 계산합니다.
      6. 시험 통계를 확인합니다. 시험 통계 절대치 하부 합이다.
      7. 관찰에 임계 값을 결정하기 위해 특정 시간 및 선택된 알파 값을 포함하는 번호를 사용 윌 콕슨 순위 체결 테스트 통계에 대한 통계 테이블을 참조.
      8. 시험 통계 작 으면 임계 값 t보다 거절그는 귀무 가설. 이 크면 귀무 가설을 받아 들인다.
  6. 귀무 가설이 거부 될 때 시간에 대한 관련 치료 그래프 (향이 물에 비해 즉, 향이 우유)에 결과를 그래프. 더 큰 감정 (그림 8)이있는 치료를 결정하기 위해 차이의 부호를 사용합니다.
    1. 스프레드 데이터 관리 소프트웨어, 존재 또는 의미없는 값을 이용하여 그래프를 생성한다.
      1. '삽입'탭을 클릭합니다.
      2. 선택 "라인"
      3. 오른쪽 그래프 상자를 클릭합니다.
      4. "데이터를 선택"을 클릭하고 화면을 선택하고 그래프 관련 데이터 (그림 8) 지시에 따라.
        주 : 샘플 또는 제어가 높고 중요한 곳 그래프는 감정 결과를 묘사합니다. 종속 그래프는 감정 방법 참가자의 감정을 분별할 수있는 능력을 가능하게하는 특정 시간 높다두 샘플 사이의 5 번째 시간에 걸쳐 진화.
        참고 : 통계와 통계 지원 관련성이 높은 데이터를 추출하는 것이 좋습니다. 통계적 부호화 개발 감정 결과를 분석 할 필요가있다.

결과

이 방법은 AFEA 데이터 수집을위한 표준 프로토콜을 제안한다. 제안 된 프로토콜 단계를 따라하는 경우, 사용할 수없는 감정 데이터 출력 가난한 데이터 수집의 결과 (그림 1) (그림 2 :; 왼쪽 사진)은 제한 될 수 있습니다. 이 잘못된 데이터 (그림 1)와 같이 로그 파일 (.txt 인)은 주로 "FIND_FAILED" "FIT_FAILED"등을 포함하는 경우...

토론

음식 및 음료에 관한 문헌에서 AFEA 응용 프로그램은 1-11 매우 제한되어있다. 음식이 응용 프로그램은 방법론과 데이터 해석을 설정하기위한 기회를 만드는 새로운 기능입니다. Arnade는 (2013) 7 초콜릿 우유와 곡선 분석 및 분산 분석에 따라 영역을 사용하여 흰 우유에 개인의 감정적 반응 중 높은 개인의 다양성을 발견했다. 슬프고 화나게 짧은 시간 응답 7 있었을 때 그러나...

공개

The authors have nothing to disclose.

감사의 말

This project was funded, in part, by ConAgra Foods (Omaha, NE, USA), the Virginia Agricultural Experiment Station, the Hatch Program of the National Institute of Food and Agriculture, U.S. Department of Agriculture, and the Virginia Tech Water INTERface Interdisciplinary Graduate Education Program.

자료

NameCompanyCatalog NumberComments
2% Reduced Fat MilkKroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NCnafor solutions
Drinking WaterKroger Brand, Cincinnati, OHnafor solutions
Imitation Clear Vanilla FlavorKroger Brand, Cincinnati, OHnafor solutions
Iodized SaltKroger Brand, Cincinnati, OHnafor solutions
FaceReader 6Noldus Information Technology, Wageningen, The NetherlandsnaFor Facial Analysis
Sensory Information Management System (SIMS) 2000Sensory Computer Systems, Berkeley Heights, NJVersion 6For Sensory Data Capture
RhapsodyAcuity Brands Lighting, Inc., Conyers, GAFor Environment Illumination
R Version R Core Team 20153.1.1For Statistical Analysis
Microsoft OfficeMicrosoftnaFor Statistical Analysis
JMPStatistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NCnaFor Statistical Analysis
Media Recorder 2.5Noldus Information Technology, Wageningen, The NetherlandsnaFor capturing participants sensory evaluation
Axis M1054 CameraAxis Communications, Lund, Swedenna
BeveragenaBeverage or soft food for evaluation

참고문헌

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. . Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. . . FaceReader 5™ Technical Specifications. , (2014).
  17. Cootes, T., Taylor, C. . Statistical models of appearance for computer vision: Technical report. , (2000).
  18. Bishop, C. M. . Neural networks for pattern recognition. , (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. . FaceReader Reference Manual Version 6. , (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S., Clark, S., Costello, M., Drake, M., Bodyfelt, F. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. , 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes?. Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H., P, E. k. m. a. n., E, R. o. s. e. n. b. e. r. g. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). , 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P., Cole, J. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. , 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

재인쇄 및 허가

JoVE'article의 텍스트 или 그림을 다시 사용하시려면 허가 살펴보기

허가 살펴보기

더 많은 기사 탐색

114

This article has been published

Video Coming Soon

JoVE Logo

개인 정보 보호

이용 약관

정책

연구

교육

JoVE 소개

Copyright © 2025 MyJoVE Corporation. 판권 소유