JoVE Logo

サインイン

このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。

この記事について

  • 要約
  • 要約
  • 概要
  • プロトコル
  • 結果
  • ディスカッション
  • 開示事項
  • 謝辞
  • 資料
  • 参考文献
  • 転載および許可

要約

自動化された顔の表情分析ソフトウェアを用いて官能評価実験室で飲料液化食品へ集団の感情的な応答を捕捉し、統計的に分析するためのプロトコルを説明します。

要約

We demonstrate a method for capturing emotional response to beverages and liquefied foods in a sensory evaluation laboratory using automated facial expression analysis (AFEA) software. Additionally, we demonstrate a method for extracting relevant emotional data output and plotting the emotional response of a population over a specified time frame. By time pairing each participant's treatment response to a control stimulus (baseline), the overall emotional response over time and across multiple participants can be quantified. AFEA is a prospective analytical tool for assessing unbiased response to food and beverages. At present, most research has mainly focused on beverages. Methodologies and analyses have not yet been standardized for the application of AFEA to beverages and foods; however, a consistent standard methodology is needed. Optimizing video capture procedures and resulting video quality aids in a successful collection of emotional response to foods. Furthermore, the methodology of data analysis is novel for extracting the pertinent data relevant to the emotional response. The combinations of video capture optimization and data analysis will aid in standardizing the protocol for automated facial expression analysis and interpretation of emotional response data.

概要

自動化された表情分析(AFEA)飲料や食品に感情的な反応を特徴付けるための前向きな分析ツールです。感情的な分析は、既存の感覚科学の方法論、食品の評価の実践、および一般的に研究し、業界の設定の両方で使用快楽規模の評価に余分な次元を追加することができます。感情的な分析は、食品や飲料へのより正確な応答を明らかにし、追加のメトリックを提供することができます。反応1を記録するために、障害に起因する快楽スコアは、参加者の偏りを含んでもよいです。

AFEAの研究は、コンピュータゲーム、ユーザーの行動、教育/教育学、および共感と詐欺に心理学の研究を含む多くの研究用途に使用されています。ほとんどの食品関連の研究は、食品の品質と食品と人間の行動に感情的な反応を特徴付けるに焦点を当てています。食品の行動への洞察を得るの最近の傾向では、文学の成長体はAFEAの使用を報告します食品、飲料、及び臭気物質1-12に関連した人間の感情的な反応を特徴付けるため。

AFEAは顔面動作分析法(FACS)に由来します。顔面行動コーディングシステム(FACS)は5ポイント強度スケール13上で動作単位(AUS)によって特徴づけられる顔の動きを判別します。 FACSのアプローチは、訓練された審査の専門家、マニュアルコーディング、かなりの評価時間を必要とし、限られたデータの分析オプションを提供します。 AFEA感情を決定するための迅速な評価方法として開発されました。 AFEAソフトウェアは、感情的な反応14-18を特徴づけるために、顔の筋肉の動き、顔のデータベース、およびアルゴリズムに依存しています。本研究で用いたAFEAソフトウェアは、感情的な表情の写真(WSEFEP)のワルシャワセットと0.70の標準的な合意に近いですアムステルダムダイナミック表情セット(ADFES)、両方の平均で0.67の合意の「FACSインデックスに達し手動コーディング"19のための。分析に含まユニバーサル感情は1から0までの別々のスケール(上の各幸せ(正)、(負の)悲しい、うんざり(負)、びっくり(正または負)、怒っている(負)、怖がっ(負)と中性であります0は発現していない=; 1 =完全に)20表明しました。また、心理学の文献は、「撤退」の感情(離れ嫌悪刺激から)21のような、幸せな驚き、そして(刺激に向かって)「アプローチ」の感情として怒っていると悲しい、怖い、とうんざり含まれています。

食品に関連した感情を特徴付けるための現在のAFEAソフトウェアの1つの制限は、咀嚼や嚥下だけでなく、このような極端な頭の動きなど、他の粗大運動の動きに関連した顔の動きからの干渉です。ソフトウェアは、顔16,17上の500以上の筋肉の点に基づいて位置や動きの度合いを、関連する、小さい顔の筋肉の動きを対象としています。咀嚼運動は、式の分類を妨害します。この制限ationが液化食品を使用して対処することができます。しかし、他の方法論の課題はまた、データ収集環境、技術、研究者の指示、参加者の行動、および参加者の属性を含むビデオ感度とAFEA分析を減少させることができます。

標準的な方法が開発され、最適なビデオキャプチャと官能評価実験室の設定で食品や飲料への感情的な反応のためAFEAを使用して、データ分析のために確認されていません。多くの側面が原因照明、参加者の方向、参加者の行動、参加者の高さだけでなく、カメラの高さ、カメラ釣り、および機器の設定にシャドーイング、照明などのビデオキャプチャ環境に影響を与えることができます。また、データ分析の方法論は矛盾していると感情的な反応を評価するための標準的な方法論を欠いています。ここで、我々は(飲み物を使用して、意味のある結果に感情的なデータや処理データを取得するため、当社の標準的な操作手順を紹介します評価のための風味のミルク、味付けされていない牛乳と味付けされていない水)。我々の知る唯一の査読出版物に、私たちの研究室のグループから、感情分析8のためのデータ解析のための時系列を利用しています。しかし、この方法は、私たちの提示方法のために更新されました。私たちの目的は、官能評価実験室の設定で再現性を助けるために改良された一貫性のある方法論を開発することです。デモでは、研究モデルの目的は、AFEAは、風味のミルクの伝統的な快楽受容性評価、味付けされていない牛乳と味付けされていない水を補うことができれば評価することです。このビデオプロトコルの意図は、AFEA方法論を確立する助け官能評価実験室におけるビデオキャプチャ条件(感覚ブース設定)を標準化し、集団の時間的感情的データ分析のための方法を示すことです。

プロトコル

倫理に関する声明:本研究​​は、従来のプロジェクトを開始するバージニア工科大学施設内倫理委員会(IRB)(IRB 14から229)によって事前に承認されました。

注意:人体実験は、参加する前にインフォームドコンセントが必要です。静止画や動画画像の使用のためのIRB承認、同意に加えて、印刷、ビデオ、またはグラフィックイメージングのために任意の画像を解放する前に必要とされます。さらに、食物アレルゲンは、試験前に開示されています。彼らは任意の不寛容、アレルギーやその他の懸念を持っている場合、参加者は、パネルの開始前に求められます。

注:除外基準を:自動表情分析が厚い枠メガネ、多額のひげを生やした顔や肌の色に敏感です。これらの基準を持っている参加者が原因で失敗したビデオのリスク増加にソフトウェアの分析と互換性がありません。これは、顔を見つけるためのソフトウェアのことができないことに起因します。

1.サンプルの調製および参加者募集

  1. 飲料やソフトを準備食品サンプル。
    1. コステロとクラーク(2009)22から2%の牛乳を使用して、酪農ソリューションを激化し、提案した味だけでなく、他のフレーバーを準備します。次の溶液を準備します(1)味付けされていない牛乳(2%低脂肪乳を)。 (2)味付けされていない水(飲料水)。乳中の(3)バニラエキスフレーバー(0.02グラム/ミリリットル)(模造明確なバニラ味)。及び乳中の(4)塩辛い味(0​​.004グラム/ mlのヨウ素添加塩)。
      注:これらのソリューションは、デモの目的でのみ使用されています。
    2. 2オンスに各溶液の半分オンスのアリコート(〜15グラム)を注ぎます。色分けされた蓋付き透明プラスチックサンプルカップとキャップ。
      注:透明なカップを使用することをお勧めします。しかし、それは研究者の裁量に任されています。
  2. キャンパスや研究に参加する地域からの参加者を募集。
    注:研究のために必要な参加者のサンプルサイズは、研究者の裁量に任されています。私たちは、10〜50の参加者の範囲をお勧めします。
  3. 前の研究への参加にヒト被験者の同意を得ます。

ビデオキャプチャ用パネルルームの調製

注:このプロトコルは、官能評価実験室でのデータ取得のためのものです。このプロトコルは、感覚ブース設定のAFEAデータキャプチャが便利なようにすることです。

  1. 前方に彼らの焦点を維持し、見下ろして防止するために、彼らの前でタッチスクリーンモニタとの個別ブース(顔レベル)を使用します。
  2. バックサポートで高さ調節椅子を使用してください。
    注:これらは、参加者が上下に調整し、ビデオキャプチャに適した範囲内に配置されることを可能にするために不可欠です。参加者の動きが低減されるように調整可能なバックの高さをサポートした静止椅子(無ローリング機能)を使用します。
  3. (; R = 206; G = 242; B = 255光源6504K)、最適な顔の感情的なビデオキャプチャは、「100%の昼光」で頭上の照明を設定します。
    注:強烈なシャドウイングを回避するために、拡散正面の照明はIDEですアル光強度や色を20として関係ありませんしながら。最終的には、捕獲のための照明を制御するために、研究者、個々のプロトコル/方法論、および環境の裁量に任されています。
  4. 記録のためのタッチスクリーンモニタ上に調整可能なカメラを固定。
    1. 少なくとも640×480ピクセル(またはそれ以上)20の解像度でカメラを使用してください。購入およびインストール20前にソフトウェアプロバイダとの必要なカメラ機能を話し合います。注:アスペクト比が重要20ありません。
    2. 一貫性を保つために30秒あたりのフレーム数(または他の標準速度)にカメラのキャプチャ速度を設定します。
    3. 接続して録音ソフトウェアを記録し、参加者のビデオを保存するためにカメラに設定されているメディアを確保します。

3.参加者の調整と口頭行き方

  1. 一度に1人の参加者だけが知覚ブースでサンプルを評価しています。
    注:より多くのテスト同時に一人の参加者は、テスト環境に干渉し、参加者の集中を乱すやバイアスを作成することができます。
  2. 到着すると、参加者プロセスと標準操作手順について口頭で指示を与えます。
    1. 参加者はまっすぐと椅子の背に対して座らせます。
    2. 参加者の顔が顎上や目の周りの影のない、ビデオ録画の中心で捕捉されるように、椅子の高さ、椅子(カメラからの距離)の位置、およびカメラの角度を調整します。
      注:感覚のブースでは、参加者の頭部は、およそ20 - 24インチ離れてカメラとカメラのビデオフィードの中央に顔をしたモニターから。
    3. 位置付けとして座ったままに、参加者に指示し、モニタ表示の方を向いている焦点を当てました。さらに、サンプルあたり30秒の評価期間中の任意の突然の動きポストサンプル消費を控えるよう参加者に指示します。
    4. 全体飲料又は液化食品サンプルを消費し、飲み込むために参加者に指示します。
    5. サンプルが口にした後すぐに、すぐにテーブルにあごの下とダウンサンプルカップを移動するために、参加者に指示します。これは、顔の閉塞を排除することです。モニターに向かって探し続けるためにそれらを思い出させます。
      注:サンプルを提供するためのサンプルキャリアは、研究者の裁量に任されています。ストロー又はカップを使用することができます。顔が閉塞または消費に起因して歪むことになるのでかかわらず、初期の顔の閉塞は避けられません。
  3. 彼らはタッチスクリーンモニターに表示される指示に従って参加者に指示します。注:自動化された感覚のソフトウェアにプログラムとしての命令は自動的に配列決定されます。

ビデオキャプチャ4.個々の参加者プロセス

  1. ビデオカメラを確認する参加者が着席している間最適参加者の顔を撮影されています快適に(サンプル提示前)のブースでビデオキャプチャが表示されているコンピュータのモニターを見ることによって。コンピュータのモニタに録音ボタンをクリックして録音を開始します。
  2. 彼らの口蓋を清めるために水を飲むよう参加者に指示します。
  3. ベースラインまたは対照治療(味付けされていない水)から開始し、治療を一つずつ提供します。ビデオ内のサンプル処理を識別するためのサンプルの色コードに関連する各試料の上に配置一意着色インデックスカードによって各試料を識別する。
    注:タッチスクリーンモニタ上でプログラムのガイダンスは、参加者に指示します。命令は、各処理サンプルの標準化された一連のステップを介して参加者を導きます。
  4. タッチスクリーンモニタを経由して、参加者に指示します:
    1. ビデオのサンプルを識別するための関連するカラーインデックスカードプレ消費をホールドアップ。
      注:カラーカードは、研究者は、ビデオaで治療を識別することができる方法ですNDサンプル評価のための適切な時間枠(時間ゼロ)をマークします。
    2. 簡単にカードを保持した後、背面トレイにカードを配置します。
    3. 完全にサンプルを消費し、カメラの方を向いている間、モニター上のプログラムのガイダンスを通じて施行さ約30秒、待ってください。
      注:30秒、制御サンプリング周期は、全サンプルの評価期間の適切な期間を含む( すなわち、インデックスカードを示す、サンプル(蓋を除去)、消費、及び感情的な捕捉を開きます)。
    4. タッチスクリーンモニタ上での快楽受容性スコアを入力します(1 = 3 =適度に嫌い、非常に、2 =非常に嫌い嫌い、4 = =少しのような6 =、適度のような7 =、8、5 =なども嫌いでもない、少し嫌い非常に、非常にのような9 =)などがあります。
    5. 次のサンプル・プロセスの前に飲料水で口をすすぎます。

5.自動表情解析オプションの評価

注:多くの表情分析ソフトウェアプログラムが存在します。ソフトウェアコマンドや機能が異なる場合があります。メーカーのユーザーガイドラインとリファレンスマニュアル20に従うこと重要です。

  1. メディアフォーマットで記録を保存し、自動化された表情解析ソフトウェアに転送します。
  2. 自動化された顔の解析ソフトウェアを使用して、参加者のビデオを分析します。
    1. コンピュータのデスクトップ上のソフトウェアのアイコンをダブルクリックします。
    2. プログラムが開いたら、「...プロジェクト」、「ファイル」をクリックして「新規...」を選択し、選択
    3. ポップアップウィンドウで、プロジェクトに名前を付けてプロジェクトを保存します。
    4. ((+)記号を持つ人)」の参加者を追加」アイコンをクリックして、プロジェクトに参加者を追加します。複数の参加者は、この手順を繰り返すことによって追加することができます。
    5. 分析のために、それぞれの参加者に参加者のビデオを追加します。
      1. 画面の左側には、フィルムリールのwiのアイコンをクリックしますプラス(+)記号番目のビデオを分析するために追加します。
      2. 追加するビデオを閲覧するために興味のある参加者の下で「虫眼鏡」をクリックしてください。
  3. ソフトウェアの継続的なキャリブレーション分析設定でビデオのフレームごとに分析します。
    1. 各参加者のビデオのための「設定」タブで、ウィンドウの下部にある設定を調整するには、鉛筆のアイコンをクリックします。
      1. 一般的に「顔モデル」を設定します。 Yesに「分類を滑らかに」に設定します。すべてのフレームに「サンプルレート」を設定します。
      2. [はい]に番号を設定する「画像回転」「連続キャリブレーション」を設定します。 Noneに「選択したキャリブレーション」を設定します。
    2. プロジェクト設定を保存します。
    3. プロジェクトのビデオを分析するためのバッチ分析ア​​イコン(同じ赤と黒の標的様記号)を押してください。
    4. 解析が完了すると、結果を保存します。
      注:researcであれば、他のビデオ設定は、ソフトウェアに存在します彼女の好みは別の解析方法を保証します。
    5. 深刻な顔の閉塞や顔をマッピングすることができないことが指定されたポスト・消費・ウィンドウ( 図1)の間に解決しない場合は、動画の障害を考慮してください。モデルが失敗した場合に加えて、データはエクスポートされた出力ファイル( 図2)に「FIT_FAILED」または「FIND_FAILEDを」と言うだろう。ソフトウェアは、分類や参加者の感情を分析することはできませんので、これは失われたデータを表します。
      注:AFEAは、各感情のために(完全に表される)0から1までのスケールで、中立幸せ、うんざり、悲しい、怒って、驚きと怖い(発現していない)に、顔の筋肉の動きを変換します。
  4. さらなる分析のためのログファイル(.txt)ファイルとしてAFEAデータ出力をエクスポートします。
    1. 分析が完了すると、プロジェクト全体をエクスポートします。
      1. 「ファイル」、「エクスポート」、「プロジェクトのエクスポート結果」をクリックしてください。
      2. ウィンドウが開いたら、輸出は寿どこの場所を選択しますldは保存され、フォルダにログファイル形式(.txt)で保存すること。
      3. 各参加者は、関連するデータを抽出するデータのスプレッドシート(​​.csvファイルまたは.xlsx形式)に命をログ変換します。
        1. オープンデータの表計算ソフトと「データ」タブを選択します。
        2. 「データ」タブで、「外部データの取り込み」グループで、「テキストから」をクリックします。
        3. 「アドレスバー」で、見つけ、インポートする参加者のテキストフ​​ァイルをダブルクリックし、画面のウィザードの指示に従ってください。
        4. 関連するすべての参加者のファイルに対してエクスポート処理を続行します。

データ分析のための6タイムスタンプ参加者のビデオ

  1. AFEAソフトウェアを使用して、手動で各参加者のビデオを確認し、各サンプルの後の消費時間ゼロを識別します。データスプレッドシートにタイムスタンプを記録します。ポスト消費はサンプルカップは、参加者のあごの下にあるときに定義されており、もはやOCれます顔をcludes。
    注:タイムスタンプの配置は、評価のために重要です。カップは、もはや顔を閉塞ポイントは最適な推奨であり、タイムスタンプは、すべての参加者のために一貫している必要があります。
  2. 動画から関連データを抽出するための基準として(.csv)にタイムスタンプデータのスプレッドシートを保存します。
    注:参加者のビデオはまた、「マーキングイベント」としてソフトウェアで内部的に符号化することができます。

7.時系列感情分析

注:コントロール(この例では、すなわち、味付けされていない水)であることを「ベースライン」を考えてみましょう。研究者は、調査の利益に依存して一対比較のために、「刺激することなく、ベースライン時、「異なる」ベースライン治療刺激」または作成する能力を持っています。この方法は、対になった統計的検定を用いて、「デフォルト」の状態のアカウントを提案しました。換言すれば、手順は、統計ブロックを使用して( すなわち 、ペアリングテスト)は、各参加者のデフォルトの外観を調整するため、参加者全体のばらつきが減少します。

  1. エクスポートしたファイル(.csvファイルまたは.xlsx形式)から関連データを抽出します。
    1. 研究評価(秒)に関連する時間枠を識別します。
    2. 手動で参加者のタイムスタンプ(時刻ゼロ)コンサルティングエクスポート参加者ファイルから(時間枠)それぞれのデータを抽出します。
    3. 新しいデータスプレッドシートに各参加者の治療データをコンパイル選択した時間枠のための感情あたり(参加者数、治療、オリジナルビデオ時間、および感情応答)(、幸せな中立、悲しい、怒って、驚いて、怖い、とうんざり)(秒)将来の分析( 図3)のために。
    4. すべての参加者に対して、このプロセスを繰り返します。
  2. (各参加処理ペアのタイムスタンプファイルから対応時間ゼロを特定し、直接比較のための真の時間「0」に映像時間を調整図4、 図5)。
    注: 図4に起因異なるに参加者データは、連続映像で収集され、したがって、各処理「時間ゼロ」(15.4:13.5と味付けされていないミルクビデオ時間ゼロは03である、すなわち、味付けされていない水のビデオ時間ゼロが02である)が異なります。処理「時間ゼロ」、動画時間が再調整とに開始するように再編成する必要が「0:00.0」または他の標準的な開始時間処理感情反応データの直接の時間比較のために。
  3. 各参加者、感情、および調整後の時点では、ペアリング処理( 例えば 、味付けされていない牛乳)と制御処理( 例えば、味付けされていない水)定量的な感情的なスコアを抽出します。言い換えれば、各感情に対する応答の参加者の治療と制御時系列( 図5)を合わせます。
  4. すべての参加者の情報(参加者、調整された時間、およびペアの治療をコンパイル( 例えば、味付けされていない水と味付けされていない牛乳)、各時点で( 図6)。
    注:以下の手順は、手で対になったウィルコックスのテストのための手順を示しています。ほとんどのデータ分析ソフトウェアプログラムは、これを自動的に行います。統計学者と統計分析のプロセスを議論することをお勧めします。
  5. サンプルはリセットされ、新しい調整されたビデオ倍と整合したら、直接( 図7)参加者全体のシーケンシャル対になったノンパラメトリックウィルコクソン検定を用いて、各サンプルおよびコントロール(味付けされていない水)の感情的な結果との間で比較します。
    注:サンプルの新しいタイムアライメントは、5秒後の消費の時間枠内で直接比較を可能にするであろう。対の観察は、治療中に存在しない場合、その時​​点の比較から参加者をドロップします。
    1. データspreadsheを使用して制御し、各一対比較のために、それぞれのサンプルの間の差を計算しますら管理ソフトウェア。
      注:比較は、ソフトウェアで感情的な分析のために選択したフレームレートに依存することになります。プロトコルは、5秒(選択した時間枠)のために毎秒30個々の比較を示しています。
      注意:使用図7列とステップのためのリファレンスとして。
      1. 違いを決定するための制御( 例えば 、味付けされていない水)の値からミルク( 例えば、味付けされていない牛乳)の値を減算します。 、「C2」は、制御感情的な値であり、「D2」が選択された治療の感情的な値である。 - 「治療差」というタイトルの新しい列のデータのスプレッドシートの管理ソフトウェアでは、「(D2)=(C2)」を入力します。すべての時点でこのプロセスを続行します。
      2. 治療差の絶対値を計算します。新しい列のデータのスプレッドシートの管理ソフトウェアでは、「E2」は、治療差である「= ABS(E2)」を入力します。このプロセスを続行全ての時点。
      3. 治療差の順位を決定します。新しい列のデータのスプレッドシートの管理ソフトウェアでは、入力し、「= RANK(G2、$ G $ 2:$ G $ 25、1) "ここで" G2は「絶対差異と「1」である「昇順」です。すべての時点でこのプロセスを続行します。
      4. スプレッドシート上の順位の符号付き順位を決定します。治療差が陰性であった場合は、負の記号(I列)を変更します。
      5. 正の合計を計算する(= SUMIF(I2:ランク値のI25):I25、 "> 0"、I2:I25)と負の和= SUMIF(I2:I25、 "<0"、I2。
      6. 検定統計量を決定します。検定統計量は、絶対値より低い合計です。
      7. 観測が臨界値を決定するために、特定の時間や選択されたアルファ値を含めるの番号を使用して、ウィルコクソン位署名テスト統計のための統計表を参照してください。
      8. 検定統計量は、臨界値Tを拒否するよりも小さい場合彼帰無仮説。それが大きい場合、帰無仮説を受け入れます。
  6. グラフの帰無仮説が棄却された回数に関連付けられている治 ​​療グラフ(味付けされていない水に比べすなわち、味付けされていないミルク)での結果。大きな感情( 図8)を有する治療を決定するために差の符号を使用してください。
    1. データスプレッドシート管理ソフトウェアでは、有意性の有無値を使用してグラフを作成します。
      1. 「挿入」タブをクリックします。
      2. 「ライン」を選択します
      3. 右のグラフボックスをクリックしてください。
      4. 「選択データ」をクリックし、画面に従って関連データ( 図8)を選択し、グラフするように求められます。
        注:サンプルまたはコントロールが高く、有意であるところのグラフは感情的な結果を描写します。グラフ依存、感情はどのように参加者の感情を識別する能力を可能にする、その特定の時点で高くなっています二つのサンプル間に5秒の期間にわたって進化します。
        注:統計学者との統計的サポートは、関連性の高いデータを抽出することをお勧めします。統計的符号化の開発が感情的な結果を解析する必要があります。

結果

この方法は、AFEAデータ収集のための標準プロトコルを提案しています。提案したプロトコルステップに従っている場合は、使用できない感情的なデータ出力悪いデータ収集に起因する( 図1)( 図2:A;左の写真)が制限される場合があります。これは悪いデータ( 図1)であるとして、ログファイル形式(.txt)は、主に「FIND_FAIL...

ディスカッション

食品や飲料に関連する文献で​​AFEAアプリケーションは1-11非常に限られています。食品への応用は、方法論とデータ解釈を確立するための機会を作成し、新しく追加されました。 Arnadeは、(2013年)7は、チョコレートミルクと曲線分析と分散分析下の面積を用いた白色ミルクに個々の感情的な反応の間で高い個体差を発見しました。悲しいとうんざりするが、短い時間応答<...

開示事項

The authors have nothing to disclose.

謝辞

This project was funded, in part, by ConAgra Foods (Omaha, NE, USA), the Virginia Agricultural Experiment Station, the Hatch Program of the National Institute of Food and Agriculture, U.S. Department of Agriculture, and the Virginia Tech Water INTERface Interdisciplinary Graduate Education Program.

資料

NameCompanyCatalog NumberComments
2% Reduced Fat MilkKroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NCnafor solutions
Drinking WaterKroger Brand, Cincinnati, OHnafor solutions
Imitation Clear Vanilla FlavorKroger Brand, Cincinnati, OHnafor solutions
Iodized SaltKroger Brand, Cincinnati, OHnafor solutions
FaceReader 6Noldus Information Technology, Wageningen, The NetherlandsnaFor Facial Analysis
Sensory Information Management System (SIMS) 2000Sensory Computer Systems, Berkeley Heights, NJVersion 6For Sensory Data Capture
RhapsodyAcuity Brands Lighting, Inc., Conyers, GAFor Environment Illumination
R Version R Core Team 20153.1.1For Statistical Analysis
Microsoft OfficeMicrosoftnaFor Statistical Analysis
JMPStatistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NCnaFor Statistical Analysis
Media Recorder 2.5Noldus Information Technology, Wageningen, The NetherlandsnaFor capturing participants sensory evaluation
Axis M1054 CameraAxis Communications, Lund, Swedenna
BeveragenaBeverage or soft food for evaluation

参考文献

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. . Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. . . FaceReader 5™ Technical Specifications. , (2014).
  17. Cootes, T., Taylor, C. . Statistical models of appearance for computer vision: Technical report. , (2000).
  18. Bishop, C. M. . Neural networks for pattern recognition. , (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. . FaceReader Reference Manual Version 6. , (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S., Clark, S., Costello, M., Drake, M., Bodyfelt, F. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. , 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes?. Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H., P, E. k. m. a. n., E, R. o. s. e. n. b. e. r. g. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). , 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P., Cole, J. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. , 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

転載および許可

このJoVE論文のテキスト又は図を再利用するための許可を申請します

許可を申請

さらに記事を探す

114

This article has been published

Video Coming Soon

JoVE Logo

個人情報保護方針

利用規約

一般データ保護規則

研究

教育

JoVEについて

Copyright © 2023 MyJoVE Corporation. All rights reserved