JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Un protocole pour la capture et l'analyse statistique de la réponse émotionnelle d'une population de boissons et d'aliments liquéfié dans un laboratoire d'analyse sensorielle en utilisant un logiciel d'analyse d'expression faciale automatisée est décrite.

Résumé

We demonstrate a method for capturing emotional response to beverages and liquefied foods in a sensory evaluation laboratory using automated facial expression analysis (AFEA) software. Additionally, we demonstrate a method for extracting relevant emotional data output and plotting the emotional response of a population over a specified time frame. By time pairing each participant's treatment response to a control stimulus (baseline), the overall emotional response over time and across multiple participants can be quantified. AFEA is a prospective analytical tool for assessing unbiased response to food and beverages. At present, most research has mainly focused on beverages. Methodologies and analyses have not yet been standardized for the application of AFEA to beverages and foods; however, a consistent standard methodology is needed. Optimizing video capture procedures and resulting video quality aids in a successful collection of emotional response to foods. Furthermore, the methodology of data analysis is novel for extracting the pertinent data relevant to the emotional response. The combinations of video capture optimization and data analysis will aid in standardizing the protocol for automated facial expression analysis and interpretation of emotional response data.

Introduction

analyse de l'expression du visage automatique (AFEA) est un outil d'analyse prospective pour caractériser les réponses émotionnelles à des boissons et des aliments. analyse émotionnelle peut ajouter une dimension supplémentaire aux méthodologies existantes sensorielles scientifiques, les pratiques d'évaluation des aliments et évaluations à l'échelle hédonique généralement utilisé à la fois dans les milieux de la recherche et de l'industrie. analyse émotionnelle pourrait fournir une mesure supplémentaire qui révèle une réponse plus précise aux aliments et aux boissons. Notation hédonique peut comprendre le biais des participants en raison de l' échec d'enregistrer les réactions 1.

la recherche AFEA a été utilisé dans de nombreuses applications de recherche, y compris les jeux d'ordinateur, le comportement de l'utilisateur, l'éducation / pédagogie et des études de psychologie sur l'empathie et la tromperie. La plupart des recherches de la nourriture associée a mis l'accent sur la caractérisation réponse émotionnelle à la qualité des aliments et le comportement humain avec de la nourriture. Avec la récente tendance à obtenir un aperçu des comportements alimentaires, un nombre croissant de rapports de la littérature utilisent des AFEApour caractériser la réponse émotionnelle humaine associés aux aliments, boissons et odorants 1-12.

AFEA est dérivé de l'action du système de codage facial (FACS). Le système de codage d'action du visage (FACS) discrimine les mouvements du visage , caractérisé par des unités d'action (AUS) sur une échelle d'intensité de 5 points 13. L'approche FACS exige des experts d'examen formés, le codage manuel, temps d'évaluation significative, et fournit des options limitées d'analyse des données. AFEA a été développé comme une méthode d'évaluation rapide pour déterminer les émotions. AFEA logiciel repose sur les mouvements du visage musculaire, les bases de données du visage, et des algorithmes pour caractériser la réponse émotionnelle 14-18. Le logiciel AFEA utilisé dans cette étude a atteint un «indice FACS d'un accord de 0,67 en moyenne, à la fois sur l'Ensemble de Varsovie de Emotional Photos Facial Expression (WSEFEP) et Amsterdam dynamique Visage expressif Set (ADFES), qui est proche d'un accord type de 0,70 pour le codage manuel "19 . émotions universelles incluses dans l'analyse sont heureux (positif), triste (négatif), dégoûté (négatif), surpris (positif ou négatif), en colère (négatif), effrayé (négatif) et neutre chacun sur une échelle distincte de 0 à 1 ( 0 = pas exprimé; 1 = entièrement exprimé) 20. En outre, la littérature de la psychologie comprend heureux, surpris et en colère que les émotions "approche" (vers stimuli) et triste, effrayé, et dégoûté que les émotions de «sevrage» (loin de stimuli aversif) 21.

Une limitation du logiciel AFEA courant pour caractériser les émotions associées à des aliments est l'interférence des mouvements du visage associés à la mastication et la déglutition ainsi que d'autres mouvements de motricité globale, tels que les mouvements de la tête extrêmes. Le logiciel cible des mouvements plus petits visage musculaires, la position relative et le degré de mouvement, basé sur plus de 500 points de muscle sur le visage 16,17. Chewing mouvements interfèrent avec la classification des expressions. Cette limiteation peut être traitée en utilisant des aliments liquéfiés. Cependant, d'autres défis méthodologiques peuvent également diminuer la sensibilité de la vidéo et de l'analyse AFEA y compris l'environnement de données de collecte, de la technologie, des instructions de chercheur, le comportement des participants, et participant attributs.

Une méthodologie standard n'a pas été mis au point et vérifié pour la capture vidéo optimale et l'analyse des données en utilisant AFEA pour une réponse émotionnelle à des aliments et des boissons dans un environnement de laboratoire d'évaluation sensorielle. De nombreux aspects peuvent affecter l'environnement de capture vidéo, y compris l'éclairage, ombrage en raison de l'éclairage, les directions des participants, le comportement des participants, la hauteur des participants, ainsi que, la hauteur de la caméra, appareil photo pêche à la ligne, et les réglages de l'équipement. En outre, les méthodes d'analyse des données sont incohérentes et manquent d'une méthodologie standard pour l'évaluation de la réponse émotionnelle. Ici, nous allons démontrer notre procédure d'exploitation standard pour la capture de données de données et de traitement émotionnel dans des résultats significatifs à l'aide de boissons (lait aromatisé, le lait et l'eau unflavored unflavored) pour l'évaluation. À notre connaissance , un seul examen par les pairs publication, de notre groupe de laboratoire, a utilisé des séries chronologiques pour l' interprétation des données pour l' analyse des émotions 8; Cependant, la méthode a été mise à jour pour notre méthode présentée. Notre objectif est de développer une méthodologie améliorée et cohérente pour aider à la reproductibilité dans un laboratoire d'évaluation sensorielle. Pour la démonstration, l'objectif du modèle d'étude est d'évaluer si AFEA pourrait compléter l'évaluation de l'acceptabilité hédonique traditionnelle du lait aromatisé, le lait et l'eau unflavored unflavored. Le but de ce protocole vidéo est d'aider à établir la méthodologie de AFEA, normaliser les critères de capture vidéo dans un laboratoire d'évaluation sensorielle (réglage de la cabine sensorielle), et illustrent une méthode pour émotionnelle analyse temporelle des données d'une population.

Protocole

Déclaration éthique: Cette étude a été pré-approuvée par Tech Institutional Review Board Virginia (CISR) (CISR 14-229) avant de démarrer le projet.

Attention: la recherche du sujet humain nécessite le consentement préalable à la participation. En plus de l'approbation de la CISR, consentement à l'utilisation d'images fixes ou vidéo est également nécessaire avant de libérer des images pour l'impression, la vidéo ou l'imagerie graphique. De plus, les allergènes alimentaires sont divulgués avant l'essai. Les participants sont invités avant le début du panneau si elles ont des allergies ou d'intolérance, d'autres préoccupations.

Remarque: Critères d'exclusion: analyse de l'expression du visage automatique est sensible aux lunettes épaisses encadrées, des visages très barbus et tonicité de la peau. Les participants qui ont ces critères sont incompatibles avec l'analyse de logiciels en raison d'un risque accru de vidéos qui ont échoué. Cela est attribué à l'incapacité du logiciel pour trouver le visage.

1. Préparation des échantillons et Recrutement des participants

  1. Préparer une boisson ou doucedes échantillons d'aliments.
    1. Préparer des arômes intensification des solutions de produits laitiers à l' aide de 2% de lait et a suggéré de Costello et Clark (2009) 22 ainsi que d' autres saveurs. Préparer les solutions suivantes: (1) le lait unflavored (2% réduit de lait écrémé); (2) l'eau unflavored (eau potable); (3) la saveur de l'extrait de vanille dans le lait (0,02 g / ml) (imitation de vanille claire saveur); et (4) saveur salée dans le lait (0,004 g / ml de sel iodé).
      Remarque: Ces solutions sont utilisées uniquement à des fins de démonstration.
    2. Verser la moitié once aliquotes (~ 15 g) de chaque solution dans 2 oz transparentes tasses d'échantillons en plastique et une casquette avec un code couleur des couvercles.
      Remarque: Il est recommandé d'utiliser des gobelets transparents; cependant, il est à la discrétion du chercheur.
  2. Recruter des participants du campus ou de la communauté locale à participer à l'étude.
    Note: La taille de l'échantillon des participants nécessaires à une étude est à la discrétion du chercheur. Nous recommandons une gamme de 10 à 50 participants.
  3. Obtenir le consentement sujet humain avant de participer à l'étude.

2. Préparation de la chambre Panel pour la capture de la vidéo

Remarque: Ce protocole est pour la capture de données dans un laboratoire d'évaluation sensorielle. Ce protocole est de faire la capture de données AFEA utile pour un réglage de la cabine sensorielle.

  1. Utiliser des cabines individuelles avec un moniteur à écran tactile en face d'eux (niveau du visage) pour garder leur attention vers l'avant et pour empêcher regardant vers le bas.
  2. Utilisez des chaises réglables en hauteur avec support lombaire.
    Remarque: Ces éléments sont essentiels pour permettre aux participants d'être ajustés et placés dans une gamme appropriée pour la capture vidéo verticalement. Utilisez des chaises fixes (pas de fonction de roulement) avec le soutien de la hauteur du dossier réglable afin que les mouvements du participant sont réduits.
  3. Régler l'éclairage aérien à "100% jour" pour optimale du visage capture vidéo émotionnelle (Illuminant 6504K; R = 206; G = 242; B = 255).
    Remarque: Pour éviter l'observation intense, éclairage frontal diffus est ideal tandis que l'intensité de la lumière ou de couleur ne sont pas aussi pertinents 20. En fin de compte, il est à la discrétion du chercheur, individuel protocole / méthodologie et de l'environnement pour contrôler l'éclairage pour la capture.
  4. Apposer une caméra réglable au-dessus du moniteur à écran tactile pour l'enregistrement.
    1. Utilisez un appareil photo avec une résolution d'au moins 640 x 480 pixels (ou plus) 20. Discutez des capacités de la caméra nécessaires avec le fournisseur de logiciels avant l' achat et l' installation 20. Remarque: Le rapport d'aspect est pas important 20.
    2. Réglez l'appareil photo Vitesse de capture à 30 images par seconde (ou une autre vitesse standard) pour la cohérence.
    3. Connectez-vous et assurer les médias logiciel d'enregistrement est configuré pour la caméra pour enregistrer et enregistrer des vidéos des participants.

3. Ajustement des participants et des instructions verbales

  1. Avoir un seul participant à la fois évaluer les échantillons dans la cabine sensorielle.
    Remarque: Tester plus deun participant en même temps peut interférer avec l'environnement de test et de perturber la concentration du participant ou de créer partialité.
  2. À l'arrivée, donner aux participants des instructions verbales au sujet du processus et des procédures normalisées d'exploitation.
    1. Demandez aux participants assis droit et contre le dos de la chaise.
    2. Régler la hauteur de la chaise, la position de la chaise (distance de la caméra), et l'angle de la caméra afin que le visage du participant est capturé dans le centre de l'enregistrement vidéo, sans ombres sur le menton ou autour des yeux.
      Remarque: Dans la cabine sensorielle, la tête du participant est d'environ 20-24 pouces de la caméra et le moniteur avec la face centrée dans l'alimentation de la caméra vidéo.
    3. Demandez aux participants de rester assis comme positionné et focalisé tourné vers l'affichage du moniteur. De plus, demandez aux participants de s'abstenir de tout mouvement brusque de la consommation post-échantillon pendant la période d'évaluation de 30 secondes par échantillon.
    4. Demander au participant de consommer la totalité de la boisson ou de l'échantillon alimentaire liquéfié et avaler.
    5. Demander au participant de se déplacer rapidement l'échantillon tasse sous le menton et en bas à la table immédiatement après que l'échantillon est dans la bouche. Ceci est d'éliminer l'occlusion du visage. Rappelez-leur de continuer à chercher vers l'écran.
      Remarque: Le porte-échantillon pour fournir l'échantillon est à la discrétion du chercheur. Une paille ou de coupe peuvent être utilisés. Peu importe, l'occlusion faciale initiale est inévitable parce que le visage sera occlus ou déformée en raison de la consommation.
  3. Demander au participant de suivre les instructions telles qu'elles apparaissent sur l'écran tactile. Remarque: Les instructions sont automatiquement séquences comme programmé dans le logiciel automatisé sensorielle.

4. Processus de participant individuel pour Capture vidéo

  1. Confirmer caméra vidéo est optimale capturer le visage des participants alors que le participant est assisconfortablement dans la cabine (avant la présentation de l'échantillon) en regardant l'écran d'ordinateur sur lequel la capture vidéo est affichée. Commencez l'enregistrement en cliquant sur le bouton d'enregistrement sur l'écran d'ordinateur.
  2. Demandez aux participants de boire de l'eau pour nettoyer leur palais.
  3. Fournir des traitements un à la fois, en commençant par une ligne de base ou d'un traitement de contrôle (eau sans saveur). Identifier chaque échantillon par une carte d'index de couleur unique, placé sur le dessus de chaque échantillon se rapportant au code de couleur de l'échantillon pour l'identification du traitement de l'échantillon dans la vidéo.
    Remarque: l'orientation programmée sur l'écran tactile indique les participants. Les instructions directes du participant par le biais d'une série de mesures normalisées pour chaque échantillon de traitement.
  4. Via l'écran tactile, diriger le participant à:
    1. Maintenez la couleur associée carte d'index pré-consommation pour l'identification de l'échantillon dans la vidéo.
      Note: La carte de couleur est une manière dont les chercheurs peuvent identifier des traitements dans la vidéo unnd marquer le laps de temps approprié (temps zéro) pour l'évaluation de l'échantillon.
    2. Après avoir occupé la carte brièvement, placez la carte de retour sur le plateau.
    3. consomment entièrement l'échantillon et attendre environ 30 secondes, appliquées par la direction programmée sur l'écran, tout en faisant face à la caméra.
      Remarque: La période d'échantillonnage contrôlé 30 sec comprend un laps de temps suffisant pour l' ensemble de la période d'évaluation d'échantillonnage (c. -à- montrant la carte d'index, l' ouverture d' un échantillon (enlever le couvercle), la consommation, et la capture émotionnelle).
    4. Entrez leur score d'acceptabilité hédonique sur l'écran tactile (1 = déteste extrêmement, 2 = n'aiment pas beaucoup, 3 = aversion modérée, 4 = aversion légèrement, 5 = ni comme ni aversion, 6 = comme légèrement, 7 = comme modérément, 8 = comme beaucoup, 9 = comme extrêmement).
    5. Rincer la bouche avec de l'eau potable avant que le processus de l'échantillon suivant.

5. Évaluation des options d'analyse du visage d'expression automatisé

Note: De nombreux logiciels d'analyse de l'expression du visage existent. les commandes du logiciel et les fonctions peuvent varier. Il est important de suivre les directives d'utilisation du fabricant et manuel de référence 20.

  1. Enregistrer les enregistrements dans un format de média et de transférer vers le logiciel d'analyse de l'expression du visage automatisé.
  2. Analyser les vidéos des participants en utilisant un logiciel automatisé d'analyse du visage.
    1. Double-cliquez sur l'icône du logiciel sur le bureau de l'ordinateur.
    2. Une fois que le programme est ouvert, cliquez sur "Fichier", sélectionnez "Nouveau ...", et sélectionnez "Projet ..."
    3. Dans la fenêtre pop-up, nommez le projet et enregistrez le projet.
    4. Ajouter les participants au projet en cliquant sur l'icône "Ajouter participants" (personne ayant une signe (+)). Plus de participants peuvent être ajoutés en répétant cette étape.
    5. Ajouter la vidéo de participant au participant respectif pour analyse.
      1. Sur le côté gauche de l'écran cliquez sur l'icône de la bobine de film wie un signe plus (+) pour ajouter une vidéo à analyser.
      2. Cliquez sur le "loupe" sous le participant de l'intérêt pour parcourir la vidéo à ajouter.
  3. Analyser des vidéos image par trame dans les paramètres d'analyse d'étalonnage continus dans le logiciel.
    1. Cliquez sur l'icône de crayon pour ajuster les paramètres en bas de la fenêtre, sous l'onglet "Paramètres" pour chaque vidéo de participant.
      1. Set "Model Face" au général. Réglez "classifications Lisser" Oui. Set "Sample Rate" à chaque trame.
      2. Set "Rotation de l'image" au numéro Set "d'étalonnage continu" Oui. Set "étalonnage sélectionné" Aucun.
    2. Enregistrer les paramètres du projet.
    3. Appuyez sur l'icône de l'analyse des lots (le même symbole de cible comme le rouge et noir) pour analyser les vidéos de projet.
    4. Enregistrer les résultats une fois que l'analyse est terminée.
      Remarque: D'autres paramètres vidéo existent dans le logiciel si researcsa préférence justifie une autre méthode d'analyse.
    5. Considérez vidéos échecs si occlusions faciales graves ou l'incapacité à cartographier le visage persiste pendant la fenêtre post-consommation spécifiée (Figure 1). En outre, si le modèle échoue données vont dire "FIT_FAILED" ou "FIND_FAILED" dans les fichiers de sortie exportés (Figure 2). Cela représente des données perdues depuis le logiciel ne peut pas classer ou analyser les émotions des participants.
      Note: AFEA traduit le mouvement des muscles faciaux au neutre, heureux, dégoûté, triste, en colère, surpris et effrayé sur une échelle de 0 (pas exprimé) à 1 (entièrement exprimé) pour chaque émotion.
  4. Export de la sortie de données de AFEA que les fichiers journaux (.txt) pour une analyse plus approfondie.
    1. Une fois les analyses terminées, exporter l'ensemble du projet.
      1. Cliquez sur "Fichier", "Exporter", "Résultats du projet d'exportation".
      2. Lorsqu'une fenêtre ouvre, choisissez l'emplacement de l'endroit où les exportations Should être sauvegardé et enregistrer les fichiers journaux (.txt) dans un dossier.
      3. Convertissez chaque vie du journal des participants à une feuille de calcul de données (.csv ou .xlsx) pour extraire les données pertinentes.
        1. Ouvrez le logiciel de feuille de calcul de données et sélectionnez l'onglet "Data".
        2. Dans l'onglet "Data", dans le groupe "Données externes", cliquez sur "From Text".
        3. Dans la "barre d'adresse", localiser, double-cliquez sur le fichier texte participant à importer, et suivez les instructions de l'assistant d'écran.
        4. Poursuivre le processus d'exportation pour tous les dossiers des participants concernés.

6. Timestamp Participant Vidéos pour l'analyse des données

  1. Utilisation du logiciel AFEA, examiner manuellement la vidéo de chaque participant et identifier le temps de post-consommation nulle pour chaque échantillon. Notez l'horodatage dans une feuille de calcul de données. Post-consommation est définie lorsque la coupelle d'échantillon est sous le menton du participant et non plus ocinclut le visage.
    Remarque: le placement de l'estampille temporelle est essentielle pour l'évaluation. Le point où la coupe n'obture le visage est la recommandation optimale et horodatages doivent être cohérents pour tous les participants.
  2. Enregistrez la feuille de données d'horodatage (.csv) comme référence pour extraire les données pertinentes à partir de vidéos.
    Note: les vidéos des participants peuvent également être codées en interne dans le logiciel comme «un événement marquant le".

7. Time Series Analysis Emotional

Remarque: Considérez la "base" pour le contrôle (eau unflavored dans cet exemple). Le chercheur a la possibilité de créer un autre "traitement de base stimulus» ou un «temps de référence sans stimulus» pour comparaison par paires dépendant de l'intérêt de l'enquête. La méthode des comptes pour un état «par défaut» proposé par l'aide d'un test statistique appariés. En d' autres termes, la procédure utilise le blocage statistique (c. -à-un test apparié) pour ajuster pour l'apparence par défaut de chaque participant et réduit donc la variabilité entre les participants.

  1. Extraire les données pertinentes à partir des fichiers exportés (.csv ou .xlsx).
    1. Identifier un laps de temps pertinent pour l'évaluation de l'étude (en secondes).
    2. extraire manuellement les données respectives (délai) à partir des dossiers des participants exportés consultation l'horodatage des participants (temps zéro).
    3. Compiler les données de traitement de chaque participant (numéro de participant, le traitement, le temps de la vidéo originale, et la réponse de l'émotion) par l'émotion (heureux, neutre, triste, en colère, surpris, effrayé, et dégoûté) pour le cadre de sélection de temps (en secondes) dans une nouvelle feuille de calcul de données pour une analyse ultérieure (figure 3).
    4. Continuez ce processus pour tous les participants.
  2. Identifier le temps zéro correspondant à partir du fichier d'horodatage pour chaque paire participant-traitement et ajuster le temps de la vidéo à un vrai temps "0" pour une comparaison directe ( Figure 4, Figure 5).
    Remarque: Les données des participants sont collectées dans une vidéo continue donc chaque traitement "temps zéro" est différent (eau unflavored temps vidéo zéro est 02: 13.5 et le lait unflavored temps vidéo zéro est 03: 15.4). Figure 4 En raison de la différence traitement "zéros de temps", les temps de vidéo doivent être réajustées et réaligné pour commencer à "0: 00.0" ou une autre heure de départ standard afin de comparaison en temps direct des données de réponse émotionnelle de traitement.
  3. Pour chaque participant, l' émotion, et le point de temps ajusté, extraire le traitement associé (par exemple, le lait unflavored) et le traitement de contrôle (par exemple, l' eau unflavored) note émotionnelle quantitative. En d' autres termes, aligner le traitement et le contrôle de la série de réponses pour chaque émotion (figure 5) le temps d'un participant.
  4. Compiler les informations de tous les participants (participant, temps ajusté, et le traitement associé(Par exemple, l' eau et le lait unflavored unflavored) à chaque point de temps (figure 6).
    Remarque: Les étapes ci-dessous montrent les étapes pour un test Wilcox jumelé à la main. La plupart des logiciels d'analyse de données feront automatiquement. Il est recommandé de discuter du processus d'analyse statistique avec un statisticien.
  5. Une fois que les échantillons sont remis à zéro et aligné avec les nouvelles heures de vidéo ajustées, comparer directement entre les résultats émotionnels d'un échantillon respectif et le contrôle (eau unflavored) en utilisant séquentielles apparié tests de Wilcoxon non paramétrique à travers les participants (figure 7).
    Remarque: Le nouveau alignement temporel des échantillons permettra une comparaison directe dans le post-consommation laps de temps de 5 secondes. Si une observation jumelé est pas présent dans un traitement, laisser tomber le participant de cette comparaison du point de temps.
    1. Calculer la différence entre le témoin et l'échantillon respectif pour chaque comparaison par paires à l'aide de données spreadshelogiciel de gestion et.
      Note: La comparaison dépendra de la fréquence de trame sélectionnée pour l'analyse émotionnelle dans le logiciel. Le protocole montre 30 comparaisons individuelles par seconde pendant 5 secondes (période sélectionnée).
      Remarque: Utilisez la figure 7 comme une référence pour les colonnes et les étapes.
      1. Soustraire la valeur du lait (par exemple, le lait non aromatisé) à partir de la valeur de la commande (par exemple, l' eau unflavored) pour déterminer la différence. Dans le logiciel de gestion de la feuille de données dans une nouvelle colonne intitulée «différence de traitement", entrez "= (C2) - (D2)", où "C2" sont les valeurs émotionnelles de contrôle et "D2" sont les valeurs émotionnelles de traitement sélectionné. Continuez ce processus pour tous les points de temps.
      2. Calculer la valeur absolue de la différence de traitement. Dans le logiciel de gestion de la feuille de données dans une nouvelle colonne, entrez "= ABS (E2)", où "E2" est la différence de traitement. Continuez ce processus pourtous les points temporels.
      3. Déterminer l'ordre de classement de la différence de traitement. Dans le logiciel de gestion de la feuille de données dans une nouvelle colonne, entrez "= RANK (G2, $ G $ 2: $ G $ 25, 1)" où "G2" est la différence absolue et "1" est "ascendante". Continuez ce processus pour tous les points de temps.
      4. Déterminer le rang signé de l'ordre de rang sur la feuille de calcul. Changer le signe négatif si la différence de traitement était négatif (colonne I).
      5. Calculer la somme positive (= SUMIF (I2: I25, "> 0", I2: I25) et somme négative = SUMIF (I2: I25, "<0", I2: I25) des valeurs de rang.
      6. Déterminer la statistique de test. La statistique de test est la somme de la valeur absolue inférieure.
      7. Consultez les tableaux statistiques pour Wilcoxon Classé test statistique en utilisant le nombre d'observations incluses au moment spécifique et une valeur alpha sélectionnée pour déterminer la valeur critique.
      8. Si la statistique de test est inférieure à la valeur critique rejette til hypothèse nulle. Si elle est supérieure, d'accepter l'hypothèse nulle.
  6. Graphiquement les résultats sur le graphique de traitement associé (c. -à- lait unflavored par rapport à l' eau unflavored) pour les moments où l'hypothèse nulle est rejetée. Utiliser le signe de la différence afin de déterminer quel traitement a la plus grande émotion (figure 8).
    1. Dans le logiciel de gestion de feuille de calcul de données, créer un graphique en utilisant les valeurs de la présence ou de l'absence de signification.
      1. Cliquez sur "Insérer" onglet.
      2. "Line" Select
      3. Clic droit sur la zone de graphique.
      4. Cliquez sur "sélectionner des données" et suivez les invites pour sélectionner et représenter graphiquement des données pertinentes (figure 8).
        Remarque: Les graphiques seront dépeignent des résultats émotionnels où l'échantillon ou le contrôle est plus élevé et significatif. dépendante graphique, l'émotion est plus élevée à ce moment précis permettant la capacité de discerner comment les émotions de participantsévoluer au cours de la période de 5 secondes entre deux échantillons.
        Note: Le support statistique avec un statisticien est fortement recommandé d'extraire les données pertinentes. Développement de codage statistique est nécessaire pour analyser les résultats émotionnels.

Résultats

La méthode propose un protocole standard pour la collecte de données AFEA. Si les étapes de protocole proposées sont suivies, la sortie de données émotionnelle inutilisable (Figure 1) résultant de la collecte des données pauvres (Figure 2: A; Gauche Image) peut être limitée. Analyse des séries temporelles ne peut pas être utilisé si les fichiers journaux (.txt) contiennent principalement "FIT_FAILED" et "FIND_FAILED" comm...

Discussion

AFEA application dans la littérature liée à la nourriture et des boissons est très limitée 1-11. L'application à l'alimentation est nouvelle, créant ainsi une opportunité pour établir la méthodologie et l'interprétation des données. Arnade (2013) 7 ont trouvé une grande variabilité individuelle entre réponse émotionnelle individuelle au lait au chocolat et le lait blanc en utilisant l' aire sous l'analyse et de l' analyse de la variance courbe. Cependant, mê...

Déclarations de divulgation

The authors have nothing to disclose.

Remerciements

This project was funded, in part, by ConAgra Foods (Omaha, NE, USA), the Virginia Agricultural Experiment Station, the Hatch Program of the National Institute of Food and Agriculture, U.S. Department of Agriculture, and the Virginia Tech Water INTERface Interdisciplinary Graduate Education Program.

matériels

NameCompanyCatalog NumberComments
2% Reduced Fat MilkKroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NCnafor solutions
Drinking WaterKroger Brand, Cincinnati, OHnafor solutions
Imitation Clear Vanilla FlavorKroger Brand, Cincinnati, OHnafor solutions
Iodized SaltKroger Brand, Cincinnati, OHnafor solutions
FaceReader 6Noldus Information Technology, Wageningen, The NetherlandsnaFor Facial Analysis
Sensory Information Management System (SIMS) 2000Sensory Computer Systems, Berkeley Heights, NJVersion 6For Sensory Data Capture
RhapsodyAcuity Brands Lighting, Inc., Conyers, GAFor Environment Illumination
R Version R Core Team 20153.1.1For Statistical Analysis
Microsoft OfficeMicrosoftnaFor Statistical Analysis
JMPStatistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NCnaFor Statistical Analysis
Media Recorder 2.5Noldus Information Technology, Wageningen, The NetherlandsnaFor capturing participants sensory evaluation
Axis M1054 CameraAxis Communications, Lund, Swedenna
BeveragenaBeverage or soft food for evaluation

Références

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. . Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. . . FaceReader 5™ Technical Specifications. , (2014).
  17. Cootes, T., Taylor, C. . Statistical models of appearance for computer vision: Technical report. , (2000).
  18. Bishop, C. M. . Neural networks for pattern recognition. , (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. . FaceReader Reference Manual Version 6. , (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S., Clark, S., Costello, M., Drake, M., Bodyfelt, F. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. , 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes?. Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H., P, E. k. m. a. n., E, R. o. s. e. n. b. e. r. g. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). , 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P., Cole, J. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. , 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

Comportementnum ro 114du visage Analyse d expressionvaluation sensoriellemotionBoissonFood ScienceTime Series AnalysisDairy

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.