JoVE Logo

Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

Un protocollo per l'acquisizione e l'analisi statistica risposta emotiva di una popolazione di bevande e alimenti liquidi in un laboratorio valutazione sensoriale utilizzando il software di analisi automatizzata espressione facciale è descritto.

Abstract

We demonstrate a method for capturing emotional response to beverages and liquefied foods in a sensory evaluation laboratory using automated facial expression analysis (AFEA) software. Additionally, we demonstrate a method for extracting relevant emotional data output and plotting the emotional response of a population over a specified time frame. By time pairing each participant's treatment response to a control stimulus (baseline), the overall emotional response over time and across multiple participants can be quantified. AFEA is a prospective analytical tool for assessing unbiased response to food and beverages. At present, most research has mainly focused on beverages. Methodologies and analyses have not yet been standardized for the application of AFEA to beverages and foods; however, a consistent standard methodology is needed. Optimizing video capture procedures and resulting video quality aids in a successful collection of emotional response to foods. Furthermore, the methodology of data analysis is novel for extracting the pertinent data relevant to the emotional response. The combinations of video capture optimization and data analysis will aid in standardizing the protocol for automated facial expression analysis and interpretation of emotional response data.

Introduzione

Automatizzata analisi espressione del viso (AFEA) è uno strumento di analisi prospettica per la caratterizzazione di risposte emotive alle bevande e alimenti. analisi emozionale può aggiungere una dimensione extra al metodologie esistenti Scienze Sensoriali, pratiche di valutazione, il cibo e le valutazioni di scala edonica tipicamente utilizzato sia in ambienti della ricerca e dell'industria. analisi emozionale potrebbe fornire una metrica supplementare che rivela una risposta più precisa di cibi e bevande. Punteggio edonico può includere pregiudizi partecipante a causa di mancanza di registrare le reazioni 1.

la ricerca AFEA è stato utilizzato in molte applicazioni di ricerca, tra cui giochi per computer, il comportamento degli utenti, Istruzione / Pedagogia, e gli studi di psicologia su empatia e l'inganno. La maggior parte della ricerca alimentare associata si è concentrata sulla caratterizzazione di risposta emotiva alla qualità del cibo e del comportamento umano con il cibo. Con la recente tendenza ad acquisire intuizioni comportamenti alimentari, un numero crescente di dati di letteratura uso di AFEAper caratterizzare la risposta emotiva umana associata a cibi, bevande e odoranti 1-12.

AFEA deriva dal viso Azione Coding System (FACS). Il sistema di codifica azione facciale (FACS) discrimina i movimenti facciali caratterizzati da unità di azione (AUS) su una scala di intensità 5 punti 13. L'approccio FACS richiede esperti revisione addestrati, codifica manuale, significativo tempo di valutazione, e fornisce le opzioni di analisi di dati limitati. AFEA è stato sviluppato come un metodo di valutazione rapida per determinare emozioni. AFEA software si basa sul movimento facciale muscolare, i database del viso, e gli algoritmi per caratterizzare la risposta emotiva 14-18. Il software AFEA utilizzato in questo studio ha raggiunto un "indice di FACS di contratto di 0,67, in media, sia sul Varsavia Set di Emotional viso Pictures espressione (WSEFEP) e Amsterdam dinamica Espressione del viso Set (ADFES), che è vicino a un accordo standard di 0,70 per codifica manuale "19 . emozioni universali inclusi nell'analisi sono felici (positivo), triste (negativo), disgustata (negativo), sorpresa (positiva o negativa), arrabbiato (negativo), paura (negativo) e neutro ciascuno su una scala separata da 0 a 1 ( 0 = non espresso; 1 = pienamente espresso) 20. Inoltre, la letteratura psicologia comprende felice, sorpresa, e arrabbiato come emozioni "approccio" (verso stimoli) e triste, spaventato, e disgustato come emozioni "ritiro" (lontano da stimoli avversi) 21.

Una limitazione del software AFEA corrente per caratterizzare emozioni associate con gli alimenti è interferenza da movimenti facciali associati masticazione e deglutizione, nonché altri movimenti motorie, come movimenti della testa estreme. Il software si rivolge a movimenti più piccoli facciali muscolari, posizione in materia e grado di movimento, sulla base di oltre 500 punti muscolari sul viso 16,17. movimenti masticare interferiscono con la classificazione di espressioni. Questo limitezione può essere affrontata utilizzando alimenti liquefatti. Tuttavia, altre sfide metodologia può anche diminuire la sensibilità di video e l'analisi AFEA compresi dell'ambiente raccolta dei dati, la tecnologia, le istruzioni ricercatore, il comportamento dei partecipanti, e partecipante attributi.

Una metodologia standard non è stato sviluppato e verificato per la cattura video ottimale e l'analisi dei dati utilizzando AFEA per la risposta emotiva a cibi e bevande in un ambiente di laboratorio di valutazione sensoriale. Molti aspetti possono influenzare l'ambiente di acquisizione video, tra cui l'illuminazione, ombra a causa di illuminazione, le indicazioni dei partecipanti, il comportamento dei partecipanti, l'altezza dei partecipanti, così come, altezza macchina fotografica, pesca macchina fotografica, e le impostazioni di attrezzature. Inoltre, le metodologie di analisi dei dati sono incoerenti e mancano di una metodologia standard per la valutazione della risposta emotiva. Qui, dimostreremo la nostra procedura standard per l'acquisizione dei dati ed elaborazione dei dati emotivi in ​​risultati significativi utilizzando le bevande (latte aromatizzato, latte unflavored e acqua unflavored) per la valutazione. A nostra conoscenza un solo peer reviewed pubblicazione, dal nostro gruppo laboratorio, ha utilizzato le serie temporali per l'interpretazione dei dati per l'analisi delle emozioni 8; tuttavia, il metodo è stato aggiornato da nostro metodo presentato. Il nostro obiettivo è quello di sviluppare una metodologia migliore e coerente per aiutare con la riproducibilità in laboratorio di valutazione sensoriale. Per la dimostrazione, l'obiettivo del modello di studio è quello di valutare se AFEA potesse completare la verifica tradizionale edonistico accettabilità del latte aromatizzato, latte unflavored e acqua insapore. L'intenzione di questo protocollo video è quello di contribuire a creare una metodologia AFEA, uniformare i criteri di acquisizione video in un laboratorio di valutazione sensoriale (impostazione cabina sensoriale), e illustrare un metodo per l'analisi dei dati temporali emotiva di una popolazione.

Protocollo

Etica Dichiarazione: Questo studio è stato precedentemente approvati dal Virginia Tech Institutional Review Board (IRB) (IRB 14-229) prima di iniziare il progetto.

Attenzione: sperimentazione umana richiede un consenso informato prima della partecipazione. Oltre ad approvazione IRB, il consenso per l'utilizzo di fotografie o immagini video è necessario anche prima di rilasciare le immagini per la stampa, video o immagini grafiche. Inoltre, gli allergeni alimentari sono comunicati prima del test. Ai partecipanti è richiesto prima dell'inizio del pannello se hanno tutte le intolleranze, allergie o altri problemi.

Nota: CRITERI DI ESCLUSIONE: automatizzata analisi di espressione del viso è sensibile alle spessi occhiali incorniciati, volti pesantemente barbuti e il tono della pelle. I partecipanti che hanno questi criteri sono incompatibili con l'analisi del software a causa di un aumento del rischio di video falliti. Questo è attribuito all'incapacità del software per trovare il volto.

1. Preparazione del campione e partecipante reclutamento

  1. Preparare bevanda o softcampioni di prodotti alimentari.
    1. Preparare sapori intensificato soluzioni caseari utilizzando 2% latte e suggerite da Costello e Clark (2009) 22, nonché altri sapori. Preparare le seguenti soluzioni: (1) il latte unflavored (2% ridotta di grassi del latte); (2) l'acqua insapore (acqua potabile); (3) sapore di estratto di vaniglia nel latte (0,02 g / ml) (imitazione chiaro sapore di vaniglia); e (4) sapore salato nel latte (0,004 g / ml sale iodato).
      Nota: Queste soluzioni sono utilizzate solo a scopo dimostrativo.
    2. Versare metà oncia aliquote (~ 15 g) di ogni soluzione in due once coppe dei campioni di plastica trasparente e tappo con codice colore coperchi.
      Nota: Si consiglia di utilizzare le tazze trasparenti; tuttavia, è a discrezione del ricercatore.
  2. Reclutare i partecipanti del campus o della comunità locale a partecipare allo studio.
    Nota: dimensione del campione partecipante necessario per uno studio è a discrezione del ricercatore. Si consiglia una serie di 10 a 50 partecipanti.
  3. Ottenere il consenso soggetto umano prima della partecipazione allo studio.

2. Preparazione di Sala Panel per acquisizione video

Nota: Questo protocollo è per l'acquisizione di dati in un laboratorio di valutazione sensoriale. Questo protocollo è quello di rendere l'acquisizione di dati AFEA utile per un ambiente cabina sensoriale.

  1. Utilizzare singole cabine con un monitor touchscreen di fronte a loro (livello viso) per mantenere la loro attenzione avanti e prevenire guardando verso il basso.
  2. Utilizzare sedie regolabili in altezza con supporto per la schiena.
    Nota: Questi sono essenziali per consentire ai partecipanti di essere regolato in senso verticale e collocati in una gamma adatta per la cattura video. Utilizzare sedie stazionarie (senza funzione di laminazione) con supporto altezza dello schienale regolabile in modo i movimenti dei partecipanti sono ridotti.
  3. Set illuminazione ambientale al "100% la luce del giorno" per ottimale del viso cattura video emozionale (Lampade a 6504K; R = 206; G = 242; B = 255).
    Nota: per evitare ombre intenso, l'illuminazione frontale diffusa è ideAl mentre l'intensità della luce o il colore non è così rilevante 20. In definitiva, è a discrezione del ricercatore, individuale protocollo / metodologia, e l'ambiente per controllare l'illuminazione per la cattura.
  4. Fissare una telecamera regolabile sopra il monitor touch screen per la registrazione.
    1. Utilizzare una fotocamera con una risoluzione di almeno 640 x 480 pixel (o superiore) 20. Discutere le funzionalità della fotocamera richiesti con il fornitore di software prima di acquisto e l'installazione di 20. Nota: Il rapporto di aspetto non è importante 20.
    2. Impostare la velocità di acquisizione della fotocamera a 30 fotogrammi al secondo (o altre velocità standard) per la coerenza.
    3. Collegare e garantire supporto software di registrazione è impostato per la fotocamera per registrare e salvare i video partecipanti.

3. Regolazione dei partecipanti e istruzioni verbali

  1. Avere un solo partecipante alla volta di valutare i campioni nella cabina sensoriale.
    Nota: Test più diun partecipante allo stesso tempo può interferire con l'ambiente di test e disturbare la concentrazione del partecipante o creare bias.
  2. All'arrivo, ai partecipanti istruzioni verbali sul processo e le procedure operative standard.
    1. Hanno i partecipanti siedono verso l'alto e contro la parte posteriore della sedia.
    2. Regolare l'altezza sedia, la posizione della sedia (distanza dalla fotocamera), e l'angolo di macchina fotografica in modo che il volto del partecipante viene catturato nel centro della registrazione video, senza ombre sul mento e intorno agli occhi.
      Nota: Nella cabina sensoriale, la testa del partecipante è di circa 20 - 24 pollici di distanza dalla telecamera e il monitor con il volto al centro del feed video della telecamera.
    3. Istruire i partecipanti a rimanere seduti come posizionato e messo a fuoco rivolto verso il display del monitor. Inoltre, istruire i partecipanti ad astenersi da movimenti improvvisi dei consumi post-campione durante il periodo di valutazione di 30 secondi per campione.
    4. Istruire il partecipante a consumare l'intero bevanda o campione alimentare liquefatto e deglutire.
    5. Istruire il partecipante per spostare rapidamente il recipiente per campioni sotto il mento e verso il tavolo immediatamente dopo che il campione è in bocca. Questo è quello di eliminare l'occlusione del viso. Ricordare loro di continuare a guardare verso il monitor.
      Nota: Il vettore campione di consegnare il campione è a discrezione del ricercatore. Una paglia o tazza possono essere utilizzati. Indipendentemente da ciò, l'occlusione del viso iniziale è inevitabile, perché il volto sarà occlusa o distorto a causa di consumo.
  3. Istruire il partecipante di seguire le istruzioni che appaiono sul monitor touchscreen. Nota: Le istruzioni sono in sequenza automaticamente come programmato nel software sensoriale automatizzato.

4. Processo singolo partecipante per acquisizione video

  1. Confermare la videocamera è in modo ottimale catturando volto del partecipante, mentre il partecipante è sedutocomodamente nella cabina (prima della presentazione del campione) per la visualizzazione del monitor del computer su cui viene visualizzata la cattura video. Iniziare la registrazione facendo clic sul pulsante di registrazione sul monitor del computer.
  2. Istruire i partecipanti a sorseggiare l'acqua per pulire il loro palato.
  3. Fornire trattamenti uno alla volta, a partire da una base o un trattamento di controllo (acqua unflavored). Identificare ogni campione da un cartoncino unico colore posto sulla parte superiore di ogni campione nel codice di colore del campione di identificazione trattamento del campione all'interno del video.
    Nota: una guida programmata sul monitor touchscreen istruisce i partecipanti. Le istruzioni dirigono partecipante attraverso una serie di passaggi standardizzati per ciascun campione trattamento.
  4. Via il monitor touch screen, direttamente al partecipante di:
    1. Tenere la carta indice di colore associato pre-consumo per l'identificazione dei campioni nel video.
      Nota: La cartella colori è un modo i ricercatori possono individuare i trattamenti nel video unND segnare il lasso di tempo adeguato (tempo zero) per la valutazione del campione.
    2. Dopo aver tenuto la scheda per breve tempo, posizionare la carta sul vassoio.
    3. Completamente consumano il campione e attendere circa 30 secondi, forzate attraverso la guida programmato sul monitor, mentre di fronte verso la telecamera.
      Nota: Il periodo di campionamento controllato 30 sec abbraccia un arco di tempo adeguato per l'intero periodo di valutazione di campionamento (cioè, mostrando il cartoncino, aprendo un campione (togliendo il coperchio), il consumo, e la cattura emotiva).
    4. Inserire il loro punteggio accettabilità edonico sul monitor touch screen (1 = non piace molto, 2 = non piace molto, 3 = non amano moderatamente, 4 = non amano un po ', 5 = né come né antipatia, 6 = come un po', 7 = come moderatamente, 8 = piace molto, 9 = come estremamente).
    5. Sciacquare la bocca con acqua potabile prima del successivo processo di campionamento.

5. Valutare automatizzati Opzioni di analisi Espressione del viso

Nota: Esistono molti programmi software di analisi di espressione del viso. comandi software e funzioni possono variare. E 'importante seguire le linee guida di utente del produttore e manuale di riferimento 20.

  1. Salva le registrazioni in un formato multimediale e trasferire al software di analisi automatizzata espressione facciale.
  2. Analizzare i video partecipanti utilizzando software di analisi automatizzata del viso.
    1. Fare doppio clic sull'icona del software sul desktop del computer.
    2. Una volta che il programma è aperto, fai clic su "File", selezionare "Nuovo ..." e selezionare "Progetto ..."
    3. Nella finestra pop-up, un nome al progetto e salvare il progetto.
    4. Aggiungere i partecipanti al progetto facendo clic sull'icona "Aggiungi partecipanti" (Persona con un segno (+)). Altri partecipanti possono essere aggiunti ripetendo questo passaggio.
    5. Aggiungere il video del partecipante al rispettivo partecipante per l'analisi.
      1. Sul lato sinistro dello schermo fare clic sull'icona della connessione wi bobina filmesimo un segno più (+) per aggiungere un video da analizzare.
      2. Fare clic su "lente di ingrandimento" sotto il partecipante di interesse per passare in rassegna il video da aggiungere.
  3. Analizzare video frame-by-frame in Impostazioni di analisi calibrazione continui nel software.
    1. Fare clic sull'icona della matita per regolare le impostazioni nella parte inferiore della finestra, sotto la scheda "Impostazioni" per ogni video partecipante.
      1. Impostare "Face Model" al generale. Impostare "classificazioni levigare" Sì. Impostare "Sample Rate" per ogni fotogramma.
      2. Impostare "Rotazione Immagine" su No. Impostare "taratura continua" Sì. Impostare "calibrazione selezionato" Nessuno.
    2. Salvare le impostazioni di progetto.
    3. Premere l'icona di analisi dei lotti (lo stesso obiettivo-come simbolo rosso e nero) per analizzare i video del progetto.
    4. Salvare i risultati una volta che l'analisi è stata completata.
      Nota: Esistono altri impostazioni video nel software, se researcla sua preferenza garantisce un altro metodo di analisi.
    5. Considerare video fallimenti se gravi occlusioni del viso o l'incapacità di mappare la faccia persiste durante la finestra di post-consumo specifico (Figura 1). Inoltre, se il modello non riesce dati dirà "FIT_FAILED" o "FIND_FAILED" nei file di output esportati (Figura 2). Questo rappresenta i dati persi dal momento che il software non è in grado di classificare e analizzare le emozioni del partecipante.
      Nota: AFEA traduce il movimento dei muscoli facciali in folle, felice, disgustato, triste, arrabbiato, sorpreso e spaventato, in una scala da 0 (non espresso) a 1 (completamente espresso) per ogni emozione.
  4. Esportare l'uscita dei dati AFEA come file di log (txt) per ulteriori analisi.
    1. Una volta che le analisi sono completi, esportare l'intero progetto.
      1. Fai clic su "File", "Export", "Esportare i risultati del progetto".
      2. Quando si apre una finestra, scegliere la posizione di dove le esportazioni Should essere salvati e salvare i file di log (txt) in una cartella.
      3. Convertire ogni vita log partecipante di un foglio di calcolo di dati (.csv o .xlsx) per estrarre dati rilevanti.
        1. Aprire un foglio elettronico di dati e selezionare la scheda "Dati".
        2. Nella scheda "Dati", nel gruppo "Carica dati esterni", fai clic su "Da testo".
        3. Nella "barra degli indirizzi", individuare, fare doppio clic sul file di testo partecipante da importare e seguire le istruzioni della procedura guidata schermo.
        4. Continuare il processo di esportazione per tutti i file partecipante pertinente.

6. Video timestamp Partecipante per l'analisi dei dati

  1. Utilizzando il software AFEA, rivedere manualmente il video di ciascun partecipante e identificare il tempo di post-consumo zero per ogni campione. Registrare il timestamp in un foglio di calcolo di dati. Post-consumo è definito quando la coppa del campione è al di sotto del mento del partecipante e non più occlude il volto.
    Nota: Il posizionamento del timestamp è critica per la valutazione. Il punto in cui la coppa non è più occlude la faccia è la raccomandazione ottimale e timestamp devono essere coerenti per tutti i partecipanti.
  2. Salvare il foglio di calcolo di dati timestamp (.csv) come riferimento per l'estrazione di dati rilevanti dal video.
    Nota: i video partecipante può anche essere codificati internamente nel software come "Evento di marcatura".

7. Serie Tempo Analisi Emozionale

Nota: Si consideri la "base" per il controllo (ossia, acqua unflavored in questo esempio). Il ricercatore ha la capacità di creare un diverso "stimolo trattamento di base" o un "tempo di base, senza stimolo" per il confronto accoppiato dipende gli interessi delle indagini. Il metodo proposto conti per uno stato di "default" utilizzando un test statistico accoppiato. In altre parole, la procedura utilizza blocco statistica (cioè,un test accoppiato) per regolare per l'aspetto predefinito di ogni partecipante e quindi riduce la variabilità tra i partecipanti.

  1. Estrarre i dati rilevanti dai file esportati (.csv o .xlsx).
    1. Identificare un lasso di tempo rilevante per la valutazione studio (secondi).
    2. estrarre manualmente rispettivi dati (lasso di tempo) dai file esportati partecipante consulenza il timestamp partecipante (tempo zero).
    3. Compilare i dati di trattamento di ogni partecipante (il numero dei partecipanti, il trattamento, il tempo del video originale, e la risposta emozione) per emozione (felice, neutro, triste, arrabbiato, sorpreso, spaventato, e disgustato) per la cornice di selezione di tempo (in secondi) in un nuovo foglio di dati per future analisi (Figura 3).
    4. Continuare questo processo per tutti i partecipanti.
  2. Identificare il tempo corrispondente a zero dal file timestamp per ogni coppia partecipante-trattamento e regolare il tempo video a un tempo vero "0" per confronto diretto ( Figura 4, Figura 5).
    Nota: i dati partecipante viene raccolta in un video continua quindi ogni trattamento "tempo zero" è diverso (cioè, acqua unflavored video tempo zero è 02: 13.5 e latte unflavored video in tempo zero è 03: 15.4). Nella Figura 4 A causa della diversa trattamento "zeri tempo", i tempi di video devono essere riadattato e riallineato per iniziare a "0: 00.0", o altro orario di inizio di serie in modo che il confronto tempo diretto dei dati di risposta emotiva di trattamento.
  3. Per ogni partecipante, emozione, e punto di tempo impostato, estrarre il trattamento associato (ad esempio, il latte unflavored) e il trattamento di controllo (ad esempio, acqua unflavored) quantitativa punteggio emotivo. In altre parole, allineare trattamento e controllo serie temporale di un partecipante di risposte per ogni emozione (Figura 5).
  4. Compilare tutte le informazioni del partecipante (partecipanti, tempo impostato, e il trattamento in coppia(Ad esempio, acqua unflavored e latte unflavored) in ogni momento (Figura 6).
    Nota: Le seguenti procedure illustrano i passaggi per una prova Wilcox accoppiato a mano. La maggior parte dei programmi software di analisi dei dati farà questo automaticamente. Si consiglia di discutere il processo di analisi statistica con uno statistico.
  5. Una volta che i campioni sono reset e in linea con i tempi nuovi video di regolate, confrontare direttamente tra i risultati emotive di un rispettivo campione e il controllo (acqua unflavored) utilizzando sequenziali abbinato test non parametrico Wilcoxon attraverso i partecipanti (Figura 7).
    Nota: Il nuovo allineamento temporale dei campioni permetterà un confronto diretto all'interno del post-consumo arco di tempo di 5 secondi. Se un'osservazione associato non è presente in un trattamento, escludere il partecipante da quel punto di tempo di confronto.
    1. Calcolare la differenza tra il controllo e il rispettivo campione per ciascun confronto accoppiato usando spreadshe datisoftware di gestione et.
      Nota: Il confronto sarà dipendente dal frame rate selezionato per l'analisi emozionale nel software. Il protocollo dimostra 30 singoli confronti al secondo per 5 secondi (intervallo di tempo selezionato).
      Nota: Utilizzare la Figura 7 come riferimento per colonne e passi.
      1. Sottrarre il valore del latte (ad esempio, il latte unflavored) dal valore del controllo (ad esempio, acqua unflavored) per determinare la differenza. Nel software di gestione dei fogli di calcolo dei dati in una nuova colonna intitolata "Trattamento Difference", inserire "= (C2) - (D2)", dove "C2" è i valori emozionali di controllo e "D2" è i valori emozionali di trattamento selezionato. Continuare questo processo per tutti i punti di tempo.
      2. Calcolare il valore assoluto della differenza di trattamento. Nel software di gestione dei fogli di calcolo dei dati in una nuova colonna, digitare "= ABS (E2)", dove "E2" è la differenza di trattamento. Continuare questo processo pertutti i punti di tempo.
      3. Determinare l'ordine di classificazione della differenza di trattamento. Nel software di gestione dei fogli di calcolo dei dati in una nuova colonna, immettere "= RANK (G2, $ G $ 2: $ G $ 25, 1)" dove "G2" è la differenza assoluta e "1" è "ascendente". Continuare questo processo per tutti i punti di tempo.
      4. Determinare il rango firmata della graduatoria sul foglio di calcolo. Modificare il segno negativo se la differenza di trattamento è stato negativo (colonna I).
      5. Calcolare la somma positiva (= SUMIF (I2: I25, "> 0", I2: I25) e somma negativa = SUMIF (I2: I25, "<0", I2: I25) dei valori di rango.
      6. Determinare la statistica test. La statistica test è il valore assoluto più basso somma.
      7. Consultare le tabelle statistiche per Wilcoxon classifica Statistica test utilizzando il numero di osservazioni inclusi al momento specifico e un valore alfa selezionato per determinare il valore critico.
      8. Se la statistica test è inferiore al valore critico respingere tegli ipotesi nulla. Se è maggiore, accettare l'ipotesi nulla.
  6. Grafico i risultati sul grafico di trattamento associato (ad esempio, il latte unflavored rispetto all'acqua unflavored) per i tempi in cui l'ipotesi nulla viene rifiutata. Utilizzare il segno della differenza per determinare quale trattamento ha maggiore emozione (Figura 8).
    1. Nel software di gestione foglio dati, creare un grafico utilizzando i valori di presenza o assenza di significato.
      1. Fai clic su "Inserisci" scheda.
      2. Selezionare "Line"
      3. Fare clic destro sulla casella del grafico.
      4. Fare clic su "selezionare i dati" e seguire le istruzioni sullo schermo per selezionare e grafico i dati rilevanti (Figura 8).
        Nota: I grafici si ritraggono risultati emozionali in cui il campione o il controllo è più alta e significativa. Grafico dipendente, l'emozione è più alta in quel momento specifico che permette la capacità di discernere come le emozioni dei partecipantievolvere nel periodo di 5 secondi tra due campioni.
        Nota: Supporto statistico con uno statistico è altamente raccomandato per estrarre i dati rilevanti. Sviluppo di codifica statistica è necessario per analizzare i risultati emotivi.

Risultati

Il metodo si propone un protocollo standard per la raccolta dei dati AFEA. Se sono seguiti passi protocollo suggerito, inutilizzabile emotivo in uscita (Figura 1) derivanti dalla raccolta dei dati poveri (Figura 2: A; foto a sinistra) può essere limitata. Analisi di serie temporali non può essere utilizzato se i file di log (txt) prevalentemente contengono "FIT_FAILED" e "FIND_FAILED" in quanto si tratta di dati cat...

Discussione

AFEA applicazione in letteratura relative a cibo e bevande è molto limitata 1-11. L'applicazione al cibo è nuova, creando un'opportunità per stabilire la metodologia ed i dati di interpretazione. Arnade (2013) 7 trovato alta variabilità individuale tra risposta emotiva individuale di cioccolato al latte e bianco latte con area sotto la curva di analisi e l'analisi della varianza. Tuttavia, anche con la variabilità dei partecipanti, i partecipanti generato una risposta felice più a...

Divulgazioni

The authors have nothing to disclose.

Riconoscimenti

This project was funded, in part, by ConAgra Foods (Omaha, NE, USA), the Virginia Agricultural Experiment Station, the Hatch Program of the National Institute of Food and Agriculture, U.S. Department of Agriculture, and the Virginia Tech Water INTERface Interdisciplinary Graduate Education Program.

Materiali

NameCompanyCatalog NumberComments
2% Reduced Fat MilkKroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NCnafor solutions
Drinking WaterKroger Brand, Cincinnati, OHnafor solutions
Imitation Clear Vanilla FlavorKroger Brand, Cincinnati, OHnafor solutions
Iodized SaltKroger Brand, Cincinnati, OHnafor solutions
FaceReader 6Noldus Information Technology, Wageningen, The NetherlandsnaFor Facial Analysis
Sensory Information Management System (SIMS) 2000Sensory Computer Systems, Berkeley Heights, NJVersion 6For Sensory Data Capture
RhapsodyAcuity Brands Lighting, Inc., Conyers, GAFor Environment Illumination
R Version R Core Team 20153.1.1For Statistical Analysis
Microsoft OfficeMicrosoftnaFor Statistical Analysis
JMPStatistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NCnaFor Statistical Analysis
Media Recorder 2.5Noldus Information Technology, Wageningen, The NetherlandsnaFor capturing participants sensory evaluation
Axis M1054 CameraAxis Communications, Lund, Swedenna
BeveragenaBeverage or soft food for evaluation

Riferimenti

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. . Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. . . FaceReader 5™ Technical Specifications. , (2014).
  17. Cootes, T., Taylor, C. . Statistical models of appearance for computer vision: Technical report. , (2000).
  18. Bishop, C. M. . Neural networks for pattern recognition. , (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. . FaceReader Reference Manual Version 6. , (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S., Clark, S., Costello, M., Drake, M., Bodyfelt, F. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. , 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes?. Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H., P, E. k. m. a. n., E, R. o. s. e. n. b. e. r. g. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). , 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P., Cole, J. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. , 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

ComportamentoAnalisi Espressione del visola valutazione sensorialeEmozionebevandescienze alimentariTime Series Analysisprodotti lattiero caseari

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati