JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Ein Protokoll für die Erfassung und statistischen Analyse emotionale Reaktion der Bevölkerung zu Getränken und verflüssigte Nahrungsmittel in einem sensorischen Laborauswertung mit automatisierten Gesichtsausdruck Analyse-Software beschrieben.

Zusammenfassung

We demonstrate a method for capturing emotional response to beverages and liquefied foods in a sensory evaluation laboratory using automated facial expression analysis (AFEA) software. Additionally, we demonstrate a method for extracting relevant emotional data output and plotting the emotional response of a population over a specified time frame. By time pairing each participant's treatment response to a control stimulus (baseline), the overall emotional response over time and across multiple participants can be quantified. AFEA is a prospective analytical tool for assessing unbiased response to food and beverages. At present, most research has mainly focused on beverages. Methodologies and analyses have not yet been standardized for the application of AFEA to beverages and foods; however, a consistent standard methodology is needed. Optimizing video capture procedures and resulting video quality aids in a successful collection of emotional response to foods. Furthermore, the methodology of data analysis is novel for extracting the pertinent data relevant to the emotional response. The combinations of video capture optimization and data analysis will aid in standardizing the protocol for automated facial expression analysis and interpretation of emotional response data.

Einleitung

Automatische Gesichtsausdruck Analyse (AFEA) ist eine prospektive analytisches Werkzeug zur Charakterisierung von emotionalen Reaktionen auf Getränke und Nahrungsmittel. Emotional-Analyse kann eine zusätzliche Dimension zu den bestehenden sensorischen Wissenschaft Methoden, Lebensmittel Bewertungspraktiken und hedonischen Skala Bewertungen hinzufügen typischerweise sowohl in der Forschung und der Industrie-Einstellungen verwendet. Emotional Analyse könnte eine zusätzliche Metrik zur Verfügung stellen, die eine genauere Reaktion auf Nahrungsmittel und Getränke zeigt. Hedonic Scoring können Teilnehmer Bias umfassen im Falle eines Defekts Reaktionen 1 aufzuzeichnen.

AFEA Forschung hat sich in vielen Forschungsanwendungen einschließlich Computerspiele, Benutzerverhalten, Erziehung / Pädagogik und Psychologie Studien über Empathie und Betrug verwendet. Die meisten Lebensmittel-assoziierte Forschung hat sich auf die Charakterisierung emotionale Reaktion auf die Lebensmittelqualität und das menschliche Verhalten mit Lebensmitteln konzentriert. Mit der jüngsten Entwicklung in Einblicke in Essen Verhalten gewinnen, eine wachsende Zahl von Literaturberichten Verwendung von AFEAfür die menschliche emotionale Reaktion mit Lebensmitteln assoziiert zu charakterisieren, Getränken und Riechstoffe 1-12.

AFEA wird aus dem Facial Action Coding System (FACS) abgeleitet. Die Facial Action Coding System (FACS) unterscheidet Gesichtsbewegungen gekennzeichnet durch Betätigungseinheiten (AUs) auf einer 5-Punkte - Intensitätsskala 13. Die FACS-Ansatz erfordert trainierte Überprüfung Experten, manuelle Codierung, die wesentlichen Bewertungszeit und liefert begrenzten Datenanalysemöglichkeiten. AFEA wurde als schnelle Auswertungsverfahren entwickelt Emotionen zu bestimmen. AFEA Software stützt sich auf Gesichtsmuskelbewegungen, Gesichts Datenbanken und Algorithmen , um die emotionale Reaktion 14-18 zu charakterisieren. Die AFEA Software in dieser Studie verwendeten erreichte einen "FACS Index der Vereinbarung von 0,67 im Durchschnitt sowohl an der Warschauer Set Emotionale Gesichtsausdruck Bilder (WSEFEP) und Amsterdam Dynamische Gesichtsausdruck Set (ADFES), die auf eine Standardvereinbarung von 0,70 nahe für manuelle Codierung "19 . Universal-Emotionen in die Analyse einbezogen sind glücklich (positiv), traurig (negativ), angewidert (negativ), überrascht (positiv oder negativ), wütend (negativ), Angst (negativ) und neutral jeweils auf einer separaten Skala von 0 bis 1 ( 0 = nicht ausgedrückt; 1 = vollständig ausgedrückt) 20. Darüber hinaus enthält der Psychologie Literatur glücklich, überrascht und wütend als "Ansatz" Emotionen ( in Richtung Reize) und traurig, ängstlich, und angewidert als "Rückzug" Emotionen (weg von aversiven Stimuli) 21.

Eine Einschränkung der aktuellen AFEA Software für Emotionen, die mit Lebensmitteln assoziiert zu charakterisieren ist Interferenz von Gesichtsbewegungen im Zusammenhang mit Kauen und sowie andere grobmotorischen Bewegungen, wie extreme Kopfbewegungen zu schlucken. Die Software richtet sich kleinere Gesichtsmuskelbewegungen, bezüglich Position und Bewegungsgrad, basierend auf über 500 Muskel Punkte auf dem Gesicht 16,17. Kaubewegungen stören Klassifizierung von Ausdrücken. Diese Grenzeation kann unter Verwendung von verflüssigtem Lebensmittel behandelt werden. Jedoch können auch andere Methodik Herausforderungen auch Video-Empfindlichkeit und AFEA Analyse einschließlich der Datenerfassung Umwelt, Technologie, Forscher Anweisungen, Teilnehmerverhalten und Teilnehmer Attribute verringern.

Eine Standardmethode ist für eine optimale Videoerfassung und Datenanalyse entwickelt und verifiziert mit AFEA für emotionale Reaktion auf Nahrungsmittel und Getränke in einer sensorischen Beurteilung Laborbedingungen nicht. Viele Aspekte können das Video-Capture-Umgebung einschließlich Beleuchtung beeinflussen, durch Abschattung zu Beleuchtung, Teilnehmer Richtungen, Teilnehmerverhalten, Teilnehmerhöhe, sowie die Kamerahöhe, Kamera Angeln und Geräteeinstellungen. Darüber hinaus sind die Datenanalyse-Methoden inkonsistent und fehlt nach einer Standardmethode für emotionale Reaktion zu beurteilen. Hier werden wir unser Standardverfahren für die Erfassung emotionaler Daten und Verarbeitung von Daten in aussagekräftige Ergebnisse zeigen, mit Getränken (aromatisierter Milch, unflavored Milch und geschmacksneutralen Wasser) für die Bewertung. Unseres Wissens nur ein Peer - Review - Publikation aus unserem Labor - Gruppe, hat für Emotionen Analyse 8 Zeitreihen für die Interpretation der Daten verwendet wird ; jedoch hat das Verfahren für unsere stellten Verfahrens aktualisiert. Unser Ziel ist es, eine verbesserte und einheitliche Methodik zu helfen, mit der Reproduzierbarkeit in einer sensorischen Beurteilung Laborumgebung zu entwickeln. Zur Demonstration ist es das Ziel der Studie Modell zu bewerten, wenn AFEA traditionelle hedonischen Verträglichkeitsprüfung von aromatisierter Milch, unflavored Milch und geschmacksneutralen Wasser ergänzen könnte. Die Absicht dieses Video-Protokoll ist zu helfen AFEA Methodik etablieren, Video-Capture-Kriterien in einer sensorischen Beurteilung Labor (sensorische Stand-Einstellung), und zeigen ein Verfahren zur zeitlichen emotionale Datenanalyse einer Population zu standardisieren.

Protokoll

Ethik-Erklärung: Diese Studie wurde im Voraus genehmigt von Virginia Tech Institutional Review Board (IRB) (IRB 14-229) vor, das Projekt zu starten.

Achtung: Human Thema Forschung erfordert informierte Zustimmung vor der Teilnahme. Neben der IRB-Genehmigung, die Einwilligung zur Nutzung von Stand- oder Videobildern wird auch vor dem Loslassen keine Bilder für Print, Video oder Grafik-Bildgebung erforderlich. Zusätzlich Nahrungsmittelallergene sind vor der Prüfung bekannt gegeben. Die Teilnehmer werden vor dem Panel-Start gefragt, ob sie irgendwelche Intoleranz, Allergien oder andere Bedenken haben.

Hinweis: Ausschlusskriterien: Automatische Gesichtsausdruck Analyse zu dick gerahmte Brille empfindlich ist, stark bärtigen Gesichtern und Hautton. Die Teilnehmer, die diese Kriterien haben, sind nicht kompatibel mit Software-Analyse aufgrund eines erhöhten Risikos von Fehl Videos. Dies ist auf die Software der Unfähigkeit zurückzuführen, das Gesicht zu finden.

1. Probenvorbereitung und Teilnehmer Recruitment

  1. Bereiten Sie Getränk oder weichLebensmittelproben.
    1. Bereiten Sie verstärkt Milch Lösungen mit 2% Milch und schlug vor , Aromen von Costello und Clark (2009) 22 sowie andere Aromen. Bereiten Sie die folgenden Lösungen: (1) unflavored Milch (2% fettreduzierte Milch); (2) unflavored Wasser (Trinkwasser); (3) Vanille-Extrakt Geschmack in Milch (0,02 g / ml) (Nachahmung klar Vanille-Aroma); und (4) salzigen Geschmack in Milch (0,004 g / ml jodiertes Salz).
      Hinweis: Diese Lösungen sind nur zu Demonstrationszwecken verwendet.
    2. Gießen halbe Unze Aliquots (~ 15 g) jeder Lösung in 2 Unzen transparenten Kunststoff-Probenbecher und Deckel mit farbcodierten Deckel.
      Hinweis: Es wird empfohlen, transparente Becher zu verwenden; jedoch ist es dem Forscher nach eigenem Ermessen auf.
  2. Recruit Teilnehmer aus dem Campus oder der örtlichen Gemeinde, an der Studie teilzunehmen.
    Hinweis: Teilnehmer Stichprobengröße für eine Studie erforderlich ist bis in das Ermessen des Forschers. Wir empfehlen einen Bereich von 10 bis 50 Teilnehmer.
  3. Erhalten menschliche Subjekt Zustimmung vor, an der Studie Teilnahme.

2. Herstellung von Panel Raum für Video Capture

Hinweis: Dieses Protokoll für die Datenerfassung ist in einer sensorischen Beurteilung Labor. Dieses Protokoll ist AFEA Datenerfassung nützlich für eine sensorische Stand Einstellung zu machen.

  1. Verwenden Sie einzelne Kabinen mit einem Touchscreen-Monitor vor ihnen (Kopfhöhe) ihren Fokus nach vorne zu halten und zu verhindern, dass der Suche nach unten.
  2. Verwenden Sie höhenverstellbare Stühle mit Rückenlehne.
    Hinweis: Dies sind von wesentlicher Bedeutung für den Teilnehmern erlaubt, vertikal verstellt und in einem geeigneten Bereich für die Videoaufnahme platziert werden. Verwenden stationäre Stühle (kein Roll Feature) mit einstellbarer Rückenhöhe unterstützen, so dass die Teilnehmer die Bewegungen verringert werden.
  3. Stellen Sie Deckenbeleuchtung auf "100% Tageslicht" für eine optimale Gesichts emotionale Video-Capture (Lichtart 6504K; R = 206; G = 242; B = 255).
    Hinweis: Um starke Abschattung zu vermeiden, diffuse frontal Beleuchtung ist ideal , während die Lichtintensität oder Farbe ist nicht so relevant 20. Letztendlich ist es dem Ermessen des Forschers, individuelle Protokoll / Methodik und Umwelt bis zur Kontrolle von Licht für die Aufnahme.
  4. Affix eine einstellbare Kamera über dem Touchscreen-Monitor für die Aufnahme.
    1. Verwenden Sie eine Kamera mit einer Auflösung von mindestens 640 x 480 Pixel (oder höher) 20. Diskutieren Sie die gewünschte Kamera - Funktionen mit dem Software - Anbieter vor dem Kauf und der Installation 20. Hinweis: Das Seitenverhältnis 20 nicht wichtig ist.
    2. Stellen Sie die Kamera Aufnahmegeschwindigkeit auf 30 Bilder pro Sekunde (oder andere Standardgeschwindigkeit) für Konsistenz.
    3. Verbinden und gewährleisten Medien-Recording-Software ist auf die Kamera einrichten aufzeichnen und Teilnehmer-Videos speichern.

3. Teilnehmer Anpassung und Verbal Anfahrt

  1. Habe nur ein Teilnehmer zu einem Zeitpunkt, um die Proben in den sensorischen Stand zu bewerten.
    Hinweis: Testen mehr alsein Teilnehmer kann gleichzeitig mit der Testumgebung beeinträchtigen und stören die Konzentration des Teilnehmers oder Bias erstellen.
  2. Bei der Ankunft geben den Teilnehmern verbale Anweisungen über den Prozess und Standard-Betriebsverfahren.
    1. Haben die Teilnehmer gerade nach oben und gegen die Rückenlehne des Stuhls sitzen.
    2. Stellen Sie die Stuhlhöhe, Position des Stuhls (Abstand von der Kamera) und Kamerawinkel, so dass das Gesicht des Teilnehmers wird in der Mitte des Videoaufnahmen eingefangen, ohne Schatten am Kinn oder um die Augen.
      Hinweis: Bei der sensorischen Stand der Kopf des Teilnehmers ist in etwa 20 bis 24 Zoll weg von der Kamera und dem Monitor mit dem Gesicht in die Kamera-Video-Feed zentriert.
    3. Weisen Sie die Teilnehmer zu bleiben, wie positioniert sitzen und fokussiert auf die Monitoranzeige gegenüber. Zusätzlich anweisen Teilnehmer aus irgendwelchen plötzlichen Bewegungen nach Probenverbrauch während der 30 Sekunden Testzeitraum pro Probe zu verzichten.
    4. Weisen Sie den Teilnehmer das gesamte Getränk oder verflüssigte Lebensmittelprobe zu konsumieren und zu schlucken.
    5. Weisen Sie den Teilnehmer, um schnell die Probenschale unter dem Kinn zu bewegen und sich an den Tisch unmittelbar nach der Probe im Mund ist. Dies ist facial Okklusion zu beseitigen. Erinnern Sie sie sucht in Richtung Monitor zu halten.
      Hinweis: Der Probenträger, die Probe zu liefern dem Ermessen des Forschers liegt. Ein Stroh oder Becher verwendet werden. Unabhängig davon, anfängliche Gesichts Okklusion ist unvermeidbar, weil das Gesicht wird durch den Verbrauch verdeckt oder verzerrt werden.
  3. Weisen Sie den Teilnehmer, den Anweisungen folgen, wie sie auf dem Touchscreen-Monitor angezeigt. Hinweis: Die Befehle werden automatisch wie programmiert in die automatisierte sensorische Software sequenziert.

4. Individuelle Teilnehmer Prozess für Video Capture

  1. Bestätigen Videokamera optimal erfassen Teilnehmer Gesicht, während der Teilnehmer sitztbequem in der Kabine (vor der Probenpräsentation) durch den Computer-Monitor betrachten, auf dem das Video-Capture angezeigt wird. Starten Sie die Aufnahme durch die Aufnahmetaste auf dem Computermonitor klicken.
  2. Instruieren Teilnehmer Wasser zu schlürfen ihren Gaumen zu reinigen.
  3. Bieten Behandlungen ein zu einer Zeit, mit einem Ausgangswert oder Steuer Beginn der Behandlung (unflavored Wasser). Identifizieren Sie jede Probe durch eine einzigartige Karte farbige Index platziert auf der jeweils auf die Probe Farbcode für die Probenbehandlung Identifizierung innerhalb des Video im Zusammenhang Probe.
    Hinweis: Programmierte Führung auf dem Touchscreen-Monitor weist die Teilnehmer. Die Anweisungen leiten die Teilnehmer durch eine Reihe von standardisierten Schritten für jede Behandlungsprobe.
  4. Über den Touchscreen-Monitor, leiten die Teilnehmer:
    1. Halten Sie die zugehörigen Farbkarteikarte Pre-Verbrauch für die Probenidentifikation im Video oben.
      Hinweis: Die Farbkarte ist eine Möglichkeit, Forscher Behandlungen im Video ein identifizieren könnennd markieren Sie die entsprechende Zeitrahmen (Zeit Null) für die Probenauswertung.
    2. die Karte kurz, legen Sie die Karte wieder auf dem Tablett Nach dem Halten.
    3. Voll verbrauchen die Probe und warten Sie etwa 30 Sekunden durch die programmierte Führung auf dem Monitor durchgesetzt, während in Richtung der Kamera.
      Hinweis: Die 30 Sekunden kontrolliert Abtastperiode umfasst eine Zeitspanne ausreichend für die gesamte Stichprobenauswertungszeitraum (dh zeigt die Karteikarte, das Öffnen einer Probe (Entfernen des Deckels), Verbrauch und emotionale Capture).
    4. Geben Sie ihre hedonistische Akzeptanzergebnis auf dem Touchscreen-Monitor (1 = sehr mag nicht, nicht 2 = sehr gut, 3 = mäßig nicht mögen, 4 = etwas nicht mögen, 5 = weder wie noch Abneigung, 6 = wie leicht, 7 = wie mäßig, 8 = wie sehr, 9 = wie extrem).
    5. Mund mit Wasser ausspülen, bevor die nächste Probe Prozess zu trinken.

5. Auswertung Automatische Gesichtsausdruck Analyseoptionen

Hinweis: Viele Gesichtsausdruck Analyse-Software-Programme existieren. Software-Befehle und Funktionen variieren. Es ist wichtig , den Herstellerbenutzerrichtlinien und Referenzhandbuch 20 zu folgen.

  1. Speichern Sie Aufnahmen in einem Medien-Format und übertragen auf die automatisierte Gesichtsausdruck Analyse-Software.
  2. Analysieren Teilnehmer-Videos mit automatischer Gesichtsanalyse-Software.
    1. Klicken Sie doppelt auf das Software-Symbol auf dem Computer-Desktop.
    2. Sobald das Programm geöffnet ist, klicken Sie auf "Datei", wählen Sie "Neu ..." und wählen Sie "Projekt ..."
    3. Im Pop-up-Fenster, nennen Sie das Projekt und das Projekt speichern.
    4. In Teilnehmer in das Projekt, indem Sie auf die Schaltfläche "Hinzufügen Teilnehmer" Symbol (Person mit einem Zeichen (+)). Weitere Teilnehmer können durch Wiederholen Sie diesen Schritt hinzugefügt werden.
    5. In Teilnehmers Video in den jeweiligen Teilnehmer für die Analyse.
      1. Auf der linken Seite des Bildschirms klicken Sie auf das Symbol der Filmrolle with ein Pluszeichen (+) ein Video zu analysieren hinzuzufügen.
      2. Klicken Sie auf die "Lupe" unter der Teilnehmer von Interesse um das Video zu sehen hinzuzufügen.
  3. Analysieren Sie Videos Frame-by-Frame unter Dauer Kalibrierung Analyseeinstellungen in der Software.
    1. Klicken Sie auf das Stift-Symbol anpassen Einstellungen am unteren Rand des Fensters, unter der Registerkarte "Einstellungen" für jeden Teilnehmer Video.
      1. Set "Face Model" zu General. Set "Smoothen Klassifikationen" auf Ja. Stellen Sie "Sample Rate" zu jedem Frame.
      2. Stellen Sie "Bilddrehung" auf Nein gesetzt "Continuous-Kalibrierung" auf Ja. Stellen Sie "Ausgewählte Kalibrierung" auf Keine.
    2. Speichern Sie die Projekteinstellungen.
    3. Drücken Sie die Batch-Analyse-Symbol (das gleiche rot und schwarz Ziel ähnlichen Symbol), um die Projektvideos zu analysieren.
    4. Speichern Sie die Ergebnisse einmal Analyse abgeschlossen ist.
      Hinweis: Weitere Video-Einstellungen gibt es in der Software, wenn researcihre Vorliebe garantiert eine andere Analysemethode.
    5. Betrachten Sie Videos Ausfälle , wenn ernsten Gesichts Verstopfungen oder die Unfähigkeit , das Gesicht zur Karte während des angegebenen Postverbrauch Fenster bleibt (Abbildung 1). Außerdem, wenn das Modell versagt Daten "FIT_FAILED" sagen oder "FIND_FAILED" in den exportierten Ausgabedateien (Abbildung 2). Dies stellt verlorene Daten, da die Software nicht der Teilnehmer Emotionen zu klassifizieren oder zu analysieren.
      Hinweis: AFEA übersetzt Gesichtsmuskelbewegung zu neutral, glücklich, angewidert, traurig, wütend, überrascht und verängstigt auf einer Skala von 0 (nicht ausgedrückt) auf 1 für jede Emotion (voll zum Ausdruck).
  4. Exportieren Sie die AFEA Datenausgabe als Protokolldateien (.txt) zur weiteren Analyse.
    1. Sobald Analysen abgeschlossen sind, exportieren Sie das gesamte Projekt.
      1. Klicken Sie auf "Datei", "Export", "Export Projektergebnisse".
      2. Wenn ein Fenster geöffnet wird, wählen Sie den Ort, wo die Exporte Should werden gespeichert und speichern Sie die Protokolldateien (.txt) in einen Ordner.
      3. Wandeln Sie jeden Teilnehmer Protokoll Leben auf eine Daten Tabelle (.csv oder .xlsx) relevante Daten zu extrahieren.
        1. Offene Datentabellenkalkulations-Software und wählen Sie die Registerkarte "Daten".
        2. Auf der Registerkarte "Daten" in der Gruppe "Externe Daten" auf "Aus Text".
        3. In der "Adressleiste", zu finden, doppelklicken Sie auf die Teilnehmer Textdatei zu importieren, und folgen Sie den Anweisungen auf dem Bildschirm Assistenten.
        4. Weiter den Exportprozess für alle relevanten Teilnehmer Dateien.

6. Zeitstempel Teilnehmer-Videos für die Datenanalyse

  1. Mit Hilfe der AFEA Software, überprüfen Sie manuell jedes Video des Teilnehmers und identifizieren post-Verbrauch Zeitpunkt Null für jede Probe. Notieren Sie sich die Zeitstempel in einem Daten Tabelle. Post-Konsum definiert wird, wenn die Probenschale unterhalb des Teilnehmers Kinn ist und nicht mehr ocschließt das Gesicht.
    Hinweis: Die Platzierung der Zeitstempel für die Beurteilung entscheidend ist. Der Punkt, wo der Becher nicht mehr das Gesicht okkludiert ist die optimale Empfehlung und Zeitstempel müssen für alle Teilnehmer, konsequent zu sein.
  2. Speichern Sie die Zeitstempel-Daten Tabelle (.csv) als Referenz für die relevanten Daten aus Videos extrahieren.
    Hinweis: Teilnehmer-Videos können auch intern in der Software als "Ereignismarkierung" codiert werden.

7. Time Series Analysis Emotional

Hinweis: Betrachten Sie die "Baseline" , um die Kontrolle zu sein (dh unflavored Wasser in diesem Beispiel). Der Forscher hat die Fähigkeit, eine andere "Baseline-Behandlung Stimulus" oder eine "Basiszeit ohne Reiz" für Paarvergleich abhängig von den Interessen der Untersuchung zu schaffen. Das Verfahren macht einen "default" Zustand vorgeschlagen durch ein gekoppeltes statistischen Test. Mit anderen Worten verwendet die Prozedur statistische Blockierung (dhein gekoppeltes Test) für die Standarddarstellung der einzelnen Teilnehmer anzupassen und reduziert damit die Variabilität über die Teilnehmer.

  1. Extrahieren Sie relevanten Daten aus den exportierten Dateien (.csv oder .xlsx).
    1. Identifizieren Sie einen Zeitrahmen relevant für die Studienauswertung (Sekunden).
    2. Extrahieren Sie manuell jeweiligen Daten (Zeitrahmen) aus den exportierten Teilnehmer Dateien Anhörung des Teilnehmer-Zeitstempel (Zeit Null).
    3. Kompilieren jeder Behandlungsdaten des Teilnehmers (Teilnehmernummer, Behandlung, Original-Video Zeit und Emotion Reaktion) pro Emotion (glücklich, neutral, traurig, wütend, überrascht, ängstlich, und angewidert) für den ausgewählten Zeitraum (in Sekunden) in einem neuen Daten-Tabelle für eine zukünftige Analyse (Abbildung 3).
    4. Wiederholen Sie diesen Vorgang für alle Teilnehmer.
  2. Identifizieren Sie die entsprechenden Zeitpunkt Null aus der Timestamp-Datei für jeden Teilnehmer-Behandlung Paar und Video Zeit zu einem wahren Zeit "0" für den direkten Vergleich einstellen ( Abbildung 4, Abbildung 5).
    Hinweis: Teilnehmerdaten in einem kontinuierlichen Video gesammelt wird deshalb jede Behandlung "Zeitpunkt Null" ist anders (dh geschmacksneutralen Wasservideozeit Null ist 02: 13,5 und unflavored Milch null Video Zeit ist 03: 15.4). In Abbildung 4 Aufgrund der unterschiedlichen Behandlung "Zeit Nullen", müssen die Video mal an zu starten neu eingestellt und neu ausgerichtet werden "0: 00,0" oder andere Standard-Startzeit, um für den direkten Zeitvergleich der Behandlung emotionalen Antwortdaten.
  3. Für jeden Teilnehmer, Emotion und eingestellten Zeitpunkt, extrahieren Sie die paarigen Behandlung (zB unflavored Milch) und die Kontrollbehandlung (zB unflavored Wasser) quantitative emotionale Punktzahl. Mit anderen Worten, Ausrichten eines Teilnehmers Behandlungs- und Kontrollzeitreihe von Antworten für jede Emotion (Abbildung 5).
  4. Kompilieren Sie alle Informationen des Teilnehmers (Teilnehmer, eingestellte Zeit, und gepaart Behandlung(Beispielsweise geschmacksneutralen Wasser und geschmacksneutralen Milch) zu jedem Zeitpunkt (Figur 6).
    Hinweis: Die folgenden Schritte, die Schritte zeigen, für ein gekoppeltes Wilcox-Test mit der Hand. Die meisten Datenanalyse-Software-Programme wird dies automatisch tun. Es wird empfohlen, die statistische Analyseprozess mit einem Statistiker zu diskutieren.
  5. Sobald die Proben zurückgesetzt und ausgerichtet mit neuen eingestellten Video Zeiten sind, zu vergleichen , direkt zwischen den emotionalen Ergebnisse einer jeweiligen Probe und der Kontrolle (unflavored Wasser) unter Verwendung von sequentieller gepaart nichtparametrischer Wilcoxon - Tests für die Teilnehmer (Abbildung 7).
    Hinweis: Die neue zeitliche Ausrichtung der Proben für den direkten Vergleich innerhalb der 5 Sekunden nach dem Verzehr Zeitrahmen ermöglicht. Wenn ein gekoppeltes Beobachtung nicht in einer Behandlung ist, fallen die Teilnehmer von diesem Zeitpunkt Vergleich.
    1. Berechnen der Differenz zwischen der Steuerung und den jeweiligen Probe für jeden paarweisen Vergleich unter Verwendung von Daten spreadsheet-Management-Software.
      Hinweis: Der Vergleich wird auf der Bildrate für emotionale Analyse in der Software ausgewählt abhängig sein. Das Protokoll zeigt 30 individuelle Vergleiche pro Sekunde für 5 Sekunden (ausgewählte Zeitrahmen).
      Hinweis: Verwenden Sie Abbildung 7 als Referenz für Spalten und Stufen.
      1. Subtrahiere den Wert der Milch (beispielsweise geschmacksneutralen Milch) aus dem Wert des Steuer (beispielsweise geschmacksneutralen Wasser) , um die Differenz zu bestimmen. In der Datentabellen-Management-Software in einer neuen Spalte "Behandlungs Difference" betitelt, geben Sie "= (C2) - (D2)", wobei "C2" die emotionalen Werte Kontrolle und "D2" ist die gewählte Behandlung emotionale Werte. Wiederholen Sie diesen Vorgang für alle Zeitpunkte.
      2. Berechnen Sie den absoluten Wert der Differenz nach Behandlung. In der Datentabellen-Management-Software in einer neuen Spalte, geben Sie "= ABS (E2)", wobei "E2" ist der Unterschied in der Behandlung. Wiederholen Sie diesen Vorgang füralle Zeitpunkte.
      3. Bestimmen Sie die Rangordnung der Behandlungsdifferenz. In der Datentabellen-Management-Software in einer neuen Spalte, geben Sie "= RANK (G2, $ G $ 2: $ G $ 25, 1)", wobei "G2" ist die absolute Differenz und "1" ist "aufsteigend". Wiederholen Sie diesen Vorgang für alle Zeitpunkte.
      4. Bestimmen Sie die Vorzeichen-Rang der Rangordnung auf der Tabelle. Ändern Sie die Zeichen auf negativ, wenn der Unterschied in der Behandlung negativ war (Spalte I).
      5. Berechnen Sie die positive Summe (= SUMIF (I2: I25, "> 0", I2: I25) und negative Summe = SUMIF (I2: I25, "<0", I2: I25) der Rangwerte.
      6. Bestimmen Sie die Teststatistik. Die Teststatistik ist der absolute Wert niedriger Summe.
      7. Statistischen Tabellen für Wilcoxon Signed Rang Teststatistik mit der Anzahl der Beobachtungen an den genauen Zeitpunkt und einen ausgewählten Alpha-Wert enthalten den kritischen Wert zu bestimmen.
      8. Wenn die Teststatistik kleiner ist als der kritische Wert ablehnen ter Nullhypothese. Wenn er größer ist, nehmen die Nullhypothese.
  6. Graph stellt die Ergebnisse auf der zugehörigen Behandlungs Graph (dh unflavored Milch im Vergleich zu unflavored Wasser) für die Zeiten , in denen die Nullhypothese verworfen wird. Verwenden des Vorzeichens der Differenz zu bestimmen , welche Behandlung die größere Emotion (Abbildung 8).
    1. In dem Datentabellenmanagement Software eine graphische Darstellung der Werte der Anwesenheit oder Abwesenheit von Bedeutung verwendet.
      1. Klicken Sie auf "Einfügen".
      2. Wählen Sie "Line"
      3. Rechtsklick auf das Diagramm Feld.
      4. Klicken Sie auf "Wählen Sie Daten" und folgen Sie den Bildschirm , um relevante Daten auszuwählen und Grafik (Abbildung 8).
        Hinweis: Die Grafiken werden emotionalen Ergebnisse darzustellen, wo die Probe oder Kontrolle höher und signifikant ist. abhängige Grafik, ist die Emotion zu diesem bestimmten Zeitpunkt höher ermöglicht die Fähigkeit, wie Teilnehmer die Emotionen zu erkennen,zwischen zwei Proben über den 5-Sekunden Zeitraum entwickeln.
        Hinweis: Statistische Unterstützung mit einem Statistiker ist sehr relevanten Daten empfohlen zu extrahieren. Die Entwicklung der statistischen Codierung ist erforderlich, emotionale Ergebnisse zu analysieren.

Ergebnisse

Das Verfahren schlägt ein Standardprotokoll für AFEA Datenerfassung. Wenn genannte Protokollschritte befolgt werden, unbrauchbar emotionale Datenausgang (Abbildung 1) , die aus schlechten Datensammlung (Abbildung 2: A; linkes Bild) kann begrenzt werden. Zeitreihenanalyse kann nicht genutzt werden , wenn Protokolldateien (.txt) überwiegend "FIT_FAILED" enthalten und "FIND_FAILED" , wie diese schlechte Daten ist (Abbildung 1)...

Diskussion

AFEA Anwendung in der Literatur zu Lebensmitteln und Getränken im Zusammenhang sehr begrenzt 11.01. Die Anwendung auf Lebensmittel ist neu, eine Chance für die Festlegung Methodik und Interpretation der Daten zu schaffen. Arnade (2013) 7 gefunden hohe individuelle Variabilität zwischen den einzelnen emotionale Reaktion auf Schokolade Milch und weiße Milch unter der Kurvenanalyse und Varianzanalyse unter Verwendung von Bereich. Doch selbst mit Variabilität Teilnehmer erzielte Teilnehmer eine gl...

Offenlegungen

The authors have nothing to disclose.

Danksagungen

This project was funded, in part, by ConAgra Foods (Omaha, NE, USA), the Virginia Agricultural Experiment Station, the Hatch Program of the National Institute of Food and Agriculture, U.S. Department of Agriculture, and the Virginia Tech Water INTERface Interdisciplinary Graduate Education Program.

Materialien

NameCompanyCatalog NumberComments
2% Reduced Fat MilkKroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NCnafor solutions
Drinking WaterKroger Brand, Cincinnati, OHnafor solutions
Imitation Clear Vanilla FlavorKroger Brand, Cincinnati, OHnafor solutions
Iodized SaltKroger Brand, Cincinnati, OHnafor solutions
FaceReader 6Noldus Information Technology, Wageningen, The NetherlandsnaFor Facial Analysis
Sensory Information Management System (SIMS) 2000Sensory Computer Systems, Berkeley Heights, NJVersion 6For Sensory Data Capture
RhapsodyAcuity Brands Lighting, Inc., Conyers, GAFor Environment Illumination
R Version R Core Team 20153.1.1For Statistical Analysis
Microsoft OfficeMicrosoftnaFor Statistical Analysis
JMPStatistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NCnaFor Statistical Analysis
Media Recorder 2.5Noldus Information Technology, Wageningen, The NetherlandsnaFor capturing participants sensory evaluation
Axis M1054 CameraAxis Communications, Lund, Swedenna
BeveragenaBeverage or soft food for evaluation

Referenzen

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. . Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. . . FaceReader 5™ Technical Specifications. , (2014).
  17. Cootes, T., Taylor, C. . Statistical models of appearance for computer vision: Technical report. , (2000).
  18. Bishop, C. M. . Neural networks for pattern recognition. , (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. . FaceReader Reference Manual Version 6. , (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S., Clark, S., Costello, M., Drake, M., Bodyfelt, F. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. , 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes?. Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H., P, E. k. m. a. n., E, R. o. s. e. n. b. e. r. g. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). , 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P., Cole, J. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. , 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

VerhaltenHeft 114Gesichtsausdruck AnalyseSensorische BeurteilungEmotionGetr nkeLebensmittelwissenschaftZeitreihenanalyseMilch

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten