JoVE Logo

Iniciar sesión

Se requiere una suscripción a JoVE para ver este contenido. Inicie sesión o comience su prueba gratuita.

En este artículo

  • Resumen
  • Resumen
  • Introducción
  • Protocolo
  • Resultados
  • Discusión
  • Divulgaciones
  • Agradecimientos
  • Materiales
  • Referencias
  • Reimpresiones y Permisos

Resumen

Se describe un protocolo para capturar y analizar estadísticamente respuesta emocional de una población a las bebidas y alimentos licuados en un laboratorio de evaluación sensorial usando software de análisis de la expresión facial automatizado.

Resumen

We demonstrate a method for capturing emotional response to beverages and liquefied foods in a sensory evaluation laboratory using automated facial expression analysis (AFEA) software. Additionally, we demonstrate a method for extracting relevant emotional data output and plotting the emotional response of a population over a specified time frame. By time pairing each participant's treatment response to a control stimulus (baseline), the overall emotional response over time and across multiple participants can be quantified. AFEA is a prospective analytical tool for assessing unbiased response to food and beverages. At present, most research has mainly focused on beverages. Methodologies and analyses have not yet been standardized for the application of AFEA to beverages and foods; however, a consistent standard methodology is needed. Optimizing video capture procedures and resulting video quality aids in a successful collection of emotional response to foods. Furthermore, the methodology of data analysis is novel for extracting the pertinent data relevant to the emotional response. The combinations of video capture optimization and data analysis will aid in standardizing the protocol for automated facial expression analysis and interpretation of emotional response data.

Introducción

Automatizado de análisis de la expresión facial (AFEA) es una herramienta de análisis prospectivo para caracterizar las respuestas emocionales a bebidas y alimentos. El análisis emocional puede añadir una dimensión extra a las metodologías existentes sensoriales ciencia, las prácticas de evaluación de alimentos, y las calificaciones en escala hedónica suele utilizar tanto en entornos de investigación y de la industria. análisis emocional podría proporcionar una métrica adicional que revela una respuesta más precisa a los alimentos y bebidas. Puntuación hedónica puede incluir sesgo participante debido a la falta de registro de las reacciones 1.

AFEA la investigación se ha utilizado en muchas aplicaciones de investigación, incluyendo los juegos de ordenador, el comportamiento del usuario, la educación / pedagogía, psicología y los estudios sobre la empatía y el engaño. La mayoría de las investigaciones asociadas alimentos se ha centrado en la caracterización de la respuesta emocional a la calidad de los alimentos y el comportamiento humano con los alimentos. Con la reciente tendencia en la promoción de conocimientos sobre los comportamientos alimentarios, un creciente cuerpo de literatura informes uso de AFEApara la caracterización de la respuesta emocional humana asociados con los alimentos, bebidas y odorantes 1-12.

AFEA se deriva de la acción Codificación de Facial (FACS). El sistema de codificación de acción facial (FACS) discrimina movimientos faciales que se caracterizan por unidades de actuación (AUS) en una escala de intensidad de 5 puntos 13. El enfoque requiere FACS expertos examinadores entrenados, la codificación manual, tiempo de evaluación significativa, y proporciona opciones de análisis de datos limitados. AFEA fue desarrollado como un método de evaluación rápida para determinar las emociones. AFEA software se basa en el movimiento facial muscular, bases de datos faciales, y los algoritmos para caracterizar la respuesta emocional 14-18. El software AFEA utilizada en este estudio se llega a un "índice de FACS de acuerdo de 0,67 en promedio tanto en el Varsovia conjunto de imágenes faciales de expresión emocional (WSEFEP) y Amsterdam dinámico Expresión facial Set (ADFES), que está cerca de un acuerdo de nivel de 0,70 para la codificación manual "19 . emociones universales incluidos en el análisis son felices (positivo), triste (negativo), disgustado (negativo), sorprendido (positivo o negativo), enojado (negativo), asustado (negativo) y neutro cada uno en una escala separada de 0 a 1 ( 0 = no se expresen; 1 = totalmente expresado) 20. Además, la literatura de psicología incluye feliz, sorprendido y enojado como emociones "enfoque" (hacia estímulos) y triste, asustado, y disgustado como las emociones "retirada" (lejos de los estímulos aversivos) 21.

Una de las limitaciones del software AFEA actual para la caracterización de las emociones asociadas con los alimentos es la interferencia de los movimientos faciales asociadas a masticar y tragar, así como otros movimientos motoras gruesas, tales como movimientos de la cabeza extremas. El software se dirige a pequeños movimientos faciales musculares, la posición relativa y grado de movimiento, basado en más de 500 puntos musculares en la cara 16,17. movimientos de masticación interfieren con la clasificación de las expresiones. este límiteación se puede abordar el uso de alimentos licuados. Sin embargo, otros retos metodología también puede disminuir la sensibilidad de vídeo y análisis AFEA incluyendo el entorno recopilación de datos, la tecnología, las instrucciones del investigador, el comportamiento de los participantes, y participante atributos.

Una metodología estándar no se ha desarrollado y verificado para la captura de vídeo óptima y análisis de datos utilizando AFEA de respuesta emocional a alimentos y bebidas en un entorno de laboratorio de evaluación sensorial. Muchos aspectos pueden afectar al medio ambiente de captura de vídeo incluyendo la iluminación, sombras debido a la iluminación, las direcciones de los participantes, comportamiento de los participantes, la altura de participante, así como, la altura de la cámara, la pesca de la cámara, y la configuración del equipo. Por otra parte, las metodologías de análisis de datos son inconsistentes y carecen de una metodología estándar para evaluar la respuesta emocional. A continuación, vamos a demostrar nuestro procedimiento operativo estándar para la captura de datos de datos y de procesamiento emocional en resultados significativos utilizando bebidas (leche saborizada, leche sin sabor y sin sabor del agua) para su evaluación. A nuestro entender sólo una publicación revisada por pares, de nuestro grupo de laboratorio, se ha utilizado para la interpretación de series temporales de datos para el análisis de las emociones 8; Sin embargo, el método se ha actualizado para nuestro método presentado. Nuestro objetivo es desarrollar una metodología mejorada y consistente para ayudar con la reproducibilidad en un entorno de laboratorio de evaluación sensorial. Para la demostración, el objetivo del modelo de estudio es evaluar si AFEA podría complementar la evaluación de aceptabilidad hedónica tradicional de leche saborizada, leche sin sabor y sin sabor del agua. La intención de este protocolo de vídeo es ayudar a establecer la metodología AFEA, estandarizar los criterios de captura de vídeo en un laboratorio de evaluación sensorial (ajuste stand sensorial), e ilustrar un método para el análisis de datos emocional temporal de una población.

Access restricted. Please log in or start a trial to view this content.

Protocolo

Declaración de Ética: Este estudio fue previamente aprobado por la Junta de Revisión Institucional de Virginia Tech (IRB) (IRB 14-229) antes de iniciar el proyecto.

Precaución: la investigación en seres humanos requiere el consentimiento informado antes de la participación. Además de la aprobación del IRB, el consentimiento para el uso de imágenes fijas o de vídeo también se requiere antes de la liberación de alguna de las imágenes para la impresión, vídeo o imágenes gráficas. Además, los alergenos alimentarios se dan a conocer antes de la prueba. Los participantes se les pide antes del inicio del panel de si tienen alguna intolerancia, alergias u otras preocupaciones.

Nota: Los criterios de exclusión: análisis de la expresión facial automatizado es sensible a las gafas de montura gruesa, caras espesa barba y tono de la piel. Los participantes que tienen estos criterios son incompatibles con el software de análisis debido a un mayor riesgo de vídeos fallidos. Esto se atribuye a la incapacidad del software para encontrar la cara.

1. Preparación de muestras y captación de participantes

  1. Preparar bebida o suavemuestras de alimentos.
    1. Preparar sabores intensificación de soluciones lácteos utilizando 2% de leche y sugeridas de Costello y Clark (2009) 22, así como otros sabores. Preparar las siguientes soluciones: (1) la leche sin sabor (2% leche descremada); (2) el agua sin sabor (agua potable); (3) sabor extracto de vainilla en la leche (0,02 g / ml) (imitación claro sabor vainilla); y (4) sabor salado en la leche (0,004 g sal yodada / ml).
      Nota: Estas soluciones se utilizan sólo con fines de demostración.
    2. Verter la mitad de alícuotas onzas (~ 15 g) de cada solución en 2 oz copas de muestra de plástico transparente y la tapa con tapas de color codificado.
      Nota: Se recomienda el uso de vasos transparentes; sin embargo, es a discreción del investigador.
  2. Reclutar a los participantes de la escuela o la comunidad local a participar en el estudio.
    Nota: tamaño de la muestra de participantes necesarios para un estudio es a la discreción del investigador. Se recomienda un intervalo de 10 a 50 participantes.
  3. Obtener el consentimiento sujeto humano antes de la participación en el estudio.

2. Preparación de la habitación Panel para la captura de vídeo

Nota: Este protocolo es para la captura de datos en un laboratorio de evaluación sensorial. Este protocolo es hacer que la captura de datos AFEA útil para un ajuste stand sensorial.

  1. Utilice cabinas individuales con un monitor de pantalla táctil en frente de ellos (altura de la cara) para mantener su enfoque hacia delante y para prevenir mirando hacia abajo.
  2. Utilice sillas de altura ajustable con soporte para la espalda.
    Nota: Estos son esenciales para permitir que los participantes pueden ajustar verticalmente y se colocan en un rango adecuado para la captura de vídeo. Utilice sillas fijas (no cuentan con el apoyo de rodadura) con la altura del respaldo ajustable para los movimientos de los participantes se reducen.
  3. Ajuste la iluminación de arriba en "100% la luz del día" para una óptima facial emocional de captura de vídeo (Iluminante 6504 K. R = 206; G = 242; B = 255).
    Nota: Para evitar intensa sombreado, iluminación frontal difusa es ideAl mismo tiempo la intensidad de la luz o el color no es tan relevante 20. En última instancia, es a discreción del investigador, individuo / protocolo de metodología, y el medio ambiente para controlar la iluminación para la captura.
  4. Colocar una cámara ajustable por encima del monitor de pantalla táctil para la grabación.
    1. Utilizar una cámara con una resolución de al menos 640 x 480 píxeles (o superior) 20. Discutir las capacidades de la cámara necesarios con el proveedor de software antes de la compra y la instalación 20. Nota: La relación de aspecto no es importante 20.
    2. Ajuste la velocidad de captura de cámara con 30 cuadros por segundo (u otra velocidad estándar) para la consistencia.
    3. Conectar y asegurar el soporte de software de grabación está hasta la cámara para grabar y guardar videos de los participantes.

3. Ajuste de participantes y las instrucciones verbales

  1. Tiene sólo un participante a la vez evaluar las muestras en la cabina sensorial.
    Nota: Las pruebas más deun participante al mismo tiempo puede interferir con el entorno de pruebas y perturbar la concentración del participante o crear sesgo.
  2. A su llegada, los participantes dar instrucciones verbales sobre el proceso y los procedimientos operativos estándar.
    1. Haga que los participantes se sientan hacia arriba y contra el respaldo de la silla.
    2. Ajuste la altura de la silla, la posición de la silla (distancia de la cámara), y el ángulo de la cámara de manera que la cara del participante es capturado en el centro de la grabación de vídeo, sin sombras en la barbilla o alrededor de los ojos.
      Nota: En la cabina sensorial, la cabeza del participante es aproximadamente 20 - 24 pulgadas de la cámara y el monitor con la cara centrada en el canal de video de la cámara.
    3. Instruir a los participantes a permanecer sentados como posicionado y centrado que mira hacia la pantalla del monitor. Además, instruir a los participantes que se abstengan de realizar movimientos bruscos consumo posteriores a la muestra durante el período de evaluación de 30 segundos por muestra.
    4. Instruir al participante para consumir la bebida entera o licuado muestra de alimento y tragar.
    5. Instruir al participante para mover rápidamente el vaso de muestra debajo de la barbilla y hacia abajo a la mesa inmediatamente después de la muestra está en la boca. Esto es para eliminar la oclusión facial. Recordarles que seguir mirando hacia el monitor.
      Nota: El soporte de muestras para entregar la muestra es a discreción del investigador. Una paja o una taza se pueden utilizar. En cualquier caso, la oclusión facial inicial es inevitable porque la cara se ocluye o distorsionada debido al consumo.
  3. Instruir a los participantes a seguir las instrucciones que aparecen en el monitor de pantalla táctil. Nota: Las instrucciones son secuenciados de forma automática según lo programado en el software automatizado sensorial.

4. Proceso participante individual para captura de vídeo

  1. cámara de vídeo está capturando confirmar de manera óptima la cara del participante mientras el participante está sentadocómodamente en la cabina (antes de la presentación de la muestra) mediante la visualización del monitor de la computadora en la que se muestra la captura de vídeo. Iniciar la grabación haciendo clic en el botón de grabación en el monitor de la computadora.
  2. Instruir a los participantes para beber agua para limpiar su paladar.
  3. Proporcionar tratamientos de una en una, a partir de una línea de base o el tratamiento de control (agua sin sabor). Identificar cada muestra por una tarjeta de índice de color único colocado en la parte superior de cada muestra en relación con el código de color de la muestra para la identificación de tratamiento de la muestra en el vídeo.
    Nota: orientación programada en el monitor de pantalla táctil instruye a los participantes. Las instrucciones directas del participante a través de una serie de pasos estandarizados para cada muestra de tratamiento.
  4. A través del monitor de pantalla táctil, dirigir al participante que:
    1. Sostener el color de la tarjeta de índice asociado pre-consumo de identificación de la muestra en el video.
      Nota: La carta de colores es una manera los investigadores pueden identificar los tratamientos en el video unand marcar el marco de tiempo apropiado (tiempo cero) para la evaluación de la muestra.
    2. Tras la celebración de la tarjeta brevemente, coloque la tarjeta en la bandeja.
    3. consumen totalmente la muestra y esperar aproximadamente 30 segundos, forzadas a través de la orientación programada en el monitor, mientras que frente a la cámara.
      Nota: El periodo de muestreo controlado 30 sec abarca un período de tiempo adecuado para todo el período de evaluación de muestreo (es decir, que muestra la tarjeta de índice, la apertura de una muestra (de retirar la tapa), el consumo, y la captura emocional).
    4. Introduzca su puntuación aceptabilidad hedónica en el monitor de pantalla táctil (1 = no les gusta muy, 2 = no les gusta mucho, 3 = no les gusta moderadamente, 4 = no les gusta un poco, 5 = no me gusta ni aversión, 6 = como poco, 7 = como moderadamente, 8 = como mucho, 9 = muy similares).
    5. Enjuagar la boca con agua potable antes del siguiente proceso de la muestra.

5. Evaluación de Opciones de análisis automatizados Expresión facial

Nota: Existen muchos programas de software de análisis de la expresión facial. Comandos de software y funciones puede variar. Es importante seguir las directrices de uso del fabricante y el manual de referencia 20.

  1. Guardar las grabaciones en un formato de medios y traslado al software de análisis de la expresión facial automatizado.
  2. Analizar los vídeos de los participantes utilizando software de análisis facial automatizado.
    1. Haga doble clic en el icono del software de escritorio del ordenador.
    2. Una vez que el programa está abierto, haga clic en "Archivo", seleccione "Nuevo ..." y seleccione "Proyecto ..."
    3. En la ventana emergente, el nombre del proyecto y guarde el proyecto.
    4. Añadir los participantes en el proyecto haciendo clic en el icono "añadir participantes" (persona con un signo (+)). Más participantes pueden añadir repitiendo este paso.
    5. Agregar videos del participante al participante respectivo para su análisis.
      1. En el lado izquierdo de la pantalla, haga clic en el icono del rollo de película wiº un signo más (+) para añadir un vídeo a analizar.
      2. Haga clic en la "lupa" bajo el participante de interés para ver el video para agregar.
  3. Analizar vídeos fotograma a fotograma en los ajustes de calibración de análisis continuos en el software.
    1. Haga clic en el icono de lápiz para ajustar la configuración en la parte inferior de la ventana, en la pestaña "Configuración" para cada participante de vídeo.
      1. Ajuste "Modelo de la cara" al general. Ajuste "clasificaciones" Smoothen a Sí. Ajuste "Frecuencia de muestreo" para cada fotograma.
      2. Set "Rotación de imagen" para No. Establecimiento de "calibración continua" en Sí. Ajuste "calibración seleccionado" None.
    2. Guardar la configuración del proyecto.
    3. Pulse el icono de análisis de lotes (el mismo símbolo de destino-como el rojo y negro) para analizar los vídeos del proyecto.
    4. Guardar los resultados una vez que se haya completado el análisis.
      Nota: Existen otras configuraciones de vídeo en el software si researcsu preferencia garantiza otro método de análisis.
    5. Considere Vídeos de fallos graves si oclusiones faciales o la incapacidad para mapear la cara persiste durante la ventana de post-consumo específico (Figura 1). Además, si el modelo no los datos van a decir "FIT_FAILED" o "FIND_FAILED" en los archivos de salida exportados (Figura 2). Esto representa la pérdida de datos ya que el software no puede clasificar o analizar las emociones de los participantes.
      Nota: AFEA traduce el movimiento de los músculos faciales a neutral, feliz, disgustado, triste, enojado, sorprendido y asustado en una escala de 0 (no se expresa) a 1 (completamente extraída) para cada emoción.
  4. Exportar la salida de datos AFEA como archivos de registro (.txt) para su posterior análisis.
    1. Una vez que se hayan completado los análisis, exportar todo el proyecto.
      1. Haga clic en "Archivo", "Exportar", "Resultados del Proyecto de Exportación".
      2. Cuando se abre una ventana, seleccione la ubicación en la que las exportaciones Should pueden guardar y guardar los archivos de registro (.txt) a una carpeta.
      3. Convertir cada participante vida de registro en una hoja de cálculo de datos (.csv o .xlsx) para extraer los datos pertinentes.
        1. Abra el software de hoja de cálculo de datos y seleccionar la pestaña "Datos".
        2. En la ficha "Datos", en el grupo "Obtener datos externos", haga clic en "A partir del texto".
        3. En la "barra de direcciones", busque, haga doble clic en el archivo de texto para importar participante, y siga las instrucciones del asistente de pantalla.
        4. Continuar el proceso de exportación para todos los archivos de los participantes pertinentes.

6. Marca de tiempo del participante Videos para Análisis de Datos

  1. Usando el software AFEA, revisar manualmente el vídeo de cada participante e identificar el tiempo de post-consumo cero para cada muestra. Registrar la marca de tiempo en una hoja de cálculo de datos. Post-consumo se define cuando la copa de muestra está por debajo de la barbilla del participante y ya no ocincluye la cara.
    Nota: La colocación de la marca de tiempo es crítica para la evaluación. El punto en el que la copa ya no ocluye la cara es la recomendación óptima y marcas de tiempo tiene que ser la misma para todos los participantes.
  2. Guarde la hoja de cálculo de datos de fecha y hora (.csv) como referencia para la extracción de datos relevantes de vídeos.
    Nota: los vídeos participantes también pueden ser codificados internamente en el software como "acto de celebración".

Análisis Emocional 7. Series de Tiempo

Nota: Tenga en cuenta la "línea de base" para ser el control (es decir, el agua sin sabor en este ejemplo). El investigador tiene la capacidad de crear un "estímulo tratamiento de referencia" diferente o un "tiempo de la línea de base y sin estímulo" para la comparación de pares depende de los intereses de la investigación. El método propuesto para las cuentas de un estado "por defecto" mediante el uso de un test estadístico de dos. En otras palabras, el procedimiento utiliza el bloqueo de estadística (es decir,una prueba pareada) para ajustar la apariencia por defecto de cada participante y por lo tanto reduce la variabilidad entre los participantes.

  1. Extraer datos relevantes de los archivos exportados (.csv o .xlsx).
    1. Identificar un marco de tiempo relevante para la evaluación del estudio (segundos).
    2. extraer manualmente los datos respectivos (tiempo) de los archivos exportados de consultoría participantes la fecha y hora participante (tiempo cero).
    3. Recopilar datos sobre el tratamiento de cada uno de los participantes (número de participante, el tratamiento, la hora del vídeo original, y la respuesta de la emoción) por la emoción (feliz, neutra, triste, enojado, sorprendido, asustado, y disgustado) para el marco de selección de tiempo (segundos) en una nueva hoja de cálculo de datos para su posterior análisis (Figura 3).
    4. Continúe este proceso para todos los participantes.
  2. Identificar el tiempo correspondiente a cero desde el archivo de marca de tiempo para cada par tratos participante y ajustar el tiempo de vídeo a un cierto tiempo "0" para la comparación directa ( Figura 4, Figura 5).
    Nota: los datos del participante se recoge en un continuo de vídeo, por lo tanto cada tratamiento "tiempo cero" es diferente (es decir, el tiempo de vídeo agua sin sabor cero es 02: 13.5 y leche sin sabor de tiempo de vídeo cero es 03: 15.4). En la Figura 4 Debido a la diferente tratamiento "ceros" de tiempo, los tiempos de video necesitan ser reajustados y reestructurado para empezar a "0: 00.0" u otra norma hora de inicio a fin para la comparación directa de tiempo de datos de la respuesta emocional de tratamiento.
  3. Para cada participante, la emoción, y el punto de tiempo ajustado, extraer el tratamiento emparejado (por ejemplo, la leche sin sabor) y el tratamiento de control (por ejemplo, el agua sin sabor) puntuación cuantitativa emocional. En otras palabras, alinee el tratamiento y control de series de tiempo de un participante de respuestas para cada emoción (Figura 5).
  4. Recopilar toda la información del participante (participante, el tiempo ajustado, y el tratamiento emparejado(Por ejemplo, agua sin sabor y sin sabor de la leche) en cada punto de tiempo (Figura 6).
    Nota: Los pasos siguientes demuestran los pasos para una prueba de Wilcox emparejado con la mano. La mayoría de los programas de software de análisis de datos van a hacer esto de forma automática. Se recomienda para discutir el proceso de análisis estadístico con un estadístico.
  5. Una vez que las muestras se ponen a cero y alineada con los nuevos tiempos de vídeo ajustadas, comparar directamente entre los resultados emocionales de una muestra respectiva y el control (agua sin sabor) utilizando secuenciales emparejado pruebas de Wilcoxon no paramétrico a través de los participantes (Figura 7).
    Nota: La nueva alineación en el tiempo de las muestras que permitirá la comparación directa dentro del post-consumo marco de tiempo de 5 segundos. Si una observación emparejado no está presente en un tratamiento, dejar caer el participante de que la comparación punto de tiempo.
    1. Calcular la diferencia entre el control y la muestra respectiva para cada comparación por parejas usando spreadshe datossoftware de gestión et.
      Nota: La comparación será dependiente de la frecuencia de cuadro seleccionado para el análisis emocional en el software. El protocolo demuestra 30 comparaciones individuales por segundo durante 5 segundos (período de tiempo seleccionado).
      Nota: Utilice la Figura 7 como referencia para las columnas y escalones.
      1. Restar el valor de la leche (por ejemplo, leche sin sabor) del valor del control (por ejemplo, agua sin sabor) para determinar la diferencia. En el software de gestión de datos de hoja de cálculo en una nueva columna titulada "Tratamiento Diferencia", introduzca "= (C2) - (D2)", donde "C2" son los valores emocionales de control y "D2" son los valores emocionales de tratamiento seleccionado. Continuar este proceso para todos los puntos temporales.
      2. Calcular el valor absoluto de la diferencia de tratamiento. En el software de gestión de datos de hoja de cálculo en una nueva columna, escriba "= ABS (E2)", donde "E2" es la diferencia del tratamiento. Continuar este proceso durantetodos los puntos de tiempo.
      3. Determinar el orden de rango de la diferencia del tratamiento. En el software de gestión de datos de hoja de cálculo en una nueva columna, escriba "= RANK (G2, $ G $ 2: $ G $ 25, 1)" donde "G2" es la diferencia absoluta y "1" es "ascendente". Continuar este proceso para todos los puntos temporales.
      4. Determinar el rango firmada de la orden de rango en la hoja de cálculo. Cambiar el signo de negativo si la diferencia del tratamiento fue negativo (Columna I).
      5. Calcular la suma positiva (= función SUMAR.SI (I2: I25, "> 0", I2: I25) y la suma negativa = función SUMAR.SI (I2: I25, "<0", I2: I25) de los valores de rango.
      6. Determinar la estadística de prueba. La estadística de prueba es la suma del valor absoluto inferior.
      7. Consulte las tablas de estadísticas de Wilcoxon Signed Clasificado Prueba estadística utilizando el número de observaciones incluidas en el momento específico y un valor alfa seleccionado para determinar el valor crítico.
      8. Si el resultado es menor que el valor crítico t rechazarél hipótesis nula. Si es mayor, aceptar la hipótesis nula.
  6. Representa gráficamente los resultados en el gráfico de tratamiento asociado (es decir, leche sin sabor en comparación al agua sin sabor) para los momentos en los que se rechaza la hipótesis nula. Utilice el signo de la diferencia para determinar qué tratamiento tiene el mayor emoción (Figura 8).
    1. En el software de gestión de hoja de cálculo de datos, crear un gráfico usando los valores de la presencia o ausencia de significado.
      1. Haga clic en "Insertar" ficha.
      2. Seleccione "Línea"
      3. Clic derecho en el cuadro gráfico.
      4. Haga clic en "seleccionar datos" y siga las indicaciones en pantalla para seleccionar y graficar datos relevantes (Figura 8).
        Nota: Los gráficos se representan los resultados emocionales donde la muestra o el control es más alto y significativo. Gráfico dependiente, la emoción es más alta en ese momento específico que permite la capacidad de discernir cómo las emociones de los participantesevolucionando durante el período de tiempo de 5 segundos entre dos muestras.
        Nota: El apoyo estadístico con un estadístico es muy recomendable para extraer los datos pertinentes. Se requiere el desarrollo de la codificación estadística para analizar los resultados emocionales.

Access restricted. Please log in or start a trial to view this content.

Resultados

El método propone un protocolo estándar para la recopilación de datos AFEA. Si se siguen los pasos del protocolo sugeridas, inservible salida de datos emocional (Figura 1) como resultado de una mala recolección de datos (Figura 2: A; Izquierda imagen) puede ser limitada. Análisis de series de tiempo no se puede utilizar si los archivos de registro (.txt) contienen predominantemente "FIT_FAILED" y "FIND_FAILED" ya...

Access restricted. Please log in or start a trial to view this content.

Discusión

AFEA aplicación en la literatura relacionada con los alimentos y bebidas es muy limitada 1-11. La aplicación a la alimentación es nuevo, la creación de una oportunidad para el establecimiento de la metodología y la interpretación de los datos. Arnade (2013) 7 encontró alta variabilidad individual entre la respuesta emocional individual a la leche con chocolate y leche blanca usando el área bajo análisis y análisis de la varianza curva. Sin embargo, incluso con la variabilidad de los parti...

Access restricted. Please log in or start a trial to view this content.

Divulgaciones

The authors have nothing to disclose.

Agradecimientos

This project was funded, in part, by ConAgra Foods (Omaha, NE, USA), the Virginia Agricultural Experiment Station, the Hatch Program of the National Institute of Food and Agriculture, U.S. Department of Agriculture, and the Virginia Tech Water INTERface Interdisciplinary Graduate Education Program.

Access restricted. Please log in or start a trial to view this content.

Materiales

NameCompanyCatalog NumberComments
2% Reduced Fat MilkKroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NCnafor solutions
Drinking WaterKroger Brand, Cincinnati, OHnafor solutions
Imitation Clear Vanilla FlavorKroger Brand, Cincinnati, OHnafor solutions
Iodized SaltKroger Brand, Cincinnati, OHnafor solutions
FaceReader 6Noldus Information Technology, Wageningen, The NetherlandsnaFor Facial Analysis
Sensory Information Management System (SIMS) 2000Sensory Computer Systems, Berkeley Heights, NJVersion 6For Sensory Data Capture
RhapsodyAcuity Brands Lighting, Inc., Conyers, GAFor Environment Illumination
R Version R Core Team 20153.1.1For Statistical Analysis
Microsoft OfficeMicrosoftnaFor Statistical Analysis
JMPStatistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NCnaFor Statistical Analysis
Media Recorder 2.5Noldus Information Technology, Wageningen, The NetherlandsnaFor capturing participants sensory evaluation
Axis M1054 CameraAxis Communications, Lund, Swedenna
BeveragenaBeverage or soft food for evaluation

Referencias

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628(2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , Virginia Tech. Blacksburg. 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. Technical Abstracts and Proceedings of the 2014 Institute of Food Technologists Annual Meeting, 2014 Jun 21 - 24, New Orleans, LA, , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , Consulting Psychologists Press. Palo Alto, California. (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. FaceReader 5™ Technical Specifications. , Noldus Information Technology. Wageningen, The Netherlands. Available from: http://www.webshop.noldus.com/media/techspec/facereader _techspec.pdf (2014).
  17. Cootes, T., Taylor, C. Statistical models of appearance for computer vision: Technical report. , University of Manchester, Wolfson Image Analysis Unit, Imaging Science and Biomedical Engineering. (2000).
  18. Bishop, C. M. Neural networks for pattern recognition. , Oxford University Press. New York. (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. FaceReader Reference Manual Version 6. , Wageningen, The Netherlands. (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. Clark, S., Costello, M., Drake, M., Bodyfelt, F. , 2nd, Springer. New York. 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes? Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). P, E. kman, E, R. osenberg , Oxford University Press, Inc. New York. 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. Cole, J. , University of Nebraska Press. Lincoln (NE). 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Access restricted. Please log in or start a trial to view this content.

Reimpresiones y Permisos

Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos

Solicitar permiso

Explorar más artículos

ComportamientoEdici n 114An lisis de la expresi n facialla evaluaci n sensorialEmoci nBebidaciencia de los alimentosan lisis de series temporalesDairy

This article has been published

Video Coming Soon

JoVE Logo

Privacidad

Condiciones de uso

Políticas

Investigación

Educación

ACERCA DE JoVE

Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados