JoVE Logo

Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

Um protocolo para capturar e analisar estatisticamente resposta emocional de uma população de bebidas e alimentos liquefeitos em um laboratório de análise sensorial usando software de análise de expressão facial automatizado é descrito.

Resumo

We demonstrate a method for capturing emotional response to beverages and liquefied foods in a sensory evaluation laboratory using automated facial expression analysis (AFEA) software. Additionally, we demonstrate a method for extracting relevant emotional data output and plotting the emotional response of a population over a specified time frame. By time pairing each participant's treatment response to a control stimulus (baseline), the overall emotional response over time and across multiple participants can be quantified. AFEA is a prospective analytical tool for assessing unbiased response to food and beverages. At present, most research has mainly focused on beverages. Methodologies and analyses have not yet been standardized for the application of AFEA to beverages and foods; however, a consistent standard methodology is needed. Optimizing video capture procedures and resulting video quality aids in a successful collection of emotional response to foods. Furthermore, the methodology of data analysis is novel for extracting the pertinent data relevant to the emotional response. The combinations of video capture optimization and data analysis will aid in standardizing the protocol for automated facial expression analysis and interpretation of emotional response data.

Introdução

Automatizado análise da expressão facial (AFEA) é uma ferramenta analítica prospectivo para a caracterização de respostas emocionais à bebidas e alimentos. análise emocional pode adicionar uma dimensão extra para as metodologias existentes sensoriais ciência, práticas de avaliação de alimentos e ratings na escala hedônica normalmente usado tanto em ambientes de pesquisa e da indústria. análise emocional pode fornecer uma métrica adicional que revela uma resposta mais preciso para alimentos e bebidas. Pontuação hedônica podem incluir viés participante devido à falta de registo reações 1.

pesquisa AFEA tem sido utilizado em muitas aplicações de investigação, incluindo jogos de computador, o comportamento do usuário, Educação / pedagogia, e estudos de psicologia na empatia e engano. A maioria das pesquisas associadas a comida tem-se centrado na caracterização resposta emocional a qualidade dos alimentos e do comportamento humano com alimentos. Com a recente tendência na obtenção de insights sobre comportamentos alimentares, um corpo crescente de relatos na literatura usar de AFEApara caracterizar a resposta emocional humana associados com os alimentos, bebidas e Fragrância 1-12.

AFEA é derivado da Acção Sistema de Codificação Facial (FACS). O sistema de codificação ação facial (FACS) discrimina movimentos faciais caracterizadas por unidades de ação (AUS) em 5 pontos escala de intensidade 13. A abordagem FACS requer especialistas revisão treinados, codificação manual, tempo de avaliação significativo e fornece opções de análise de dados limitados. AFEA foi desenvolvido como um método de avaliação rápida para determinar emoções. AFEA software confia no movimento facial muscular, bancos de dados faciais e algoritmos para caracterizar a resposta emocional 14-18. O software AFEA utilizado neste estudo chegou a um "índice de FACS de concordância de 0,67, em média, tanto no conjunto de Varsóvia de Pictures expressão facial emocional (WSEFEP) e Amsterdão Expressão Facial dinâmico Set (ADFES), que está perto de um acordo padrão de 0,70 para codificação manual "19 . emoções universais incluídos na análise são felizes (positivo), triste (negativo), desgostoso (negativo), surpreendido (positiva ou negativa), raiva (negativo), medo (negativo) e neutra cada um em uma escala separada de 0-1 ( 0 = não expressa; 1 = totalmente expressa) 20. Além disso, a literatura de psicologia inclui feliz, surpreso e irritado como emoções "approach" (em direção a estímulos) e triste, assustado e revoltado como as emoções "retirada" (longe do estímulos aversivos) 21.

Uma limitação do software AFEA atual para a caracterização de emoções associadas com os alimentos é a interferência de movimentos faciais associadas a mastigação e deglutição, bem como outros movimentos de motor brutas, tais como os movimentos da cabeça extremas. O software tem como alvo pequenos movimentos faciais musculares, posição relativa e grau de movimento, com base em mais de 500 pontos musculares na face 16,17. movimentos de mastigação interferir com a classificação de expressões. este limiteção podem ser endereçados usando alimentos liquefeitos. No entanto, outros desafios metodologia também pode diminuir a sensibilidade de vídeo e análise AFEA incluindo o ambiente recolha de dados, tecnologia, instruções pesquisador, o comportamento participante e participante atributos.

A metodologia padrão não foi desenvolvido e verificado para captura de vídeo óptima e análise de dados usando AFEA de resposta emocional aos alimentos e bebidas em um ambiente de laboratório de avaliação sensorial. Muitos aspectos podem afetar o ambiente de captura de vídeo, incluindo iluminação, sombreamento, devido à iluminação, direções participantes, o comportamento dos participantes, altura participante, bem como, a altura da câmera, angulação da câmera e configurações de equipamentos. Além disso, as metodologias de análise de dados são inconsistentes e carecem de uma metodologia padrão para avaliar a resposta emocional. Aqui, vamos demonstrar o nosso procedimento operacional padrão para a captura de dados e processamento de dados emocionais em resultados significativos usando bebidas (leite aromatizado, leite sem sabor e água sem sabor) para avaliação. Para o nosso conhecimento apenas uma publicação revisada por pares, do nosso grupo de laboratório, utilizou séries temporais para a interpretação de dados para análise emoções 8; No entanto, o método tem sido actualizado para o nosso método apresentado. O nosso objectivo é desenvolver uma metodologia melhorada e consistente para ajudar com reprodutibilidade em um ambiente de laboratório de avaliação sensorial. Para demonstração, o objetivo do modelo de estudo é avaliar se AFEA poderia complementar a avaliação tradicional aceitabilidade hedônica de leite aromatizado, leite sem sabor e água sem sabor. A intenção deste protocolo de vídeo é ajudar a estabelecer metodologia AFEA, padronizar critérios de captura de vídeo em um laboratório de análise sensorial (configuração cabine sensorial), e ilustram um método para análise de dados emocional temporal de uma população.

Protocolo

Declaração de Ética: Este estudo foi pré-aprovado pelo Virginia Tech Institutional Review Board (IRB) (IRB 14-229) antes de iniciar o projeto.

Cuidado: pesquisa com seres humanos requer consentimento informado antes da participação. Além aprovação IRB, o consentimento para o uso de imóveis ou imagens de vídeo também é necessária antes de liberar quaisquer imagens para impressão, vídeo ou imagem gráfica. Além disso, alergénios alimentares são revelados antes do teste. Os participantes são convidados antes do início do painel se eles têm alguma intolerância, alergias ou outras preocupações.

Nota: Exclusão Critérios: análise da expressão facial automatizado é sensível aos vidros quadro de espessura, rostos muito barbudos e tom de pele. Os participantes que têm esses critérios são incompatíveis com a análise de software devido a um aumento do risco de vídeos falharam. Isto é atribuído à incapacidade do software para encontrar o rosto.

1. Preparação de amostras e Participante Recrutamento

  1. Prepare bebida ou moleamostras de alimentos.
    1. Prepare soluções sabores intensificados leiteiros com leite a 2% e sugeridas de Costello e Clark (2009) 22, bem como outros sabores. Prepare as seguintes soluções: (1) O leite sem sabor (2% de redução de gordura do leite); (2) de água sem sabor (água potável); (3) extrato de baunilha sabor do leite (0,02 g / ml) (imitação sabor clara baunilha); e (4) sabor salgado no leite (0,004 g / ml sal iodado).
      Nota: Estas soluções são usadas apenas para fins de demonstração.
    2. Despeje metade alíquotas onça (~ 15 g) de cada solução em duas onças copos de amostra de plástico transparente e boné com código de cores tampas.
      Nota: Recomenda-se usar copos transparentes; no entanto, é a critério do pesquisador.
  2. a recrutar participantes do campus ou a comunidade local para participar do estudo.
    Nota: o tamanho da amostra de participantes necessário para um estudo é a critério do investigador. Recomendamos um intervalo de 10 a 50 participantes.
  3. Obter o consentimento sujeito humano antes da participação no estudo.

2. Preparação de quarto painel para captura de vídeo

Nota: Este protocolo é para a captura de dados em um laboratório de análise sensorial. Este protocolo é fazer com que a captura de dados AFEA útil para uma configuração cabine sensorial.

  1. Use cabines individuais com um monitor touchscreen na frente deles (nível de face) para manter o seu foco para a frente e para evitar olhando para baixo.
  2. Use cadeiras de altura ajustáveis ​​com apoio para as costas.
    Nota: Estes são essenciais para permitir aos participantes para ser ajustado verticalmente e colocado numa gama adequada para a captura de vídeo. Use cadeiras fixas (sem recurso ao rolamento) com suporte de altura ajustável para trás assim que os movimentos do participante são reduzidos.
  3. Definir iluminação superior a "100% a luz do dia" para melhor facial de captura de vídeo emocional (Iluminante 6504K; R = 206; G = 242; B = 255).
    Nota: Para evitar sombreamento intenso, iluminação frontal difusa é ideai, enquanto a intensidade da luz ou a cor não é tão relevante 20. Em última análise, cabe ao critério do investigador, indivíduo protocolo / metodologia e ambiente para controlar a iluminação para a captura.
  4. Apor uma câmera ajustável acima do monitor touchscreen para a gravação.
    1. Use uma câmera com uma resolução de pelo menos 640 x 480 pixels (ou superior) 20. Discutir as capacidades de câmera necessárias com o fornecedor de software antes da compra e instalação 20. Nota: A relação de aspecto não é importante 20.
    2. Definir velocidade câmera captura até 30 quadros por segundo (ou outra velocidade padrão) para a consistência.
    3. Conectar e garantir meios de software de gravação está configurado para a câmera para gravar e guardar vídeos participantes.

3. Ajuste de participantes e orientações verbais

  1. Ter apenas um participante por vez avaliar as amostras no estande sensorial.
    Nota: Os testes mais deum participante, ao mesmo tempo, pode interferir com o ambiente de teste e perturbar a concentração do participante ou criar polarização.
  2. Após a chegada, dar aos participantes instruções verbais sobre o processo e os procedimentos operacionais padrão.
    1. Têm os participantes sentam-se para cima e contra o encosto da cadeira.
    2. Ajuste a altura da cadeira, a posição da cadeira (distância da câmera), e ângulo da câmera para que o rosto do participante é capturado no centro da gravação de vídeo, sem sombras no queixo ou ao redor dos olhos.
      Nota: Na cabine sensorial, a cabeça do participante é de aproximadamente 20-24 polegadas de distância da câmera e o monitor com a face centrada no feed de vídeo da câmera.
    3. Instrua os participantes a permanecer sentados enquanto posicionado e focado virada para a tela do monitor. Além disso, instruir os participantes abster-se de quaisquer movimentos bruscos de consumo pós-amostra durante o período de avaliação de 30 segundos por amostra.
    4. Instruir o participante para consumir toda a bebida ou amostra de alimento liquefeito e engolir.
    5. Instruir o participante para mover rapidamente o copo de amostra abaixo do queixo e para baixo para a mesa imediatamente após a amostra está na boca. Este é eliminar oclusão facial. Lembrá-los para manter olhando para o monitor.
      Nota: O suporte de amostra para entregar a amostra é a critério do investigador. Pode ser utilizada uma palha ou copo. Independentemente disso, a oclusão facial inicial é inevitável, porque o cara vai ser ocluído ou distorcida devido ao consumo.
  3. Instruir o participante a seguir as instruções que aparecem no monitor touchscreen. NOTA: As instruções são automaticamente sequenciados como programado no software sensorial automatizado.

4. Processo Participante individual para captura de vídeo

  1. Confirmar câmera de vídeo está otimamente captura rosto do participante, enquanto o participante está sentadoconfortavelmente na cabine (antes da apresentação da amostra), exibindo o monitor de computador em que a captura de vídeo é exibido. Iniciar a gravação clicando no botão de gravação no monitor do computador.
  2. Instrua os participantes a saborear água para limpar o seu paladar.
  3. Fornecer tratamentos, um de cada vez, começando com uma linha de base ou o tratamento testemunha (água sem sabor). Identificar cada amostra por um cartão de Índice de cor única colocada no topo de cada amostra em relação ao código de cor da amostra para identificação do tratamento da amostra dentro do vídeo.
    Nota: orientação programada no monitor touchscreen instrui os participantes. As instruções dirigir o participante através de uma série de passos normalizados para cada amostra de tratamento.
  4. Via o monitor touchscreen, orientar o participante a:
    1. Mantenha-se a cor associada cartão de índice pré-consumo para a identificação das amostras no vídeo.
      Nota: A placa de cor é uma maneira os pesquisadores podem identificar tratamentos no vídeo umnd marcar o período de tempo apropriado (hora zero) para avaliação da amostra.
    2. Depois de se manter a placa brevemente, colocar a placa de volta na bandeja.
    3. Totalmente consumir a amostra e esperar cerca de 30 segundos, aplicada por meio da orientação programados no monitor, enquanto enfrenta para a câmera.
      Nota: O período de amostragem controlada 30 seg engloba um intervalo de tempo adequado para todo o período de avaliação de amostragem (ou seja, mostrando o cartão de índice, abrindo uma amostra (de retirar a tampa), o consumo e captura emocional).
    4. Digite sua pontuação aceitabilidade hedônica no monitor touchscreen (1 = não gostam muito, 2 = não gostam muito, 3 = não gostam moderadamente, 4 = não gostam ligeiramente, 5 = nem como nem desagrado, 6 = como ligeiramente, 7 = como moderadamente, 8 = gosto muito, 9 = como extremamente).
    5. Enxaguar a boca com água potável antes do próximo processo de amostra.

5. Avaliar automatizadas Opções de análise Expressão Facial

Nota: Existem muitos programas de software de análise de expressão facial. Comandos de software e funções podem variar. É importante seguir as orientações de utilização do fabricante e manual de referência 20.

  1. Guarde as gravações em um formato de mídia e transferir para o software de análise de expressão facial automatizado.
  2. Analisar vídeos participantes usando software de análise facial automatizado.
    1. Dê um duplo clique no ícone do software no desktop do computador.
    2. Uma vez que o programa está aberto, clique em "Arquivo", selecione "Novo ...", e selecione "Project ..."
    3. Na janela pop-up, o nome do projeto e salvar o projeto.
    4. Adicionar participantes para o projeto, clicando no ícone "Adicionar participantes" (Pessoa com um sinal (+)). Mais participantes podem ser adicionados, repetindo este passo.
    5. Adicionar vídeos do participante para o respectivo participante para análise.
      1. No lado esquerdo da tela, clique no ícone do wi rolo de filmeth um sinal de mais (+) para adicionar um vídeo para analisar.
      2. Clique no botão "lupa" sob o participante de interesse para ver o vídeo para adicionar.
  3. Analisar vídeos frame-by-frame em configurações de análise de calibração contínua do software.
    1. Clique no ícone de lápis para ajustar as configurações na parte inferior da janela, sob a guia "Configurações" para cada vídeo participante.
      1. Set "Modelo Face" ao general. Defina "classificações suavizar" para Sim. Defina "Sample Rate" para cada frame.
      2. Defina "Rotação de imagem" para No. Set "calibração contínua" para Sim. Defina "calibração selecionado" para Nenhum.
    2. Salve as configurações do projeto.
    3. Pressione o ícone análise de lotes (o mesmo símbolo de alvo-like vermelho e preto) para analisar os vídeos do projeto.
    4. Salvar os resultados, uma vez a análise for concluída.
      Nota: Existem outras configurações de vídeo no software se researcsua preferência garante outro método de análise.
    5. Considere vídeos falhas se oclusões faciais graves ou a incapacidade de mapear o rosto persistir durante a janela de pós-consumo específico (Figura 1). Além disso, se o modelo de falha de dados vai dizer "FIT_FAILED" ou "FIND_FAILED" nos arquivos de saída exportadas (Figura 2). Isto representa dados perdidos desde que o software não pode classificar ou analisar as emoções dos participantes.
      Nota: AFEA traduz o movimento dos músculos faciais para neutro, feliz, aborrecido, triste, irritado, surpreso e assustado em uma escala de 0 (não expresso) a 1 (totalmente expresso) para cada emoção.
  4. Exportar a saída de dados AFEA como arquivos de log (.txt) para análise posterior.
    1. Uma vez que as análises forem concluídas, exportar todo o projecto.
      1. Clique em "Arquivo", "Export", "projeta exportar os resultados".
      2. Quando uma janela se abrirá, escolha o local de onde as exportações should ser salvo e salvar os arquivos de log (.txt) para uma pasta.
      3. Converter cada vida log participante para uma planilha de dados (.csv ou .xlsx) para extrair dados relevantes.
        1. Abra o software de planilha de dados e selecione a guia "Dados".
        2. Na guia "Dados", no grupo "Obter dados externos", clique em "From Text".
        3. Na "barra de endereços", localizar, clique duas vezes no arquivo de texto participante para importar, e siga as instruções do assistente de tela.
        4. Continuar o processo de exportação para todos os arquivos participantes relevantes.

6. vídeos Timestamp Participante para Análise de Dados

  1. Usando o software AFEA, rever manualmente vídeo de cada participante e identificar o tempo de pós-consumo zero para cada amostra. Grave o timestamp em uma planilha de dados. Pós-consumo é definido quando o copo de amostra está abaixo do queixo do participante e não mais occlui o rosto.
    Nota: A colocação da hora é crítico para a avaliação. O ponto em que a taça não obstrui o rosto é a recomendação ideal e marcas de tempo precisa ser consistente para todos os participantes.
  2. Salve a planilha de dados timestamp (.csv) como referência para extrair dados relevantes a partir de vídeos.
    Nota: vídeos participante também pode ser codificado internamente no software como "Marcação de eventos".

Análise emocional 7. Time Series

Nota: Considere a "linha de base" para ser o controlo (isto é, água sem sabor neste exemplo). O pesquisador tem a capacidade de criar um "estímulo tratamento de linha de base" diferente ou um "tempo de linha de base, sem estímulo" para comparação pareada dependente dos interesses da investigação. O método proposto contas para um estado "default" por meio de um teste estatístico emparelhado. Em outras palavras, o processo utiliza o bloqueio estatística (isto é,um teste emparelhado) para ajustar a aparência padrão de cada participante e, portanto, reduz a variabilidade entre os participantes.

  1. Extrair dados relevantes a partir dos arquivos exportados (.csv ou .xlsx).
    1. Identificar um prazo relevante para a avaliação do estudo (segundos).
    2. extrair manualmente os dados respectivos (quadro tempo) a partir dos arquivos participantes exportados consultoria a hora participante (hora zero).
    3. Compilar dados de tratamento de cada participante (número de participante, o tratamento, a duração do vídeo original, e da emoção de resposta) por emoção (feliz, neutro, triste, irritado, surpreso, assustado e revoltado) para o quadro de seleção tempo (segundos) em uma nova planilha de dados para análise futura (Figura 3).
    4. Continue esse processo para todos os participantes.
  2. Identificar o tempo correspondente a zero a partir do ficheiro de data e hora para cada par participante-tratamento e ajustar o tempo de vídeo para um verdadeiro tempo "0" para a comparação directa ( Figura 4, Figura 5).
    Nota: Os dados de participantes é coletado em um vídeo contínuo, portanto, cada tratamento "tempo zero" é diferente (ou seja, o tempo de vídeo água sem sabor zero é 02: 13.5 e leite sem sabor vídeo tempo zero é 03: 15.4). Na Figura 4 Devido ao diferente tratamento "zeros tempo", os tempos de vídeo precisa ser reajustado e realinhado para começar a "0: 00.0" ou outra hora de início padrão, a fim de comparação tempo direto de dados de resposta emocional de tratamento.
  3. Para cada participante, emoção e ponto de tempo ajustado, extrair o tratamento combinado (por exemplo, o leite sem sabor) e tratamento de controlo (por exemplo, água sem sabor) pontuação emocional quantitativa. Em outras palavras, alinhar o tratamento e controlo de séries temporais de um participante de respostas para cada emoção (Figura 5).
  4. Compilar todas as informações do participante (participante, o tempo ajustado, e tratamento emparelhado(Por exemplo, água sem sabor e sem sabor leite) em cada ponto de tempo (Figura 6).
    Nota: Os passos abaixo demonstram os passos para um teste Wilcox emparelhado com a mão. A maioria dos programas de software de análise de dados fará isso automaticamente. Recomenda-se a discutir o processo de análise estatística com um estatístico.
  5. Uma vez que as amostras são redefinidas e alinhada com os novos tempos de vídeo ajustados, comparar diretamente entre os resultados emocionais de uma respectiva amostra e controle (água sem sabor) usando sequenciais emparelhado testes de Wilcoxon não paramétrico em todo os participantes (Figura 7).
    Nota: O novo alinhamento de tempo das amostras permitirá a comparação direta dentro do 5 segundos pós-consumo período de tempo. Se uma observação emparelhado não está presente em um tratamento, solte o participante de que a comparação ponto de tempo.
    1. Calcular a diferença entre o controle ea respectiva amostra para cada comparação emparelhado usando spreadshe dadossoftware de gerenciamento et.
      Nota: A comparação vai ser dependente da velocidade de imagem seleccionada para análise emocional no software. O protocolo demonstra 30 comparações individuais por segundo por 5 segundos (período de tempo selecionado).
      Nota: Use Figura 7 como referência para colunas e degraus.
      1. Subtrair o valor do leite (por exemplo, leite sem sabor) a partir do valor de controlo (por exemplo, água sem sabor) para determinar a diferença. No software de gestão de folha de cálculo de dados numa nova coluna intitulada "diferença do tratamento", introduzir "= (C2) - (D2)", onde "C2" é os valores emocionais de controlo e "D2" é os valores emocionais de tratamento seleccionado. Continue esse processo para todos os pontos de tempo.
      2. Calcular o valor absoluto da diferença de tratamento. No software de gerenciamento de planilha de dados em uma nova coluna, digite "= ABS (E2)", onde "E2" é a diferença do tratamento. Continue esse processo paratodos os pontos de tempo.
      3. Determinar a ordem de classificação da diferença de tratamento. No software de gerenciamento de planilha de dados em uma nova coluna, digite "= RANK (G2, $ G $ 2: $ G $ 25, 1)" onde "G2" é a diferença absoluta e "1" é "ascendente". Continue esse processo para todos os pontos de tempo.
      4. Determinar a classificação assinada a ordem de classificação na planilha. Mudar o sinal para negativo se a diferença de tratamento foi negativo (Coluna I).
      5. Calcular a soma positiva (= SUMIF (I2: I25, "> 0", I2: I25) e soma negativa = SUMIF (I2: I25, "<0", I2: I25) dos valores de classificação.
      6. Determinar a estatística de teste. A estatística de teste é a soma do valor absoluto mais baixo.
      7. Consultar tabelas estatísticas para Wilcoxon Signed como teste estatístico, utilizando o número de observações incluídas no tempo específico e um valor alfa seleccionado para determinar o valor crítico.
      8. Se a estatística de teste é menor do que o valor crítico rejeitar tele hipótese nula. Se for maior, aceitar a hipótese nula.
  6. Representar graficamente os resultados no gráfico de tratamento associado (ou seja, o leite sem sabor em comparação com a água sem sabor) para os momentos em que a hipótese nula é rejeitada. Usar o sinal da diferença para determinar qual o tratamento tem a maior emoção (Figura 8).
    1. No software de gestão de folha de cálculo de dados, criar um gráfico utilizando os valores da presença ou ausência de significância.
      1. Clique em "Inserir" tab.
      2. Selecione "Line"
      3. Botão direito do mouse na caixa de gráfico.
      4. Clique em "selecionar dados" e siga as instruções na tela para selecionar e gráfico de dados relevantes (Figura 8).
        Nota: Os gráficos vai retratar resultados emocionais, onde a amostra ou controle é maior e significativo. Gráfico dependente, a emoção é maior naquele momento específico, permitindo a capacidade de discernir como as emoções dos participantesevoluem ao longo do período de 5 segunda vez entre duas amostras.
        Nota: Apoio estatístico com um estatístico é altamente recomendado para extrair dados relevantes. Desenvolvimento de codificação estatística é necessária para analisar os resultados emocionais.

Resultados

O método propõe um protocolo padrão para coleta de dados AFEA. Se as etapas de protocolo sugerido forem seguidas, inutilizável saída de dados emocional (Figura 1) resultante da coleta de dados pobres (Figura 2: A; imagem da esquerda) pode ser limitada. Análise de séries temporais não pode ser utilizada se os arquivos de log (.txt) predominantemente conter "FIT_FAILED" e "FIND_FAILED" como esta é fornecer dados errados

Discussão

AFEA aplicação na literatura relacionada com alimentos e bebidas é muito limitado 1-11. O pedido de alimentos é novo, criando uma oportunidade para o estabelecimento de metodologia e dados de interpretação. Arnade (2013) 7 encontrada grande variabilidade individual entre a resposta emocional individual ao leite com chocolate e leite branco com área sob a curva de análise e análise de variância. No entanto, mesmo com a variabilidade participante, os participantes gerou uma resposta feliz m...

Divulgações

The authors have nothing to disclose.

Agradecimentos

This project was funded, in part, by ConAgra Foods (Omaha, NE, USA), the Virginia Agricultural Experiment Station, the Hatch Program of the National Institute of Food and Agriculture, U.S. Department of Agriculture, and the Virginia Tech Water INTERface Interdisciplinary Graduate Education Program.

Materiais

NameCompanyCatalog NumberComments
2% Reduced Fat MilkKroger Brand, Cincinnati, OH or DZA Brands, LLC, Salisbury, NCnafor solutions
Drinking WaterKroger Brand, Cincinnati, OHnafor solutions
Imitation Clear Vanilla FlavorKroger Brand, Cincinnati, OHnafor solutions
Iodized SaltKroger Brand, Cincinnati, OHnafor solutions
FaceReader 6Noldus Information Technology, Wageningen, The NetherlandsnaFor Facial Analysis
Sensory Information Management System (SIMS) 2000Sensory Computer Systems, Berkeley Heights, NJVersion 6For Sensory Data Capture
RhapsodyAcuity Brands Lighting, Inc., Conyers, GAFor Environment Illumination
R Version R Core Team 20153.1.1For Statistical Analysis
Microsoft OfficeMicrosoftnaFor Statistical Analysis
JMPStatistical Analysis Software (SAS) Version 9.2, SAS Institute, Cary, NCnaFor Statistical Analysis
Media Recorder 2.5Noldus Information Technology, Wageningen, The NetherlandsnaFor capturing participants sensory evaluation
Axis M1054 CameraAxis Communications, Lund, Swedenna
BeveragenaBeverage or soft food for evaluation

Referências

  1. De Wijk, R. A., Kooijman, V., Verhoeven, R. H. G., Holthuysen, N. T. E., De Graaf, C. Autonomic nervous system responses on and facial expressions to the sight, smell, and taste of liked and disliked foods. Food Qual Prefer. 26 (2), 196-203 (2012).
  2. De Wijk, R. A., He, W., Mensink, M. G. J., Verhoeven, R. H. G., De Graaf, C. ANS responses and facial expression differentiate between the taste of commercial breakfast drinks. PLoS ONE. 9 (4), 1-9 (2014).
  3. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Behavioural and physiological responses to two food odours. Appetite. 59 (2), 628 (2012).
  4. He, W., Boesveldt, S., De Graaf, C., De Wijk, R. A. Dynamics of autonomic nervous system responses and facial expressions to odors. Front Psychol. 5 (110), 1-8 (2014).
  5. Danner, L., Sidorkina, L., Joechl, M., Duerrschmid, K. Make a face! Implicit and explicit measurement of facial expressions elicited by orange juices using face reading technology. Food Qual Prefer. 32 (2014), 167-172 (2013).
  6. Danner, L., Haindl, S., Joechl, M., Duerrschmid, K. Facial expression and autonomous nervous system responses elicited by tasting different juices. Food Res Int. 64 (2014), 81-90 (2014).
  7. Arnade, E. A. . Measuring consumer emotional response to tastes and foods through facial expression analysis [thesis]. , 1-187 (2013).
  8. Leitch, K. A., Duncan, S. E., O'Keefe, S., Rudd, R., Gallagher, D. L. Characterizing consumer emotional response to sweeteners using an emotion terminology questionnaire and facial expression analysis. Food Res Int. 76, 283-292 (2015).
  9. Crist, C. A., et al. Application of emotional facial analysis technology to consumer acceptability using a basic tastes model. , (2014).
  10. Garcia-Burgos, D., Zamora, M. C. Facial affective reactions to bitter-tasting foods and body mass index in adults. Appetite. 71 (2013), 178-186 (2013).
  11. Garcia-Burgos, D., Zamora, M. C. Exploring the hedonic and incentive properties in preferences for bitter foods via self-reports, facial expressions and instrumental behaviours. Food Qual Prefer. 39 (2015), 73-81 (2015).
  12. Lewinski, P., Fransen, M. L., Tan, E. S. H. Predicting advertising effectiveness by facial expressions in response to amusing persuasive stimuli. J. Neurosci. Psychol. Econ. 7 (1), 1-14 (2014).
  13. Ekman, P., Friesen, W. V. Facial action coding system: A technique for the measurement of facial movement. , (1978).
  14. Viola, P., Jones, M. Rapid object detection using a boosted cascade of simple features. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern. 1, 511-518 (2001).
  15. Sung, K. K., Poggio, T. Example-based learning for view-based human face detection. IEEE Trans. Pattern Anal. Mach. Intell. 20 (1), 39-51 (1998).
  16. . . FaceReader 5™ Technical Specifications. , (2014).
  17. Cootes, T., Taylor, C. . Statistical models of appearance for computer vision: Technical report. , (2000).
  18. Bishop, C. M. . Neural networks for pattern recognition. , (1995).
  19. Lewinski, P., den Uyl, T. M., Butler, C. Automated facial coding: validation of basic emotions and FACS AUs in FaceReader. J. Neurosci. Psychol. Econ. 7 (4), 227-236 (2014).
  20. Noldus Information Technology. . FaceReader Reference Manual Version 6. , (2014).
  21. Alves, N. T., Fukusima, S. S., Aznar-Casanova, J. A. Models of brain asymmetry in emotional processing. Psychol Neurosci. 1 (1), 63-66 (2008).
  22. Costello, M., Clark, S., Clark, S., Costello, M., Drake, M., Bodyfelt, F. Preparation of samples for instructing students and staff in dairy products evaluation (Appendix F). The sensory evaluation of dairy foods. , 551-560 (2009).
  23. Porcherot, C., et al. How do you feel when you smell this? Optimization of a verbal measurement of odor-elicited emotions. Food Qual Prefer. 21, 938-947 (2010).
  24. Warrenburg, S. Effects of fragrance on emotions: Moods and physiology. Chem. Senses. 30, i248-i249 (2005).
  25. Bredie, W. L. P., Tan, H. S. G., Wendin, K. A comparative study on facially expressed emotions in response to basic tastes. Chem. Percept. 7 (1), 1-9 (2014).
  26. Wendin, K., Allesen-Holm, B. H., Bredie, L. P. Do facial reactions add new dimensions to measuring sensory responses to basic tastes?. Food Qual Prefer. 22, 346-354 (2011).
  27. Rosenstein, D., Oster, H. Differential facial responses to four basic tastes in newborns. Child Dev. 59 (6), 1555-1568 (1988).
  28. Rosenstein, D., Oster, H., P, E. k. m. a. n., E, R. o. s. e. n. b. e. r. g. Differential facial responses to four basic tastes in newborns. What the face reveals: Basic and applied studies of spontaneous expression using the facial action coding system (FACS). , 302-327 (1997).
  29. Rozin, P., Fallon, A. E. A perspective on disgust. Psychol. Rev. 94 (1), 23-41 (1987).
  30. Delarue, J., Blumenthal, D. Temporal aspects of consumer preferences. Curr. Opin. Food Sci. 3, 41-46 (2015).
  31. Sudre, J., Pineau, N., Loret, C., Marin, N. Comparison of methods to monitor liking of food during consumption. Food Qual Prefer. 24 (1), 179-189 (2012).
  32. Weiland, R., Ellgring, H., Macht, M. Gustofacial and olfactofacial responses in human adults. Chem. Senses. 35 (9), 841-853 (2010).
  33. Ekman, P., Cole, J. Universal and cultural differences in facial expressions of emotion. Nebraska symposium on motivation. , 207-283 (1971).
  34. Griemel, E., Macht, M., Krumhuber, E., Ellgring, H. Facial and affective reactions to tastes and their modulation by sadness and joy. Physiol Behav. 89 (2), 261-269 (2006).

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

ComportamentoEdi o 114An lise de Express o FacialAvalia o SensorialEmo obebidasCi ncia dos AlimentosAn lise de S riesDairy

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados