JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Cet article décrit un ensemble de méthodes pour mesurer la capacité suppressive de l’inhalation de boissons alcoolisées sur la sensation de picotement induite par le wasabi.

Résumé

Les pâtes de wasabi commerciales couramment utilisées pour la préparation des aliments contiennent un composé homologue d’isothiocyanates chimiosensoriels (ITC) qui provoquent une sensation irritante lors de la consommation. L’impact de l’inhalation de boissons alcoolisées diététiques sur la sensation de piquant du wasabi n’a jamais été étudié. Alors que la plupart des études d’évaluation sensorielle se concentrent sur les aliments et les boissons séparément, il y a un manque de recherche sur l’étude olfactive de l’inhalation d’alcool pendant la consommation de wasabi. Ici, une méthodologie est développée qui combine l’utilisation d’une étude comportementale animale et d’un réseau neuronal convolutif pour analyser les expressions faciales des souris lorsqu’elles reniflent simultanément de l’alcool et consomment du wasabi. Les résultats démontrent que le modèle d’apprentissage profond entraîné et validé reconnaît 29 % des images représentant le co-traitement du wasabi et de l’alcool appartenant à la classe du groupe positif à la liqueur négative au wasabi sans qu’il soit nécessaire de filtrer au préalable les matériaux de formation. L’analyse statistique des scores de l’échelle de grimace de souris obtenus à partir des images vidéo sélectionnées révèle une différence significative (P < 0,01) entre la présence et l’absence d’alcool. Cette découverte suggère que les boissons alcoolisées diététiques pourraient avoir un effet décroissant sur les réactions induites par le wasabi chez la souris. Cette méthodologie combinatoire offre à l’avenir un potentiel pour le criblage individuel des composés ITC et les analyses sensorielles des composants spiritueux. Cependant, des études supplémentaires sont nécessaires pour étudier le mécanisme sous-jacent de la suppression du piquant du wasabi induite par l’alcool.

Introduction

Wasabia japonica, communément appelé wasabi, a été reconnu dans la préparation des aliments 1,2. L’expérience sensorielle intense qu’il provoque lors de la consommation, caractérisée par des larmes, des éternuements ou de la toux, est bien connue. Ce piquant distinctif du wasabi peut être attribué à un composé homologue d’isothiocyanates chimiosensoriels (ITC). Ce sont des composés phytochimiques organosulfurés volatils qui peuvent être classés en ω-alcényle et ω-méthylthioalkyl isothiocyanates3. Parmi ces composés, l’isothiocyanate d’allyle (AITC) est le produit naturel ITC le plus prédominant que l’on trouve dans les plantes appartenant à la famille des crucifères, telles que le raifort et la moutarde4. Les pâtes de wasabi commerciales sont généralement préparées à partir de raifort, ce qui fait de l’AITC un marqueur chimique utilisé pour le contrôle de la qualité de ces produits commerciaux5.

L’association de boissons alcoolisées diététiques avec des plats infusés au wasabi peut être considérée comme un exemple de disposition culturelle6. Subjectivement, cette combinaison peut compléter le piquant et la chaleur entre le wasabi et le spiritueux, améliorant ainsi l’expérience culinaire globale. L’évaluation qualitative comportementale animale (QBA) est une approche méthodologique globale de l’animal qui examine les changements de comportement chez les sujets en réponse à des stimuli externes à court ou à long terme à l’aide de termes numériques7. Cette méthode comprend des tests de douleur, des tests moteurs, des tests d’apprentissage et de mémoire, ainsi que des tests d’émotion spécialement conçus pour les modèles de rongeurs8. Cependant, les études portant sur l’évaluation sensorielle synergique de la gustation et de l’olfaction restent rares dans la littérature jusqu’à présent 9,10. La plupart des études sur la sensation chimiquement se limitent à examiner séparément la consommation individuelle d’aliments et de boissons11. Par conséquent, il y a un manque de recherches sur l’interaction goût-odeur impliquant l’acte de renifler de l’alcool tout en consommant du wasabi.

Comme la sensation de picotement induite par le wasabi est considérée comme une forme de nociception12, les évaluations comportementales animales sont bien adaptées pour évaluer les réponses sensorielles nociceptives chez les rongeurs 8,13,14. Une méthode d’évaluation de la nociception chez la souris, connue sous le nom de score MGS, a été mise au point par Langford et coll.15,16. Cette méthode d’étude comportementale est une approche d’évaluation liée à la douleur, s’appuyant sur l’analyse des expressions faciales présentées par les souris expérimentales. Le dispositif expérimental est simple, impliquant une cage transparente et 2 caméras pour l’enregistrement vidéo. En intégrant des technologies de pointe 17,18,19 pour la capture automatique des données, des mesures comportementales quantitatives et qualitatives peuvent être obtenues, améliorant ainsi le bien-être animal pendant la surveillance comportementale 20. Par conséquent, le MGS a le potentiel d’être appliqué à l’étude des effets de divers stimuli externes sur les animaux de manière ininterrompue et ad libitum. Cependant, le processus de notation ne consiste qu’à sélectionner quelques images vidéo (moins de 10) pour l’évaluation par les panélistes, et une formation préalable est nécessaire. La notation d’un grand nombre d’images d’échantillons peut demander beaucoup de main-d’œuvre. Pour surmonter ce défi chronophage, plusieurs études ont utilisé des techniques d’apprentissage automatique pour prédire le score MGS21,22. Cependant, il est important de noter que le MGS est une mesure continue. Par conséquent, un modèle de classification multiclasse serait plus approprié pour évaluer un problème logique et catégorique, comme déterminer si les images de souris ingérant simultanément du wasabi et reniflant de la liqueur ressemblent à celles de souris normales.

Dans cette étude, une méthodologie pour étudier l’interaction goût-odeur chez la souris a été proposée. Cette méthodologie combine des études comportementales animales avec un réseau de neurones convolutif (CNN) pour analyser les expressions faciales des sujets souris. Deux souris ont été observées trois fois dans des conditions comportementales normales, lors de l’expérience de nociception induite par le wasabi et en reniflant de l’alcool dans une cage spécialement conçue. Les expressions faciales des souris ont été enregistrées sur vidéo, et les images de cadre générées ont été utilisées pour optimiser l’architecture d’un modèle d’apprentissage profond (DL). Le modèle a ensuite été validé à l’aide d’un ensemble de données d’images indépendant et déployé pour classer les images acquises auprès du groupe expérimental. Pour déterminer l’étendue de la suppression du piquant du wasabi lorsque les souris reniflaient simultanément de l’alcool pendant la consommation de wasabi, les informations fournies par l’intelligence artificielle ont été corroborées par une validation croisée avec une autre méthode d’analyse des données, le MGS marquant16.

Protocole

Dans cette étude, deux souris mâles ICR âgées de 7 semaines pesant entre 17 et 25 g ont été utilisées pour l’évaluation comportementale animale. Toutes les procédures d’hébergement et d’expérimentation ont été approuvées par le Comité de l’Université baptiste de Hong Kong sur l’utilisation de sujets humains et animaux dans l’enseignement et la recherche. La salle animalière a été maintenue à une température de 25 °C et à un taux d’humidité de 40 % à 70 % selon un cycle lumière-obscurité de 12 heures.

1. Conception de la cage

  1. Préparez des briques d’acrylonitrile butadiène styrène en 3 dimensions différentes pour la construction de cages : 8 mm x 8 mm x 2 mm, 16 mm x 16 mm x 6 mm et 32 mm x 16 mm x 6 mm.
  2. Préparez une plaque d’acrylonitrile butadiène styrène (312 mm x 147 mm x 2 mm) comme base de la cage.
  3. Préparez une plaque acrylique non transparente de 239 mm x 107 mm d’une épaisseur de 2 mm à utiliser comme plaque inférieure.
  4. Préparez une plaque acrylique transparente de 239 mm x 107 mm d’une épaisseur de 5 mm à utiliser comme plaque supérieure.
  5. Préparez une plaque acrylique transparente de 107 mm x 50 mm d’une épaisseur de 7 mm à utiliser comme plaque terminale.
  6. Construisez 2 murs latéraux opaques en empilant des briques à une hauteur de 54 mm.
  7. Intégrez les plaques acryliques dans la cage à base d’acrylonitrile butadiène styrène, comme illustré à la figure 1A.
  8. Préparez une chambre à manger composée de cinq plaques acryliques transparentes de 90 mm x 50 mm d’une épaisseur de 2 mm, comme illustré à la figure 1B. Parmi les 5 plaques acryliques transparentes, utilisez 2 plaques pour les côtés, 1 plaque pour le haut, 1 plaque pour le bas, et 1 plaque pour le terminal.
  9. Préparez une plaque acrylique transparente de 60 mm x 50 mm 2 mm comme plaque d’introduction et placez-la dans la chambre de la nourriture.

2. Évaluation du comportement animal

  1. Hébergez les compagnons de portée de 2 souris mâles ICR de 7 semaines ensemble dans une cage régulière.
  2. Fournir aux compagnons de portée de 2 souris un accès gratuit à de la nourriture, des granulés et de l’eau du robinet pendant une période d’adaptation de 1 semaine.
  3. Après 1 semaine, introduisez les compagnons de portée de 2 souris avec une bouteille d’éthanol (~40% v/v).
    REMARQUE : Assurez-vous qu’ils ne sont autorisés à renifler ou à inhaler l’éthanol aqueux fourni que sur une base ad libitum tant que la consommation est restreinte.
  4. Effectuez des expériences comportementales à l’aide du modèle de souris âgé de 9 à 10 semaines et de la cage de cabine transparente illustrée à la figure 1A.
  5. Démontez toutes les plaques acryliques et les plaques d’acrylonitrile butadiène styrène et nettoyez-les soigneusement. Commencez par les rincer au moins 3 fois à l’eau ultra-pure, puis séchez-les à l’aide d’essuie-tout. Ensuite, vaporisez-les avec de l’éthanol à 75%, puis nettoyez-les avec du papier pour lentilles. Enfin, laissez-les sécher à l’air libre pendant au moins 15 min.
  6. Pesez les souris et notez leur poids corporel avant chaque réplication de l’expérience comportementale.
  7. Préparez fraîchement un mélange de wasabi et de beurre de cacahuète en pesant 1 g de wasabi du commerce et 4,5 g de beurre de cacahuète. Mélangez-les dans un sac en plastique zippé.
    REMARQUE : En raison de la volatilité des isothiocyanates dans le wasabi, il est important de conserver le wasabi commercial dans un congélateur à -20 °C.
  8. Pesez et fournissez deux pâtes de 0,5 g de beurre d’arachide ou un mélange de wasabi et de beurre d’arachide sur l’assiette d’introduction de la nourriture, comme illustré aux figures 1B et C.
  9. Placez la plaque d’introduction de la nourriture préparée dans la chambre des chows, comme illustré sur la figure 1B, C, pour permettre aux 2 souris d’avoir un accès ad libitum à la nourriture lors de chaque session d’enregistrement vidéo.
  10. Remplissez la rainure inférieure avec 30 mL de liquide, soit de l’eau pure ou de la liqueur (~42 % v/v d’éthanol), pour faciliter l’inhalation simultanée, comme indiqué aux figures 1B et C.
  11. Commencez l’enregistrement à l’aide des appareils photo de 2 smartphones placés sur les supports de téléphone de chaque terminal.
    REMARQUE : Les spécifications des vidéos sont les suivantes : largeur de l’image, 1920 ; hauteur du cadre, 1080 ; débit de données, 20745 kbps ; fréquence d’images, 30,00 images par seconde (fps).
  12. Placez soigneusement les 2 compagnons de portée dressés de souris dans la plate-forme d’étude comportementale animale conçue par le haut et fixez rapidement la cage avec la plaque supérieure.
    REMARQUE : Assurez-vous que cette étape est terminée dans les 15 s.
  13. Enregistrez chaque vidéo pendant 2-3 min.
    REMARQUE : Assurez-vous que toute la durée de l’expérience, de la préparation du mélange beurre d’arachide-wasabi à la réalisation de l’enregistrement vidéo, est limitée à 5 min.
  14. Répétez toute l’expérience 3 fois.
    REMARQUE : Assurez-vous que chaque répétition de l’expérience est séparée pendant au moins 6 h.
  15. Imitez différents scénarios.
    REMARQUE : Par exemple, dans ce travail, une paire de souris a été utilisée dans 4 groupes avec 4 scénarios différents qui ont été imités en utilisant le cadre expérimental décrit ci-dessus. Ces scénarios comprennent le scénario A pour l’étude de fond, le scénario B pour l’étude de contrôle positif, le scénario C pour l’étude d’interaction goût-odeur de wasabi-alcool et le scénario D pour l’étude de contrôle négatif. Le tableau 1 présente un résumé de ces scénarios.

3. Reconnaissance d’images

À l’instar de nombreuses études sur le traitement d’images 23,24,25, un modèle de classification a été obtenu par l’entraînement d’un CNN. Le script pour les opérations DL a été écrit en Python v.3.10 sur Jupyter Notebook (anaconda3). Il est disponible sur le dépôt GitHub suivant : git@github.com :TommyNHL/imageRecognitionJove.git. Pour construire et entraîner le CNN, des bibliothèques open source ont été utilisées, notamment numpy v.1.21.5, seaborn v.0.11.2, matplotlib v.3.5.2, cv2 v.4.6.0, sklearn v.1.0.2, tensorflow v.2.11.0 et keras v.2.11.0. Ces bibliothèques ont fourni les outils et les fonctionnalités nécessaires au développement et à la formation de CNN pour la reconnaissance d’images.

  1. Exportez une série d’images d’images vidéo à partir des clips vidéo collectés afin de générer un ensemble de données pour l’entraînement du modèle à l’aide du bloc-notes Jupyter fourni, nommé Step1_ExtractingAndSavingVideoFrameImages.ipynb.
  2. Sélectionnez uniquement les images avec au moins 1 souris consommant la pâte fournie. Des exemples des images sélectionnées sont fournis dans la figure supplémentaire 1, la figure supplémentaire 2, la figure supplémentaire 3, la figure supplémentaire 4, la figure supplémentaire 5, la figure supplémentaire 6 et la figure supplémentaire 7.
  3. Effectuez l’augmentation des données en retournant horizontalement les images générées en implémentant le script fourni dans le bloc-notes Jupyter, nommé Step2_DataAugmentation.ipynb.
  4. Réservez les données d’image de chaque seconde répliquée pour la validation du modèle CNN indépendant externe. Utilisez les images de chaque première et troisième réplique pour l’entraînement et les tests internes du modèle.
  5. Prétraitez les données d’image utilisées dans la modélisation CNN en exécutant le script dans le Jupyter Notebook, nommé Step3_CNNmodeling_TrainTest.ipynb, y compris le redimensionnement de l’image, la conversion des couleurs noires et la normalisation du signal d’image.
  6. Divisez les supports de formation en ensembles de données de formation et de test internes de manière aléatoire selon un modèle 8:2.
  7. Initialisez l’architecture pour CNN. Concevez le nombre de sorties de CNN en fonction du nombre de scénarios à examiner.
    REMARQUE : Par exemple, dans cette étude, le réseau de neurones a été désigné pour classer 3 classes. Assurez-vous que le script de gestion du déséquilibre des données sur le poids de la classe est compilé.
  8. Trouvez la combinaison d’hyperparamètres qui donne une perte minimale sur les échantillons de test internes pour la construction CNN.
  9. Adoptez la combinaison optimale d’hyperparamètres pour la construction de l’architecture CNN.
  10. Ouvrez les blocs-notes Jupyter fournis Step4_CNNmodel_ExternalValOriginal.ipynb et Step5_CNNmodel_ExternalValFlipped.ipynb. Validez le modèle atteint à l’aide des images indépendantes (originales et retournées) de la deuxième réplique de l’expérience comportementale sur les animaux.
  11. Déployez le modèle atteint et validé pour classer les images de trame vidéo générées à partir du groupe expérimental à l’aide de Jupyter Notebook Step6_CNNmodel_Application.ipynb.
    REMARQUE : Par exemple, il s’agit du scénario C dans cette œuvre.

4. Notation manuelle de l’échelle de grimace de la souris

REMARQUE : Pour valider les informations fournies par la prédiction du modèle CNN, une autre méthode précédemment développée et validée par Langford et al. a été appliquée16. Cette méthode consiste à noter le MGS en fonction des 5 unités d’action faciale (UA) spécifiques de la souris : resserrement orbitaire, renflement du nez, renflement des joues, resserrement des oreilles vers l’extérieur et changement des moustaches. Chaque UA se voit attribuer un score de 0, 1 ou 2, indiquant respectivement l’absence, la présence modérée ou la présence évidente de l’UA. Ce système de notation permet de quantifier et de mettre à l’échelle chaque UA afin d’évaluer le niveau de nociception ou d’inconfort ressenti par les souris.

  1. Capturez 3 images vidéo des compagnons de portée ingérant la pâte pour chaque clip vidéo. Assurez-vous que chaque image est séparée d’au moins 3 secondes.
  2. Codez à l’aveugle et réorganisez de manière aléatoire les images de différentes classes de scénarios dans l’ordre à l’aide du fichier modèle fourni nommé « shuffleSlides.pptm » (fichier supplémentaire 1) et en exécutant le code de macro intégré.
  3. Invitez au moins 10 panélistes à noter les exemples d’images.
  4. Entraînez les panélistes à noter des échantillons d’images à l’aide du MGS. Fournir aux panélistes du matériel de formation qui comprend l’article original concernant MGS et son manuel15,16.
  5. Calculez le score MGS de chaque sujet animal dans une image capturée en faisant la moyenne de tous les points de score des 5 AU faciaux correspondants. Présentez le score MGS comme la moyenne ± l’erreur type de mesure (SEM).
  6. Déterminez s’il existe des différences statistiquement significatives entre les différentes classes de scénarios par analyse de variance à un facteur (ANOVA) avec le test post-hoc de comparaison multiple de Bonferroni.
    REMARQUE : Une valeur de P < 0,05 est considérée comme statistiquement significative.

Résultats

L’objectif principal de cette étude est d’établir un cadre solide pour étudier l’interaction goût-odeur chez la souris. Ce cadre intègre l’utilisation de l’intelligence artificielle et de l’ABQ pour développer un modèle de classification prédictive. De plus, les informations obtenues grâce à DL sont validées par une évaluation quantitative MGS pour une analyse interne indépendante. L’application principale de cette méthodologie consiste à examiner l’étendue de la suppression de la nocicept...

Discussion

La méthode proposée pour étudier l’interaction goût-odeur dans ce travail est basée sur la méthode originale de codage comportemental pour l’expression faciale de la douleur chez la souris, qui a été développée par Langford et al.16. Plusieurs articles récemment publiés ont introduit CNN pour le suivi automatique du visage de la souris et le score MGS ultérieurde 21,26,27,28.

Déclarations de divulgation

Les auteurs déclarent qu’il n’y a pas de conflits d’intérêts.

Remerciements

Z. Cai tient à souligner le soutien financier du Kwok Chung Bo Fun Charitable Fund pour la création de la chaire Kwok Yat Wai d’analyse environnementale et biologique.

matériels

NameCompanyCatalog NumberComments
Absolute ethanol (EtOH)VWR Chemicals BDHCAS# 64-17-5
Acrylonitrile butadiene styrene bricksJiahuifeng Flagship Storehttps://shop.paizi10.com/jiahuifeng/chanpin.html
Acrylonitrile butadiene styrene platesJiahuifeng Flagship Storehttps://shop.paizi10.com/jiahuifeng/chanpin.html
Allyl isothiocyanate (AITC)Sigma-AldrichCAS# 57-06-7
Anhydrous dimethyl sulfoxideSigma-AldrichCAS# 67-68-5
Chinese spiritYanghe Qingcihttps://www.chinayanghe.com/article/45551.html
Commercial wasabiS&B FOODS INC.https://www.sbfoods-worldwide.com
Formic acid (FA)VWR Chemicals BDHCAS# 64-18-6
GraphPad Prism 5GraphPadhttps://www.graphpad.com
HPLC-grade acetonitrile (ACN)VWR Chemicals BDHCAS# 75-05-8
HPLC-grade methanol (MeOH)VWR Chemicals BDHCAS# 67-56-1
Microsoft Excel 2016Microsofthttps://www.microsoft.com 
Microsoft PowerPoint 2016Microsofthttps://www.microsoft.com
Milli-Q water systemMilliporehttps://www.merckmillipore.com
Mouse: ICRLaboratory Animal Services Centre (The Chinese University of Hong Kong, Hong Kong, China)N/A
Peanut butterSkippyhttps://www.peanutbutter.com/peanut-butter/creamy
Python v.3.10Python Software Foundationhttps://www.python.org 
Transparent acrylic platesTaobao Storehttps://item.taobao.com/item.htm?_u=32l3b7k63381&id=60996545797
0&spm=a1z09.2.0.0.77572e8dFPM
EHU

Références

  1. Isshiki, K., Tokuoka, K., Mori, R., Chiba, S. Preliminary examination of allyl isothiocyanate vapor for food preservation. Biosci Biotechnol Biochem. 56 (9), 1476-1477 (1992).
  2. Li, X., Wen, Z., Bohnert, H. J., Schuler, M. A., Kushad, M. M. Myrosinase in horseradish (Armoracia rusticana) root: Isolation of a full-length cDNA and its heterologous expression in Spodoptera frugiperda insect cells. Plant Sci. 172 (6), 1095-1102 (2007).
  3. Depree, J. A., Howard, T. M., Savage, G. P. Flavour and pharmaceutical properties of the volatile sulphur compounds of Wasabi (Wasabia japonica). Food Res Int. 31 (5), 329-337 (1998).
  4. Hu, S. Q., Wei, W. Study on extraction of wasabi plant material bio-activity substances and anti-cancer activities. Adv Mat Res. 690 - 693, 1395-1399 (2013).
  5. Lee, H. -. K., Kim, D. -. H., Kim, Y. -. S. Quality characteristics and allyl isothiocyanate contents of commercial wasabi paste products. J Food Hyg Saf. 31 (6), 426-431 (2016).
  6. Bacon, T. Wine, wasabi and weight loss: Examining taste in food writing. Food Cult Soc. 17 (2), 225-243 (2014).
  7. Fleming, P. A., et al. The contribution of qualitative behavioural assessment to appraisal of livestock welfare. Anim Prod Sci. 56, 1569-1578 (2016).
  8. Shi, X., et al. Behavioral assessment of sensory, motor, emotion, and cognition in rodent models of intracerebral hemorrhage. Front Neurol. 12, 667511 (2021).
  9. Stevenson, R. J., Prescott, J., Boakes, R. A. Confusing tastes and smells: How odours can influence the perception of sweet and sour tastes. Chem Senses. 24 (6), 627-635 (1999).
  10. Pfeiffer, J. C., Hollowood, T. A., Hort, J., Taylor, A. J. Temporal synchrony and integration of sub-threshold taste and smell signals. Chem Senses. 30 (7), 539-545 (2005).
  11. Simons, C. T., Klein, A. H., Carstens, E. Chemogenic subqualities of mouthfeel. Chem Senses. 44 (5), 281-288 (2019).
  12. Andrade, E. L., Luiz, A. P., Ferreira, J., Calixto, J. B. Pronociceptive response elicited by TRPA1 receptor activation in mice. Neuroscience. 152 (2), 511-520 (2008).
  13. Palazzo, E., Marabese, I., Gargano, F., Guida, F., Belardo, C., Maione, S. Methods for evaluating sensory, affective and cognitive disorders in neuropathic rodents. Curr Neuropharmacol. 19 (6), 736-746 (2020).
  14. Topley, M., Crotty, A. M., Boyle, A., Peller, J., Kawaja, M., Hendry, J. M. Evaluation of motor and sensory neuron populations in a mouse median nerve injury model. J Neurosci Methods. 396, 109937 (2023).
  15. Langford, D. J., et al. . Mouse Grimace Scale (MGS): The Manual. , (2015).
  16. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  17. Liu, H., Fang, S., Zhang, Z., Li, D., Lin, K., Wang, J. MFDNet: Collaborative poses perception and matrix Fisher distribution for head pose estimation. IEEE Trans Multimedia. 24, 2449-2460 (2022).
  18. Liu, T., Wang, J., Yang, B., Wang, X. NGDNet: Nonuniform Gaussian-label distribution learning for infrared head pose estimation and on-task behavior understanding in the classroom. Neurocomputing. 436, 210-220 (2021).
  19. Liu, T., Liu, H., Yang, B., Zhang, Z. LDCNet: Limb direction cues-aware network for flexible human pose estimation in industrial behavioral biometrics systems. IEEE Trans Industr Inform. 20 (6), 8068-8078 (2023).
  20. Grant, E. P., et al. What can the quantitative and qualitative behavioural assessment of videos of sheep moving through an autonomous data capture system tell us about welfare. Appl Anim Behav Sci. 208, 31-39 (2018).
  21. Vidal, A., Jha, S., Hassler, S., Price, T., Busso, C. Face detection and grimace scale prediction of white furred mice. Mach Learn Appl. 8, 100312 (2022).
  22. Zylka, M. J., et al. Development and validation of Painface, A software platform that simplifies and standardizes mouse grimace analyses. J Pain. 24 (4), 35-36 (2023).
  23. Liu, H., Zhang, C., Deng, Y., Liu, T., Zhang, Z., Li, Y. F. Orientation cues-aware facial relationship representation for head pose estimation via Transformer. IEEE Trans Image Process. 32, 6289-6302 (2023).
  24. Liu, H., Liu, T., Chen, Y., Zhang, Z., Li, Y. F. EHPE: Skeleton cues-based Gaussian coordinate encoding for efficient human pose estimation. IEEE Trans Multimedia. , (2022).
  25. Liu, H., et al. TransIFC: Invariant cues-aware feature concentration learning for efficient fine-grained bird image classification. IEEE Trans Multimedia. , (2023).
  26. Akkaya, I. B., Halici, U. Mouse face tracking using convolutional neural networks. IET Comput Vis. 12 (2), 153-161 (2018).
  27. Andresen, N., et al. Towards a fully automated surveillance of well-being status in laboratory mice using deep learning: Starting with facial expression analysis. PLoS One. 15 (4), e0228059 (2020).
  28. Ernst, L., et al. Improvement of the mouse grimace scale set-up for implementing a semi-automated Mouse Grimace Scale scoring (Part 1). Lab Anim. 54 (1), 83-91 (2020).
  29. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  30. Lencioni, G. C., de Sousa, R. V., de Souza Sardinha, E. J., Corrêa, R. R., Zanella, A. J. Pain assessment in horses using automatic facial expression recognition through deep learning-based modeling. PLoS One. 16 (10), e0258672 (2021).
  31. Steagall, P. V., Monteiro, B. P., Marangoni, S., Moussa, M., Sautié, M. Fully automated deep learning models with smartphone applicability for prediction of pain using the Feline Grimace Scale. Sci Rep. 13, 21584 (2023).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

Ce mois ci dans JoVEnum ro 210

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.