JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Dieser Artikel beschreibt eine Reihe von Methoden zur Messung der Unterdrückungsfähigkeit des Schnupperns von alkoholischen Getränken auf das durch Wasabi ausgelöste Stechen.

Zusammenfassung

Die handelsüblichen Wasabi-Pasten, die üblicherweise für die Zubereitung von Lebensmitteln verwendet werden, enthalten eine homologe Verbindung von chemosensorischen Isothiocyanaten (ITCs), die beim Verzehr ein irritierendes Gefühl hervorrufen. Die Auswirkungen des Schnupperns von alkoholischen Getränken auf das Gefühl der Wasabi-Schärfe wurden nie untersucht. Während sich die meisten sensorischen Bewertungsstudien auf einzelne Lebensmittel und Getränke getrennt konzentrieren, gibt es einen Mangel an Forschung über die olfaktorische Studie zum Schnüffeln von Alkohol während des Konsums von Wasabi. Hier wird eine Methodik entwickelt, die den Einsatz einer tierischen Verhaltensstudie und eines Convolutional Neural Networks kombiniert, um die Mimik von Mäusen zu analysieren, wenn sie gleichzeitig Alkohol schnuppern und Wasabi konsumieren. Die Ergebnisse zeigen, dass das trainierte und validierte Deep-Learning-Modell 29% der Bilder erkennt, die eine gleichzeitige Behandlung von Wasabi und Alkohol darstellen, die zur Klasse der Wasabi-negativen Alkohol-positiven Gruppe gehören, ohne dass eine vorherige Filterung der Trainingsmaterialien erforderlich ist. Die statistische Analyse der Grimassenskala-Werte, die aus den ausgewählten Videobildern erhalten wurden, zeigt einen signifikanten Unterschied (P < 0,01) zwischen dem Vorhandensein und Fehlen von Alkohol. Dieser Befund deutet darauf hin, dass diätetische alkoholische Getränke einen abnehmenden Effekt auf die Wasabi-ausgelösten Reaktionen bei Mäusen haben könnten. Diese kombinatorische Methodik birgt das Potenzial für das individuelle ITK-Screening von Verbindungen und sensorische Analysen von Spirituosenkomponenten in der Zukunft. Es sind jedoch weitere Studien erforderlich, um den zugrunde liegenden Mechanismus der alkoholinduzierten Unterdrückung der Wasabi-Schärfe zu untersuchen.

Einleitung

Wasabia japonica, allgemein bekannt als Wasabi, hat sich in der Lebensmittelzubereitung einen Namen gemacht 1,2. Die intensive sensorische Erfahrung, die es beim Verzehr hervorruft, gekennzeichnet durch Tränen, Niesen oder Husten, ist bekannt. Diese ausgeprägte Schärfe von Wasabi kann auf eine homologe Verbindung von chemosensorischen Isothiocyanaten (ITCs) zurückgeführt werden. Es handelt sich um flüchtige schwefelorganische Pflanzenstoffe, die in ω-Alkenyl- und ω-Methylthioalkylisothiocyanate eingeteilt werden können 3. Unter diesen Verbindungen ist Allylisothiocyanat (AITC) das am weitesten verbreitete natürliche ITC-Produkt, das in Pflanzen der Familie der Kreuzblütler wie Meerrettich und Senf vorkommt4. Kommerzielle Wasabi-Pasten werden üblicherweise aus Meerrettich hergestellt, was AITC zu einem chemischen Marker macht, der für die Qualitätskontrolle dieser kommerziellen Produkte verwendet wird5.

Die Kombination von diätetischen alkoholischen Getränken mit Wasabi-infundierten Gerichten kann als Beispiel für kulturelle Disposition angesehen werden6. Subjektiv kann diese Kombination die Schärfe und Schärfe zwischen Wasabi und der Spirituose ergänzen und das kulinarische Gesamterlebnis verbessern. Die qualitative Verhaltensbewertung bei Tieren (QBA) ist ein umfassender methodischer Ansatz für ganze Tiere, der Verhaltensänderungen bei Probanden als Reaktion auf kurz- oder langfristige externe Reize anhand von Zahlenbegriffenuntersucht 7. Diese Methode umfasst Schmerztests, motorische Tests, Lern- und Gedächtnistests sowie Emotionstests, die speziell für Nagetiermodelle entwickelt wurden8. Studien, die sich mit der synergistischen sensorischen Bewertung von Trieb und Geruchssinn beschäftigen, sind in der Literatur jedoch bisher rargesät 9,10. Die meisten Studien zur chemischen Empfindung beschränken sich darauf, den individuellen Konsum von Lebensmitteln und Getränken getrennt zu untersuchen11. Folglich gibt es einen Mangel an Forschung über die Geschmacks-Geruchs-Wechselwirkung, die mit dem Schnüffeln von Alkohol während des Konsums von Wasabi verbunden ist.

Da angenommen wird, dass das Wasabi-induzierte Stechen eine Form der Nozizeption ist12, eignen sich Verhaltensbewertungen bei Tieren gut zur Bewertung der nozizeptiven sensorischen Reaktionen bei Nagetieren 8,13,14. Eine Methode zur Bewertung der Nozizeption bei Mäusen, die als Maus-Grimasse-Skala (MGS) bekannt ist, wurde von Langford et al.15,16 entwickelt. Bei dieser Verhaltensstudienmethode handelt es sich um einen schmerzbezogenen Bewertungsansatz, der sich auf die Analyse der Gesichtsausdrücke der Versuchsmäuse stützt. Der Versuchsaufbau ist einfach und umfasst einen transparenten Käfig und 2 Kameras für die Videoaufzeichnung. Durch die Einbeziehung fortschrittlicher Technologien 17,18,19 zur automatischen Datenerfassung können quantitative und qualitative Verhaltensmessungen erhalten werden, die den Tierschutz während der Verhaltensüberwachung verbessern 20. Folglich hat das MGS das Potenzial, die Auswirkungen verschiedener äußerer Reize auf Tiere ununterbrochen und ad libitum zu untersuchen. Der Bewertungsprozess umfasst jedoch nur die Auswahl einiger weniger (weniger als 10) Videobildbilder für die Bewertung durch die Diskussionsteilnehmer, und eine vorherige Schulung ist erforderlich. Das Scoring einer großen Anzahl von Beispielbildern kann arbeitsintensiv sein. Um diese zeitaufwändige Herausforderung zu meistern, haben mehrere Studien Techniken des maschinellen Lernens zur Vorhersage des MGS-Wertseingesetzt 21,22. Es ist jedoch wichtig zu beachten, dass es sich bei der MGS um eine kontinuierliche Messung handelt. Daher wäre ein Mehrklassen-Klassifikationsmodell besser geeignet, um ein logisches und kategorisches Problem zu bewerten, wie z. B. die Bestimmung, ob die Bilder von Mäusen, die gleichzeitig Wasabi einnehmen und Alkohol schnüffeln, denen normaler Mäuse ähneln.

In dieser Studie wurde eine Methodik zur Untersuchung der Geschmacks-Geruchs-Interaktion bei Mäusen vorgeschlagen. Diese Methodik kombiniert Verhaltensstudien von Tieren mit einem Convolutional Neural Network (CNN), um die Gesichtsausdrücke der Probanden zu analysieren. Zwei Mäuse wurden dreimal unter normalen Verhaltensbedingungen beobachtet, während der Erfahrung einer Wasabi-induzierten Nozizeption und beim Schnüffeln von Alkohol in einem speziell entwickelten Käfig. Die Gesichtsausdrücke der Mäuse wurden auf Video aufgezeichnet und die generierten Rahmenbilder wurden verwendet, um die Architektur eines Deep-Learning-Modells (DL) zu optimieren. Das Modell wurde dann anhand eines unabhängigen Bilddatensatzes validiert und zur Klassifizierung der von der experimentellen Gruppe aufgenommenen Bilder eingesetzt. Um das Ausmaß der Wasabi-Schärfeunterdrückung zu bestimmen, wenn die Mäuse während des Wasabi-Konsums gleichzeitig Alkohol schnüffelten, wurden die von der künstlichen Intelligenz gewonnenen Erkenntnisse durch eine Kreuzvalidierung mit einer anderen Datenanalysemethode, der MGS-Punktzahlvon 16, weiter bestätigt.

Protokoll

In dieser Studie wurden zwei 7 Wochen alte männliche ICR-Mäuse mit einem Gewicht zwischen 17 und 25 g für die Verhaltensbewertung der Tiere verwendet. Alle Unterbringungs- und Versuchsverfahren wurden vom Komitee der Hong Kong Baptist University für die Verwendung von menschlichen und tierischen Probanden in Lehre und Forschung genehmigt. Der Tierraum wurde bei einer Temperatur von 25 °C und einer Raumfeuchtigkeit von 40%-70% in einem 12-stündigen Hell-Dunkel-Zyklus gehalten.

1. Käfig-Design

  1. Bereiten Sie Acrylnitril-Butadien-Styrolsteine in 3 verschiedenen Abmessungen für den Käfigbau vor: 8 mm x 8 mm x 2 mm, 16 mm x 16 mm x 6 mm und 32 mm x 16 mm x 6 mm.
  2. Bereiten Sie eine Acrylnitril-Butadien-Styrolplatte (312 mm x 147 mm x 2 mm) als Käfigboden vor.
  3. Bereiten Sie eine 239 mm x 107 mm große undurchsichtige Acrylplatte mit einer Dicke von 2 mm vor, die als Bodenplatte verwendet werden soll.
  4. Bereiten Sie eine transparente Acrylplatte von 239 mm x 107 mm mit einer Dicke von 5 mm vor, die als Deckplatte verwendet werden soll.
  5. Bereiten Sie eine transparente Acrylplatte von 107 mm x 50 mm mit einer Dicke von 7 mm vor, die als Anschlussplatte verwendet werden soll.
  6. Konstruieren Sie 2 undurchsichtige Seitenwände, indem Sie die Ziegel bis zu einer Höhe von 54 mm stapeln.
  7. Betten Sie die Acrylplatten in den Käfig auf Acrylnitril-Butadien-Styrolbasis ein, wie in Abbildung 1A dargestellt.
  8. Bereiten Sie eine Chows-Kammer vor, die aus fünf 90 mm x 50 mm großen transparenten Acrylplatten mit einer Dicke von 2 mm besteht, wie in Abbildung 1B dargestellt. Verwenden Sie unter den 5 transparenten Acrylplatten 2 Platten für die Seiten, 1 Platte für die Oberseite, 1 Platte für die Unterseite und 1 Platte für den Anschluss.
  9. Bereiten Sie eine 60 mm x 50 mm x 2 mm große transparente Acrylplatte als Chow-Einführungsplatte vor und legen Sie sie in die Kammer des Chows.

2. Bewertung des Verhaltens von Tieren

  1. Die Wurfgeschwister von 2 7 Wochen alten männlichen ICR-Mäusen leben zusammen in einem regulären Käfig.
  2. Geben Sie den Wurfgeschwistern von 2 Mäusen für eine 1-wöchige Eingewöhnungsphase freien Zugang zu Futterpellets und Leitungswasser.
  3. Nach 1 Woche die Wurfgeschwister von 2 Mäusen mit einer Flasche Ethanol (~40% v/v) einführen.
    HINWEIS: Stellen Sie sicher, dass sie das bereitgestellte wässrige Ethanol nur ad libitum schnüffeln oder inhalieren dürfen, während der Alkoholkonsum eingeschränkt ist.
  4. Führen Sie Verhaltensexperimente mit dem 9 bis 10 Wochen alten Mausmodell und dem transparenten Liegeboxenkäfig durch, der in Abbildung 1A dargestellt ist.
  5. Zerlegen Sie alle Acrylplatten und Acrylnitril-Butadien-Styrolplatten und reinigen Sie sie gründlich. Spülen Sie sie zunächst mindestens 3 Mal mit Reinstwasser ab und trocknen Sie sie dann mit Küchenpapier ab. Besprühen Sie sie anschließend mit 75 % Ethanol und reinigen Sie sie anschließend mit Linsenpapier. Zum Schluss mindestens 15 Minuten an der Luft trocknen lassen.
  6. Wiegen Sie die Mäuse und notieren Sie ihr Körpergewicht vor jeder Wiederholung des Verhaltensexperiments.
  7. Bereiten Sie eine Mischung aus Wasabi und Erdnussbutter frisch zu, indem Sie 1 g handelsübliche Wasabi und 4,5 g Erdnussbutter abwiegen. Mischen Sie sie in einem Plastikbeutel mit Reißverschluss.
    HINWEIS: Aufgrund der Flüchtigkeit der Isothiocyanate im Wasabi ist es wichtig, den handelsüblichen Wasabi in einem -20 °C Gefrierschrank zu lagern.
  8. Wiegen Sie und geben Sie entweder zwei 0,5 g Pasten Erdnussbutter oder eine Mischung aus Wasabi und Erdnussbutter auf die Einführungsplatte, wie in Abbildung 1B, C dargestellt.
  9. Platzieren Sie die vorbereitete Chow-Einführungsplatte in der Kammer der Chows, wie in Abbildung 1B, C dargestellt, um den 2 Mäusen während jeder Videoaufzeichnungssitzung ad libitum Zugang zu Nahrung zu ermöglichen.
  10. Füllen Sie die darunter liegende Rille mit 30 mL Flüssigkeit, entweder reinem Wasser oder Liquor (~42 % v/v Ethanol), um die gleichzeitige Inhalation zu erleichtern, wie in Abbildung 1B, C gezeigt.
  11. Beginnen Sie die Aufnahme mit den Kameras von 2 Smartphones, die auf den Telefonständern an jedem Terminal platziert sind.
    HINWEIS: Die Spezifikationen der Videos lauten wie folgt: Bildbreite, 1920; Rahmenhöhe, 1080; Datenrate, 20745 kbit/s; Bildrate, 30,00 Bilder pro Sekunde (fps).
  12. Setzen Sie die 2 trainierten Wurfgeschwister von Mäusen vorsichtig von oben in die entworfene Plattform für Tierverhaltensstudien ein und sichern Sie den Käfig umgehend mit der oberen Platte.
    HINWEIS: Stellen Sie sicher, dass dieser Schritt innerhalb von 15 s abgeschlossen ist.
  13. Nehmen Sie jedes Video 2-3 Minuten lang auf.
    HINWEIS: Stellen Sie sicher, dass die gesamte Dauer des Experiments, von der Zubereitung der Erdnussbutter-Wasabi-Mischung bis zum Abschluss der Videoaufzeichnung, auf 5 Minuten begrenzt ist.
  14. Wiederholen Sie das gesamte Experiment 3 Mal.
    HINWEIS: Stellen Sie sicher, dass jede Wiederholung des Experiments mindestens 6 Stunden lang getrennt ist.
  15. Ahmen Sie verschiedene Szenarien nach.
    HINWEIS: Zum Beispiel wurde in dieser Arbeit ein Paar Mäuse in 4 Gruppen mit 4 verschiedenen Szenarien verwendet, die unter Verwendung der oben beschriebenen Versuchsumgebung nachgeahmt wurden. Zu diesen Szenarien gehören Szenario A für die Hintergrundstudie, Szenario B für die Positivkontrollstudie, Szenario C für die Geschmacks-Geruchs-Interaktionsstudie zwischen Wasabi und Alkohol und Szenario D für die Negativkontrollstudie. Tabelle 1 enthält eine Zusammenfassung dieser Szenarien.

3. Bilderkennung

Ähnlich wie bei vielen Studien zur Bildverarbeitung 23,24,25 wurde ein Klassifikationsmodell durch das Training eines CNN erreicht. Das Skript für DL-Operationen wurde in Python v.3.10 auf Jupyter Notebook (anaconda3) geschrieben. Es ist im folgenden GitHub-Repository verfügbar: git@github.com:TommyNHL/imageRecognitionJove.git. Um das CNN zu erstellen und zu trainieren, wurden Open-Source-Bibliotheken verwendet, darunter numpy v.1.21.5, seaborn v.0.11.2, matplotlib v.3.5.2, cv2 v.4.6.0, sklearn v.1.0.2, tensorflow v.2.11.0 und keras v.2.11.0. Diese Bibliotheken stellten die notwendigen Werkzeuge und Funktionen bereit, um CNN für die Bilderkennung zu entwickeln und zu trainieren.

  1. Exportieren Sie eine Reihe von Videoframebildern aus den gesammelten Videoclips, um mithilfe des bereitgestellten Jupyter Notebook mit dem Namen Step1_ExtractingAndSavingVideoFrameImages.ipynb ein Dataset für das Modelltraining zu generieren.
  2. Wählen Sie die Bilder nur mit mindestens 1 Maus aus, die die bereitgestellte Paste verwendet. Beispiele für die ausgewählten Bilder finden Sie in der ergänzenden Abbildung 1, der ergänzenden Abbildung 2, der ergänzenden Abbildung 3, der ergänzenden Abbildung 4, der ergänzenden Abbildung 5, der ergänzenden Abbildung 6 und der ergänzenden Abbildung 7.
  3. Führen Sie eine Datenerweiterung durch, indem Sie die generierten Bilder horizontal spiegeln, indem Sie das im Jupyter Notebook bereitgestellte Skript mit dem Namen Step2_DataAugmentation.ipynb implementieren.
  4. Reservieren Sie die Bilddaten von jedem zweiten Replikat für die externe, unabhängige CNN-Modellvalidierung. Verwenden Sie die Bilder von jeder ersten und dritten Replizierung für internes Modelltraining und Tests.
  5. Verarbeiten Sie die in der CNN-Modellierung verwendeten Bilddaten vor, indem Sie das Skript im Jupyter Notebook mit dem Namen Step3_CNNmodeling_TrainTest.ipynb ausführen, einschließlich Bildgrößenänderung, Schwarztonkonvertierung und Normalisierung des Bildsignals.
  6. Teilen Sie die Schulungsunterlagen nach dem Zufallsprinzip in interne Schulungs- und Testdatensätze im Verhältnis 8:2 auf.
  7. Initialisieren Sie die Architektur für CNN. Entwerfen Sie die Anzahl der Ausgaben von CNN basierend auf der Anzahl der zu untersuchenden Szenarien.
    HINWEIS: In dieser Studie wurde beispielsweise das neuronale Netz zur Klassifizierung von 3 Klassen bestimmt. Stellen Sie sicher, dass das Skript für die Behandlung von Datenungleichgewichten bei der Klassengewichtung kompiliert ist.
  8. Finden Sie die Hyperparameterkombination, die bei den internen Testmustern für die CNN-Konstruktion zu minimalen Verlusten führt.
  9. Nehmen Sie die optimale Hyperparameterkombination für die Erstellung der CNN-Architektur an.
  10. Öffnen Sie die bereitgestellten Jupyter Notebooks-Step4_CNNmodel_ExternalValOriginal.ipynb und Step5_CNNmodel_ExternalValFlipped.ipynb. Validieren Sie das erhaltene Modell anhand der unabhängigen (ursprünglichen und gespiegelten) Bilder aus der zweiten Replik des Tierverhaltensexperiments.
  11. Stellen Sie das erreichte und validierte Modell zum Klassifizieren der Videoframebilder bereit, die aus der experimentellen Gruppe mit Jupyter Notebook Step6_CNNmodel_Application.ipynb generiert wurden.
    HINWEIS: Zum Beispiel ist es Szenario C in dieser Arbeit.

4. Manuelle Bewertung der Maus-Grimasse-Skala

HINWEIS: Um die Erkenntnisse aus der Vorhersage des CNN-Modells zu validieren, wurde eine andere Methode angewendet, die zuvor von Langford et al. entwickelt und validiert wurde16. Bei dieser Methode wird das MGS basierend auf den 5 spezifischen Maus-Gesichtsaktionseinheiten (AUs) bewertet: Orbitastraffung, Nasenwölbung, Wangenwölbung, nach außen zusammenziehende Ohren und Schnurrhaarveränderung. Jeder AU wird eine Punktzahl von 0, 1 oder 2 zugewiesen, die das Fehlen, das mäßige Vorhandensein bzw. das offensichtliche Vorhandensein des AU angibt. Dieses Bewertungssystem ermöglicht die Quantifizierung und Skalierung jeder AU, um das Ausmaß der Nozizeption oder des Unbehagens der Mäuse zu bewerten.

  1. Nehmen Sie 3 Videobilder auf, auf denen die Wurfgeschwister die Paste für jeden Videoclip aufnehmen. Stellen Sie sicher, dass jedes Bild mindestens 3 Sekunden voneinander entfernt ist.
  2. Blinden Sie Code und ordnen Sie Bilder aus verschiedenen Klassen von Szenarien nacheinander nach dem Zufallsprinzip neu an, indem Sie die bereitgestellte Vorlagendatei mit dem Namen "shuffleSlides.pptm" (Ergänzende Datei 1) verwenden und den eingebetteten Makrocode ausführen.
  3. Laden Sie mindestens 10 Diskussionsteilnehmer ein, die Beispielbilder zu bewerten.
  4. Trainieren Sie die Diskussionsteilnehmer darin, Bildbeispiele mit dem MGS zu bewerten. Stellen Sie den Diskussionsteilnehmern Schulungsmaterialien zur Verfügung, die den Originalartikel über MGS und sein Handbuch enthalten15,16.
  5. Berechnen Sie den MGS-Score jedes Tieres in einem aufgenommenen Frame, indem Sie alle Score-Punkte der entsprechenden 5 Gesichts-AUs mitteln. Stellen Sie den MGS-Score als Mittelwert ± Standardmessfehler (SEM) dar.
  6. Bestimmen Sie, ob statistisch signifikante Unterschiede zwischen verschiedenen Klassen von Szenarien bestehen, indem Sie eine Einweg-Varianzanalyse (ANOVA) mit dem Post-hoc-Test des Mehrfachvergleichs von Bonferroni durchführen.
    HINWEIS: Ein Wert von P < 0,05 gilt als statistisch signifikant.

Ergebnisse

Das Hauptziel dieser Studie ist es, einen robusten Rahmen für die Untersuchung der Geschmacks-Geruchs-Interaktion bei Mäusen zu schaffen. Dieses Framework beinhaltet den Einsatz von künstlicher Intelligenz und QBA, um ein prädiktives Klassifizierungsmodell zu entwickeln. Darüber hinaus werden die aus DL gewonnenen Erkenntnisse mit einer quantitativen MGS-Bewertung für eine interne unabhängige Analyse kreuzvalidiert. Die primäre Anwendung dieser Methodik besteht darin, das Ausmaß der Unterdrückung der durch Wasa...

Diskussion

Die in dieser Arbeit vorgeschlagene Methode zur Untersuchung der Geschmacks-Geruchs-Interaktion basiert auf der ursprünglichen Methode der Verhaltenskodierung für den Gesichtsausdruck von Schmerzen bei Mäusen, die von Langford et al.16 entwickelt wurde. Mehrere kürzlich veröffentlichte Artikel haben CNN für die automatische Mausgesichtsverfolgung und die anschließende MGS-Bewertung von 21,26,27,28 eingeführt.

Offenlegungen

Die Autoren erklären, dass keine Interessenkonflikte bestehen.

Danksagungen

Z. Cai bedankt sich für die finanzielle Unterstützung durch den Kwok Chung Bo Fun Charitable Fund für die Einrichtung des Kwok Yat Wai Stiftungslehrstuhls für Umwelt- und biologische Analyse.

Materialien

NameCompanyCatalog NumberComments
Absolute ethanol (EtOH)VWR Chemicals BDHCAS# 64-17-5
Acrylonitrile butadiene styrene bricksJiahuifeng Flagship Storehttps://shop.paizi10.com/jiahuifeng/chanpin.html
Acrylonitrile butadiene styrene platesJiahuifeng Flagship Storehttps://shop.paizi10.com/jiahuifeng/chanpin.html
Allyl isothiocyanate (AITC)Sigma-AldrichCAS# 57-06-7
Anhydrous dimethyl sulfoxideSigma-AldrichCAS# 67-68-5
Chinese spiritYanghe Qingcihttps://www.chinayanghe.com/article/45551.html
Commercial wasabiS&B FOODS INC.https://www.sbfoods-worldwide.com
Formic acid (FA)VWR Chemicals BDHCAS# 64-18-6
GraphPad Prism 5GraphPadhttps://www.graphpad.com
HPLC-grade acetonitrile (ACN)VWR Chemicals BDHCAS# 75-05-8
HPLC-grade methanol (MeOH)VWR Chemicals BDHCAS# 67-56-1
Microsoft Excel 2016Microsofthttps://www.microsoft.com 
Microsoft PowerPoint 2016Microsofthttps://www.microsoft.com
Milli-Q water systemMilliporehttps://www.merckmillipore.com
Mouse: ICRLaboratory Animal Services Centre (The Chinese University of Hong Kong, Hong Kong, China)N/A
Peanut butterSkippyhttps://www.peanutbutter.com/peanut-butter/creamy
Python v.3.10Python Software Foundationhttps://www.python.org 
Transparent acrylic platesTaobao Storehttps://item.taobao.com/item.htm?_u=32l3b7k63381&id=60996545797
0&spm=a1z09.2.0.0.77572e8dFPM
EHU

Referenzen

  1. Isshiki, K., Tokuoka, K., Mori, R., Chiba, S. Preliminary examination of allyl isothiocyanate vapor for food preservation. Biosci Biotechnol Biochem. 56 (9), 1476-1477 (1992).
  2. Li, X., Wen, Z., Bohnert, H. J., Schuler, M. A., Kushad, M. M. Myrosinase in horseradish (Armoracia rusticana) root: Isolation of a full-length cDNA and its heterologous expression in Spodoptera frugiperda insect cells. Plant Sci. 172 (6), 1095-1102 (2007).
  3. Depree, J. A., Howard, T. M., Savage, G. P. Flavour and pharmaceutical properties of the volatile sulphur compounds of Wasabi (Wasabia japonica). Food Res Int. 31 (5), 329-337 (1998).
  4. Hu, S. Q., Wei, W. Study on extraction of wasabi plant material bio-activity substances and anti-cancer activities. Adv Mat Res. 690 - 693, 1395-1399 (2013).
  5. Lee, H. -. K., Kim, D. -. H., Kim, Y. -. S. Quality characteristics and allyl isothiocyanate contents of commercial wasabi paste products. J Food Hyg Saf. 31 (6), 426-431 (2016).
  6. Bacon, T. Wine, wasabi and weight loss: Examining taste in food writing. Food Cult Soc. 17 (2), 225-243 (2014).
  7. Fleming, P. A., et al. The contribution of qualitative behavioural assessment to appraisal of livestock welfare. Anim Prod Sci. 56, 1569-1578 (2016).
  8. Shi, X., et al. Behavioral assessment of sensory, motor, emotion, and cognition in rodent models of intracerebral hemorrhage. Front Neurol. 12, 667511 (2021).
  9. Stevenson, R. J., Prescott, J., Boakes, R. A. Confusing tastes and smells: How odours can influence the perception of sweet and sour tastes. Chem Senses. 24 (6), 627-635 (1999).
  10. Pfeiffer, J. C., Hollowood, T. A., Hort, J., Taylor, A. J. Temporal synchrony and integration of sub-threshold taste and smell signals. Chem Senses. 30 (7), 539-545 (2005).
  11. Simons, C. T., Klein, A. H., Carstens, E. Chemogenic subqualities of mouthfeel. Chem Senses. 44 (5), 281-288 (2019).
  12. Andrade, E. L., Luiz, A. P., Ferreira, J., Calixto, J. B. Pronociceptive response elicited by TRPA1 receptor activation in mice. Neuroscience. 152 (2), 511-520 (2008).
  13. Palazzo, E., Marabese, I., Gargano, F., Guida, F., Belardo, C., Maione, S. Methods for evaluating sensory, affective and cognitive disorders in neuropathic rodents. Curr Neuropharmacol. 19 (6), 736-746 (2020).
  14. Topley, M., Crotty, A. M., Boyle, A., Peller, J., Kawaja, M., Hendry, J. M. Evaluation of motor and sensory neuron populations in a mouse median nerve injury model. J Neurosci Methods. 396, 109937 (2023).
  15. Langford, D. J., et al. . Mouse Grimace Scale (MGS): The Manual. , (2015).
  16. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  17. Liu, H., Fang, S., Zhang, Z., Li, D., Lin, K., Wang, J. MFDNet: Collaborative poses perception and matrix Fisher distribution for head pose estimation. IEEE Trans Multimedia. 24, 2449-2460 (2022).
  18. Liu, T., Wang, J., Yang, B., Wang, X. NGDNet: Nonuniform Gaussian-label distribution learning for infrared head pose estimation and on-task behavior understanding in the classroom. Neurocomputing. 436, 210-220 (2021).
  19. Liu, T., Liu, H., Yang, B., Zhang, Z. LDCNet: Limb direction cues-aware network for flexible human pose estimation in industrial behavioral biometrics systems. IEEE Trans Industr Inform. 20 (6), 8068-8078 (2023).
  20. Grant, E. P., et al. What can the quantitative and qualitative behavioural assessment of videos of sheep moving through an autonomous data capture system tell us about welfare. Appl Anim Behav Sci. 208, 31-39 (2018).
  21. Vidal, A., Jha, S., Hassler, S., Price, T., Busso, C. Face detection and grimace scale prediction of white furred mice. Mach Learn Appl. 8, 100312 (2022).
  22. Zylka, M. J., et al. Development and validation of Painface, A software platform that simplifies and standardizes mouse grimace analyses. J Pain. 24 (4), 35-36 (2023).
  23. Liu, H., Zhang, C., Deng, Y., Liu, T., Zhang, Z., Li, Y. F. Orientation cues-aware facial relationship representation for head pose estimation via Transformer. IEEE Trans Image Process. 32, 6289-6302 (2023).
  24. Liu, H., Liu, T., Chen, Y., Zhang, Z., Li, Y. F. EHPE: Skeleton cues-based Gaussian coordinate encoding for efficient human pose estimation. IEEE Trans Multimedia. , (2022).
  25. Liu, H., et al. TransIFC: Invariant cues-aware feature concentration learning for efficient fine-grained bird image classification. IEEE Trans Multimedia. , (2023).
  26. Akkaya, I. B., Halici, U. Mouse face tracking using convolutional neural networks. IET Comput Vis. 12 (2), 153-161 (2018).
  27. Andresen, N., et al. Towards a fully automated surveillance of well-being status in laboratory mice using deep learning: Starting with facial expression analysis. PLoS One. 15 (4), e0228059 (2020).
  28. Ernst, L., et al. Improvement of the mouse grimace scale set-up for implementing a semi-automated Mouse Grimace Scale scoring (Part 1). Lab Anim. 54 (1), 83-91 (2020).
  29. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  30. Lencioni, G. C., de Sousa, R. V., de Souza Sardinha, E. J., Corrêa, R. R., Zanella, A. J. Pain assessment in horses using automatic facial expression recognition through deep learning-based modeling. PLoS One. 16 (10), e0258672 (2021).
  31. Steagall, P. V., Monteiro, B. P., Marangoni, S., Moussa, M., Sautié, M. Fully automated deep learning models with smartphone applicability for prediction of pain using the Feline Grimace Scale. Sci Rep. 13, 21584 (2023).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

Diesen Monat in JoVEAusgabe 210

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten