JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

In der vorliegenden Studie wurden U-Net und andere Deep-Learning-Algorithmen verwendet, um ein Zungenbild zu segmentieren, und die Segmentierungsergebnisse verglichen, um die Objektivierung der Zungendiagnose zu untersuchen.

Zusammenfassung

Die Zungendiagnose ist eine wesentliche Technik der Diagnostik der Traditionellen Chinesischen Medizin (TCM), und der Bedarf an der Objektivierung von Zungenbildern durch Bildverarbeitungstechnologie wächst. Die vorliegende Studie gibt einen Überblick über die Fortschritte bei der Objektivierung der Zunge in den letzten zehn Jahren und vergleicht Segmentierungsmodelle. Es werden verschiedene Deep-Learning-Modelle konstruiert, um Algorithmen anhand von echten Zungenbildsätzen zu verifizieren und zu vergleichen. Die Stärken und Schwächen jedes Modells werden analysiert. Die Ergebnisse deuten darauf hin, dass der U-Net-Algorithmus andere Modelle in Bezug auf die Metriken "Precision Accuracy" (PA), "Recall" und "Mean Intersection over Union" (MIoU) übertrifft. Trotz der erheblichen Fortschritte bei der Aufnahme und Verarbeitung von Zungenbildern muss sich jedoch noch ein einheitlicher Standard für die objektivierende Zungendiagnose etablieren. Um die breite Anwendung von Zungenbildern, die mit mobilen Geräten aufgenommen wurden, bei der Objektivierung der Zungendiagnose zu erleichtern, könnte sich die weitere Forschung mit den Herausforderungen befassen, die sich aus Zungenbildern ergeben, die in komplexen Umgebungen aufgenommen werden.

Einleitung

Die Zungenbeobachtung ist eine weit verbreitete Technik in der traditionellen chinesischen ethnischen Medizin (TCM). Die Farbe und Form der Zunge kann den körperlichen Zustand und verschiedene Krankheitseigenschaften, Schweregrade und Prognosen widerspiegeln. In der traditionellen Hmong-Medizin wird beispielsweise die Farbe der Zunge verwendet, um die Körpertemperatur zu bestimmen, z. B. weist eine rote oder violette Zunge auf pathologische Faktoren im Zusammenhang mit Hitze hin. In der tibetischen Medizin wird ein Zustand beurteilt, indem die Zunge eines Patienten beobachtet wird, wobei auf die Farbe, Form und Feuchtigkeit des Schleims geachtet wird. Zum Beispiel werden die Zungen von Patienten mit Morbus Heyi rot und rau oder schwarz und trocken1; Patienten mit Morbus Xieri2 haben gelbe und trockene Zungen; Patienten mit Badakan-Krankheit3 haben eine weiße, feuchte und weiche Zunge4. Diese Beobachtungen zeigen den engen Zusammenhang zwischen den Merkmalen der Zunge und der Physiologie und Pathologie. Insgesamt spielt der Zustand der Zunge eine wichtige Rolle bei der Diagnose, der Identifizierung von Krankheiten und der Bewertung des Behandlungseffekts.

Gleichzeitig sind aufgrund der unterschiedlichen Lebensbedingungen und Ernährungspraktiken der verschiedenen ethnischen Gruppen Unterschiede in den Zungenbildern offensichtlich. Das Lab-Modell, das auf der Grundlage eines internationalen Standards für die Bestimmung der Farbe festgelegt wurde, wurde 1931 von der Commission International Eclairage (CIE) formuliert. 1976 wurde ein Farbmuster modifiziert und benannt. Das Lab-Farbmodell setzt sich aus drei Elementen zusammen: L entspricht der Helligkeit, während a und b zwei Farbkanäle sind. a umfasst Farben von Dunkelgrün (niedriger Helligkeitswert) über Grau (mittlerer Helligkeitswert) bis hin zu hellem Pink (hoher Helligkeitswert); b wechselt von hellblau (niedriger Helligkeitswert) über Grau (mittlerer Helligkeitswert) bis gelb (hoher Helligkeitswert). Durch den Vergleich der L x a x b-Werte der Zungenfarbe von fünf ethnischen Gruppen stellten Yang et al.5 fest, dass sich die Merkmale der Zungenbilder der Hmong-, Hui-, Zhuang-, Han- und mongolischen Gruppen signifikant voneinander unterschieden. Zum Beispiel haben die Mongolen dunkle Zungen mit einem gelben Zungenbelag, während die Hmong helle Zungen mit einem weißen Zungenbelag haben, was darauf hindeutet, dass Zungenmerkmale als diagnostischer Indikator zur Beurteilung des Gesundheitszustands einer Bevölkerung verwendet werden können. Darüber hinaus können Zungenbilder als Bewertungsindex für evidenzbasierte Medizin in der klinischen Forschung der ethnischen Medizin fungieren. Er et al.6 nutzten Zungenbilder als Grundlage für die TCM-Diagnose und bewerteten systematisch die Sicherheit und Wirksamkeit von Chou-Ling-Dan-Pellets (CLD-Granulat zur Behandlung von entzündlichen und fieberhaften Erkrankungen, einschließlich der saisonalen Influenza in der TCM) in Kombination mit chinesischer und westlicher Medizin. Die Ergebnisse belegen die wissenschaftliche Validität von Zungenbildern als Bewertungsindex für klinische Studien. Nichtsdestotrotz verlassen sich traditionelle Mediziner im Allgemeinen auf Subjektivität, um die Eigenschaften der Zunge zu beobachten und den physiologischen und pathologischen Zustand der Patienten zu beurteilen, was genauere Indikatoren erfordert.

Das Aufkommen des Internets und der Technologie der künstlichen Intelligenz hat den Weg für die Digitalisierung und Objektivierung der Zungendiagnose geebnet. Dieser Prozess beinhaltet die Verwendung mathematischer Modelle, um eine qualitative und objektive Beschreibung von Zungenbildern7 zu liefern, die den Inhalt des Zungenbildes widerspiegelt. Der Prozess umfasst mehrere Schritte: Bildaufnahme, optische Kompensation, Farbkorrektur und geometrische Transformation. Die vorverarbeiteten Bilder werden dann in ein algorithmisches Modell zur Bildpositionierung und -segmentierung, Merkmalsextraktion, Mustererkennung usw. eingespeist. Das Ergebnis dieses Prozesses ist eine hocheffiziente und präzise Diagnose von Zungenbilddaten, wodurch das Ziel der Objektivierung, Quantifizierung und Informatisierung der Zungendiagnoseerreicht wird 8. Damit wird das Ziel einer hocheffizienten und hochpräzisen Verarbeitung von Zungendiagnosedaten erreicht. Basierend auf dem Wissen über die Zungendiagnose und der Deep-Learning-Technologie wurden in dieser Studie mithilfe eines Computeralgorithmus automatisch der Zungenkörper und der Zungenbelag von den Zungenbildern getrennt, um die quantitativen Merkmale der Zungen für Ärzte zu extrahieren, die Zuverlässigkeit und Konsistenz der Diagnose zu verbessern und Methoden für die anschließende Forschung zur Objektivierung der Zungendiagnose bereitzustellen9.

Protokoll

Diese Studie wurde von der National Natural Science Foundation of China genehmigt, das Projekt "Constructing Dynamic Change rules of TCM Facial image Based on Association Analysis". Die Ethikgenehmigungsnummer lautet 2021KL-027, und die Ethikkommission hat die klinische Studie genehmigt, die in Übereinstimmung mit den genehmigten Dokumenten durchgeführt werden soll, die das klinische Forschungsprotokoll (2021.04.12, V2.0), die Einwilligungserklärung (2021.04.12, V2.0), Materialien zur Rekrutierung von Probanden (2021.04.12, V2.0), Studienfälle und/oder Fallberichte, Tagebuchkarten und andere Fragebögen (2021.04.12, V2.0), eine Liste der Teilnehmer an der klinischen Studie, Bewilligung von Forschungsprojekten usw. Die an der Studie teilnehmenden Patienten wurden eingeholt. Der primäre experimentelle Ansatz dieser Studie besteht darin, reale Zungenbilder zu verwenden, um die Segmentierungseffekte des Modells zu validieren und zu vergleichen. Abbildung 1 zeigt die Komponenten der Objektivierung der Zungendiagnose.

1. Bildaufnahme

  1. Verwenden Sie das selbst entwickelte tragbare linguale Gesichtsdiagnoseinstrument, um linguale Gesichtsbilder von Patienten zu sammeln.
  2. Geben Sie den Namen, das Geschlecht, das Alter und die Krankheit des Patienten auf der Computerseite ein. Die hier gezeigten Bilder stammen von Patienten, die in die Klinik kamen und sich bereit erklärten, fotografiert zu werden, nachdem sie über den Zweck und den Inhalt der Studie informiert wurden. Vergewissern Sie sich, dass der Patient aufrecht sitzt, legen Sie das ganze Gesicht in das Bilderfassungsgerät und weisen Sie den Patienten an, seine Zunge so weit wie möglich aus dem Mund zu strecken.
  3. Halten Sie das Bildeinzugsgerät an einen Computer angeschlossen und überprüfen Sie anhand der Bilder auf dem Computerbildschirm, ob sich der Patient in der richtigen Position befindet und ob die Zunge und das Gesicht vollständig freiliegen.
  4. Drücken Sie die Aufnahmetaste auf dem Computerbildschirm dreimal, um drei Bilder aufzunehmen.
    HINWEIS: Das Bilderfassungsgerät befindet sich derzeit nur in der Patentanmeldephase und ist nicht für die kommerzielle Nutzung bestimmt, daher wird es nicht zum Verkauf angeboten.
  5. Wählen Sie die gesammelten Zungen- und Gesichtsbilder manuell aus und filtern Sie sie. Filtern und schließen Sie Bilder aus, die eine unvollständige Zungen- und Gesichtsbelichtung aufweisen, sowie Bilder, die aufgrund unzureichenden Lichts zu dunkel sind. Abbildung 2 zeigt die Bilderfassungsseite der Software.
  6. Sammeln Sie in der Versuchsplanung als Alternative drei Bilder von jedem Patienten gleichzeitig und wählen Sie ein relativ standardmäßiges, vollständig belichtetes, gut ausgeleuchtetes und klares Bild als Stichprobe für das anschließende Algorithmustraining und die Tests aus.
  7. Sammeln Sie Daten nach der Aufnahme, exportieren Sie die Daten für die manuelle Überprüfung und löschen Sie die nicht standardmäßigen Bilder, die mit bloßem Auge sichtbar sind. Verwenden Sie die folgenden Filter- und Ausschlusskriterien: unvollständige Zungen- und Gesichtsbelichtung und Bilder, die aufgrund von unzureichendem Licht zu dunkel sind. Ein Beispiel für ein unterbeleuchtetes, ein unvollständiges und ein Standardbild ist in Abbildung 3 dargestellt.
    HINWEIS: Unzureichendes Licht wird in der Regel dadurch verursacht, dass der Patient das Gesicht nicht vollständig in das Instrument legt. Eine vollständige Belichtung wird in der Regel nur durch korrektes Fotografieren des Patienten erreicht.

2. Segmentierung der Zunge

  1. Führen Sie die Segmentierung von Zungenbildern mit einem Online-Anmerkungstool durch, wie unten beschrieben.
    1. Installieren Sie Labelme, klicken Sie auf die Schaltfläche Öffnen in der oberen linken Ecke der Etikettenoberfläche, wählen Sie den Ordner aus, in dem sich das Bild befindet, und öffnen Sie die Fotos.
    2. Klicken Sie auf Polygon erstellen , um Tracking-Punkte zu starten, verfolgen Sie die Zungen- und Zungenformen, benennen Sie sie entsprechend den ausgewählten Bereichen (z. B. Zunge und Zungenoberfläche) und speichern Sie sie.
    3. Wenn alle Markierungen vollständig sind, klicken Sie auf Speichern , um das Bild im Datenordner zu speichern. In Abbildung 4 finden Sie ein detailliertes Flussdiagramm.
      HINWEIS: Da die Bilder Pixelunterschiede aufweisen können, können die Bilder nicht direkt für das Training und Testen von Algorithmen verwendet werden.
  2. Vereinheitlichen Sie die Bilder auf die gleiche Größe, indem Sie die Bilder mit der langen Seite des Bildes als Zielfülllänge füllen und die Bilder mit weißen Kanten füllen, um die Bilder zu einem Quadrat zu füllen, wobei die lange Seite des Bildes die Kantenlänge ist. Die vom Gerät erfasste Bildgröße beträgt 1080 x 1920 Pixel und die Größe des gefüllten Bildes 1920 x 1920 Pixel. Siehe Abbildung 5.
  3. Wenden Sie bei Bedarf Bildverbesserungen an. In dieser Studie wurde keine Verbesserung vorgenommen, da die verwendeten Bilder in einer festen Szene aufgenommen wurden und weniger von der Umgebung, der Beleuchtung und anderen Faktoren beeinflusst wurden.
  4. Da während des Aufnahmeprozesses für jeden Patienten drei Bilder aufgenommen wurden, um unkontrollierbare Faktoren wie das Blinzeln des Motivs und das Blockieren des Objektivs zu berücksichtigen, sollten Sie die Bilder jedes Patienten manuell überprüfen, um ein Bild pro Patient zu erhalten.
  5. Sammeln Sie zum Trainieren des Modells Daten von 200 Personen oder 600 Bildern. Behalten Sie nach der Vorführung etwa 200 brauchbare Bilder.
  6. Teilen Sie je nach Bildnummer alle Zungenbilder nach dem Zufallsprinzip auf und platzieren Sie 70 % davon in den Trainingssatz und 30 % in den Testsatz in einer Tabelle.

3. Klassifizierung der Zunge

  1. Gehen Sie auf die offiziellen Websites und laden Sie Anaconda, Python und Labelme herunter und installieren Sie sie. Aktivieren Sie die Umgebung und schließen Sie die Installation und Anpassung der Gesamtumgebung ab. In Abbildung 6 finden Sie ein Flussdiagramm, das die Installation und Einrichtung der Software beschreibt.
  2. Erstellen Sie das Deep-Learning-Algorithmusmodell in der installierten Umgebung, optimieren Sie die Parameter, und schließen Sie das Modelltraining mit dem Trainingssatz ab. Führen Sie die Modellauswahl und -optimierung wie in den folgenden Schritten beschrieben durch.
    1. Modellauswahl: Wählen Sie das geeignete Modell basierend auf dem Zweck der Recherche aus. Nach einer Überprüfung der Forschung zur Bildverarbeitung von Zungen in den letzten 5 Jahren wurden vier Algorithmen, U-Net, Seg-Net, DeeplabV3 und PSPNet, für die Validierung in dieser Studie ausgewählt (siehe Supplementary Coding File 1, Supplementary Coding File 2, Supplementary Coding File 3 und Supplementary Coding File 4 für Modellcodes).
    2. Datensatzkonstruktion: Nach Abschluss der Modellauswahl konstruieren Sie den benötigten Datensatz in Verbindung mit den Forschungsinhalten, hauptsächlich unter Verwendung der Labelme-Annotation und der oben beschriebenen Methoden der einheitlichen Bildgröße.
  3. Führen Sie das Modelltraining wie unten beschrieben durch. Abbildung 7 zeigt Details des Algorithmus-Trainingsvorgangs.
    1. Geben Sie die Daten zur Vorwärtsausbreitung in das neuronale Netzwerk ein, wobei jedes Neuron zuerst eine gewichtete Ansammlung von Werten eingibt und dann eine Aktivierungsfunktion als Ausgabewert dieses Neurons eingibt, um das Ergebnis zu erhalten.
    2. Geben Sie das Ergebnis in die Fehlerfunktion ein und vergleichen Sie es mit dem erwarteten Wert, um den Fehler zu erhalten und den Grad der fehlerhaften Erkennung zu beurteilen. Je kleiner die Verlustfunktion ist, desto besser ist das Modell.
    3. Reduzieren Sie den Fehler durch Backpropagation und bestimmen Sie den Gradientenvektor. Passen Sie die Gewichtungen anhand des Verlaufsvektors an den Trend zu den Ergebnissen an, sodass der Fehler gegen Null tendiert oder schrumpft.
    4. Wiederholen Sie diesen Trainingsvorgang, bis der Satz abgeschlossen ist oder der Fehlerwert nicht mehr abnimmt, woraufhin das Modelltraining abgeschlossen ist. In Abbildung 8 finden Sie ein Flussdiagramm des Algorithmusmodells beim Trainieren und Testen.
  4. Testen Sie die vier Modelle mit denselben Testdaten für die Segmentierung, und beurteilen Sie die Modellleistung anhand des Segmentierungseffekts. Die vier Metriken Precision, Recall, Mean Pixel Accuracy (MPA) und MIoU ermöglichen eine umfassendere Bewertung der Modellleistung.
  5. Nachdem die Ergebnisse der vier Modelle generiert wurden, vergleichen Sie ihre Werte horizontal. Je höher der Wert ist, desto höher ist die Segmentierungsgenauigkeit und desto besser ist die Leistung des Modells. Siehe Abbildung 9, Abbildung 10 und Abbildung 11.

Ergebnisse

Die Vergleichsergebnisse finden Sie in Abbildung 12, Abbildung 13 und Tabelle 1, in denen in der in dieser Studie erstellten Umgebung dieselben Stichproben zum Trainieren und Testen des Algorithmusmodells verwendet werden. MIoU-Indikator: U-Net > Seg-Net > PSPNet > DeeplabV3; MPA-Indikator: U-Net > Seg-Net > PSPNet > DeeplabV3; Präzisionsanzeige: U-Net > Seg-Net > DeeplabV3 > PSPNet; Rückruf: U-Net > Seg-Net > PSPNet > DeeplabV3. Je größer ...

Diskussion

Anhand der oben dargestellten Vergleichsergebnisse wird deutlich, dass die Charakteristika der vier betrachteten Algorithmen unterschiedlich sind und ihre unterschiedlichen Vor- und Nachteile im Folgenden beschrieben werden. Die U-Net-Struktur, die auf der Modifikation und Erweiterung eines vollständigen Faltungsnetzwerks basiert, kann Kontextinformationen und eine präzise Positionierung durch einen kontrahierenden Pfad und einen symmetrischen Expansionspfad erhalten. Durch die Klassifizierung jedes Pixelpunkts erreich...

Offenlegungen

Die Autoren haben keinen Interessenkonflikt zu erklären.

Danksagungen

Diese Arbeit wurde von der National Nature Foundation of China (Grant Nr. 82004504), dem National Key Research and Development Program des Ministeriums für Wissenschaft und Technologie der China (Grant Nr. 2018YFC1707606), der Chinese Medicine Administration of Sichuan Province (Grant Nr. 2021MS199) und der National Nature Foundation of China (Grant Nr. 82174236) unterstützt.

Materialien

NameCompanyCatalog NumberComments
CPUIntel(R) Core(TM) i7-9700K
GPU NVIDIA GeForce RTX 3070 Ti (8192MB)
Operating systemsMicrosoft Windows 10 Professional Edition (64-bit)
Programming languagePython
RAM16G

Referenzen

  1. Jiu, G., et al. Effects of herbal therapy on intestinal microbiota and serum metabolomics in different rat models of Mongolian medicine. Evidence-Based Complementary and Alternative. 2022, 7255780 (2022).
  2. Xi, J., Xin, Y., Teregle, Study on the correlation between the animal model of Mongolian medicine 34;Xieri disease" and serum ALT and AST. Electronic Journal of Cardiovascular Diseases in Combination of Traditional Chinese. 4 (33), 134-135 (2016).
  3. Yin, L., et al. Study on the mechanism of serum differential protein changes in bronchial asthma based on proteomics. Chinese Journal of Traditional Chinese Medicine. 47 (22), 6227-6234 (2022).
  4. Wang, X. H., Bao, L. Band Seed. The origin and development of tongue diagnosis in Mongolian medicine. Chinese Ethnic Folk Medicine. (1), 64-65 (2008).
  5. Yang, S., et al. A comparative study on the feature parameters of tongue diagnosis images in five nationalities. Chinese Journal of Traditional Chinese Medicine. 36 (11), 6428-6430 (2021).
  6. He, J. Y., et al. Efficacy and safety of Chou-Ling-Dan granules in the treatment of seasonal influenza via combining Western and traditional Chinese medicine, protocol for a multicentre, randomised controlled clinical trial. BMJ Open. 9 (4), e024800 (2019).
  7. Wang, D. J., et al. Scientific knowledge mapping and visualization analysis in the field of Chinese medicine tongue feature objectification research. World Science and Technology - Modernization of Chinese Medicine. 23 (9), 3032-3040 (2021).
  8. Yuan, S. M., Qian, P., Li, F. F. Research progress of color correction methods for tongue and face diagnosis in traditional Chinese Medicine. Chinese Journal of Traditional Chinese Medicine. 34 (9), 4183-4185 (2019).
  9. Kanawong, R., et al. Tongue image analysis and its mobile app development for health diagnosis. Advances in Experimental Medicine and Biology. 1005, 99-121 (2017).
  10. Yu, Y., et al. Semantic segmentation evaluation index and evaluation method. Computer Engineering and Application. , (2023).
  11. Sehyung, L., Negishi, M., Urakubo, H., Kasai, H., Ishii, S. Mu-net: Multi-scale U-net for two-photon microscopy image denoising and restoration. Neural Networks. 125, 92-103 (2020).
  12. Huang, X. M., et al. A review on the application of U-Net and its variants in medical image segmentation. Chinese Journal of Biomedical Engineering. 41 (5), 567-576 (2022).
  13. Lu, J. H., Xu, Y. F., Wang, Y. Q., Hao, Y. M. Research overview of tongue objectification in traditional Chinese medicine based on computer image technology. World Science and Technology - Modernization of Traditional Chinese Medicine. 24 (11), 4568-4573 (2022).
  14. Mansour, R. F., Althobaiti, M. M., Ashour, A. A. Internet of things and synergic deep learning based biomedical tongue color image analysis for disease diagnosis and classification. IEEE Access. 9, 94769-94779 (2021).
  15. Cai, Y. H., Hu, S. B., Guan, J., Zhang, X. F. Analysis of the development and application of tongue diagnosis objectification techniques in Chinese medicine. World Science and Technology - Modernization of Chinese Medicine. 23 (7), 2447-2453 (2021).
  16. Ghosh, S., Das, N., Nasipuri, M. Reshaping inputs for convolutional neural network: some common and uncommon methods. Pattern Recognition. 93, 79-94 (2019).
  17. Shang, Z. M., et al. Research progress of digital acquisition and characterization of tongue diagnosis information. Chinese Journal of Traditional Chinese Medicine. 36 (10), 6010-6013 (2021).
  18. Ning, J., Zhang, D., Wu, C., Yue, F. Automatic tongue image segmentation based on gradient vector flow and region merging. Neural Computing and Applications. 21, 1819-1826 (2012).
  19. Zheng, F., Huang, X. Y., Wang, B. L., Wang, Y. H. A method for tongue detection based on image segmentation. Journal of Xiamen University. 55 (6), 895-900 (2016).
  20. Li, Y. T., Luo, Y. S., Zhu, Z. M. Deep learning-based tongue feature analysis. Computer Science. 47 (11), 148-158 (2020).
  21. Wang, Y. D., Sun, C. H., Cui, J. L., Wu, X. R., Qin, Y. X. Research on deep learning-based tongue fissure segmentation algorithm. World Science and Technology - Modernization of Chinese Medicine. 23 (9), 3065-3073 (2021).
  22. Wang, X. M., Wang, R. Y., Guo, D., Lu, S. Z., Zhou, P. Research on the identification method of tongue punctures based on auxiliary light source. Journal of Sensing Technology. 29 (10), 1553-1559 (2016).
  23. Yang, J. D., Zhang, P. A fully connected neural network based on migration learning for tongue image classification. Journal of the Second Military Medical University. 39 (8), 897-902 (2018).
  24. Song, C., Wang, B., Xu, J. T. Research on tongue feature classification method based on deep migration learning. Computer Engineering and Science. 43 (8), 1488-1496 (2021).
  25. Ding, H. J., He, J. C. Study on modern techniques and methods of tongue diagnosis. Shi Zhen Chinese Medicine. 21 (5), 1230-1232 (2010).
  26. Zhai, P. B., et al. A multi-stage tongue image classification algorithm incorporating attention mechanism. Computer Engineering and Design. 42 (6), 1606-1613 (2021).
  27. Hou, Y. S. A new clustering analysis algorithm based on deep learning. Journal of Xinxiang University. 35 (12), 4 (2018).
  28. Shi, Y. L., et al. A decision tree algorithm for classification of non-small cell lung cancer evidence based on tongue and pulse data. World Science and Technology - Modernization of Chinese Medicine. 24 (7), 2766-2775 (2022).
  29. Li, J., Hu, X. J., Zhou, C. L., Xu, J. T. Study on the feature analysis and diagnosis model of diabetic tongue based on random forest algorithm. Chinese Journal of Traditional Chinese Medicine. 37 (3), 1639-1643 (2022).
  30. Chen, C. H., et al. The characteristics of the combination of the four diagnostic methods of traditional Chinese medicine from the perspective of the differences between Chinese and Western medical diagnosis methods. Journal of Guangzhou University of Traditional Chinese Medicine. 28 (3), 332-334 (2011).
  31. Chen, R., et al. Correlation analysis of tongue image and western medicine typing in 382 patients with novel coronavirus pneumonia based on Lab colour model and imaging histology. Chinese Journal of Traditional Chinese Medicine. 36 (12), 7010-7014 (2021).
  32. Ju, J. W., Jung, H., Lee, Y. J., Mun, S. W., Lee, J. H. Semantic segmentation dataset for AI-based quantification of clean mucosa in capsule endoscopy. Medicina. 58 (3), 397 (2022).
  33. Wu, X., et al. A review of research on deep learning in tongue image classification. Computer Science and Exploration. , 1-23 (2022).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

MedizinHeft 194Ethnische MedizinTraditionelle Chinesische MedizinZungendiagnoseAlgorithmusDeep Learning

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten