JoVE Logo

Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

Il presente studio ha utilizzato U-Net e altri algoritmi di deep learning per segmentare un'immagine della lingua e ha confrontato i risultati della segmentazione per studiare l'oggettivazione della diagnosi della lingua.

Abstract

La diagnosi della lingua è una tecnica essenziale della diagnosi della medicina tradizionale cinese (MTC) e la necessità di oggettivare le immagini della lingua attraverso la tecnologia di elaborazione delle immagini è in crescita. Il presente studio fornisce una panoramica dei progressi compiuti nell'oggettivazione della lingua negli ultimi dieci anni e confronta i modelli di segmentazione. Vari modelli di deep learning sono costruiti per verificare e confrontare gli algoritmi utilizzando set di immagini in lingua reale. Vengono analizzati i punti di forza e di debolezza di ciascun modello. I risultati indicano che l'algoritmo U-Net supera altri modelli per quanto riguarda l'accuratezza di precisione (PA), il richiamo e le metriche di intersezione media su unione (MIoU). Tuttavia, nonostante i significativi progressi nell'acquisizione e nell'elaborazione delle immagini della lingua, non è ancora stato stabilito uno standard uniforme per oggettivare la diagnosi della lingua. Per facilitare l'applicazione diffusa delle immagini della lingua catturate utilizzando dispositivi mobili nell'oggettivazione della diagnosi della lingua, ulteriori ricerche potrebbero affrontare le sfide poste dalle immagini della lingua catturate in ambienti complessi.

Introduzione

L'osservazione della lingua è una tecnica ampiamente utilizzata nella medicina etnica tradizionale cinese (MTC). Il colore e la forma della lingua possono riflettere la condizione fisica e varie proprietà, gravità e prognosi della malattia. Ad esempio, nella medicina tradizionale Hmong, il colore della lingua viene utilizzato per identificare la temperatura corporea, ad esempio, una lingua rossa o viola indica fattori patologici legati al calore. Nella medicina tibetana, una condizione viene giudicata osservando la lingua di un paziente, prestando attenzione al colore, alla forma e all'umidità del muco. Ad esempio, le lingue dei pazienti con malattia di Heyi diventano rosse e ruvide o nere e secche1; i pazienti con malattia di Xieri2 hanno la lingua gialla e secca; nel frattempo, i pazienti con malattia di Badakan3 hanno una lingua bianca, umida e morbida4. Queste osservazioni rivelano la stretta relazione tra le caratteristiche della lingua e la fisiologia e la patologia. Nel complesso, lo stato della lingua svolge un ruolo vitale nella diagnosi, nell'identificazione della malattia e nella valutazione dell'effetto del trattamento.

Allo stesso tempo, a causa delle diverse condizioni di vita e pratiche alimentari tra i diversi gruppi etnici, sono evidenti variazioni nelle immagini della lingua. Il modello Lab, stabilito sulla base di uno standard internazionale per la determinazione del colore, è stato formulato dalla Commission International Eclairage (CIE) nel 1931. Nel 1976, un modello di colore è stato modificato e nominato. Il modello di colore Lab è composto da tre elementi: L corrisponde alla luminosità, mentre a e b sono due canali di colore. A include colori dal verde scuro (valore di luminosità basso) al grigio (valore di luminosità medio) al rosa brillante (valore di luminosità elevato); B va dal blu brillante (valore di luminosità basso) al grigio (valore di luminosità medio) al giallo (valore di luminosità alto). Confrontando i valori L x a x b del colore della lingua di cinque gruppi etnici, Yang et al.5 hanno scoperto che le caratteristiche delle immagini della lingua dei gruppi Hmong, Hui, Zhuang, Han e mongoli erano significativamente distinte l'una dall'altra. Ad esempio, i mongoli hanno lingue scure con un rivestimento di lingua gialla, mentre gli Hmong hanno lingue chiare con un rivestimento di lingua bianca, suggerendo che le caratteristiche della lingua possono essere utilizzate come indicatore diagnostico per valutare lo stato di salute di una popolazione. Inoltre, le immagini della lingua possono funzionare come indice di valutazione per la medicina basata sull'evidenza nella ricerca clinica della medicina etnica. He et al.6 hanno utilizzato le immagini della lingua come base per la diagnosi di MTC e hanno valutato sistematicamente la sicurezza e l'efficacia dei pellet Chou-Ling-Dan (granuli CLD usati per trattare malattie infiammatorie e febbrili, compresa l'influenza stagionale in MTC) combinati con la medicina cinese e occidentale. I risultati hanno stabilito la validità scientifica delle immagini della lingua come indice di valutazione per gli studi clinici. Tuttavia, i medici tradizionali generalmente si affidano alla soggettività per osservare le caratteristiche della lingua e valutare le condizioni fisiologiche e patologiche dei pazienti, richiedendo indicatori più precisi.

L'emergere di Internet e della tecnologia dell'intelligenza artificiale ha spianato la strada alla digitalizzazione e all'oggettivazione della diagnosi della lingua. Questo processo comporta l'utilizzo di modelli matematici per fornire una descrizione qualitativa e oggettiva delle immagini della lingua7, che rifletta il contenuto dell'immagine della lingua. Il processo include diverse fasi: acquisizione dell'immagine, compensazione ottica, correzione del colore e trasformazione geometrica. Le immagini pre-elaborate vengono quindi inserite in un modello algoritmico per il posizionamento e la segmentazione delle immagini, l'estrazione delle caratteristiche, il riconoscimento dei modelli, ecc. Il risultato di questo processo è una diagnosi altamente efficiente e precisa dei dati dell'immagine della lingua, raggiungendo così l'obiettivo di oggettivazione, quantificazione e informatizzazione della diagnosi della lingua8. Pertanto, viene raggiunto lo scopo di un'elaborazione ad alta efficienza e alta precisione dei dati di diagnosi della lingua. Basato sulla conoscenza della diagnosi della lingua e sulla tecnologia di apprendimento profondo, questo studio ha separato automaticamente il corpo della lingua e il rivestimento della lingua dalle immagini della lingua utilizzando un algoritmo informatico, al fine di estrarre le caratteristiche quantitative delle lingue per i medici, migliorare l'affidabilità e la coerenza della diagnosi e fornire metodi per la successiva ricerca sull'oggettivazione della diagnosi della lingua9.

Protocollo

Questo studio è stato approvato dal progetto della National Natural Science Foundation of China, Constructing Dynamic Change rules of TCM Facial image Based on Association Analysis. Il numero di approvazione etica è 2021KL-027 e il comitato etico ha approvato lo studio clinico da eseguire in conformità con i documenti approvati che includono protocollo di ricerca clinica (2021.04.12, V2.0), consenso informato (2021.04.12, V2.0), materiali di reclutamento dei soggetti (2021.04.12, V2.0), casi di studio e / o case report, schede di diario dei soggetti e altri questionari (2021.04.12, V2.0), un elenco dei partecipanti alla sperimentazione clinica, approvazione di progetti di ricerca, ecc. È stato ottenuto il consenso informato dei pazienti che hanno partecipato allo studio. Il principale approccio sperimentale di questo studio è quello di utilizzare immagini in lingua reale per convalidare e confrontare gli effetti di segmentazione del modello. La Figura 1 presenta le componenti dell'oggettivazione della diagnosi della lingua.

1. Acquisizione di immagini

  1. Utilizzare lo strumento diagnostico facciale linguale portatile sviluppato autonomamente per raccogliere immagini facciali linguali dei pazienti.
  2. Inserisci il nome, il sesso, l'età e la malattia del paziente nella pagina del computer. Le immagini qui incluse provengono da pazienti che sono venuti in clinica e hanno accettato di essere fotografati dopo essere stati informati dello scopo e del contenuto dello studio. Confermare che il paziente è seduto in posizione verticale, posizionare l'intero viso nello strumento di acquisizione delle immagini e istruire il paziente ad estendere la lingua fuori dalla bocca nella massima misura.
  3. Tenere il dispositivo di acquisizione delle immagini collegato a un computer e verificare attraverso le immagini sullo schermo del computer che il paziente sia nella posizione corretta e che la lingua e il viso siano completamente esposti.
  4. Premere tre volte il pulsante Scatta sullo schermo del computer per scattare tre foto.
    NOTA: Lo strumento di acquisizione delle immagini è attualmente solo in fase di domanda di brevetto e non è per uso commerciale, quindi non è in vendita.
  5. Seleziona e filtra manualmente le immagini della lingua e del viso raccolte. Filtra ed escludi le immagini con esposizione incompleta della lingua e del viso, nonché le immagini troppo scure a causa della luce insufficiente. La Figura 2 mostra la pagina di acquisizione delle immagini del software.
  6. Nel progetto sperimentale, raccogliere tre immagini da ciascun paziente alla volta come alternative e selezionare un'immagine relativamente standard, completamente esposta, ben illuminata e chiara come campione per il successivo addestramento e test dell'algoritmo.
  7. Raccogli i dati dopo le riprese, esporta i dati per lo screening manuale ed elimina le immagini non standard visibili ad occhio nudo. Utilizza i seguenti criteri di filtro ed esclusione: esposizione incompleta della lingua e del viso e immagini troppo scure a causa di luce insufficiente. Un esempio di un'immagine sottoilluminata, incompleta e standard è illustrato nella Figura 3.
    NOTA: La luce insufficiente è generalmente causata dal mancato posizionamento del viso da parte del paziente nello strumento. L'esposizione completa di solito si ottiene solo fotografando correttamente il paziente.

2. Segmentazione della lingua

  1. Eseguire la segmentazione dell'immagine della lingua utilizzando uno strumento di annotazione online, come descritto di seguito.
    1. Installa Labelme, fai clic sul pulsante Apri nell'angolo in alto a sinistra dell'interfaccia dell'etichetta, seleziona la cartella in cui si trova l'immagine e apri le foto.
    2. Fai clic su crea poligono per avviare i punti di tracciamento, tracciare la lingua e le forme linguali, nominarli in base alle aree selezionate (ad esempio, lingua e superficie linguale) e salvarli.
    3. Quando tutti i contrassegni sono completi, fare clic su Salva per salvare l'immagine nella cartella dati. Vedere la Figura 4 per un diagramma di flusso dettagliato.
      NOTA: poiché le immagini possono presentare differenze di pixel, le immagini non possono essere utilizzate direttamente per l'addestramento e il test degli algoritmi.
  2. Unifica le immagini con le stesse dimensioni riempiendo i bordi delle immagini, con il lato lungo dell'immagine come lunghezza di riempimento di destinazione ed eseguendo il riempimento del bordo bianco per riempire le immagini in un quadrato, con il lato lungo dell'immagine come lunghezza del bordo. La dimensione dell'immagine acquisita dal dispositivo è 1080 x 1920 pixel e la dimensione dell'immagine riempita è 1920 x 1920 pixel. Vedere la Figura 5.
  3. Se necessario, applica il miglioramento dell'immagine. Nessun miglioramento è stato applicato in questo studio, poiché le immagini utilizzate sono state scattate in una scena fissa e sono state meno influenzate dall'ambiente, dall'illuminazione e da altri fattori.
  4. Poiché sono state raccolte tre immagini per ciascun paziente durante il processo di ripresa per tenere conto di fattori incontrollabili, come il battito delle palpebre del soggetto e il blocco dell'obiettivo, schermare manualmente le immagini di ciascun paziente per conservare un'immagine per paziente.
  5. Ai fini del training del modello, raccogliere dati da 200 persone o 600 immagini. Dopo la proiezione, conserva circa 200 immagini utilizzabili.
  6. In base al numero dell'immagine, dividi casualmente tutte le immagini della lingua, posizionando il 70% di esse nel set di allenamento e il 30% nel set di test in un foglio di calcolo.

3. Classificazione della lingua

  1. Vai ai siti Web ufficiali e scarica e installa Anaconda, Python ed Labelme. Attivare l'ambiente e completare l'installazione e la regolazione dell'ambiente generale. Vedere la Figura 6 per un diagramma di flusso che descrive l'installazione e la configurazione del software.
  2. Crea il modello dell'algoritmo di deep learning nell'ambiente installato, ottimizza i parametri e completa il training del modello usando il set di training. Eseguire la selezione e l'ottimizzazione del modello come descritto nei passaggi seguenti.
    1. Selezione del modello: scegliere il modello appropriato in base allo scopo della ricerca. Dopo aver esaminato la ricerca sull'elaborazione delle immagini della lingua negli ultimi 5 anni, quattro algoritmi, U-Net, Seg-Net, DeeplabV3 e PSPNet, sono stati selezionati per la convalida in questo studio (vedere Supplementary Coding File 1, Supplementary Coding File 2, Supplementary Coding File 3 e Supplementary Coding File 4 per i codici modello).
    2. Costruzione del set di dati: dopo aver completato la selezione del modello, costruire il set di dati richiesto insieme al contenuto della ricerca, utilizzando principalmente l'annotazione Labelme e i metodi di dimensione uniforme dell'immagine, come descritto sopra.
  3. Eseguire il training del modello come descritto di seguito. Nella Figura 7 vengono illustrati i dettagli dell'operazione di addestramento dell'algoritmo.
    1. Immettere i dati nella rete neurale per la propagazione in avanti, con ogni neurone che prima inserisce un accumulo ponderato di valori e quindi inserisce una funzione di attivazione come valore di output di quel neurone per ottenere il risultato.
    2. Inserisci il risultato nella funzione di errore e confrontalo con il valore previsto per ottenere l'errore e giudicare il grado di riconoscimento per errore. Più piccola è la funzione di perdita, migliore sarà il modello.
    3. Ridurre l'errore mediante la propagazione di ritorno e determinare il vettore gradiente. Regolate i pesi dal vettore sfumatura in base alla tendenza verso i risultati in modo che l'errore tenda a zero o si riduca.
    4. Ripetere questo processo di training fino al completamento del set o fino a quando il valore di errore non diminuisce più, a quel punto il training del modello è completo. Vedere la Figura 8 per un diagramma di flusso del modello di algoritmo durante il training e il test.
  4. Testare i quattro modelli utilizzando gli stessi dati di test per la segmentazione e giudicare le prestazioni del modello in base all'effetto di segmentazione. Le quattro metriche di precisione, richiamo, accuratezza media dei pixel (MPA) e MIoU forniscono una valutazione più completa delle prestazioni del modello.
  5. Dopo aver generato i risultati dei quattro modelli, confrontare i loro valori orizzontalmente; Maggiore è il valore, maggiore è la precisione della segmentazione e migliori sono le prestazioni del modello. Vedere la Figura 9, la Figura 10 e la Figura 11.

Risultati

Per i risultati del confronto, vedere la Figura 12, la Figura 13 e la Tabella 1, in cui l'ambiente costruito da questo studio utilizza gli stessi campioni per addestrare e testare il modello di algoritmo. Indicatore MIoU: U-Net > Seg-Net > PSPNet > DeeplabV3; Indicatore MPA: U-Net > Seg-Net > PSPNet > DeeplabV3; indicatore di precisione: U-Net > Seg-Net > DeeplabV3 > PSPNet; Ricordiamo: U-Net > Seg-Net > PSPNet > DeeplabV3. Maggiore è il valor...

Discussione

Sulla base dei risultati del confronto presentati sopra, è evidente che le caratteristiche dei quattro algoritmi in esame sono varie e i loro distinti vantaggi e svantaggi sono descritti di seguito. La struttura U-Net, basata sulla modifica e l'espansione di una rete di convoluzione completa, può ottenere informazioni contestuali e posizionamento preciso attraverso un percorso di contrazione e un percorso di espansione simmetrico. Classificando ogni punto pixel, questo algoritmo raggiunge una maggiore precisione di seg...

Divulgazioni

Gli autori non hanno alcun conflitto di interessi da dichiarare.

Riconoscimenti

Questo lavoro è stato sostenuto dalla National Nature Foundation of China (sovvenzione n. 82004504), dal National Key Research and Development Program del Ministero della Scienza e della Tecnologia della Cina (sovvenzione n. 2018YFC1707606), dalla Chinese Medicine Administration della provincia del Sichuan (sovvenzione n. 2021MS199) e dalla National Nature Foundation of China (sovvenzione n. 82174236).

Materiali

NameCompanyCatalog NumberComments
CPUIntel(R) Core(TM) i7-9700K
GPU NVIDIA GeForce RTX 3070 Ti (8192MB)
Operating systemsMicrosoft Windows 10 Professional Edition (64-bit)
Programming languagePython
RAM16G

Riferimenti

  1. Jiu, G., et al. Effects of herbal therapy on intestinal microbiota and serum metabolomics in different rat models of Mongolian medicine. Evidence-Based Complementary and Alternative. 2022, 7255780 (2022).
  2. Xi, J., Xin, Y., Teregle, Study on the correlation between the animal model of Mongolian medicine 34;Xieri disease" and serum ALT and AST. Electronic Journal of Cardiovascular Diseases in Combination of Traditional Chinese. 4 (33), 134-135 (2016).
  3. Yin, L., et al. Study on the mechanism of serum differential protein changes in bronchial asthma based on proteomics. Chinese Journal of Traditional Chinese Medicine. 47 (22), 6227-6234 (2022).
  4. Wang, X. H., Bao, L. Band Seed. The origin and development of tongue diagnosis in Mongolian medicine. Chinese Ethnic Folk Medicine. (1), 64-65 (2008).
  5. Yang, S., et al. A comparative study on the feature parameters of tongue diagnosis images in five nationalities. Chinese Journal of Traditional Chinese Medicine. 36 (11), 6428-6430 (2021).
  6. He, J. Y., et al. Efficacy and safety of Chou-Ling-Dan granules in the treatment of seasonal influenza via combining Western and traditional Chinese medicine, protocol for a multicentre, randomised controlled clinical trial. BMJ Open. 9 (4), e024800 (2019).
  7. Wang, D. J., et al. Scientific knowledge mapping and visualization analysis in the field of Chinese medicine tongue feature objectification research. World Science and Technology - Modernization of Chinese Medicine. 23 (9), 3032-3040 (2021).
  8. Yuan, S. M., Qian, P., Li, F. F. Research progress of color correction methods for tongue and face diagnosis in traditional Chinese Medicine. Chinese Journal of Traditional Chinese Medicine. 34 (9), 4183-4185 (2019).
  9. Kanawong, R., et al. Tongue image analysis and its mobile app development for health diagnosis. Advances in Experimental Medicine and Biology. 1005, 99-121 (2017).
  10. Yu, Y., et al. Semantic segmentation evaluation index and evaluation method. Computer Engineering and Application. , (2023).
  11. Sehyung, L., Negishi, M., Urakubo, H., Kasai, H., Ishii, S. Mu-net: Multi-scale U-net for two-photon microscopy image denoising and restoration. Neural Networks. 125, 92-103 (2020).
  12. Huang, X. M., et al. A review on the application of U-Net and its variants in medical image segmentation. Chinese Journal of Biomedical Engineering. 41 (5), 567-576 (2022).
  13. Lu, J. H., Xu, Y. F., Wang, Y. Q., Hao, Y. M. Research overview of tongue objectification in traditional Chinese medicine based on computer image technology. World Science and Technology - Modernization of Traditional Chinese Medicine. 24 (11), 4568-4573 (2022).
  14. Mansour, R. F., Althobaiti, M. M., Ashour, A. A. Internet of things and synergic deep learning based biomedical tongue color image analysis for disease diagnosis and classification. IEEE Access. 9, 94769-94779 (2021).
  15. Cai, Y. H., Hu, S. B., Guan, J., Zhang, X. F. Analysis of the development and application of tongue diagnosis objectification techniques in Chinese medicine. World Science and Technology - Modernization of Chinese Medicine. 23 (7), 2447-2453 (2021).
  16. Ghosh, S., Das, N., Nasipuri, M. Reshaping inputs for convolutional neural network: some common and uncommon methods. Pattern Recognition. 93, 79-94 (2019).
  17. Shang, Z. M., et al. Research progress of digital acquisition and characterization of tongue diagnosis information. Chinese Journal of Traditional Chinese Medicine. 36 (10), 6010-6013 (2021).
  18. Ning, J., Zhang, D., Wu, C., Yue, F. Automatic tongue image segmentation based on gradient vector flow and region merging. Neural Computing and Applications. 21, 1819-1826 (2012).
  19. Zheng, F., Huang, X. Y., Wang, B. L., Wang, Y. H. A method for tongue detection based on image segmentation. Journal of Xiamen University. 55 (6), 895-900 (2016).
  20. Li, Y. T., Luo, Y. S., Zhu, Z. M. Deep learning-based tongue feature analysis. Computer Science. 47 (11), 148-158 (2020).
  21. Wang, Y. D., Sun, C. H., Cui, J. L., Wu, X. R., Qin, Y. X. Research on deep learning-based tongue fissure segmentation algorithm. World Science and Technology - Modernization of Chinese Medicine. 23 (9), 3065-3073 (2021).
  22. Wang, X. M., Wang, R. Y., Guo, D., Lu, S. Z., Zhou, P. Research on the identification method of tongue punctures based on auxiliary light source. Journal of Sensing Technology. 29 (10), 1553-1559 (2016).
  23. Yang, J. D., Zhang, P. A fully connected neural network based on migration learning for tongue image classification. Journal of the Second Military Medical University. 39 (8), 897-902 (2018).
  24. Song, C., Wang, B., Xu, J. T. Research on tongue feature classification method based on deep migration learning. Computer Engineering and Science. 43 (8), 1488-1496 (2021).
  25. Ding, H. J., He, J. C. Study on modern techniques and methods of tongue diagnosis. Shi Zhen Chinese Medicine. 21 (5), 1230-1232 (2010).
  26. Zhai, P. B., et al. A multi-stage tongue image classification algorithm incorporating attention mechanism. Computer Engineering and Design. 42 (6), 1606-1613 (2021).
  27. Hou, Y. S. A new clustering analysis algorithm based on deep learning. Journal of Xinxiang University. 35 (12), 4 (2018).
  28. Shi, Y. L., et al. A decision tree algorithm for classification of non-small cell lung cancer evidence based on tongue and pulse data. World Science and Technology - Modernization of Chinese Medicine. 24 (7), 2766-2775 (2022).
  29. Li, J., Hu, X. J., Zhou, C. L., Xu, J. T. Study on the feature analysis and diagnosis model of diabetic tongue based on random forest algorithm. Chinese Journal of Traditional Chinese Medicine. 37 (3), 1639-1643 (2022).
  30. Chen, C. H., et al. The characteristics of the combination of the four diagnostic methods of traditional Chinese medicine from the perspective of the differences between Chinese and Western medical diagnosis methods. Journal of Guangzhou University of Traditional Chinese Medicine. 28 (3), 332-334 (2011).
  31. Chen, R., et al. Correlation analysis of tongue image and western medicine typing in 382 patients with novel coronavirus pneumonia based on Lab colour model and imaging histology. Chinese Journal of Traditional Chinese Medicine. 36 (12), 7010-7014 (2021).
  32. Ju, J. W., Jung, H., Lee, Y. J., Mun, S. W., Lee, J. H. Semantic segmentation dataset for AI-based quantification of clean mucosa in capsule endoscopy. Medicina. 58 (3), 397 (2022).
  33. Wu, X., et al. A review of research on deep learning in tongue image classification. Computer Science and Exploration. , 1-23 (2022).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

MedicinaNumero 194medicina etnicamedicina tradizionale cinesediagnosi della linguaalgoritmodeep learning

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati