Questo protocollo utilizza un algoritmo di deep learning per segmentare le immagini della lingua e separa automaticamente la lingua dall'intera immagine, che può essere utilizzata per ulteriori ricerche. Questo protocollo confronta le prestazioni dell'algoritmo di segmentazione dell'immagine a quattro lingue per selezionare l'algoritmo di base in grado di segmentare una lingua con un contatore chiaro. In questo studio vengono utilizzati strumenti e algoritmi brevettati.
Si consiglia di utilizzare strumenti professionali e padroneggiare la tecnologia informatica. Per iniziare, preparare lo strumento diagnostico facciale linguale portatile sviluppato autonomamente per raccogliere immagini facciali linguali dei pazienti. Inserisci il nome, il sesso, l'età e la malattia del paziente nella pagina del computer.
Quindi, chiedere al paziente di sedersi in posizione verticale e posizionare il dispositivo di acquisizione delle immagini collegato al computer. Quindi, posizionare il viso del paziente nello strumento di acquisizione delle immagini e chiedergli di estendere la lingua fuori dalla bocca nella massima misura. Verificare attraverso le immagini sullo schermo del computer che il paziente sia nella posizione corretta e che la lingua e il viso siano completamente esposti.
Premere tre volte il pulsante di scatto sullo schermo del computer per acquisire tre immagini. Quindi, selezionare manualmente le immagini raccolte del viso e della lingua. Filtrarli in base alla pagina Acquisizione immagini del software.
Raccogli tre immagini da ciascun paziente alla volta ed esporta le immagini in una cartella per lo screening manuale. Quindi, selezionare un'immagine standard, completamente esposta, ben illuminata e chiara, l'esempio per l'addestramento e il test dell'algoritmo. Eliminare le immagini che non soddisfano i criteri di un'immagine standard.
I criteri per l'esclusione sono l'esposizione incompleta della lingua e del viso e le immagini troppo scure. Per eseguire la segmentazione dell'immagine della lingua, apri LabelMe e fai clic sul pulsante Apri nell'angolo in alto a sinistra dell'interfaccia. Seleziona la cartella contenente l'immagine da segmentare e apri le foto.
Fare clic sul pulsante Crea poligono per tenere traccia dei punti. Tieni traccia della lingua e delle forme linguali, nominale in base alle aree selezionate e salva. Al termine di tutto il rilevamento, fare clic su Salva per salvare l'immagine nella cartella dati.
Impostare il dispositivo per acquisire immagini con una dimensione di 1080x1920 pixel e assicurarsi che la dimensione dell'immagine riempita sia 1920x1920 pixel. Esaminare manualmente le immagini di ciascun paziente per selezionare e conservare una delle tre immagini scattate per fattori incontrollabili, come il battito delle palpebre e il blocco delle lenti. Per addestrare il modello, raccogliere dati da 200 individui o 600 immagini e conservare circa 200 immagini utilizzabili dopo lo screening.
Dividere casualmente tutte le immagini della lingua in base al numero dell'immagine, inserendo il 70% di esse nel Training Set e il 30% delle immagini nella cartella Test Set. Scarica e installa Anaconda Python e LabelMe dai loro siti Web ufficiali. Attivare l'ambiente e completare l'installazione e la regolazione dell'ambiente generale.
Scegli il modello appropriato per lo scopo della ricerca. In questo studio, UNet, SegNet, DeepLab versione 3 e PSPNet sono stati selezionati per la convalida. Successivamente, compila il modello dell'algoritmo di deep learning nell'ambiente installato.
Regolare i parametri regolando i valori e completare l'addestramento del modello utilizzando il set di addestramento. Utilizzando l'annotazione LabelMe e i metodi di dimensione uniforme dell'immagine, costruisci il set di dati richiesto insieme al contenuto della ricerca. Esaminare i risultati della segmentazione e valutare le prestazioni del modello in base a quattro metriche, precisione, richiamo, accuratezza media dei pixel o MPA e MIOU, per ottenere una valutazione più completa.
Confrontare i valori generati dei quattro modelli. Maggiore è il valore, maggiore è la precisione della segmentazione e migliori sono le prestazioni del modello. Secondo i risultati dell'indice, l'algoritmo UNet è superiore agli altri algoritmi in MIOU, MPA, precisione e richiamo, e anche la sua accuratezza di segmentazione è superiore.
PSPNet è migliore di DeepLab Versione 3 in MIOU, MPA e richiamo, mentre il modello DeepLab Versione 3 è inferiore al modello di segmento in tutti gli indici. Nella segmentazione della lingua, l'area rossa esterna nell'immagine risulta dalla segmentazione della lingua e l'area verde interna deriva dalla segmentazione del rivestimento della lingua. In questo studio, l'algoritmo unitario ha funzionato bene nella segmentazione della lingua e ulteriori ricerche possono essere condotte sulla base degli algoritmi unitari.