Dieses Protokoll verwendet einen Deep-Learning-Algorithmus, um Zungenbilder zu segmentieren, und trennt die Zunge automatisch vom gesamten Bild, was für weitere Forschungen verwendet werden kann. Dieses Protokoll vergleicht die Leistung des Bildsegmentierungsalgorithmus mit vier Zungen, um den Basisalgorithmus auszuwählen, der eine Zunge mit einem klaren Zähler segmentieren kann. In dieser Studie werden patentierte Instrumente und Algorithmen verwendet.
Es wird empfohlen, professionelle Instrumente zu verwenden und die Computertechnik zu beherrschen. Bereiten Sie zunächst das selbst entwickelte tragbare linguale Gesichtsdiagnosegerät vor, um linguale Gesichtsbilder von Patienten zu sammeln. Geben Sie den Namen, das Geschlecht, das Alter und die Krankheit des Patienten auf der Computerseite ein.
Bitten Sie den Patienten anschließend, sich aufrecht hinzusetzen und das an den Computer angeschlossene Bildeinzugsgerät zu positionieren. Positionieren Sie dann das Gesicht des Patienten im Bilderfassungsgerät und bitten Sie ihn, seine Zunge so weit wie möglich aus dem Mund zu strecken. Überprüfen Sie anhand der Bilder auf dem Computerbildschirm, ob sich der Patient in der richtigen Position befindet und ob die Zunge und das Gesicht vollständig freiliegen.
Drücken Sie die Aufnahmetaste auf dem Computerbildschirm dreimal, um drei Bilder aufzunehmen. Wählen Sie dann manuell die gesammelten Bilder des Gesichts und der Zunge aus. Filtern Sie sie nach der Seite "Bildaufnahme" der Software.
Sammeln Sie jeweils drei Bilder von jedem Patienten und exportieren Sie die Bilder in einen Ordner für das manuelle Screening. Wählen Sie als Nächstes ein standardmäßiges, vollständig belichtetes, gut beleuchtetes und klares Bild aus, das Beispiel für das Algorithmustraining und -testen. Löschen Sie die Bilder, die nicht den Kriterien eines Standardbildes entsprechen.
Ausschlusskriterien sind eine unvollständige Zungen- und Gesichtsbelichtung sowie zu dunkle Bilder. Um eine Segmentierung des Zungenbildes durchzuführen, öffnen Sie LabelMe und klicken Sie auf die Schaltfläche Öffnen in der oberen linken Ecke der Benutzeroberfläche. Wählen Sie den Ordner aus, der das zu segmentierende Bild enthält, und öffnen Sie die Fotos.
Klicken Sie auf die Schaltfläche Polygon erstellen, um die Punkte zu verfolgen. Verfolgen Sie die Zungen- und Zungenformen, benennen Sie sie entsprechend den ausgewählten Bereichen und speichern Sie. Wenn Sie das gesamte Tracking abgeschlossen haben, klicken Sie auf Speichern, um das Bild im Datenordner zu speichern.
Stellen Sie das Gerät so ein, dass es Bilder mit einer Größe von 1080 x 1920 Pixel aufnimmt, und stellen Sie sicher, dass die Größe des gefüllten Bildes 1920 x 1920 Pixel beträgt. Durchsuchen Sie die Bilder jedes Patienten manuell, um eines der drei Bilder auszuwählen und beizubehalten, die aufgrund unkontrollierbarer Faktoren wie Blinzeln und Linsenblockierung aufgenommen wurden. Sammeln Sie zum Trainieren des Modells Daten von 200 Personen oder 600 Bildern und bewahren Sie etwa 200 Bilder auf, die nach dem Screening verwendet werden können.
Teilen Sie alle Zungenbilder nach dem Zufallsprinzip nach der Bildnummer auf und legen Sie 70 % davon in das Trainingsset und 30 % der Bilder in den Ordner Testset. Laden Sie Anaconda Python und LabelMe von ihren offiziellen Websites herunter und installieren Sie sie. Aktivieren Sie die Umgebung und schließen Sie die Installation und Anpassung der Gesamtumgebung ab.
Wählen Sie das geeignete Modell für den Forschungszweck aus. In dieser Studie wurden UNet, SegNet, DeepLab Version 3 und PSPNet für die Validierung ausgewählt. Erstellen Sie als Nächstes das Deep-Learning-Algorithmusmodell in der installierten Umgebung.
Optimieren Sie die Parameter, indem Sie die Werte anpassen, und schließen Sie das Modelltraining mit dem Trainingssatz ab. Mit Hilfe von LabelMe-Annotationen und einheitlichen Bildgrößenmethoden konstruieren Sie den erforderlichen Datensatz in Verbindung mit den Forschungsinhalten. Untersuchen Sie die Ergebnisse der Segmentierung, und bewerten Sie die Modellleistung auf der Grundlage von vier Metriken: Präzision, Rückruf, mittlere Pixelgenauigkeit (MPA) und MIOU, um eine umfassendere Bewertung zu erhalten.
Vergleichen Sie die generierten Werte der vier Modelle. Je höher der Wert, desto höher die Segmentierungsgenauigkeit und desto besser die Leistung des Modells. Den Indexergebnissen zufolge ist der UNet-Algorithmus den anderen Algorithmen in MIOU, MPA, Precision und Recall überlegen, und seine Segmentierungsgenauigkeit ist ebenfalls höher.
PSPNet ist in MIOU, MPA und Rückruf besser als DeepLab Version 3, während das DeepLab Version 3-Modell in allen Indizes niedriger ist als das Segmentmodell. Bei der Zungensegmentierung ergibt sich der äußere rote Bereich im Bild aus der Zungensegmentierung und der innere grüne Bereich aus der Segmentierung des Zungenbelags. In dieser Studie schnitt der Einheitenalgorithmus bei der Zungensegmentierung gut ab, und auf der Grundlage der Einheitenalgorithmen können weitere Untersuchungen durchgeführt werden.