Ce protocole utilise un algorithme d’apprentissage profond pour segmenter les images de la langue et sépare automatiquement la langue de l’image entière, qui peut être utilisée pour des recherches ultérieures. Ce protocole compare les performances de l’algorithme de segmentation d’image à quatre langues pour sélectionner l’algorithme de base qui peut segmenter une langue avec un compteur clair. Des instruments et des algorithmes brevetés sont utilisés dans cette étude.
Il est recommandé d’utiliser des instruments professionnels et de maîtriser la technologie informatique. Pour commencer, préparez l’instrument de diagnostic lingual du visage portable développé par vous-même pour recueillir des images linguales du visage des patients. Remplissez le nom, le sexe, l’âge et la maladie du patient sur la page de l’ordinateur.
Ensuite, demandez au patient de s’asseoir droit et de positionner le dispositif d’acquisition d’images connecté à l’ordinateur. Ensuite, positionnez le visage du patient dans l’instrument d’acquisition d’images et demandez-lui d’étendre sa langue hors de sa bouche au maximum. Vérifiez à travers les images sur l’écran de l’ordinateur que le patient est dans la bonne position et que la langue et le visage sont complètement exposés.
Appuyez trois fois sur le bouton de prise de vue de l’écran de l’ordinateur pour capturer trois images. Ensuite, sélectionnez manuellement les images collectées du visage et de la langue. Filtrez-les en fonction de la page Acquisition d’images du logiciel.
Collectez trois images de chaque patient à la fois et exportez-les dans un dossier pour un dépistage manuel. Ensuite, sélectionnez une image standard, entièrement exposée, bien éclairée et claire, l’échantillon pour la formation et les tests d’algorithmes. Supprimez les images qui ne répondent pas aux critères d’une image standard.
Les critères d’exclusion sont l’exposition incomplète de la langue et du visage et les images trop sombres. Pour effectuer la segmentation de l’image de la langue, ouvrez LabelMe et cliquez sur le bouton Ouvrir dans le coin supérieur gauche de l’interface. Sélectionnez le dossier contenant l’image à segmenter et ouvrez les photos.
Cliquez sur le bouton Créer un polygone pour suivre les points. Suivez les formes de la langue et de la langue, nommez-les en fonction des zones sélectionnées et enregistrez-les. Une fois le suivi terminé, cliquez sur Enregistrer pour enregistrer l’image dans le dossier de données.
Configurez l’appareil pour capturer des images d’une taille de 1080 x 1920 pixels et assurez-vous que la taille de l’image remplie est de 1920 x 1920 pixels. Filtrez manuellement les images de chaque patient pour sélectionner et retenir l’une des trois images qui ont été prises pour des facteurs incontrôlables, tels que le clignotement du sujet et le blocage de la lentille. Pour l’entraînement du modèle, collectez les données de 200 personnes ou 600 images et conservez environ 200 images utilisables après la projection.
Divisez au hasard toutes les images de langue en fonction du numéro d’image, en plaçant 70 % d’entre elles dans le kit d’entraînement et 30 % des images dans le dossier Test Set. Téléchargez et installez Anaconda Python et LabelMe à partir de leurs sites officiels. Activez l’environnement et terminez l’installation et le réglage de l’environnement global.
Choisissez le modèle approprié à l’objectif de la recherche. Dans cette étude, UNet, SegNet, DeepLab Version 3 et PSPNet ont été sélectionnés pour validation. Ensuite, générez le modèle d’algorithme d’apprentissage profond dans l’environnement installé.
Ajustez les paramètres en ajustant les valeurs et terminez l’apprentissage du modèle à l’aide de l’ensemble d’entraînement. À l’aide de l’annotation LabelMe et de méthodes de taille d’image uniforme, construisez l’ensemble de données requis en conjonction avec le contenu de la recherche. Examinez les résultats de la segmentation et évaluez les performances du modèle en fonction de quatre mesures, la précision, le rappel, la précision moyenne des pixels ou MPA, et MIOU, pour obtenir une évaluation plus complète.
Comparez les valeurs générées des quatre modèles. Plus la valeur est élevée, plus la précision de segmentation est élevée et meilleures sont les performances du modèle. Selon les résultats de l’indice, l’algorithme UNet est supérieur aux autres algorithmes de MIOU, MPA, précision et rappel, et sa précision de segmentation est également plus élevée.
PSPNet est meilleur que DeepLab Version 3 dans MIOU, MPA et recall, tandis que le modèle DeepLab Version 3 est inférieur au modèle de segment dans tous les index. Dans la segmentation de la langue, la zone rouge externe de l’image résulte de la segmentation de la langue et la zone verte intérieure résulte de la segmentation du revêtement de la langue. Dans cette étude, l’algorithme unitaire a bien fonctionné dans la segmentation de la langue, et d’autres recherches peuvent être menées sur la base des algorithmes unitaires.