Este protocolo utiliza un algoritmo de aprendizaje profundo para segmentar las imágenes de la lengua y separa automáticamente la lengua de toda la imagen, que se puede utilizar para futuras investigaciones. Este protocolo compara el rendimiento del algoritmo de segmentación de imágenes de cuatro lenguas para seleccionar el algoritmo base que puede segmentar una lengua con un contador claro. En este estudio se utilizan instrumentos y algoritmos patentados.
Se recomienda utilizar instrumentos profesionales y dominar la tecnología informática. Para comenzar, prepare el instrumento de diagnóstico facial lingual de mano de desarrollo propio para recopilar imágenes faciales linguales de los pacientes. Complete el nombre, el sexo, la edad y la enfermedad del paciente en la página de la computadora.
A continuación, pídale al paciente que se siente derecho y coloque el dispositivo de adquisición de imágenes conectado a la computadora. Luego, coloque la cara del paciente en el instrumento de adquisición de imágenes y pídale que extienda la lengua fuera de la boca en la mayor medida. Verifique a través de las imágenes en la pantalla del ordenador que el paciente está en la posición correcta y que la lengua y la cara están completamente expuestas.
Presione el botón de disparo en la pantalla de la computadora tres veces para capturar tres imágenes. Luego, seleccione manualmente las imágenes recopiladas de la cara y la lengua. Fílvelos según la página de adquisición de imágenes del software.
Recopile tres imágenes de cada paciente a la vez y exporte las imágenes a una carpeta para la detección manual. A continuación, seleccione una imagen estándar, totalmente expuesta, bien iluminada y clara, la muestra para el entrenamiento y la prueba de algoritmos. Elimine las imágenes que no cumplan los criterios de una imagen estándar.
Los criterios de exclusión son la exposición incompleta de la lengua y la cara y las imágenes demasiado oscuras. Para realizar la segmentación de imágenes de lengua, abra LabelMe y haga clic en el botón Abrir en la esquina superior izquierda de la interfaz. Seleccione la carpeta que contiene la imagen a segmentar y abra las fotos.
Haga clic en el botón Crear polígono para realizar un seguimiento de los puntos. Rastree las formas de la lengua y linguales, asígneles un nombre de acuerdo con las áreas seleccionadas y guárdelas. Al finalizar todo el seguimiento, haga clic en Guardar para guardar la imagen en la carpeta de datos.
Configure el dispositivo para capturar imágenes con un tamaño de 1080x1920 píxeles y asegúrese de que el tamaño de la imagen rellena sea de 1920x1920 píxeles. Examine manualmente las imágenes de cada paciente para seleccionar y retener una de las tres imágenes que se tomaron por factores incontrolables, como el parpadeo del sujeto y el bloqueo de la lente. Para entrenar el modelo, recopile datos de 200 individuos o 600 imágenes y conserve alrededor de 200 imágenes que se puedan usar después de la proyección.
Divida aleatoriamente todas las imágenes de la lengua según el número de imagen, colocando el 70% de ellas en el conjunto de entrenamiento y el 30% de las imágenes en la carpeta del conjunto de pruebas. Descargue e instale Anaconda Python y LabelMe desde sus sitios web oficiales. Active el entorno y complete la instalación y el ajuste del entorno general.
Elija el modelo apropiado para el propósito de la investigación. En este estudio, UNet, SegNet, DeepLab Versión 3 y PSPNet fueron seleccionados para la validación. A continuación, cree el modelo de algoritmo de aprendizaje profundo en el entorno instalado.
Ajuste los parámetros ajustando los valores y complete el entrenamiento del modelo con el conjunto de entrenamiento. Utilizando la anotación LabelMe y métodos de tamaño de imagen uniformes, construya el conjunto de datos requerido junto con el contenido de la investigación. Examine los resultados de la segmentación y evalúe el rendimiento del modelo en función de cuatro métricas, precisión, recuperación, precisión media de píxeles o MPA, y MIOU, para obtener una evaluación más completa.
Compare los valores generados de los cuatro modelos. Cuanto mayor sea el valor, mayor será la precisión de segmentación y mejor será el rendimiento del modelo. De acuerdo con los resultados del índice, el algoritmo UNet es superior a los otros algoritmos en MIOU, MPA, precisión y recuperación, y su precisión de segmentación también es mayor.
PSPNet es mejor que DeepLab Versión 3 en MIOU, MPA y recuperación, mientras que el modelo DeepLab Versión 3 es más bajo que el modelo de segmento en todos los índices. En la segmentación de la lengua, el área roja externa en la imagen resulta de la segmentación de la lengua y el área verde interna resulta de la segmentación del recubrimiento de la lengua. En este estudio, el algoritmo de unidad funcionó bien en la segmentación de la lengua, y se pueden realizar más investigaciones basadas en los algoritmos de la unidad.