Этот протокол использует алгоритм глубокого обучения для сегментации изображений языка и автоматически отделяет язык от всего изображения, что может быть использовано для дальнейших исследований. Этот протокол сравнивает производительность алгоритма сегментации изображений на четырех языках, чтобы выбрать базовый алгоритм, который может сегментировать язык с четким счетчиком. В этом исследовании используются запатентованные инструменты и алгоритм.
Рекомендуется использовать профессиональные приборы и владеть компьютерной техникой. Для начала подготовьте портативный лингвальный диагностический прибор для лица собственной разработки для сбора языковых изображений лиц пациентов. Введите имя пациента, пол, возраст и заболевание на странице компьютера.
Затем попросите пациента сесть прямо и расположить устройство для получения изображения, подключенное к компьютеру. Затем поместите лицо пациента в прибор для получения изображения и попросите его максимально вытянуть язык изо рта. Убедитесь с помощью изображений на экране компьютера, что пациент находится в правильном положении и что язык и лицо полностью открыты.
Нажмите кнопку съемки на экране компьютера три раза, чтобы сделать три снимка. Затем вручную выберите собранные изображения лица и языка. Отфильтруйте их в соответствии со страницей «Получение изображения» программного обеспечения.
Соберите три изображения от каждого пациента за раз и экспортируйте изображения в папку для ручного скрининга. Затем выберите стандартные, полностью экспонированные, хорошо освещенные и четкие изображения, образец для обучения и тестирования алгоритма. Удалите изображения, которые не соответствуют критериям стандартного изображения.
Критериями для исключения являются неполное воздействие языка и лица, а также слишком темные изображения. Чтобы выполнить сегментацию изображения языка, откройте LabelMe и нажмите кнопку «Открыть» в верхнем левом углу интерфейса. Выберите папку, содержащую изображение, которое нужно сегментировать, и откройте фотографии.
Нажмите кнопку «Создать многоугольник», чтобы отслеживать точки. Отслеживайте формы языка и языка, называйте их в соответствии с выбранными областями и сохраняйте. Завершив все отслеживание, нажмите «Сохранить», чтобы сохранить изображение в папке данных.
Настройте устройство на захват изображений размером 1080x1920 пикселей и убедитесь, что размер заполненного изображения составляет 1920x1920 пикселей. Вручную просмотрите изображения каждого пациента, чтобы выбрать и сохранить одно из трех изображений, которые были сделаны для неконтролируемых факторов, таких как моргание объекта и блокировка линз. Для обучения модели соберите данные от 200 человек или 600 изображений и сохраните около 200 изображений, которые можно использовать после скрининга.
Случайным образом разделите все изображения языка в соответствии с номером изображения, поместив 70% из них в тренировочный набор и 30% изображений в папку тестового набора. Загрузите и установите Anaconda, Python и LabelMe с их официальных сайтов. Активируйте среду и завершите установку и настройку всей среды.
Выберите подходящую модель для целей исследования. В этом исследовании для проверки были выбраны UNet, SegNet, DeepLab Version 3 и PSPNet. Затем постройте модель алгоритма глубокого обучения в установленной среде.
Настройте параметры, отрегулировав значения, и завершите обучение модели с помощью обучающего набора. Используя методы аннотации LabelMe и единого размера изображения, сконструируйте необходимый набор данных в сочетании с содержанием исследования. Изучите результаты сегментации и оцените производительность модели на основе четырех показателей: точности, отзыва, средней точности пикселей или MPA и MIOU, чтобы получить более полную оценку.
Сравните сгенерированные значения четырех моделей. Чем выше значение, тем выше точность сегментации и тем лучше производительность модели. Согласно результатам индекса, алгоритм UNet превосходит другие алгоритмы по MIOU, MPA, точности и отзыву, а также выше точность сегментации.
PSPNet лучше, чем DeepLab Version 3 в MIOU, MPA и отзыве, в то время как модель DeepLab Version 3 ниже, чем сегментная модель во всех индексах. При сегментации языка внешняя красная область на изображении является результатом сегментации языка, а внутренняя зеленая область является результатом сегментации покрытия языка. В этом исследовании модульный алгоритм хорошо показал себя при сегментации языка, и дальнейшие исследования могут быть проведены на основе единичных алгоритмов.