시작하려면 장비를 정렬하고 DeepLabCut 또는 DLC 절차용 소프트웨어를 설치하십시오. 환경을 만들려면 DLC 소프트웨어가 다운로드된 폴더로 이동합니다. 디렉토리 변경 명령, cd 폴더 이름을 사용합니다.
첫 번째 명령인 conda env create f DEEPLABCUT.yaml을 실행합니다. 그런 다음 conda activate Deeplabcut을 입력하여 환경을 활성화합니다. 그런 다음 python m deeplabcut을 사용하여 그래픽 사용자 인터페이스를 엽니다.
인터페이스가 열리면 인터페이스 하단에 있는 Create New Project를 클릭합니다. 나중에 쉽게 식별할 수 있도록 프로젝트 이름을 지정합니다. 실험자의 이름을 입력하고 위치 섹션을 확인하여 프로젝트가 저장될 위치를 확인합니다.
폴더 찾아보기를 선택하여 모델 학습에 사용할 비디오를 찾고, 비디오가 원래 디렉터리에 남아 있어야 하는 경우 프로젝트 폴더에 비디오 복사를 선택합니다. 만들기를 클릭하여 새 프로젝트를 생성합니다. 모델을 만든 후 구성 편집을 선택합니다.
yaml을 누른 다음 Edit를 눌러 구성 설정 파일을 엽니다. 추적을 위해 눈의 모든 부분을 포함하도록 신체 부위를 수정합니다. 교육용 비디오에 사용할 총 400개의 프레임을 얻기 위해 선택할 프레임 수를 조정합니다.
점 크기를 6으로 변경하여 기본 레이블 크기가 눈 가장자리 주위에 정확하게 배치될 수 있을 만큼 충분히 작은지 확인합니다. 구성에 따라 그래픽 사용자 인터페이스의 Extract Frames 탭으로 이동하여 하단에서 Extract Frames를 선택합니다. Label Frames 탭으로 이동하여 Label Frames를 선택합니다.
새 창에서 선택한 각 교육 비디오에 대한 폴더를 찾고 첫 번째 폴더를 선택하여 새 레이블 지정 인터페이스를 엽니다. 선택한 비디오의 각 프레임에 대해 구성 중에 정의된 점에 레이블을 지정합니다. 모든 프레임에 레이블을 지정한 후 레이블을 저장하고 다음 비디오에 대해 이 과정을 반복합니다.
사시를 정확하게 표시하려면 눈의 가장 큰 봉우리 근처에 두 점을 사용하십시오. 훈련 데이터 세트를 만들려면 훈련 네트워크 탭으로 이동하여 훈련 신경망을 시작합니다. 네트워크 교육이 완료되면 네트워크 평가로 이동하여 선택합니다.
비디오를 분석하려면 비디오 분석 탭으로 이동하여 더 많은 비디오 추가를 선택하여 비디오를 선택합니다. 데이터의 CSV 출력이 충분한 경우 결과를 CSV로 저장을 선택합니다. 모든 비디오를 선택했으면 비디오 분석을 클릭하여 분석 프로세스를 시작합니다.
마지막으로 매크로를 적용하여 원시 데이터를 유클리드 거리 분석에 필요한 형식으로 변환합니다. 이 모델은 눈을 가늘게 뜨지 않는 경우와 눈을 가늘게 뜨는 경우를 모두 정확하게 감지하여 위쪽 눈꺼풀과 아래쪽 눈꺼풀 점을 표시하여 유클리드 거리를 계산했습니다. 수동으로 라벨링된 포인트와 모델 라벨링된 포인트 간의 평균 제곱근 오차 값은 300 프레임 후에 최소한의 변동성을 보였으며 400 프레임을 사용할 때 올바른 포인트 감지를 위한 평균 우도 값이 0.95를 초과했습니다.
혼동 행렬은 곁눈질 감지에 대해 96.96%의 양성 예측 값과 99.66%의 음성 예측 값을 보여주었습니다.