JoVE Logo

로그인

JoVE 비디오를 활용하시려면 도서관을 통한 기관 구독이 필요합니다. 전체 비디오를 보시려면 로그인하거나 무료 트라이얼을 시작하세요.

기사 소개

  • 요약
  • 초록
  • 서문
  • 프로토콜
  • 결과
  • 토론
  • 공개
  • 감사의 말
  • 자료
  • 참고문헌
  • 재인쇄 및 허가

요약

이 프로토콜은 신경 생리학적 측정에 대한 시간 잠금과 호환되는 방식으로 시간이 지남에 따라 설치류의 자동화된 눈 사시를 추적하는 방법을 제공합니다. 이 프로토콜은 편두통과 같은 통증 장애의 메커니즘을 연구하는 연구자들에게 유용할 것으로 기대됩니다.

초록

자발적인 통증은 인간의 편견을 방지하는 방식으로 실시간으로 추적하고 정량화하는 것이 어려웠습니다. 이것은 편두통과 같은 장애와 같은 머리 통증 지표에 특히 해당됩니다. 눈 사시는 시간이 지남에 따라 측정할 수 있는 연속 변수 지표로 부상했으며 이러한 분석에서 통증 상태를 예측하는 데 효과적입니다. 이 논문은 DeepLabCut(DLC)을 사용하여 머리를 자유롭게 회전하는 억제된 마우스에서 눈 사시(눈꺼풀 사이의 유클리드 거리)를 자동화하고 정량화하기 위한 프로토콜을 제공합니다. 이 프로토콜을 사용하면 눈 사시의 편향되지 않은 정량화를 신경 생리학과 같은 기계론적 측정과 쌍을 이루고 직접 비교할 수 있습니다. 우리는 눈을 가늘게 뜨고 않는 기간을 구별하여 정의된 대로 성공을 달성하는 데 필요한 AI 교육 매개변수에 대한 평가를 제공합니다. 우리는 CGRP 유발 편두통과 같은 표현형에서 초 미만의 해상도로 사시를 안정적으로 추적하고 구별할 수 있는 능력을 보여줍니다.

서문

편두통은 전 세계적으로 가장 흔한 뇌 질환 중 하나로, 10억 명 이상의 사람들에게 영향을 미칩니다1. 편두통의 전임상 마우스 모델은 인간 연구보다 쉽게 통제할 수 있어 편두통 관련 행동에 대한 인과적 연구를 가능하게 하기 때문에 편두통의 메커니즘을 연구하는 유익한 방법으로 부상했다2. 이러한 모델은 칼시토닌 유전자 관련 펩타이드(CGRP)와 같은 편두통 유발 화합물에 대해 강력하고 반복 가능한 표현형 반응을 보여주었습니다. 설치류 모델에서 편두통 관련 행동에 대한 강력한 측정의 필요성이 지속되고 있으며, 특히 이미징 및 전기 생리학적 접근과 같은 기계론적 지표와 결합될 수 있는 측정의 필요성이 있습니다.

편두통과 유사한 뇌 상태는 빛 혐오, 발 이질증, 유해한 자극에 대한 안면 통각 과민증, 얼굴 찡그린 얼굴 등의 존재로 표현형적으로 특징지어진다3. 이러한 행동은 빛에 소요된 총 시간(빛 혐오)과 발 또는 얼굴 터치 민감도 임계값(발 이질통 및 안면 통각과민증)으로 측정되며 장시간(몇 분 이상)에 걸친 단일 판독값으로 제한됩니다. CGRP와 같은 편두통 유발 화합물을 투여하여 동물에서 편두통과 유사한 행동을 유도할 수 있습니다3 편두통이 있는 인간 환자가 경험하는 증상을 모방합니다(즉, 얼굴 타당성 입증). 이러한 화합물은 또한 인간에게 투여될 때 편두통 증상을 일으키며, 이는 이러한 모델의 구조적 타당성을 입증한다4. 행동 표현형이 약리학적으로 약화된 연구는 편두통 치료와 관련된 발견으로 이어졌으며 이러한 모델에 대한 추가 입증(즉, 예측 타당성 입증)을 제공합니다(즉, 예측 타당성 입증)5,6.

예를 들어, 단클론 항-CGRP 항체(ALD405)는 CGRP로 처리한 마우스6에서 빛 혐오 행동5과 얼굴 찡그린 얼굴을 감소시키는 것으로 나타났으며, 다른 연구에서는 CGRP 길항제 약물이 동물에서 아산화질소로 인한 편두통과 유사한 행동을 감소시킨다는 것을 입증했다 7,8. 최근 임상시험에서 CGRP 9,10을 차단하여 편두통을 치료하는 데 성공한 것으로 나타났으며, 이로 인해 CGRP 또는 그 수용체를 표적으로 하는 여러 FDA 승인 약물이 개발되었습니다. 편두통 관련 표현형에 대한 전임상 평가는 임상 결과의 돌파구로 이어졌으며, 따라서 인간에게 직접 테스트하기 어려운 편두통의 더 복잡한 측면을 이해하는 데 필수적입니다.

수많은 장점에도 불구하고 이러한 편두통의 설치류 행동 판독을 사용하는 실험은 종종 시점 샘플링 능력이 제한되고 주관적이며 인간의 실험 오류가 발생하기 쉽습니다. 많은 행동 분석은 더 미세한 시간적 해상도에서 활동을 포착하는 능력에 제한이 있으며, 종종 뇌 활동 수준과 같이 초 미만의 시간 척도에서 발생하는 보다 역동적인 요소를 포착하기 어렵게 만듭니다. 신경 생리학적 메커니즘을 연구하기 위해 시간이 지남에 따라 더 자발적이고 자연스럽게 발생하는 행동 요소를 의미 있는 시간적 해상도로 정량화하는 것이 어렵다는 것이 입증되었습니다. 더 빠른 시간 척도에서 편두통과 유사한 활동을 식별하는 방법을 만들면 편두통과 유사한 뇌 상태를 외부적으로 검증할 수 있습니다. 이는 차례로 뇌 활동과 동기화되어 편두통의 보다 강력한 뇌 활동 프로필을 생성할 수 있습니다.

이러한 편두통 관련 표현형 중 하나인 얼굴 찡그린 얼굴은 동물의 통증 측정으로 다양한 상황에서 활용되며, 즉각적으로 측정하고 시간이 지남에 따라 추적할 수 있다11. 얼굴의 찡그린 얼굴은 인간(특히 말을 하지 않는 인간)과 다른 포유류 종이 통증을 경험할 때 얼굴 표정의 자연스러운 변화를 보인다는 생각에 근거하여 자발적인 통증의 지표로 자주 사용된다11. 지난 10년 동안 쥐의 통증 표시로 얼굴 찡그린 얼굴을 측정한 연구는 MGS(Mouse Grimace Scale)와 같은 척도를 사용하여 설치류의 통증 특성을 표준화했다12. MGS의 표정 변수에는 안와 조임 (곁눈질), 코 팽창, 뺨 팽창, 귀 위치 및 수염 변화가 포함됩니다. MGS는 동물의 통증을 신뢰성 있게 특성화하는 것으로 나타났지만13, 이는 매우 주관적이며 실험자에 따라 다를 수 있는 정확한 점수 산정에 의존한다. 또한 MGS는 비연속적인 척도를 사용하고 시간이 지남에 따라 자연적으로 발생하는 동작을 추적하는 데 필요한 시간적 해상도가 부족하다는 점에서 제한적입니다.

이를 방지하는 한 가지 방법은 일관된 얼굴 특징을 객관적으로 정량화하는 것입니다. 사시는 가장 일관되게 추적할 수 있는 얼굴 특징이다6. 곁눈질은 모든 MGS 변수(곁눈질, 코 돌출부, 뺨 돌출부, 귀 위치 및 수염 변화) 고려할 때 데이터의 총 변동성의 대부분을 차지합니다6. 곁눈질은 MGS를 사용하여 얻은 전체 점수에 가장 많이 기여하고 CGRP 6,14에 대한 반응을 안정적으로 추적하기 때문에 편두통 마우스 모델에서 자발적 통증을 추적하는 가장 신뢰할 수 있는 방법입니다. 이것은 곁눈질을 CGRP에 의해 유도되는 정량화 가능한 비항상성 행동으로 만듭니다. 몇몇 실험실에서는 편두통과 관련된 잠재적인 자발적 통증을 나타내기 위해 곁눈질을 포함한 얼굴 표정 기능을 사용했습니다 6,15.

편두통의 기계론적 연구와 결합될 수 있는 방식으로 자동화된 곁눈질을 수행하는 것과 관련하여 몇 가지 과제가 남아 있습니다. 예를 들어, 세션 간에 동일한 방식으로 보정해야 하는 고정된 위치에 의존하지 않고는 곁눈질을 안정적으로 추적하기가 어려웠습니다. 또 다른 과제는 MGS와 같은 개별 스케일 대신 연속 스케일에서 이러한 유형의 분석을 수행할 수 있는 능력입니다. 이러한 문제를 완화하기 위해 DeepLabCut(DLC) 형태의 머신 러닝을 데이터 분석 파이프라인에 통합하는 것을 목표로 했습니다. DLC는 Mathis와 동료들에 의해 개발된 포즈 추정 머신러닝 모델로, 다양한 행동에 적용되고 있다16. 그들의 포즈 추정 소프트웨어를 사용하여 거의 인간에 가까운 정확도로 쥐 눈의 점을 정확하게 예측할 수 있는 모델을 훈련시킬 수 있었습니다. 이렇게 하면 반복적인 수동 채점 문제가 해결되는 동시에 시간적 해상도가 크게 증가합니다. 또한, 이러한 모델을 생성함으로써 우리는 더 큰 실험 그룹에 대해 곁눈질을 점수화하고 편두통과 유사한 뇌 활동을 추정할 수 있는 반복 가능한 수단을 만들었습니다. 여기에서는 신경 생리학과 같은 다른 기계론적 측정에 시간을 고정할 수 있는 방식으로 사시 행동을 추적하기 위한 이 방법의 개발 및 검증을 제시합니다. 가장 중요한 목표는 설치류 모델에서 시간 고정 곁눈질 동작을 필요로 하는 기계론적 연구를 촉진하는 것입니다.

프로토콜

참고: 이 실험에 사용된 모든 동물은 아이오와 대학의 IACUC(Institutional Animal Care and Use Committee)에서 승인한 프로토콜에 따라 처리되었습니다.

1. 데이터 수집을 위한 장비 준비

  1. 필요한 모든 장비의 가용성 확인: DLC를 실행하기 위한 권장 하드웨어에 최소 8GB의 메모리가 있는지 확인합니다. 하드웨어 및 소프트웨어와 관련된 정보는 Table of Materials 를 참조하십시오.
    참고: 데이터는 모든 형식으로 수집할 수 있지만 분석하기 전에 DLC에서 읽을 수 있는 형식으로 변환해야 합니다. 가장 일반적인 형식은 AVI 및 MP4입니다.
  2. 동물의 한쪽 눈을 감지할 수 있도록 하나 이상의 카메라를 구성합니다. 양쪽 눈이 모두 보이면 추적에 간섭을 일으킬 수 있으므로 추가 필터링을 수행하십시오. 여기에 제공된 데이터에 대한 이러한 필터링의 예는 섹션 10을 참조하십시오.
  3. Deeplabcut.github.io/DeepLabCut/docs/installation 에 있는 패키지를 사용하여 DLC를 설치합니다.
  4. 카메라 설정에서 마우스에 대한 측면 각도(~90°)로 단일 카메라를 포함합니다. 이 예를 따르려면 10Hz에서 샘플링하여 마우스를 제한하지만 신체에 대한 전체 머리 움직임 범위에 자유롭게 접근할 수 있습니다. 카메라에서 동물까지 2인치에서 4인치 사이를 유지하십시오.

2. DLC 설정

  1. DLC를 설치한 후 작업할 환경을 만듭니다. 이렇게 하려면 다음 명령과 함께 change 디렉토리를 사용하여 DLC 소프트웨어가 다운로드된 폴더로 이동합니다.
    CD folder_name
    참고: 여기에 DEEPLABCUT.yaml 파일이 있습니다.
  2. 첫 번째 명령을 실행하여 환경을 만들고 두 번째 명령을 입력하여 사용하도록 설정합니다.
    conda 환경 생성 -f DEEPLABCUT.yaml
    conda 활성화 Deeplabcut
    참고: DLC를 사용하기 전에 환경이 활성화되어 있는지 확인하십시오.
    환경을 활성화한 후 다음 명령을 사용하여 GUI(그래픽 사용자 인터페이스)를 열고 모델 생성을 시작합니다.
    파이썬 -m deeplabcut

3. 모델 만들기

  1. GUI가 열리면 하단의 Create New Project 를 클릭하여 모델 생성을 시작합니다.
  2. 나중에 식별할 수 있도록 프로젝트 이름을 의미 있고 고유한 것으로 지정하고 이름을 experimenter로 입력합니다. 위치 섹션을 확인하여 프로젝트가 저장될 위치를 확인합니다.
  3. 폴더 찾아보기를 선택하고 모델을 학습시킬 비디오를 찾습니다. 비디오를 원래 디렉토리에서 이동하지 않으려는 경우 프로젝트 폴더에 비디오 복사를 선택합니다.
  4. 만들기를 선택하여 컴퓨터에서 새 프로젝트를 생성합니다.
    참고: 비디오는 관찰할 행동의 전체 범위(예: 곁눈질, 비곁눈 및 그 사이의 모든 행동)를 다루어야 합니다. 모델은 학습 데이터에서와 유사한 동작만 인식할 수 있으며, 동작의 일부 구성 요소가 누락된 경우 모델이 이를 인식하는 데 문제가 있을 수 있습니다.

4. 설정 구성

참고: 여기에서 추적할 지점, 각 교육 비디오에서 추출할 프레임 수, 기본 레이블 지정 점 크기 및 모델 학습 방법과 관련된 변수와 같은 세부 정보를 정의할 수 있습니다.

  1. 모델을 생성한 후 config.yaml 편집을 선택하여 구성 설정을 편집합니다. 편집 을 선택하여 구성 설정 파일을 열고 모델과 관련된 키 설정을 지정합니다.
  2. 추적할 눈의 모든 부분을 포함하도록 신체 부위 를 수정한 다음 numframes2pick 을 교육 비디오당 필요한 프레임 수로 수정하여 총 400개의 프레임을 얻습니다. 마지막으로, 레이블을 지정할 때 기본 크기가 눈 가장자리 주위에 정확하게 배치될 수 있을 만큼 충분히 작도록 dotsize 6 으로 변경합니다.

5. 교육 프레임 추출

  1. 컨피그레이션에 따라 GUI 상단의 Extract Frames 탭으로 이동하여 페이지 오른쪽 하단에서 Extract Frames 를 선택합니다.
  2. GUI 하단의 로딩 표시줄을 사용하여 진행 상황을 모니터링합니다.

6. 교육 프레임에 레이블 지정

  1. GUI에서 Label Frames 탭으로 이동하여 Label Frames를 선택합니다. 선택한 각 교육 비디오에 대한 폴더를 표시하는 새 창을 찾습니다. 첫 번째 폴더를 선택하면 새 라벨링 GUI가 열립니다.
  2. 선택한 비디오의 모든 프레임에 대해 구성 중에 정의된 포인트에 레이블을 지정합니다. 모든 프레임에 레이블을 지정한 후 저장하고 다음 비디오에 대해 이 과정을 반복합니다.
  3. 곁눈의 적절한 라벨링을 위해 가능한 한 눈의 가장 큰 봉우리(중앙)에 가까운 두 점을 사용하고 각 점의 위/아래 위치를 표시하십시오. 이 두 길이의 평균으로 곁눈질을 근사화합니다.
    참고: 레이블을 지정할 때 DLC는 진행 상황을 자동으로 저장하지 않습니다. 레이블이 지정된 데이터의 손실을 방지하기 위해 주기적으로 저장하는 것이 좋습니다.

7. 교육 데이터 세트 만들기

  1. 수동으로 레이블을 지정한 후 Train network 탭으로 이동하여 Train network 를 선택하여 소프트웨어에 모델 학습을 시작하라는 메시지를 표시합니다.
  2. 명령 창에서 진행 상황을 모니터링합니다.

8. 네트워크 평가

  1. 네트워크 교육이 완료되면 네트워크 평가 탭으로 이동하여 네트워크 평가를 선택합니다. 파란색 로딩 원이 사라지고 자체 평가가 완료되고 모델을 사용할 준비가 되었음을 나타낼 때까지 잠시 기다립니다.

9. 데이터 분석/레이블이 지정된 비디오 생성

  1. 비디오를 분석하려면 비디오 분석 탭으로 이동합니다. 더 많은 비디오 추가 를 선택하고 분석할 비디오를 선택합니다.
  2. 데이터의 csv 출력이 충분한 경우 결과를 csv로 저장 을 선택합니다.
  3. 비디오를 모두 획득하면 하단의 비디오 분석을 선택하여 비디오 분석을 시작합니다.
    참고: 9.5단계에서 레이블이 지정된 비디오를 생성하기 전에 이 단계를 완료해야 합니다.
  4. 비디오를 분석한 후 비디오 만들기 탭으로 이동하여 분석된 비디오를 선택합니다.
  5. 비디오 만들기를 선택하면 소프트웨어가 해당 .csv에 표시된 데이터를 나타내는 레이블이 지정된 비디오를 생성하기 시작합니다.

10. 최종 데이터 처리

  1. https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc 에 있는 매크로를 적용하여 원시 데이터를 이 분석에 사용되는 형식(즉, 유클리드 거리)으로 변환합니다.
  2. Step1 Step 2로 레이블이 지정된 매크로를 가져와서 csv에 적용하여 최적화되지 않은 모든 데이터 포인트를 필터링하고 데이터를 눈의 위쪽과 아래쪽에 있는 가장 중심 포인트에 대한 평균 유클리드 거리로 변환합니다.
  3. Step3이라는 매크로를 실행하여 75픽셀로 설정된 스크립트의 임계값에 따라 각 점을 0 눈 뜨기 안 함 및 1 눈질로 표시합니다.
    참고: 이러한 매크로의 매개변수는 실험 설정에 따라 조정이 필요할 수 있습니다(토론 참조). 눈을 가늘게 뜨는 임계값과 눈의 최대값에 대한 자동 필터는 동물의 크기와 카메라와의 거리에 따라 변경될 수 있는 매개변수입니다. 데이터를 얼마나 선택적으로 필터링해야 하는지에 따라 최적이 아닌 점을 제거하는 데 사용되는 값을 조정할 수도 있습니다.

결과

여기에서는 DeepLabCut을 사용하여 높은 시간 해상도에서 사시를 안정적으로 감지하는 방법을 제공합니다. 훈련 매개변수를 최적화하고 이 방법의 강점과 약점에 대한 평가를 제공합니다(그림 1).

모델을 훈련시킨 후 유클리드 거리 측정의 좌표점 역할을 하는 눈꺼풀의 위쪽과 아래쪽 지점을 올바르게 추정할 수 있음을 확인했습?...

토론

이 프로토콜은 이전 접근 방식과 동일한(또는 더 나은) 시간 해상도를 유지하면서 거의 인간의 정확도로 곁눈질을 구별할 수 있는 기계 학습 기반 도구를 사용하기 위한 쉽게 액세스할 수 있는 심층적인 방법을 제공합니다. 주로 자동화된 곁눈질에 대한 평가를 더 많은 청중이 더 쉽게 사용할 수 있도록 합니다. 자동 곁눈질을 평가하는 새로운 방법은 이전 모델에 비해 몇...

공개

우리는 공개할 이해 상충이 없습니다. 이 백서의 견해는 재향군인회나 미국 정부를 대표하지 않습니다.

감사의 말

통찰력 있는 대화를 나눠 주신 Rajyashree Sen에게 감사드립니다. McKnight Foundation Neurobiology of Disease Award(RH), NIH 1DP2MH126377-01(RH), Roy J. Carver Charitable Trust(RH), NINDS T32NS007124(MJ), Ramon D. Buckley Graduate Student Award(MJ) 및 VA-ORD(RR&D) MERIT 1 I01 RX003523-0(LS)에 감사드립니다.

자료

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

참고문헌

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

재인쇄 및 허가

JoVE'article의 텍스트 или 그림을 다시 사용하시려면 허가 살펴보기

허가 살펴보기

더 많은 기사 탐색

This article has been published

Video Coming Soon

JoVE Logo

개인 정보 보호

이용 약관

정책

연구

교육

JoVE 소개

Copyright © 2025 MyJoVE Corporation. 판권 소유