이 프로토콜에 설명된 방법을 수행함으로써 연구원은 작동 조절 챔버에서 복잡한 행동 테스트를 수행하는 설치류의 비디오를 기록하고 분석 할 수 있습니다. 이 프로토콜은 저렴한 비디오 카메라를 빌드하고 오픈 소스 추적 소프트웨어와 함께 사용하는 방법을 설명합니다. 이것은 예산에 실험실에 대 한 매력적인 접근 방식.
이 방법은 설치류의 작동 식 컨디셔닝을 포함하는 연구 프로젝트에 유용합니다. 비디오 분석은 이러한 유형의 테스트에서 볼 수 있는 동작에 대한 이해를 크게 향상시킬 수 있습니다. 먼저 카메라 스탠드의 개구부 주위에 금속 링을 부착합니다.
그런 다음 키트와 함께 제공되는 너트와 볼트를 사용하여 카메라 모듈을 스탠드에 부착합니다. 플라스틱 입술 가장자리에 부드럽게 풀링하여 카메라 모듈과 마이크로컴퓨터의 리본 케이블 포트를 엽니다. 케이블 실버 커넥터가 회로 기판을 향할 수 있도록 카메라 모듈의 열린 포트에서 리본 케이블을 태우게 합니다.
그런 다음 플라스틱 클립을 밀어 제자리에 고정하십시오. 마이크로컴퓨터의 포트로 프로세스를 반복합니다. 그런 다음 카메라 스탠드의 금속 링에 어안 렌즈를 부착합니다.
마이크로컴퓨터를 플라스틱 케이스에 놓고 나열된 마이크로 SD 카드를 삽입합니다. 그런 다음 모니터, 키보드 및 마우스를 마이크로컴퓨터에 연결하고 전원 공급 장치를 연결하여 시작합니다. 터미널 창을 열고 sudo apt 하이픈을 입력하고 업데이트를 받으십시오.
그런 다음 입력 키를 누릅니다. 다음 유형 sudo apt 전체 하이픈 업그레이드 및 누우 입력. 시작 메뉴에서 기본 설정 및 라즈베리 PI 구성을 선택합니다.
창이 열리면 인터페이스 탭으로 이동하여 카메라와 I2C를 활성화한 다음 확인을 클릭합니다. 추가 파일을 USB 메모리 스틱에 복사합니다. 그런 다음 마이크로 컴퓨터 홈 PI 폴더로 전송하고 이름을 바꿉니다.
터미널 창 유형 의사 나노 슬래시 등을 열고 RC 도트를 로컬로 슬래시하고 enter. 키보드 화살표 키를 사용하여 커서를 fi와 exit 0 사이의 공간으로 이동합니다. 그런 다음 텍스트를 추가하여 컴퓨터가 복사된 스크립트를 시작할 수 있도록 합니다.
그리고 적외선 LED, 그것은 부팅 할 때마다. 제어 및 X를 누르고 Y를 입력하여 변경 내용을 저장합니다. 다음 솔더 저항기와 여성 점퍼 케이블은 두 개의 색깔의 LED의 다리에.
두 개의 버튼 스위치에 솔더 여성 점퍼 케이블. 그런 다음 스위치 를 연결 하 고 나열 된 적외선 LED 모듈 컴퓨터 GPI 후프 종료. 제대로 연결하면 LED 가 하나가 카메라가 켜져 있고 사용할 준비가 되었음을 나타냅니다.
다른 하나는 카메라가 비디오를 녹화하고 있음을 나타냅니다. 긴 케이블이 있는 버튼은 비디오 녹화를 시작하고 중지하는 데 사용됩니다. 이러한 짧은 케이블의 버튼은 카메라를 끄는 데 사용됩니다.
프로토콜의 특정 단계의 지표로 작동 챔버 하우스 라이트를 사용하도록 프로토콜을 설정합니다. 그런 다음 프로토콜을 설정하여 이 프로토콜 단계 표시기가 활성화될 때와 관련하여 타임스탬프를 사용하여 관심 있는 모든 이벤트를 기록합니다. 작동 챔버 위에 카메라를 놓고 전원 공급 장치를 통해 전기 콘센트에 연결하여 시작합니다.
이전에 연결된 버튼을 사용하여 비디오 녹화를 시작하고 중지합니다. 비디오 녹화가 완료되면 카메라를 모니터, 키보드 마우스 및 USB 저장 장치에 연결하고 데스크톱에서 비디오 파일을 검색합니다. DeeplabCuts 프레임 잡기 기능을 사용하여 녹화된 동영상 중 하나 이상에서 700~900개의 비디오 프레임을 추출합니다.
선택한 비디오 프레임에 개가 외부와 안쪽에 고정되어 있고 다른 방향으로 이동하는 등 다양한 자세로 동물을 표시해야 합니다. 라벨링 도구 상자를 사용하여 쥐의 귀 사이의 중앙 위치에 헤드 라벨을 배치하여 각 비디오 프레임에서 쥐의 머리 위치를 수동으로 표시합니다. 또한 관심있을 수 있습니다 다른 신체 부위를 라벨.
또한, 각 비디오 프레임에서 프로토콜 단계 표시기의 위치를 표시하여 적극적으로 빛나는 경우를 표시한다. 다음으로 학습 데이터 세트 만들기 및 학습 네트워크 기능을 사용하여 레이블이 지정된 비디오 프레임에서 학습 데이터 집합을 만들고 신경망 교육을 시작합니다. 신경망이 학습된 경우 이를 사용하여 수집된 비디오를 분석합니다.
이렇게 하면 쥐머리의 트랙 위치, 관심 있는 다른 신체 부위 및 각 비디오 프레임의 프로토콜 단계 표시기를 나열하는 CSV 파일이 생성됩니다. 또한 트랙 위치가 시각적으로 표시되는 비디오 파일을 표시합니다. 작동 챔버 내부의 특정 관심 점좌를 얻으려면 이전에 설명된 대로 수동으로 표시하고 프로젝트 폴더의 레이블이 지정된 데이터 아래에 자동으로 저장된 CSV 파일에서 좌표를 검색합니다.
참고, 비디오 세그먼트에서 프로토콜 단계 표시기가 이전 섹션에서 수동으로 얻은 위치의 60픽셀 내에서 추적되고 표시기가 활성화된 각 기간에 대한 정확한 시작점을 추출합니다. 프로토콜 단계 표시기가 활성화되고 작동 챔버에 의해 기록된 타임스탬프를 사용하는 점을 사용합니다. 시험 간 간격, 응답 또는 보상 검색과 같은 테스트 프로토콜의 특정 이벤트를 포함하는 비디오 세그먼트를 결정합니다.
특정 관심사인 모든 이벤트를 다루는 비디오 프레임을 기록합니다. 마지막으로 이러한 이벤트 동안 동물의 위치와 움직임에 대한 관련 심층 분석을 수행합니다. 카메라의 어안 렌즈를 통해 대부분의 설치류 작동 식 컨디셔닝 챔버의 내부를 전체 볼 수 있습니다.
적절한 적외선 조명 소스를 사용하여 카메라는 완전한 어둠 속에서 비디오 캡처를 허용합니다. 잘 훈련된 네트워크는 동물의 머리를 추적할 때 90% 이상의 정확도를 허용해야 합니다. 정확한 추적은 움직임을 통해 동물을 따르는 마커와 매끄러운 플롯 경로에 의해 명확하게 식별 할 수 있습니다.
반면 부정확한 추적은 대상에 안정적으로 머무르지 않는 마커와 들쭉날쭉한 플롯경로가 특징입니다. 이 부정확한 추적의 결과로 일반적으로 계산된 이동 속도의 급격한 변화가 발생합니다. 테스트 세션 내내 동물이 어디에 있는지 추적하면 뚜렷한 움직임 패턴이 성능과 어떻게 관련이 있는지 평가할 수 있습니다.
예를 들어, 5가지 선택연쇄 반응 시간 테스트에서, 시험 간 간격 동안의 머리 움직임은 동물이 반응을 수행하는 데 제한된 관심을 보이는 배출 시험을 분리하는 데 사용될 수 있다. 동물이 단순히 간단한 빛 신호를 통지하지 못하는 임무 시험에서. 또한 머리 의 움직임을 조사하는 것은 다른 주의 전략의 검출 및 특성화를 가능하게 할 수 있습니다.
이러한 절차를 시도할 때프로토콜 단계 표시등이 신뢰할 수 있는 것이 중요합니다. 그리고 신경망은 비디오 프레임의 다이빙 ert와 함께 훈련된다. 정확한 추적을 보장하기 위해.