시작하려면 소프트웨어 도구를 열어 모터 영상 시나리오를 설계하고 실행합니다. File(파일)로 이동하여 Signal verification, Acquisition(수집), CSP training(CSP 교육), Classifier training(분류기 교육), Testing(테스트) 및 Confusion matrix(혼동 행렬)라는 레이블이 지정된 6개의 모터 이미지 BCI 시나리오를 로드합니다. Signal Verification(신호 검증) 시나리오로 이동하여 디자이너 박스를 사용하여 필터 차수가 4인 1에서 40Hz 사이의 대역 통과 필터를 원시 신호에 적용합니다.
참가자들이 시각적 신호에 반응하는 손의 움직임을 상상하면서 운동 이미지 작업을 수행하도록 안내합니다. Motor Imagery Training용 파일을 열고 VR 헤드셋을 통해 봉고 세트 위에 서 있는 준비된 3D 아바타를 표시합니다. Acquisition Scenario(획득 시나리오)로 이동하고 Graz Motor Imagery Stimulator를 두 번 클릭하여 상자를 구성합니다.
왼손 및 오른손 움직임에 대해 각각 5초씩 50번의 시도를 구성합니다. 정신적 피로를 피하기 위해 22번째 기준선 기간을 통합하고 10번의 시도 후 10초 휴식 간격을 통합합니다. 왼손 및 오른손 시도를 무작위로 구성하고 시도 전에 상상할 패를 나타내는 단서를 추가합니다.
OSC 박스에 IP 주소와 포트를 연결하여 상상할 수 있는 핸드에 대한 신호를 모터 이미지 훈련 게임 엔진 프로그램에 전송합니다. 그런 다음 물티슈로 VR 헤드셋을 소독하고 참가자의 머리에 올려 EEG 데이터를 캡처하면서 몰입형 상호 작용을 촉진합니다. 참가자들이 3D 아바타와 함께 손의 움직임을 실행하는 것을 상상하도록 지시하고, 아바타가 봉고를 칠 때 아바타와 동일한 속도를 따라 해당 손으로 어떤 손을 상상할 것인지를 나타내는 텍스트 큐와 함께 실행합니다.
획득 후 CSP 교육 시나리오를 실행하여 획득 단계의 EEG 데이터를 분석합니다. 왼쪽 이미지와 오른쪽 이미지를 구분하는 필터를 만들고 CSP를 계산합니다. CSP 교육 후 분류자 학습 시나리오로 이동하여 실행하여 실시간 아바타 제어를 위해 시스템을 준비합니다.
그런 다음 테스트 시나리오로 이동하여 참가자가 뇌 컴퓨터 인터페이스 기술을 사용하여 실시간으로 3D 아바타를 제어할 수 있도록 합니다. 상상된 동작을 실시간으로 해석하려면 시나리오 중에 훈련된 분류기를 EEG 데이터에 대해 적절한 상자에 로드합니다. 테스트 절차에 대한 참가자를 간략히 설명하고 텍스트 신호에 의해 프롬프트된 손의 움직임을 명확하게 상상해야 할 필요성을 강조합니다.
각 참가자에 대해 왼손과 오른손의 움직임을 상상하는 것과 무작위로 균등하게 나누어 20번의 시험을 수행합니다. OSC 박스를 연결하고 구성하여 큐 정보를 전송하면 텍스트로 표시되고 게임 엔진 프로그램에서 이미지화할 핸드를 나타냅니다. 다른 OSC 상자에 연결하여 게임 엔진 프로그램의 왼손 및 오른손 움직임에 대한 예측 값을 전송합니다.
테스트 시나리오와 모터 이미지 테스트 게임 엔진 프로그램을 실행합니다. 프로그램이 손의 움직임에 따라 해당 애니메이션을 재생하는지 관찰하십시오. 21세에서 38세 사이의 건강한 성인 5명이 운동 이미지 훈련 및 테스트 조건 모두에서 연구에 참여했습니다.
모든 피험자에 대한 평균 혼동 행렬을 사용하여 두 세션 동안 왼쪽과 오른쪽 운동 이미지 신호를 구별하는 분류기의 정확도를 평가했습니다. 운동 이미지 훈련에서 CSP 가중치의 지형 패턴은 두 운동 이미지 방향 모두에 대해 시각화되었습니다. 모터 작업 중 이벤트 관련 스펙트럼 섭동을 식별하기 위해 반대측 센서 모터 영역의 EEG 데이터에 대해 시간 주파수 분석을 수행했습니다.