JoVE Logo

로그인

JoVE 비디오를 활용하시려면 도서관을 통한 기관 구독이 필요합니다. 전체 비디오를 보시려면 로그인하거나 무료 트라이얼을 시작하세요.

기사 소개

  • 요약
  • 초록
  • 서문
  • 프로토콜
  • 결과
  • 토론
  • 공개
  • 감사의 말
  • 자료
  • 참고문헌
  • 재인쇄 및 허가

요약

본 연구는 뇌졸중 환자를 위한 뇌-컴퓨터 인터페이스(BCI) 시스템을 소개하고 있으며, 이 시스템은 뇌파검사와 전기굴절 신호를 결합하여 상지 로봇 손을 제어하여 일상 활동을 향상시킵니다. 이 평가는 BeBiTS(Berlin Bimanual Test for Stroke)를 사용했습니다.

초록

본 연구에서는 뇌졸중 후 재활을 위한 BCI(Brain-Computer Interface) 제어 상지 보조 로봇을 소개합니다. 이 시스템은 뇌파(EEG) 및 심전도(EOG) 신호를 활용하여 사용자가 로봇 손과 상호 작용하면서 일상 작업에서 상지 기능을 지원할 수 있도록 도와줍니다. 우리는 양손을 사용하는 10가지 일상 생활 작업 세트인 BeBiTS(Berlin Bimanual Test for Stroke)를 사용하여 이 BCI 로봇 시스템의 효과를 평가했습니다. 본 연구에는 8명의 뇌졸중 환자가 참여하였으나 BCI 로봇 시스템 훈련에 적응하고 postBeBiTS를 수행할 수 있는 참가자는 4명에 불과하였다. 특히 각 항목에 대한 preBeBiTS 점수가 4 이하일 때 BCI 로봇 시스템은 postBeBiTS 평가에서 더 큰 보조 효과를 보였습니다. 또한 현재 로봇 손은 팔과 손목 기능을 지원하지 않아 복잡한 손 움직임이 필요한 작업에 사용하는 데 제한이 있습니다. BCI-로봇 시스템의 훈련 효과를 확인하기 위해서는 더 많은 참가자가 필요하며, 향후 연구에서는 더 광범위한 상지 기능을 지원할 수 있는 로봇의 사용을 고려해야 합니다. 본 연구는 환자가 일상 생활 활동을 수행하는 데 도움을 주는 BCI-로봇 시스템의 능력을 확인하는 것을 목표로 했습니다.

서문

뇌졸중으로 인한 상지 기능의 손상은 일상 활동, 특히 양수작업을 수행하는 능력을 제한한다1. 따라서 손 재활은 뇌졸중 재활의 핵심 요소이며, 거울 요법2 및 CIMT(Constraint-Induced Movement Therapy)3는 잘 알려진 접근법입니다. 최근 연구에 따르면 EEG 기반 뇌-컴퓨터 인터페이스(BCI) 로봇 시스템은 뇌졸중 환자의 손 기능 회복을 개선하는 데 효과적인 보조 요법이 될 수 있습니다 4,5,6. BCI 로봇 시스템은 운동 움직임을 시도하려는 환자의 적극적인 의도와 성능을 결합하는 데 중점을 둡니다. 이 접근법이 재활에 효과적인지 여부를 결정하기 위한 연구가 활발히 진행되고 있습니다 7,8,9,10,11,12,13.

이 연구에서는 뇌졸중 환자가 이중 수동 활동을 수행할 수 있도록 설계된 BCI 제어 상지 보조 로봇 시스템을 제시합니다. 이 시스템은 뇌파계(EEG)를 사용하여 운동 이미지와 관련된 뇌 신호를 감지 및 해석하고 이를 EOG(Electroocculograms)와 결합하여 추가 제어 입력을 제공합니다. 이러한 신경생리학적 신호는 환자가 손가락 움직임을 보조하는 로봇 손을 제어할 수 있도록 한다14. 이 접근 방식은 움직이고자 하는 환자의 욕구와 신체 능력 사이의 격차를 해소하여 잠재적으로 운동 회복을 촉진하고 일상 업무에서 독립성을 높일 수 있습니다.

베를린 샤리테 의과대학(Charité Medical University)의 연구원들은 이 BCI 로봇 시스템의 효능을 평가하기 위해 포괄적인 평가 도구인 BeBiTS(Berlin Bimanual Test for Stroke)를 개발했습니다15. BeBiTS는 일상 생활에 필수적인 10가지 수동 활동을 수행할 수 있는 능력을 평가하여 기능 개선에 대한 정량적 측정을 제공합니다. 평가는 각 작업에 개별적으로 점수를 매기고 손 기능의 5가지 구성 요소인 손뻗기, 잡기, 안정화, 조작 및 들어 올리기를 평가합니다. 이를 통해 일상 생활 활동에 초점을 맞춰 환자의 기능 개선을 종합적으로 평가할 수 있습니다. 또한 특정 손 기능을 향상시키는 데 있어 BCI 로봇 시스템의 기여도를 정량화할 수 있습니다. 따라서 본 연구는 뇌졸중 환자의 교육 세션 전과 후의 BeBiTS 점수를 비교하여 효과적인 BCI 보조 로봇 시스템을 개발하는 것을 목표로 합니다.

프로토콜

분당서울대학교 병원 기관심사위원회는 모든 실험 절차를 검토하고 승인했다(IRB No. B-2205-756-003). 8명의 뇌졸중 환자를 모집하여 관련 내용을 충분히 설명한 후 동의를 구했습니다. 사전 동의를 얻은 후 프로토콜은 다음과 같이 진행됩니다: BCI 교육 전에 BeBiTS 평가를 수행한 후 EOG 및 EEG를 사용하여 BCI 교육을 수행합니다. 그 후, 참가자들은 로봇을 착용하고 또 다른 BeBiTS 평가를 수행합니다(그림 1).

1. BCI-로봇 교육 시스템 구축

  1. 환자 모집
    1. 다음 포함 기준을 사용하여 선별 프로세스를 수행합니다.
      1. 상지 기능이 손상된 20세에서 68세 사이의 환자를 선택합니다.
      2. 마비된 손의 손가락을 구부리거나 뻗을 수 없는 환자를 선택합니다.
      3. 단일 피질하 뇌졸중(허혈성 뇌졸중 및 출혈성 뇌졸중 모두 포함)이 있는 환자를 선택합니다.
      4. 뇌 손상 후 6개월 이상 경과한 환자를 선택합니다.
      5. 손상된 Fugl-Meyer 점수가 31 미만인 환자를 선택합니다.
    2. 모집된 모든 환자에게 실험 절차에 대한 자세한 정보를 제공하고 서명된 정보에 입각한 동의를 얻습니다.
      참고: 법정 대리인은 환자가 기준을 충족하지만 동의서에 서명할 수 없는 경우 서명된 정보에 입각한 동의서를 제공해야 합니다.
  2. BCI 시스템: EEG 장치
    1. 데이터 기록을 위해 EEG 뷰어 시스템( 재료 표 참조)을 사용하십시오.
    2. 맞춤형 BCI 소프트웨어가 있는 개인용 컴퓨터(PC)를 사용하여 PC를 EEG 장치에 연결합니다.
  3. 상지 보조 로봇 손
    1. 세 손가락을 지지하는 보조 로봇 손(16 )이 환자의 손상된 상지에 사용된다. 이 로봇은 엄지, 검지, 중지의 세 손가락만 덮도록 설계된 부드러운 가죽 같은 장갑입니다. USB 동글을 사용하여 로봇을 컴퓨터에 무선으로 연결합니다.
    2. 동글을 통해 컴퓨터에 연결되면 로봇의 초기 상태는 중립이며, 이는 손이 완전히 열려 있음을 의미합니다. 설계된 BCI 시스템은 측정된 EEG 값이 임계값을 충족하는지 여부에 따라 주먹을 쥔 의도를 인식할 때만 로봇의 손이 닫힐 수 있도록 설정합니다. 그림 2 는 이 BCI 로봇 시스템의 개략도를 보여줍니다.

2. BCI-로봇 평가

  1. 뇌졸중에 대한 베를린 이중 수동 검사(BeBiTS)
    참고: BeBiTS 평가는 뇌졸중 환자의 일상 생활에서 10가지 이중 수동 활동의 성과를 평가하기 위한 도구입니다.
    1. 환자를 책상을 마주 보는 안락의자에 편안하게 앉힙니다. 환자가 팔과 손을 모두 사용하여 평가 작업을 수행할 수 있도록 평가에 사용된 물체에서 약 30cm 떨어진 책상 가까이에 위치하도록 합니다.
    2. 이중 수동 활동 평가를 위해 다음 10 가지 항목을 보관하십시오 : 항아리를 엽니 다. 플라스틱 패킷을 엽니다. 물병을 엽니다. 물 한 잔을 붓는다. 고기 같은 퍼티를 자른다. 접시를 청소하십시오. 냄비를 들어 올리십시오. 치약 튜브를 엽니다. 칫솔에 치약을 바르십시오. 재킷의 지퍼를 닫습니다.
      참고: 10개의 평가 과제는 평가 항목을 사용하며, 모두 책상에 앉아서 수행됩니다. 각 액션은 10점 만점으로 점수가 매겨지며 총점은 100점입니다.
    3. 개별 항목 점수와 함께 5개의 수동 기능 구성 요소를 평가하고 점수를 매깁니다. 이러한 구성 요소와 각각의 점수는 도달(20), 파악(20), 안정화(10), 조작(33) 및 리프팅(17)이며 총 점수는 최대 100점입니다(그림 3).

3. BCI-로봇 교육 시스템

  1. EEG 설정
    1. BCI 시스템을 엽니다. 그림 4 는 BCI 시스템이 열렸을 때의 전체 화면을 보여줍니다.
    2. 캡을 씌우고 앰프를 연결합니다.
    3. Source module(소스 모듈)에서 EegoModule | impedance mode(임피던스 모드)를 선택합니다. 소스 모듈에서 시작을 누르면 파란색 표시등이 표시됩니다(그림 5A).
    4. 임피던스가 10k Ohms 미만인지 확인한 다음 소스 모듈에서 Stop을 누릅니다.
    5. 모드를 EEG로 변경하여 데이터를 스트리밍하고 시작을 누릅니다. 주어진 소프트웨어로 신호를 확인하십시오(그림 5B).
  2. EOG 캘리브레이션
    1. 전처리 모듈에서 EOG 몽타주에 특정한 파이프라인을 선택합니다(예: 왼쪽 눈의 EOG 전극에 대한 SMR-EOGleft; 그림 6A).
    2. Task 모듈에서 Number of cues(큐 수)를 설정합니다(예: 10). 작업 모듈은 방향을 로봇 손과 반대쪽으로 설정합니다(그림 6B).
    3. 참가자에게 나타나는 10개의 화살표 방향으로 짧은 측면 안구 운동을 수행하도록 지시합니다(그림 6C).
    4. 학습 직후 결과 그래프를 확인하십시오. 회색 선은 각 안구 운동 시도를 나타냅니다. 평균인 주황색 선이 기준선에 닿아 훈련이 성공적임을 나타내는지 확인합니다(그림 7).
    5. 학습이 성공하면 임계값 매개 변수 값을 기록합니다.
      참고: 안구 운동을 꾸준히 반복하는 것이 중요합니다. 참가자마다 다르지만 EOG 교육은 일반적으로 약 3회 시도 후에 실용적이며 일반적으로 반복적인 교육을 통해 향상됩니다.
  3. EEG 캘리브레이션
    1. Task 모듈에서 EEGCalibrationTaskModule을 선택합니다(그림 8A). Task 모듈의 Number of cues(큐 수)를 5로 설정합니다.
    2. 피드백 모듈에서 Laterality를 로봇 손 옆으로 설정하고 Display Pac-Man이 선택 취소되어 있는지 확인합니다(그림 8B).
    3. 참가자에게 검은색 화면에 '주먹을 쥔다고 상상해 보세요' 라는 메시지가 나타날 때 주먹을 꽉 쥐는 상상을 하도록 지시합니다(그림 8C). 참가자에게 화면이 검게 표시될 때 긴장을 풀도록 요청합니다. 주먹을 쥔 상상력을 5초 동안 지속하고 휴식 시간은 10초에서 15초 사이를 무작위로 바꾸면서 이 과정을 반복합니다.
    4. EEG 보정 후 결과 그래프를 검토하고 모터 이미지 중 8-12Hz 뮤 밴드에서 특징적인 ERD 패턴을 사용하여 참가자의 적절한 주파수 범위를 결정합니다. 그림 9의 왼쪽 그래프에서 11Hz의 매개변수 값을 기록하면 정지 상태와 비교하여 모터 이미지 중 ERD 응답을 보여줍니다. 그림 9의 오른쪽 그래프에서 주먹을 쥔 이미지를 나타내는 뚜렷한 빨간색 선과 수평 점선 임계값을 기준으로 편안한 상태를 나타내는 파란색 선을 강조 표시합니다.
    5. EEG 보정 교육이 적절하게 수행되면 오른쪽 그래프 아래에 참조 값과 임계값을 기록합니다.
      참고: 그러나 제공된 지침에 대한 이해 부족 또는 BCI 문맹과 같은 문제로 인해 단기 교정 교육이 어려운 경우가 있을 수 있습니다.
  4. 피드백을 통한 교육
    1. EOG 및 EEG 교육을 완료한 후 이전 교육의 결과 그래프에서 식별된 관심 대상, 빈도임계값 에 대해 주먹을 만드는 의도를 구별하는 매개변수 값을 설정합니다.
    2. 구성된 매개변수를 사용하여 Pac-Man을 사용하여 피드백 교육을 진행합니다. 훈련 후 매개변수가 올바르게 설정되면 참가자가 주먹을 꽉 쥐는 상상을 할 때 Pac-Man의 입이 점차 닫히는 것을 관찰하십시오. Pac-Man의 입이 제대로 닫히지 않으면 기준값과 임계값을 조정하면서 EEG 보정 훈련을 반복합니다(그림 10).
  5. 실험: BCI 로봇 시스템을 이용한 BeBiTS 평가
    1. 모든 피드백 교육(약 30분)을 완료한 후 참가자가 로봇을 착용하고 훈련된 BCI 시스템을 사용하여 BeBiTS 후 평가를 수행하도록 합니다.
      참고: 환자의 손 경련이 심한 경우 로봇을 착용할 때 특별한 주의가 필요합니다. 또한 로봇이 제공하는 세 손가락 보조가 일부 환자에게는 충분하지 않아 BeBiTS 평가에 필요한 모든 움직임을 수행하기 어려울 수 있습니다. 이러한 경우 수행할 수 있는 동작만 평가됩니다.
    2. 그림 11A와 같이 준비 및 시작 상태를 나타내는 흰색 표시등이 화면에 나타날 때까지 기다립니다. 백색광을 확인한 후 참가자는 눈을 한쪽으로 움직여 빛을 녹색으로 변경합니다(그림 11B). 초록불이 켜지면 참가자들은 주먹을 꽉 쥐는 상상을 합니다.
      참고: 시스템이 참가자의 의도를 잘 인식하면 참가자가 착용한 로봇을 작동시켜 주먹을 꽉 쥔 것입니다.
    3. 참가자가 로봇의 도움으로 주먹을 꽉 쥔 다음 그림 11C에 표시된 동작을 수행하도록 합니다.
    4. 그림 11D 는 로봇이 주먹을 쥔 자세를 유지하고 있음을 나타내는 빨간색 표시등을 표시합니다. 작업을 완료하면 참가자는 그림 11D와 같이 화면에서 이 빨간불을 관찰합니다. 이 시점에서 참가자가 로봇의 도움으로 다시 손을 뜨고 싶다면 눈을 움직여 밝은 색을 다시 흰색으로 변경할 수 있습니다.

결과

그림 12는 EOG 및 EEG 교육의 결과를 보여줍니다. 그림 12A 는 잘 훈련된 참가자의 결과를 나타냅니다. EOG 훈련 값은 일관되며 평균(주황색 굵은 선)이 임계값에 적절하게 도달합니다. EEG 훈련 결과는 또한 파란색(휴지 상태)과 빨간색(운동 이미지) 선을 명확하게 구분합니다.

대조적으로, 그림 1...

토론

이 연구는 뇌졸중 환자가 일상 업무를 수행할 수 있도록 지원하는 BCI 상지 보조 로봇 시스템을 제시했습니다. BeBiTS 테스트15 를 통해 양수작업의 효과를 평가하고 BCI 시스템14을 통해 상지 보조 로봇의 작동에 대한 교육을 구현했습니다. 이 접근 방식은 기존의 재활 절차와 달리 환자가 자신의 의도에 따라 로봇의 작동을 제어하여 회복?...

공개

저자는 선언할 이해 상충이 없습니다.

감사의 말

이 연구는 독일연방교육연구부와 한국 과학기술정보통신부가 지원한 독일-한국 산학연협력 프로그램(보조금 번호 P0017226)의 지원을 받았다

자료

NameCompanyCatalog NumberComments
BCI2000open-sourcegeneral-purpose software system for brain-computer interface (BCI) research that is free for non-commercial use
BrainVision LSL Viewer Brain Products GmbHa handy tool to monitor its LSL EEG and marker streams.
eego mini amplifier with 8-channel (F3, F4, C3, Cz, C4, P3, P4, EOG) waveguard original caps Ant Neuro, NetherlandsCompact and lightweight design: The eego mini amplifier is small and lightweight, offering excellent portability and suitability for EEG recording in various environments.
Neomano neofect, KoreaGlove Material: Leather, velcro, Non-slip cloth
Wire Material: Synthetic Thread
Weight: 65 g (without batt.)
cover three fingers: the thumb, index, and middle fingers
personal computer (PC) with custom BCI software window laptop

참고문헌

  1. Ekstrand, E., Rylander, L., Lexell, J., Brogårdh, C. Perceived ability to perform daily hand activities after stroke and associated factors: a cross-sectional study. BMC Neurol. 16, 208 (2016).
  2. Angerhöfer, C., Colucci, A., Vermehren, M., Hömberg, V., Soekadar, S. R. Post-stroke rehabilitation of severe upper limb paresis in Germany-toward long-term treatment with brain-computer interfaces. Front. Neurol. 12, 772199 (2021).
  3. Corbetta, D., Sirtori, V., Castellini, G., Moja, L., Gatti, R. Constraint-induced movement therapy for upper extremities in people with stroke. Cochrane Database Syst Rev. 2015 (10), CD004433 (2015).
  4. Kutner, N. G., Zhang, R., Butler, A. J., Wolf, S. L., Alberts, J. L. Quality-of-life change associated with robotic-assisted therapy to improve hand motor function in patients with subacute stroke: a randomized clinical trial. Phys Ther. 90 (4), 493-504 (2010).
  5. Baniqued, P. D. E., et al. Brain-computer interface robotics for hand rehabilitation after stroke: a systematic review. J Neuroeng Rehabil. 18 (1), 15 (2021).
  6. Yang, S., et al. Exploring the use of brain-computer interfaces in stroke neurorehabilitation. BioMed Res Int. 2021, 9967348 (2021).
  7. Wolpaw, J. R. Brain-computer interfaces. Handb Clin Neurol. 110, 67-74 (2013).
  8. Teo, W. P., Chew, E. Is motor-imagery brain-computer interface feasible in stroke rehabilitation. PM R. 6 (8), 723-728 (2014).
  9. Gomez-Rodriguez, M., et al. Towards brain-robot interfaces in stroke rehabilitation. IEEE Int Conf Rehabil Robot. 2011, 5975385 (2011).
  10. Silvoni, S., et al. Brain-computer interface in stroke: a review of progress. Clin EEG Neurosci. 42 (4), 245-252 (2011).
  11. Soekadar, S. R., Birbaumer, N., Cohen, L. G., Kansaku, K., Cohen, L. G. Brain-computer interfaces in the rehabilitation of stroke and neurotrauma. Systems Neuroscience and Rehabiliation. , 3-18 (2011).
  12. Said, R. R., Heyat, M. B. B., Song, K., Tian, C., Wu, Z. A systematic review of virtual reality and robot therapy as recent rehabilitation technologies using EEG-brain-computer interface based on movement-related cortical potentials. Biosensors. 12 (12), 1134 (2022).
  13. Daly, J. J., Huggins, J. E. Brain-computer interface: current and emerging rehabilitation applications. Arch Phys Med Rehabil. 96 (3 Suppl), S1-S7 (2015).
  14. Soekadar, S. R., Witkowski, M., Vitiello, N., Birbaumer, N. An EEG/EOG-based hybrid brain-neural computer interaction (BNCI) system to control an exoskeleton for the paralyzed hand. Biomed Tech (Berl). 60 (3), 199-205 (2015).
  15. Angerhöfer, C., et al. The Berlin Bimanual Test for Tetraplegia (BeBiTT) to assess the impact of assistive hand exoskeletons on bimanual task performance. J NeuroEng Rehabil. 20, 17 (2023).
  16. . Wearable Robot Hand Assistance Available from: https://www.neofect.com/kr/neomano (2024)

재인쇄 및 허가

JoVE'article의 텍스트 или 그림을 다시 사용하시려면 허가 살펴보기

허가 살펴보기

더 많은 기사 탐색

BCIEEGEOGBeBiTS

This article has been published

Video Coming Soon

JoVE Logo

개인 정보 보호

이용 약관

정책

연구

교육

JoVE 소개

Copyright © 2025 MyJoVE Corporation. 판권 소유