Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

L'immaginazione motoria in un ambiente di realtà virtuale ha ampie applicazioni nei sistemi di interfaccia cervello-computer. Questo manoscritto delinea l'uso di avatar digitali personalizzati che assomigliano ai partecipanti che eseguono movimenti immaginati dal partecipante in un ambiente di realtà virtuale per migliorare l'immersione e il senso di proprietà del corpo.

Abstract

Questo studio introduce un framework innovativo per la riabilitazione neurologica integrando le tecnologie di interfacce cervello-computer (BCI) e realtà virtuale (VR) con la personalizzazione di avatar tridimensionali (3D). Gli approcci tradizionali alla riabilitazione spesso non riescono a coinvolgere pienamente i pazienti, principalmente a causa della loro incapacità di fornire un'esperienza profondamente immersiva e interattiva. Questa ricerca cerca di colmare questa lacuna utilizzando tecniche di imaging motorio (MI), in cui i partecipanti visualizzano movimenti fisici senza un'esecuzione effettiva. Questo metodo sfrutta i meccanismi neurali del cervello, attivando le aree coinvolte nell'esecuzione del movimento quando si immaginano i movimenti, facilitando così il processo di recupero. L'integrazione delle capacità immersive della realtà virtuale con la precisione dell'elettroencefalografia (EEG) per catturare e interpretare l'attività cerebrale associata ai movimenti immaginati costituisce il cuore di questo sistema. I Digital Twin sotto forma di avatar 3D personalizzati vengono utilizzati per migliorare significativamente il senso di immersione all'interno dell'ambiente virtuale. Questo accresciuto senso di incarnazione è fondamentale per una riabilitazione efficace, con l'obiettivo di rafforzare la connessione tra il paziente e la sua controparte virtuale. In questo modo, il sistema non solo mira a migliorare le prestazioni delle immagini motorie, ma cerca anche di fornire un'esperienza di riabilitazione più coinvolgente ed efficace. Attraverso l'applicazione in tempo reale di BCI, il sistema consente di tradurre direttamente i movimenti immaginati in azioni virtuali eseguite dall'avatar 3D, offrendo un feedback immediato all'utente. Questo ciclo di feedback è essenziale per rafforzare i percorsi neurali coinvolti nel controllo motorio e nel recupero. L'obiettivo finale del sistema sviluppato è quello di migliorare significativamente l'efficacia degli esercizi di imaging motorio rendendoli più interattivi e reattivi ai processi cognitivi dell'utente, aprendo così un nuovo percorso nel campo della riabilitazione neurologica.

Introduzione

I paradigmi riabilitativi per i pazienti con disabilità neurologiche stanno subendo un cambiamento trasformativo con l'integrazione di tecnologie avanzate come le interfacce cervello-computer (BCI) e la realtà virtuale immersiva (VR), offrendo un metodo più sfumato ed efficace per favorire il recupero. L'immaginazione motoria (MI), la tecnica al centro della riabilitazione basata sulla BCI, prevede la prova mentale di movimenti fisici senza un'effettiva esecuzione motoria1. L'infarto miocardico sfrutta un meccanismo neurale in cui l'immaginazione di un movimento innesca un modello di attività cerebrale che rispecchia da vicino quello dell'esecuzione dell'azione fisica stessa 2,3,4. In particolare, l'impegno nell'infarto miocardico porta a un fenomeno noto come desincronizzazione correlata agli eventi (ERD) nelle bande di frequenza alfa (8-13 Hz) e beta (13-25 Hz) dell'attività elettrica del cervello 5,6,7. L'ERD è indicativo di una soppressione dei ritmi cerebrali di base, un modello osservato anche durante il movimento effettivo, fornendo così un substrato neurale per l'uso dell'infarto miocardico all'interno dei quadri di riabilitazione assistita da BCI7. Una tale somiglianza nell'attivazione corticale tra infarto miocardico e movimento fisico suggerisce che l'infarto miocardico può stimolare efficacemente le reti neurali coinvolte nel controllo motorio, rendendolo uno strumento prezioso per i pazienti con deficit motori8. Inoltre, la pratica dell'MI è stata estesa oltre la mera prova mentale per includere strategie di osservazione dell'azione9. Osservare il movimento di parti del corpo correlate al compito o le azioni in altri può attivare la rete di neuroni specchio (MNN), un gruppo di neuroni che rispondono sia all'osservazione dell'azione che all'esecuzione9. È stato dimostrato che l'attivazione della MNN attraverso l'osservazione induce plasticità corticale, come evidenziato da varie modalità di neuroimaging, tra cui la risonanza magnetica funzionale10, la tomografia a emissione di positroni11 e la stimolazione magnetica transcranica12. L'evidenza supporta l'idea che l'allenamento dell'infarto miocardico, potenziato dall'osservazione dell'azione, può portare a un significativo adattamento neurale e recupero negli individui affetti.

La tecnologia della realtà virtuale ha rivoluzionato il regno della riabilitazione basata sull'MI offrendo un ambiente immersivo che migliora il senso di proprietà del corpo e offusca le distinzioni tra il mondo reale e quello virtuale 13,14,15. La qualità immersiva della realtà virtuale la rende uno strumento efficace per l'osservazione dell'azione e la pratica delle immagini motorie, in quanto consente ai partecipanti di percepire l'ambiente virtualecome reale. La ricerca ha dimostrato che i dispositivi VR hanno un effetto più pronunciato sull'allenamento MI rispetto ai tradizionali display 2D15,16. Tali risultati sono evidenziati da una maggiore attività neurale, come l'aumento dei rapporti di ampiezza ERD nella corteccia sensomotoria, evidenziando i benefici di livelli di immersione più elevati nella stimolazione dell'attività cerebrale durante gli esercizi di infarto miocardico guidati visivamente16. Il sistema aiuta a migliorare le prestazioni dell'infarto miocardico per le attività che coinvolgono i movimenti delle braccia o degli arti fornendo un feedback diretto, migliorando così il processo di riabilitazione16,17. La sinergia tra MI e VR enfatizza l'integrazione delle attività sensoriali, percettive, cognitive e motorie18,19. La combinazione è stata particolarmente vantaggiosa per i sopravvissuti all'ictus20,21 e per i veterani di guerra22, poiché gli studi hanno dimostrato che l'integrazione della realtà virtuale nei protocolli di riabilitazione basati sull'infarto miocardico può ridurre significativamente i tempi di riabilitazione e migliorare i risultati del recupero. La caratteristica unica della VR in riabilitazione risiede nella sua capacità di creare un senso di presenza all'interno di un ambiente virtuale appositamente progettato, migliorando l'esperienza di riabilitazione che è ulteriormente aumentata dall'inclusione di avatar virtuali che rappresentano il corpo dell'utente, che è stato sempre più utilizzato negli studi di riabilitazione motoria23. Questi avatar offrono una rappresentazione tridimensionale realistica dei movimenti degli arti, aiutando l'infarto miocardico e influenzando in modo significativo l'attivazione della corteccia motoria. Consentendo ai partecipanti di visualizzare i loro sé virtuali mentre eseguono compiti specifici, la realtà virtuale non solo arricchisce l'esperienza MI, ma favorisce anche una riorganizzazione neurale più rapida ed efficace e un processo di recupero24. L'implementazione di avatar virtuali e ambienti simulati nella formazione MI enfatizza l'uso naturale e integrato dei corpi virtuali all'interno di mondi virtuali immersivi.

Nonostante i notevoli vantaggi del controllo basato su BCI di avatar 3D nell'infarto miocardico per la riabilitazione, rimane una limitazione significativa nell'uso predominante di metodologie offline. Attualmente, la maggior parte delle applicazioni BCI prevede l'acquisizione di dati elettroencefalografici (EEG) preregistrati che vengono successivamente utilizzati per manipolare un avatar24,25. Anche negli scenari in cui si ottiene il controllo dell'avatar in tempo reale, questi avatar sono spesso generici e non assomigliano ai partecipanti che rappresentano23. Questo approccio generico perde un'opportunità fondamentale per approfondire l'immersione e il senso di proprietà del corpo, che è fondamentale per una riabilitazione efficace24. La creazione di un avatar 3D che rispecchi l'esatta somiglianza del soggetto potrebbe migliorare significativamente l'esperienza immersiva dell'esperienza16. Visualizzando se stessi nel mondo virtuale, i partecipanti potrebbero favorire una connessione più forte tra i loro movimenti immaginati e reali, portando potenzialmente a modelli ERD più pronunciati e, quindi, a un adattamento e un recupero neurale più efficaci16. Avanzando verso il controllo in tempo reale di avatar 3D personalizzati, il campo della BCI e della VR può migliorare significativamente i paradigmi di riabilitazione, offrendo un metodo più sfumato, coinvolgente ed efficace per il recupero del paziente.

Il presente manoscritto presenta la creazione, la progettazione e gli aspetti tecnologici sia dell'hardware che del software del controllo BCI in tempo reale basato su VR di avatar 3D, evidenziando i suoi risultati innovativi che ne supportano l'integrazione in contesti di riabilitazione motoria. Il sistema proposto utilizzerà l'elettroencefalografia (EEG) per catturare i segnali di immagini motorie generati dal soggetto, che verranno poi utilizzati per controllare i movimenti e le azioni dell'avatar in tempo reale. L'approccio attuale combinerà le capacità avanzate della tecnologia VR con la precisione dell'EEG nel riconoscere e interpretare l'attività cerebrale correlata ai movimenti immaginati, con l'obiettivo di creare un'interfaccia più coinvolgente ed efficace per consentire agli utenti di interagire con gli ambienti digitali attraverso il potere dei loro pensieri.

Protocollo

Il presente studio mira a indagare la fattibilità del controllo di un avatar 3D in tempo reale all'interno di un ambiente VR utilizzando segnali MI registrati tramite EEG. Lo studio si concentra sul miglioramento dell'immersione e del senso di proprietà del corpo personalizzando l'avatar per assomigliare molto al soggetto. Il protocollo ha ricevuto l'approvazione dal Vellore Institute of Technology Review Board. I partecipanti hanno fornito il consenso informato scritto dopo aver esaminato lo scopo, le procedure e i potenziali rischi dello studio.

1. Configurazione sperimentale

NOTA: Assicurarsi che il sistema incorpori tutti i componenti come illustrato nello schema della configurazione sperimentale in Figura 1 (vedere la tabella dei materiali per l'apparecchiatura utilizzata).

  1. Sviluppo avatar 3D
    1. Modellazione dell'avatar
      1. Il giorno prima della raccolta dei dati, raccogli più fotografie facciali da varie angolazioni e misurazioni precise del corpo da ciascun partecipante.
      2. Fare clic su Software di modellazione per aprirlo. Subito dopo l'apertura, trova il cursore per Genere. Regola questo cursore in modo che corrisponda al sesso del modello che si desidera creare.
      3. Vai alla scheda Modellazione nella parte superiore dello schermo e fai clic sulla scheda per accedere alle opzioni di personalizzazione del corpo.
      4. Usa i cursori sotto varie sezioni, come busto, braccia, gambe, ecc., per modellare il corpo. Concentrati sulle seguenti misure di base: altezza, petto/busto, vita, fianchi, lunghezza delle gambe e lunghezza delle braccia.
      5. Fai clic sulla scheda Pose/Animate e seleziona lo scheletro predefinito per le animazioni di base. Vai al menu File in alto, seleziona Esporta, quindi scegli il. Formato MHX2 per la compatibilità con il software di animazione. Assicurati di selezionare l'opzione Esporta con rig per includere lo scheletro. Scegli una cartella di destinazione, assegna un nome al file e fai clic su Esporta.
      6. Apri il software di animazione. Vai su File > Importa e seleziona .mhx2 o il formato previsto. Passare al file salvato, selezionarlo e importarlo nel software.
      7. Vai al menu Modifica, seleziona Preferenze > componenti aggiuntivi e assicurati che il plug-in appropriato per creare volti sia abilitato.
      8. Nella vista 3D, passa al layout preimpostato fornito dal plug-in o vai al pannello del plug-in, di solito situato sullo scaffale degli strumenti sul lato sinistro.
      9. Fare clic su Crea una nuova testa nel pannello del plugin per avviare il modello della testa. Utilizzare il pulsante Aggiungi foto per importare le foto del partecipante. Utilizza i profili anteriori e laterali per una modellazione accurata.
      10. Segui le istruzioni per allineare i punti sulle foto con i punti corrispondenti sul modello 3D. Il plug-in regolerà quindi il modello della testa in modo che corrisponda alle caratteristiche del partecipante. Una volta soddisfatto della somiglianza, finalizza il modello della testa.
      11. Posizionare manualmente il modello della testa in modo che si allinei con il collo del modello del corpo. Regola la scala e la rotazione della testa per una vestibilità perfetta.
      12. Usa lo strumento Aggancia (Maiusc+Tab) per allineare con precisione i vertici del collo sulla testa con quelli sul corpo.
      13. Una volta allineati, unisci la testa e il corpo selezionando entrambe le mesh, premendo Ctrl+J per unirle in un unico oggetto.
      14. Importa o modella un paio di bonghi e posizionali davanti al modello a un'altezza appropriata.
    2. Animazione dell'avatar
      1. Passa alla modalità Posa per il modello truccato. Al fotogramma 1, seleziona tutte le ossa e inserisci un fotogramma chiave (usa il tasto I) per consentire a LocRotScale di registrare le loro posizioni iniziali.
      2. Sposta la timeline in avanti fino al fotogramma 30 per posizionare la mano sinistra per colpire il bongo.
      3. Muovi e ruota l'armatura della mano sinistra per simulare il colpo del bongo. Inserisci un fotogramma chiave per queste ossa. Ripeti questo processo per riportare la mano alla posizione iniziale al fotogramma 60, inserendo un altro fotogramma chiave per completare l'azione.
      4. Sposta la timeline al fotogramma 90, dove la mano destra inizia la sua azione. Simile alla mano sinistra, regola la posizione e la rotazione della mano destra per simulare il colpo dell'altro bongo e inserisci un fotogramma chiave.
      5. Riporta la mano nella posizione iniziale e inserisci un fotogramma chiave per terminare il movimento al fotogramma 150.
      6. Scorri la timeline per rivedere l'animazione. Regolare secondo necessità per un movimento più fluido o un migliore tempismo tra i colpi di bongo. Salva il file.
  2. Configurazione dell'attrezzatura
    1. Assemblare il sistema di acquisizione dati EEG a 16 canali collegando il modulo Daisy con 8 canali EEG sulla parte superiore della scheda con 8 canali EEG.
    2. Collegare l'elettrodo di riferimento tramite un cavo Y-Splitter al pin di riferimento inferiore sulla Daisy Board e al pin di riferimento inferiore della scheda nella parte inferiore, entrambi etichettati come SRB.
    3. Collegare l'elettrodo di terra al pin BIAS sulla scheda inferiore.
    4. Collegare i 16 elettrodi EEG ai pin della scheda inferiore etichettati N1P-N8P e ai pin inferiori a margherita etichettati N1P-N8P.
    5. Inserire gli elettrodi sul cappuccio privo di gel nelle posizioni etichettate aderendo al sistema internazionale 10-20 per il posizionamento degli elettrodi con elettrodi etichettati come FP1, FP2, C3, C4, CZ, P3, P4, PZ, O1, O2, F7, F8, F3, F4, T3 e T4.
    6. Immergere 18 spugne fornite per gli elettrodi EEG in una soluzione salina con 5 g di cloruro di sodio mescolato in 200 ml di acqua di rubinetto per 15 minuti.
    7. Inserire le spugne imbevute sul lato inferiore di ciascun elettrodo per stabilire il contatto tra il cuoio capelluto e l'elettrodo.
    8. Fai sedere comodamente i partecipanti in una stanza tranquilla. Posiziona la cuffia EEG senza gel sul cuoio capelluto del partecipante, assicurandoti che la cuffia sia allineata correttamente per adattarsi alle orecchie del partecipante.
    9. Collegare il dongle USB al laptop. Aprire la GUI EEG, fare clic sul sistema EEG, sotto l'opzione Origine dati selezionare Seriale (da Dongle), 16 canali e AUTO-CONNECT.
    10. All'interno della schermata Acquisizione dati, selezionare il widget del segnale per verificare la qualità del segnale degli elettrodi collegati verificando un livello di impedenza ottimale di <10 kΩ in ciascun sitodell'elettrodo 26.
    11. Se l'impedenza è superiore a 10 kΩ, aggiungere alcune gocce di soluzione salina alla spugna sotto l'elettrodo. Dopo il controllo dell'impedenza, chiudere la GUI.
    12. Aprire il software del server di acquisizione, selezionare la scheda EEG appropriata in Driver e fare clic su Connect > Play per stabilire una connessione con il sistema EEG.
    13. Prepara il visore VR igienizzandolo con salviette e posizionandolo sulla testa del partecipante sopra la cuffia EEG per facilitare un'interazione coinvolgente durante l'acquisizione dei dati EEG.
  3. Configurazione del gioco
    NOTA: le seguenti istruzioni descrivono la configurazione di due scenari del motore di gioco utilizzando Open Sound Control (OSC): uno per l'addestramento delle immagini motorie (feedforward) e un altro per il test delle immagini motorie (feedback). Lo scenario feedforward addestra gli utenti nelle immagini motorie attraverso animazioni osservate attivate da messaggi OSC. Lo scenario di feedback verifica l'efficacia delle immagini motorie animando i movimenti immaginati dall'utente in base agli input OSC.
    1. Apri il software del motore di gioco e seleziona Progetto di formazione sulle immagini motorie. Abilita il supporto VR: vai a Modifica impostazioni progetto > > Impostazioni > lettore XR, seleziona Realtà virtuale supportata e assicurati che il visore VR sia elencato in SDK per realtà virtuale.
    2. Elimina la fotocamera predefinita e trascina la fotocamera VR nella scena dal pacchetto di integrazione VR.
    3. Posizionate il file di animazione importato nella scena. Regolare la scala e l'orientamento secondo necessità. Assicurati che OSCListener GameObject con script pre-scritti sia impostato per attivare animazioni del modello per i movimenti della mano sinistra e destra in base ai messaggi OSC, simulando l'azione di colpire il bongo per l'addestramento delle immagini motorie.
    4. Apri File > Impostazioni build nel software del motore di gioco. Seleziona PC, Mac e Linux Standalone, scegli come destinazione Windows, quindi fai clic su Genera ed esegui.
    5. Per il progetto di test delle immagini motorie, eseguire passaggi simili a quelli del progetto di formazione sulle immagini motorie. Utilizzare l'oggetto GameObject OSCListener configurato con script progettati per ricevere segnali OSC indicativi dei movimenti della mano immaginati dal partecipante, attivando le animazioni corrispondenti per il progetto di test.

figure-protocol-9912
Figura 1: Configurazione VR-BCI. L'intera configurazione VR-BCI mostra il partecipante che indossa il visore VR e la cuffia EEG. I partecipanti hanno visualizzato l'avatar 3D personalizzato nell'ambiente virtuale e ne hanno controllato l'azione utilizzando i segnali cerebrali trasmessi al computer in modalità wireless. Clicca qui per visualizzare una versione più grande di questa figura.

2. Progettazione sperimentale

  1. Fase di verifica del segnale
    1. Apri lo strumento software per progettare ed eseguire scenari di immagini motorie, vai su File e carica i sei scenari Motor-Imagery-BCI etichettati Verifica del segnale, Acquisizione, Addestramento CSP, Addestramento classificatore, Test e Matrice di confusione.
    2. Passare allo scenario di verifica del segnale. Applica un filtro passa-banda compreso tra 1 e 40 Hz con un ordine di filtro di 4 ai segnali grezzi utilizzando le scatole di progettazione per un'elaborazione del segnale ottimizzata.
  2. Fase di formazione
    1. Guida e istruisci i partecipanti a sottoporsi a compiti di immaginazione motoria, immaginando i movimenti delle mani in risposta a segnali visivi.
    2. Apri il file per l'allenamento con le immagini motorie e visualizza l'avatar 3D preparato in piedi su una serie di bonghi attraverso il visore VR.
    3. Passare allo scenario di acquisizione e fare doppio clic sullo stimolatore di immagini del motore Graz per configurare la casella.
    4. Configura prove di 50, 5 s (cue-1.25 s e MI-3.75 s) sia per i movimenti della mano sinistra che per quelli destrorsi, incorporando un periodo di base di 20 s seguito da intervalli di 10 s di riposo dopo ogni 10 prove per evitare l'affaticamento mentale.
    5. Configura le prove con la mano sinistra e destra in modo che siano randomizzate e disponi di un segnale prima della prova che indichi la mano da immaginare.
    6. Collegare una scatola OSC con l'indirizzo IP e la porta per trasmettere il segnale per la mano da immaginare al programma del motore di gioco di formazione delle immagini motorie.
    7. Chiedi ai partecipanti di immaginare di eseguire il movimento della loro mano insieme all'avatar 3D seguendo lo stesso ritmo dell'avatar mentre colpisce il bongo con la mano corrispondente, seguendo un segnale di testo che mostra quale mano deve essere immaginata.
  3. Formazione CSP e LDA
    1. Dopo l'acquisizione, eseguire lo scenario di addestramento CSP per analizzare i dati EEG della fase di acquisizione e calcolare i modelli spaziali comuni (CSP), creando filtri per distinguere tra immagini della mano sinistra e destra.
    2. Dopo l'addestramento CSP, passare allo scenario di addestramento del classificatore ed eseguirlo per utilizzare l'analisi discriminante lineare (LDA) utilizzando i filtri CSP per una classificazione efficiente delle attività, preparando il sistema per il controllo avatar in tempo reale.
  4. Fase di collaudo
    1. Passa allo scenario di test per consentire ai partecipanti di controllare i propri avatar 3D in tempo reale utilizzando la tecnologia dell'interfaccia cervello-computer (BCI).
    2. Caricare nelle apposite caselle i classificatori addestrati durante lo scenario precedente sui dati EEG acquisiti mentre i partecipanti immaginavano i movimenti delle mani per interpretare queste azioni immaginate in tempo reale.
    3. Assicurarsi che il sistema EEG e la configurazione VR siano operativi e configurati correttamente secondo le impostazioni della fase di allenamento.
    4. Informare i partecipanti sulla procedura di test, sottolineando la necessità di immaginare chiaramente i movimenti della mano (bongo che colpisce con la mano sinistra o destra) come suggerito da segnali di testo.
    5. Simile alla fase di allenamento, condurre 20 prove per ogni partecipante, divise equamente tra l'immaginazione dei movimenti della mano sinistra e destra e randomizzate.
    6. Collega e configura una scatola OSC per trasmettere le informazioni cue da visualizzare come testo che indica quale mano deve essere visualizzata nel programma del motore di gioco.
    7. Connettiti a un'altra casella OSC per trasmettere il valore previsto per i movimenti della mano sinistra e destra per il programma del motore di gioco per riprodurre l'animazione corrispondente in base alla mano immaginata dal partecipante.
    8. Eseguire lo scenario di test. Esegui il programma del motore di gioco Motor Imagery Testing.

3. Raccolta e analisi dei dati

  1. Registra continuamente i dati EEG e le uscite del classificatore durante le fasi di acquisizione e test dell'esperimento, con i dati campionati a 125 Hz.
  2. Passare allo scenario Matrice di confusione e caricare il file EEG acquisito nella casella denominata Lettore di flusso generico per ciascun partecipante e per entrambe le fasi di acquisizione e formazione.
  3. Esegui lo scenario per ottenere la matrice di confusione per valutare l'accuratezza con cui il sistema BCI interpreta i segnali delle immagini motorie.
  4. Raccogli il feedback dei partecipanti in merito alla loro esperienza con la facilità d'uso, le capacità di controllo, il livello di immersione e il comfort dell'avatar mentre indossano la cuffia EEG e il visore VR.

Risultati

I risultati mostrati provengono da 5 individui che hanno seguito il protocollo sopra descritto. Hanno partecipato allo studio un totale di 5 adulti sani (3 femmine) di età compresa tra 21 e 38 anni.

Le prestazioni di classificazione individuale per ciascun partecipante sia in condizioni di allenamento con immagini motorie che di test sono mostrate nella Figura 2. È stata calcolata una matrice di confusione media per tutti i soggetti per valutare l'accuratezza de...

Discussione

L'applicazione dell'infarto miocardico in combinazione con la tecnologia VR offre una strada promettente per la riabilitazione sfruttando i meccanismi naturali del cervello per la pianificazione e l'esecuzione motoria. La capacità dell'MI di indurre la desincronizzazione correlata agli eventi in specifiche bande di frequenza cerebrali, rispecchiando l'attività neurale del movimento fisico 2,3,4, fornisce un quadro robusto per ...

Divulgazioni

Gli autori non hanno alcun conflitto di interessi da rivelare.

Riconoscimenti

Gli autori desiderano ringraziare tutti i partecipanti per il loro tempo e il loro coinvolgimento.

Materiali

NameCompanyCatalog NumberComments
Alienware LaptopDellHigh-end gaming laptop with GTX1070 Graphics Card
Oculus Rift-S VR headsetMetaVR headset
OpenBCI Cyton DaisyOpenBCIEEG system
OpenBCI Gel-free capOpenBCIGel-free cap for placing the EEG electrodes over the participant's scalp

Riferimenti

  1. Andrade, J., Cecílio, J., Simões, M., Sales, F., Castelo-Branco, M. Separability of motor imagery of the self from interpretation of motor intentions of others at the single trial level: An eeg study. J. NeuroEng. Rehabil. 14 (1), 1-13 (2017).
  2. Lorey, B., et al. Neural simulation of actions: Effector-versus action-specific motor maps within the human premotor and posterior parietal area. Hum. Brain Mapp. 35 (4), 1212-1225 (2014).
  3. Ehrsson, H. H., Geyer, S., Naito, E. Imagery of voluntary movement of fingers, toes, and tongue activates corresponding body-part-specific motor representations. J Neurophysiol. 90 (5), 3304-3316 (2003).
  4. Sauvage, C., Jissendi, P., Seignan, S., Manto, M., Habas, C. Brain areas involved in the control of speed during a motor sequence of the foot: Real movement versus mental imagery. J Neuroradiol. 40 (4), 267-280 (2013).
  5. Pfurtscheller, G., Neuper, C. Motor imagery activates primary sensorimotor area in humans. Neurosci Lett. 239 (2-3), 65-68 (1997).
  6. Jeon, Y., Nam, C. S., Kim, Y. J., Whang, M. C. Event-related (de)synchronization (erd/ers) during motor imagery tasks: Implications for brain-computer interfaces. Int. J. Ind. Ergon. 41 (5), 428-436 (2011).
  7. Mcfarland, D. J., Miner, L. A., Vaughan, T. M., Wolpaw, J. R. Mu and beta rhythm topographies during motor imagery and actual movements. Brain Topogr. 12 (3), 177-186 (2000).
  8. Di Pellegrino, G., Fadiga, L., Fogassi, L., Gallese, V., Rizzolatti, G. Understanding motor events: A neurophysiological study. Exp Brain Res. 91 (1), 176-180 (1992).
  9. Rizzolatti, G. The mirror neuron system and its function in humans. Anat Embryol (Berl). 210 (5-6), 419-421 (2005).
  10. Jackson, P. L., Lafleur, M. F., Malouin, F., Richards, C. L., Doyon, J. Functional cerebral reorganization following motor sequence learning through mental practice with motor imagery. Neuroimage. 20 (2), 1171-1180 (2003).
  11. Cramer, S. C., et al. Harnessing neuroplasticity for clinical applications. Brain. 134, 1591-1609 (2011).
  12. Nojima, I., et al. Human motor plasticity induced by mirror visual feedback). J Neurosci. 32 (4), 1293-1300 (2012).
  13. Slater, M. . Implicit learning through embodiment in immersive virtual reality. , (2017).
  14. Tham, J., et al. Understanding virtual reality: Presence, embodiment, and professional practice. IEEE Trans. Prof. Commun. 61 (2), 178-195 (2018).
  15. Choi, J. W., Kim, B. H., Huh, S., Jo, S. Observing actions through immersive virtual reality enhances motor imagery training. IEEE Trans. Neural Syst. Rehabil. Eng. 28 (7), 1614-1622 (2020).
  16. Lakshminarayanan, K., et al. The effect of combining action observation in virtual reality with kinesthetic motor imagery on cortical activity. Front Neurosci. 17, 1201865 (2023).
  17. Juliano, J. M., et al. Embodiment is related to better performance on a brain-computer interface in immersive virtual reality: A pilot study. Sensors. 20 (4), 1204 (2020).
  18. Lakshminarayanan, K., Shah, R., Yao, Y., Madathil, D. The effects of subthreshold vibratory noise on cortical activity during motor imagery. Motor Control. 27 (3), 559-572 (2023).
  19. Cole, S. W., Yoo, D. J., Knutson, B. Interactivity and reward-related neural activation during a serious videogame. PLoS One. 7 (3), e33909 (2012).
  20. Cameirao, M. S., Badia, S. B., Duarte, E., Frisoli, A., Verschure, P. F. The combined impact of virtual reality neurorehabilitation and its interfaces on upper extremity functional recovery in patients with chronic stroke. Stroke. 43 (10), 2720-2728 (2012).
  21. Turolla, A., et al. Virtual reality for the rehabilitation of the upper limb motor function after stroke: A prospective controlled trial. J Neuroeng Rehabil. 10, 85 (2013).
  22. Isaacson, B. M., Swanson, T. M., Pasquina, P. F. The use of a computer-assisted rehabilitation environment (caren) for enhancing wounded warrior rehabilitation regimens. J Spinal Cord Med. 36 (4), 296-299 (2013).
  23. Alchalabi, B., Faubert, J., Labbe, D. R. EEG can be used to measure embodiment when controlling a walking self-avatar. IEEE Conf. on Virtual Reality and 3D User Interfaces (VR). , 776-783 (2019).
  24. Luu, T. P., Nakagome, S., He, Y., Contreras-Vidal, J. L. Real-time eeg-based brain-computer interface to a virtual avatar enhances cortical involvement in human treadmill walking. Sci Rep. 7 (1), 8895 (2017).
  25. Longo, B. B., Benevides, A. B., Castillo, J., Bastos-Filho, T. Using brain-computer interface to control an avatar in a virtual reality environment. 5th ISSNIP-IEEE Biosignals and Biorobotics Conf. (BRC). , 1-4 (2014).
  26. Hinrichs, H., et al. Comparison between a wireless dry electrode eeg system with a conventional wired wet electrode eeg system for clinical applications. Scientific reports. 10 (1), 5218 (2020).
  27. Škola, F., Tinková, S., Liarokapis, F. Progressive training for motor imagery brain-computer interfaces using gamification and virtual reality embodiment. Front Human Neurosci. 13, 329 (2019).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

Immagini MotorieInterfaccia Cervello ComputerRealt VirtualeGemello DigitaleInterazione IncarnataRiabilitazione NeurologicaEEGFeedback Immersivo

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati