È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.
Method Article
Qui, presentiamo una configurazione hardware e software open source semplificata per studiare l'apprendimento spaziale del mouse utilizzando la realtà virtuale (VR). Questo sistema visualizza una traccia lineare virtuale a un mouse con la testa trattenuta che gira su una ruota utilizzando una rete di microcontrollori e un computer a scheda singola che esegue un pacchetto software grafico Python facile da usare.
Gli esperimenti comportamentali sui topi consentono ai neuroscienziati di osservare l'attività del circuito neurale con strumenti di imaging elettrofisiologico e ottico ad alta risoluzione, fornendo al contempo precisi stimoli sensoriali a un animale che si comporta. Recentemente, studi sull'uomo e sui roditori che utilizzano ambienti di realtà virtuale (VR) hanno dimostrato che la realtà virtuale è uno strumento importante per scoprire i meccanismi neurali alla base dell'apprendimento spaziale nell'ippocampo e nella corteccia, grazie al controllo estremamente preciso su parametri come segnali spaziali e contestuali. La creazione di ambienti virtuali per i comportamenti spaziali dei roditori può, tuttavia, essere costosa e richiedere un ampio background in ingegneria e programmazione informatica. Qui, presentiamo un sistema semplice ma potente basato su hardware e software open source economico, modulare e che consente ai ricercatori di studiare l'apprendimento spaziale in topi con la testa trattenuta utilizzando un ambiente VR. Questo sistema utilizza microcontrollori accoppiati per misurare la locomozione e fornire stimoli comportamentali mentre i topi trattenuti dalla testa corrono su una ruota in concerto con un ambiente di binario lineare virtuale reso da un pacchetto software grafico in esecuzione su un computer a scheda singola. L'enfasi sull'elaborazione distribuita consente ai ricercatori di progettare sistemi flessibili e modulari per suscitare e misurare comportamenti spaziali complessi nei topi al fine di determinare la connessione tra l'attività del circuito neurale e l'apprendimento spaziale nel cervello dei mammiferi.
La navigazione spaziale è un comportamento etologicamente importante con cui gli animali codificano le caratteristiche di nuove posizioni in una mappa cognitiva, che viene utilizzata per trovare aree di possibile ricompensa ed evitare aree di potenziale pericolo. Inestricabilmente legati alla memoria, i processi cognitivi alla base della navigazione spaziale condividono un substrato neurale nell'ippocampo1 e nella corteccia, dove i circuiti neurali in queste aree integrano le informazioni in entrata e formano mappe cognitive di ambienti ed eventi per il successivo richiamo2. Mentre la scoperta delle cellule di posizione nell'ippocampo3,4 e delle cellule griglia nella corteccia entorinale5 ha fatto luce su come si forma la mappa cognitiva all'interno dell'ippocampo, rimangono molte domande su come specifici sottotipi neurali, microcircuiti e singole sottoregioni dell'ippocampo (il giro dentato e le aree di cornu ammonis, CA3-1) interagiscono e partecipano alla formazione e al richiamo della memoria spaziale.
L'imaging a due fotoni in vivo è stato uno strumento utile per scoprire le dinamiche cellulari e di popolazione nella neurofisiologia sensoriale 6,7; Tuttavia, la tipica necessità di poggiatesta limita l'utilità di questo metodo per esaminare il comportamento spaziale dei mammiferi. L'avvento della realtà virtuale (VR)8 ha affrontato questa carenza presentando ambienti visuospaziali immersivi e realistici mentre topi con la testa trattenuta corrono su una palla o un tapis roulant per studiare la codifica spaziale e contestuale nell'ippocampo 8,9,10 e nella corteccia 11. Inoltre, l'uso di ambienti VR con topi che si comportano ha permesso ai ricercatori di neuroscienze di sezionare le componenti del comportamento spaziale controllando con precisione gli elementi dell'ambiente VR12 (ad esempio, flusso visivo, modulazione contestuale) in modi non possibili negli esperimenti del mondo reale di apprendimento spaziale, come il labirinto d'acqua di Morris, il labirinto di Barnes o le attività di holboard.
Gli ambienti VR visivi sono tipicamente renderizzati sull'unità di elaborazione grafica (GPU) di un computer, che gestisce il carico di calcolo rapido delle migliaia di poligoni necessari per modellare un ambiente 3D in movimento su uno schermo in tempo reale. I grandi requisiti di elaborazione richiedono generalmente l'uso di un PC separato con una GPU che esegue il rendering dell'ambiente visivo su un monitor, più schermi13 o un proiettore14 mentre il movimento viene registrato da un tapis roulant, una ruota o una palla di schiuma sotto l'animale. L'apparato risultante per il controllo, il rendering e la proiezione dell'ambiente VR è, quindi, relativamente costoso, ingombrante e ingombrante. Inoltre, molti di questi ambienti in letteratura sono stati implementati utilizzando software proprietario che è costoso e può essere eseguito solo su un PC dedicato.
Per questi motivi, abbiamo progettato un sistema VR open source per studiare i comportamenti di apprendimento spaziale nei topi con controllo della testa utilizzando un computer a scheda singola Raspberry Pi. Questo computer Linux è piccolo ed economico, ma contiene un chip GPU per il rendering 3D, consentendo l'integrazione di ambienti VR con il display o l'apparato comportamentale in varie configurazioni individuali. Inoltre, abbiamo sviluppato un pacchetto software grafico scritto in Python, "HallPassVR", che utilizza il computer a scheda singola per rendere un semplice ambiente visuospaziale, una traccia lineare virtuale o un corridoio, ricombinando caratteristiche visive personalizzate selezionate utilizzando un'interfaccia utente grafica (GUI). Questo è combinato con sottosistemi di microcontrollori (ad esempio, ESP32 o Arduino) per misurare la locomozione e coordinare il comportamento, ad esempio mediante la consegna di altre modalità di stimoli sensoriali o ricompense per facilitare l'apprendimento per rinforzo. Questo sistema fornisce un metodo alternativo economico, flessibile e facile da usare per fornire ambienti VR visuospaziali a topi con ritenuta della testa durante l'imaging a due fotoni (o altre tecniche che richiedono la fissazione della testa) per studiare i circuiti neurali alla base del comportamento di apprendimento spaziale.
Tutte le procedure di questo protocollo sono state approvate dall'Institutional Animal Care and Use Committee del New York State Psychiatric Institute.
NOTA: un computer a scheda singola viene utilizzato per visualizzare un ambiente visivo VR coordinato con l'esecuzione di un mouse con ritenuta per la testa su una ruota. Le informazioni di movimento vengono ricevute come input seriale da un microcontrollore ESP32 che legge un encoder rotativo accoppiato all'asse ruota. L'ambiente VR viene renderizzato utilizzando l'accelerazione hardware OpenGL sulla GPU Raspberry Pi, che utilizza il pacchetto 3D pi3d Python per Raspberry Pi. L'ambiente renderizzato viene quindi trasmesso tramite un proiettore su uno schermo parabolico avvolgente compatto centrato sul campo visivo15,16 del mouse trattenuto dalla testa, mentre il comportamento (ad esempio, leccare in risposta a ricompense spaziali) viene misurato da un secondo microcontrollore ESP32 di comportamento. Il pacchetto software grafico consente la creazione di ambienti di binari lineari virtuali costituiti da schemi ripetuti di stimoli visivi lungo un corridoio virtuale o un corridoio con un'interfaccia utente grafica (GUI). Questo disegno è facilmente parametrizzabile, consentendo così la creazione di esperimenti complessi volti a comprendere come il cervello codifica luoghi e segnali visivi durante l'apprendimento spaziale (vedi sezione 4). I progetti per i componenti hardware personalizzati necessari per questo sistema (ad esempio, la ruota di corsa, lo schermo di proiezione e l'apparato di ritenuta per la testa) vengono depositati in un repository GitHub pubblico (https://github.com/GergelyTuri/HallPassVR). Si consiglia di leggere la documentazione di tale repository insieme a questo protocollo, poiché il sito verrà aggiornato con futuri miglioramenti del sistema.
1. Configurazione hardware: costruzione della ruota di corsa, dello schermo di proiezione e dell'apparato di fissaggio della testa
NOTA: I componenti personalizzati per queste configurazioni possono essere facilmente fabbricati se l'utente ha accesso alle apparecchiature di stampa 3D e taglio laser o può essere esternalizzato a servizi di produzione professionale o prototipazione 3D (ad esempio, eMachinehop). Tutti i file di progettazione sono forniti come . File STL 3D o . File DXF AutoCAD.
2. Setup dell'hardware/software elettronico (computer a scheda singola, microcontrollori ESP32, Figura 2)
3. Esecuzione e test del pacchetto software grafico
NOTA: eseguire la GUI del pacchetto software grafico per avviare un ambiente di traccia lineare VR, calibrare le distanze sul software VR e il codice ESP32 del comportamento e testare l'acquisizione e il tracciamento online del comportamento di corsa e licking del mouse con lo sketch del linguaggio di elaborazione incluso.
4. Addestramento del mouse e comportamento di apprendimento spaziale
NOTA: I topi vengono impiantati per la fissazione della testa, abituati al contenimento della testa e quindi addestrati a correre sulla ruota e leccare costantemente per ricompense liquide progressivamente ("foraggiamento casuale"). I topi che raggiungono una corsa e una leccata costanti vengono quindi addestrati su un compito di ricompensa spaziale nascosto utilizzando l'ambiente VR, in cui viene presentata una singola zona di ricompensa seguendo un segnale visivo sulla traccia lineare virtuale. L'apprendimento spaziale viene quindi misurato come una maggiore selettività di licking per le posizioni immediatamente precedenti alla zona di ricompensa.
Questa configurazione comportamentale di realtà virtuale open source ci ha permesso di quantificare il comportamento di licking come una lettura dell'apprendimento spaziale mentre i topi con la testa trattenuta navigavano in un ambiente di binario lineare virtuale. Sette topi C57BL / 6 di entrambi i sessi a 4 mesi di età sono stati sottoposti a un programma di acqua limitato e prima addestrati a leccare continuamente a bassi livelli mentre correvano sulla ruota per ricompense spaziali casuali ("foraggiamento casuale") ...
Questo sistema VR open source per mouse funzionerà solo se le connessioni seriali sono effettuate correttamente tra i microcontrollori rotativi e comportamentali ESP32 e il computer a scheda singola (passaggio 2), che può essere confermato utilizzando il monitor seriale IDE (passaggio 2.4.5). Per risultati comportamentali di successo da questo protocollo (fase 4), i topi devono essere abituati all'apparato ed essere a proprio agio nel correre sulla ruota per ricompense liquide (passaggi 4.3-4.5). Ciò richiede una rest...
Clay Lacefield è il fondatore e manutentore di OpenMaze.org, che fornisce gratuitamente i progetti per il PCB OMwSmall utilizzato in questo protocollo per il download.
Vorremmo ringraziare Noah Pettit del laboratorio Harvey per la discussione e i suggerimenti durante lo sviluppo del protocollo in questo manoscritto. Questo lavoro è stato supportato da un BBRF Young Investigator Award e NIMH 1R21MH122965 (G.F.T.), oltre a NINDS R56NS128177 (R.H., C.L.) e NIMH R01MH068542 (R.H.).
Name | Company | Catalog Number | Comments |
1/4 " diam aluminum rod | McMaster-Carr | 9062K26 | 3" in length for wheel axle |
1/4"-20 cap screws, 3/4" long (x2) | Amazon.com | B09ZNMR41V | for affixing head post holders to optical posts |
2"x7" T-slotted aluminum bar (x2) | 8020.net | 1020 | wheel/animal mounting frame |
6" diam, 3" wide acrylic cylinder (1/8" thick) | Canal Plastics | 33210090702 | Running wheel (custom width cut at canalplastics.com) |
8-32 x 1/2" socket head screws | McMaster-Carr | 92196A194 | fastening head post holder to optical post |
Adjustable arm (14") | Amazon.com | B087BZGKSL | to hold/adjust lick spout |
Analysis code (MATLAB) | custom written | file at github.com/GergelyTuri/HallPassVR/software/Analysis code | |
Axle mounting flange, 1/4" ID | Pololu | 1993 | for mounting wheel to axle |
Ball bearing (5/8" OD, 1/4" ID, x2) | McMaster-Carr | 57155K324 | for mounting wheel axle to frame |
Behavior ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board | |
Black opaque matte acrylic sheets (1/4" thick) | Canal Plastics | 32918353422 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Clear acrylic sheet (1/4" thick) | Canal Plastics | 32920770574 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly |
ESP32 devKitC v4 (x2) | Amazon.com | B086YS4Z3F | microcontroller for behavior and rotary encoder |
ESP32 shield | OpenMaze.org | OMwSmall | description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs |
Fasteners and brackets | 8020.net | 4138, 3382,3280 | for wheel frame mounts |
goniometers | Edmund Optics | 66-526, 66-527 | optional for behavior. Fine tuning head for imaging |
HallPassVR python code | custom written | file at github.com/GergelyTuri/HallPassVR/software/HallPassVR | |
Head post holder | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp | |
LED projector | Texas Instruments | DLPDLCR230NPEVM | or other small LED projector |
Lick spout | VWR | 20068-638 | (or ~16 G metal hypodermic tubing) |
M 2.5 x 6 set screws | McMaster-Carr | 92015A097 | securing head post |
Matte white diffusion paper | Amazon.com | screen material | |
Metal headposts | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs | |
Miscellenous tubing and tubing adapters (1/16" ID) | for constructing the water line | ||
Optical breadboard | Thorlabs | as per user's requirements | |
Optical posts, 1/2" diam (2x) | Thorlabs | TR4 | for head fixation setup |
Processing code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Processing code | |
Raspberry Pi 4B | raspberry.com, adafruit.com | Single-board computer for rendering of HallPassVR envir. | |
Right angle clamp | Thorlabs | RA90 | for head fixation setup |
Rotary encoder (quadrature, 256 step) | DigiKey | ENS1J-B28-L00256L | to measure wheel rotation |
Rotary encoder ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder | |
SCIGRIP 10315 acrylic cement | Amazon.com | ||
Shaft coupler | McMaster-Carr | 9861T426 | to couple rotary encoder shaft with axle |
Silver mirror acrylic sheets | Canal Plastics | 32913817934 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Solenoid valve | Parker | 003-0137-900 | to administer water rewards |
Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE
Richiedi AutorizzazioneThis article has been published
Video Coming Soon