JoVE Logo

Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

Qui, presentiamo una configurazione hardware e software open source semplificata per studiare l'apprendimento spaziale del mouse utilizzando la realtà virtuale (VR). Questo sistema visualizza una traccia lineare virtuale a un mouse con la testa trattenuta che gira su una ruota utilizzando una rete di microcontrollori e un computer a scheda singola che esegue un pacchetto software grafico Python facile da usare.

Abstract

Gli esperimenti comportamentali sui topi consentono ai neuroscienziati di osservare l'attività del circuito neurale con strumenti di imaging elettrofisiologico e ottico ad alta risoluzione, fornendo al contempo precisi stimoli sensoriali a un animale che si comporta. Recentemente, studi sull'uomo e sui roditori che utilizzano ambienti di realtà virtuale (VR) hanno dimostrato che la realtà virtuale è uno strumento importante per scoprire i meccanismi neurali alla base dell'apprendimento spaziale nell'ippocampo e nella corteccia, grazie al controllo estremamente preciso su parametri come segnali spaziali e contestuali. La creazione di ambienti virtuali per i comportamenti spaziali dei roditori può, tuttavia, essere costosa e richiedere un ampio background in ingegneria e programmazione informatica. Qui, presentiamo un sistema semplice ma potente basato su hardware e software open source economico, modulare e che consente ai ricercatori di studiare l'apprendimento spaziale in topi con la testa trattenuta utilizzando un ambiente VR. Questo sistema utilizza microcontrollori accoppiati per misurare la locomozione e fornire stimoli comportamentali mentre i topi trattenuti dalla testa corrono su una ruota in concerto con un ambiente di binario lineare virtuale reso da un pacchetto software grafico in esecuzione su un computer a scheda singola. L'enfasi sull'elaborazione distribuita consente ai ricercatori di progettare sistemi flessibili e modulari per suscitare e misurare comportamenti spaziali complessi nei topi al fine di determinare la connessione tra l'attività del circuito neurale e l'apprendimento spaziale nel cervello dei mammiferi.

Introduzione

La navigazione spaziale è un comportamento etologicamente importante con cui gli animali codificano le caratteristiche di nuove posizioni in una mappa cognitiva, che viene utilizzata per trovare aree di possibile ricompensa ed evitare aree di potenziale pericolo. Inestricabilmente legati alla memoria, i processi cognitivi alla base della navigazione spaziale condividono un substrato neurale nell'ippocampo1 e nella corteccia, dove i circuiti neurali in queste aree integrano le informazioni in entrata e formano mappe cognitive di ambienti ed eventi per il successivo richiamo2. Mentre la scoperta delle cellule di posizione nell'ippocampo3,4 e delle cellule griglia nella corteccia entorinale5 ha fatto luce su come si forma la mappa cognitiva all'interno dell'ippocampo, rimangono molte domande su come specifici sottotipi neurali, microcircuiti e singole sottoregioni dell'ippocampo (il giro dentato e le aree di cornu ammonis, CA3-1) interagiscono e partecipano alla formazione e al richiamo della memoria spaziale.

L'imaging a due fotoni in vivo è stato uno strumento utile per scoprire le dinamiche cellulari e di popolazione nella neurofisiologia sensoriale 6,7; Tuttavia, la tipica necessità di poggiatesta limita l'utilità di questo metodo per esaminare il comportamento spaziale dei mammiferi. L'avvento della realtà virtuale (VR)8 ha affrontato questa carenza presentando ambienti visuospaziali immersivi e realistici mentre topi con la testa trattenuta corrono su una palla o un tapis roulant per studiare la codifica spaziale e contestuale nell'ippocampo 8,9,10 e nella corteccia 11. Inoltre, l'uso di ambienti VR con topi che si comportano ha permesso ai ricercatori di neuroscienze di sezionare le componenti del comportamento spaziale controllando con precisione gli elementi dell'ambiente VR12 (ad esempio, flusso visivo, modulazione contestuale) in modi non possibili negli esperimenti del mondo reale di apprendimento spaziale, come il labirinto d'acqua di Morris, il labirinto di Barnes o le attività di holboard.

Gli ambienti VR visivi sono tipicamente renderizzati sull'unità di elaborazione grafica (GPU) di un computer, che gestisce il carico di calcolo rapido delle migliaia di poligoni necessari per modellare un ambiente 3D in movimento su uno schermo in tempo reale. I grandi requisiti di elaborazione richiedono generalmente l'uso di un PC separato con una GPU che esegue il rendering dell'ambiente visivo su un monitor, più schermi13 o un proiettore14 mentre il movimento viene registrato da un tapis roulant, una ruota o una palla di schiuma sotto l'animale. L'apparato risultante per il controllo, il rendering e la proiezione dell'ambiente VR è, quindi, relativamente costoso, ingombrante e ingombrante. Inoltre, molti di questi ambienti in letteratura sono stati implementati utilizzando software proprietario che è costoso e può essere eseguito solo su un PC dedicato.

Per questi motivi, abbiamo progettato un sistema VR open source per studiare i comportamenti di apprendimento spaziale nei topi con controllo della testa utilizzando un computer a scheda singola Raspberry Pi. Questo computer Linux è piccolo ed economico, ma contiene un chip GPU per il rendering 3D, consentendo l'integrazione di ambienti VR con il display o l'apparato comportamentale in varie configurazioni individuali. Inoltre, abbiamo sviluppato un pacchetto software grafico scritto in Python, "HallPassVR", che utilizza il computer a scheda singola per rendere un semplice ambiente visuospaziale, una traccia lineare virtuale o un corridoio, ricombinando caratteristiche visive personalizzate selezionate utilizzando un'interfaccia utente grafica (GUI). Questo è combinato con sottosistemi di microcontrollori (ad esempio, ESP32 o Arduino) per misurare la locomozione e coordinare il comportamento, ad esempio mediante la consegna di altre modalità di stimoli sensoriali o ricompense per facilitare l'apprendimento per rinforzo. Questo sistema fornisce un metodo alternativo economico, flessibile e facile da usare per fornire ambienti VR visuospaziali a topi con ritenuta della testa durante l'imaging a due fotoni (o altre tecniche che richiedono la fissazione della testa) per studiare i circuiti neurali alla base del comportamento di apprendimento spaziale.

Protocollo

Tutte le procedure di questo protocollo sono state approvate dall'Institutional Animal Care and Use Committee del New York State Psychiatric Institute.

NOTA: un computer a scheda singola viene utilizzato per visualizzare un ambiente visivo VR coordinato con l'esecuzione di un mouse con ritenuta per la testa su una ruota. Le informazioni di movimento vengono ricevute come input seriale da un microcontrollore ESP32 che legge un encoder rotativo accoppiato all'asse ruota. L'ambiente VR viene renderizzato utilizzando l'accelerazione hardware OpenGL sulla GPU Raspberry Pi, che utilizza il pacchetto 3D pi3d Python per Raspberry Pi. L'ambiente renderizzato viene quindi trasmesso tramite un proiettore su uno schermo parabolico avvolgente compatto centrato sul campo visivo15,16 del mouse trattenuto dalla testa, mentre il comportamento (ad esempio, leccare in risposta a ricompense spaziali) viene misurato da un secondo microcontrollore ESP32 di comportamento. Il pacchetto software grafico consente la creazione di ambienti di binari lineari virtuali costituiti da schemi ripetuti di stimoli visivi lungo un corridoio virtuale o un corridoio con un'interfaccia utente grafica (GUI). Questo disegno è facilmente parametrizzabile, consentendo così la creazione di esperimenti complessi volti a comprendere come il cervello codifica luoghi e segnali visivi durante l'apprendimento spaziale (vedi sezione 4). I progetti per i componenti hardware personalizzati necessari per questo sistema (ad esempio, la ruota di corsa, lo schermo di proiezione e l'apparato di ritenuta per la testa) vengono depositati in un repository GitHub pubblico (https://github.com/GergelyTuri/HallPassVR). Si consiglia di leggere la documentazione di tale repository insieme a questo protocollo, poiché il sito verrà aggiornato con futuri miglioramenti del sistema.

1. Configurazione hardware: costruzione della ruota di corsa, dello schermo di proiezione e dell'apparato di fissaggio della testa

NOTA: I componenti personalizzati per queste configurazioni possono essere facilmente fabbricati se l'utente ha accesso alle apparecchiature di stampa 3D e taglio laser o può essere esternalizzato a servizi di produzione professionale o prototipazione 3D (ad esempio, eMachinehop). Tutti i file di progettazione sono forniti come . File STL 3D o . File DXF AutoCAD.

  1. Configurazione della ruota di corsa e del comportamento (Figura 1)
    NOTA: La ruota è costituita da un cilindro acrilico trasparente (6 di diametro, 3 di larghezza, 1/8 di spessore) centrato su un asse sospeso da supporti acrilici tagliati al laser tramite cuscinetti a sfera. Il gruppo ruota viene quindi montato su un telaio in alluminio leggero (scanalatura a T) e fissato saldamente a una breadboard ottica (Figura 1C-E).
    1. Tagliare al laser i lati della ruota e dei supporti dell'asse da un foglio acrilico da 1/4 e fissare i lati della ruota al cilindro acrilico con cemento acrilico. Avvitare la flangia dell'asse al centro del lato ruota.
    2. Inserire l'asse nella flangia centrale della ruota, inserire i cuscinetti a sfere nei supporti dell'asse e fissarli alla barra di supporto verticale in alluminio.
    3. Inserire l'asse della ruota nei cuscinetti a sfere montati, lasciando 0,5-1 pollice dell'asse oltre i cuscinetti per il fissaggio dell'encoder rotativo.
    4. Collegare il supporto dell'encoder rotativo all'estremità dell'asse opposto alla ruota e inserire l'encoder rotativo; Quindi, utilizzare l'accoppiatore dell'albero per accoppiare l'asse della ruota all'albero dell'encoder rotante.
    5. Collegare la porta di leccamento al braccio flessibile, quindi fissare al telaio della ruota in alluminio con dadi a T. Utilizzare tubi da 1/16 di pollice per collegare la porta di leccamento all'elettrovalvola e la valvola al serbatoio dell'acqua.
      NOTA: la porta di leccamento deve essere realizzata in metallo con un filo saldato per collegarla ai pin di rilevamento tattile capacitivo del comportamento ESP32.
  2. Schermo di proiezione
    NOTA: Lo schermo VR è un piccolo schermo parabolico a retroproiezione (dimensioni tela: 54 cm x 21,5 cm) basato su un design sviluppato nel laboratorio di Christopher Harvey15,16. L'angolo di proiezione (keystone) del proiettore LED utilizzato è diverso da quello del proiettore laser utilizzato in precedenza; pertanto, il design originale viene leggermente modificato montando l'unità sotto lo schermo e semplificando il sistema di specchi (Figura 1A, B). Si consiglia vivamente di leggere la documentazione del laboratorio Harvey insieme alla nostra per adattare l'ambiente VR alle esigenze dell'utente15.
    1. Taglio laser dei lati dello schermo di proiezione da 1/4 in fogli acrilici neri opachi. Taglio laser dello specchio retroproiettore da 1/4 in acrilico specchiato.
    2. Assemblare il telaio dello schermo di proiezione con le barre di alluminio e tagliare al laser i pannelli acrilici.
    3. Inserire il materiale dello schermo di proiezione traslucido nello slot parabolico nel telaio. Inserire lo specchio di retroproiezione nello slot nella parte posteriore della cornice dello schermo di proiezione.
    4. Posizionare un proiettore LED sulla piastra di montaggio inferiore all'interno della cornice dello schermo di proiezione. Allineare il proiettore con bulloni di montaggio per ottimizzare il posizionamento dell'immagine proiettata sullo schermo parabolico di retroproiezione.
    5. Sigillare l'unità box del proiettore per evitare la contaminazione della luce dei sensori ottici, se necessario.
  3. Dispositivo di ritenuta della testa
    NOTA: Questo design dell'apparato di ritenuta della testa è costituito da due collettori stampati in 3D ad incastro per fissare un montante metallico (Figura 1E, F).
    1. Utilizzando una stampante 3D SLM ad alta risoluzione, stampare in 3D il palo della testa che tiene le braccia.
      NOTA: la plastica stampata in resina è in grado di fornire una fissazione stabile della testa per esperimenti comportamentali; tuttavia, per ottenere la massima stabilità per applicazioni sensibili come la registrazione a cella singola o l'imaging a due fotoni, si consiglia di utilizzare parti metalliche lavorate (ad esempio, eMachineShop).
    2. Installare il supporto del palo della testa stampato in 3D su un goniometro a doppio asse con montanti di montaggio ottico in modo che la testa dell'animale possa essere inclinata per livellare la preparazione.
      NOTA: Questa funzione è indispensabile per esperimenti di imaging in vivo a lungo termine quando è richiesta la ricerca della stessa popolazione cellulare nelle successive sessioni di imaging. In caso contrario, questa funzionalità può essere omessa per ridurre il costo dell'installazione.
    3. Fabbricare i montanti della testa.
      NOTA: Due tipi di montanti di testa con complessità (e prezzo) diversi sono depositati nel link fornito nella tabella dei materiali insieme a queste istruzioni.
      1. A seconda del tipo di esperimento, decidere quale palo principale implementare. Le barre di testa sono realizzate in acciaio inossidabile e sono generalmente esternalizzate a qualsiasi officina meccanica locale o servizio online (ad esempio, eMachineShop) per la produzione.

2. Setup dell'hardware/software elettronico (computer a scheda singola, microcontrollori ESP32, Figura 2)

  1. Configurare il computer a scheda singola.
    NOTA: Il computer a scheda singola incluso nella tabella dei materiali (Raspberry Pi 4B) è ottimale per questa configurazione perché ha una GPU integrata per facilitare il rendering dell'ambiente VR e due porte HDMI per il controllo / monitoraggio degli esperimenti e la proiezione VR. Altri computer a scheda singola con queste caratteristiche possono potenzialmente essere sostituiti, ma alcune delle seguenti istruzioni potrebbero essere specifiche per Raspberry Pi.
    1. Scarica l'applicazione imager per computer a scheda singola sul PC e installa il sistema operativo (attualmente Raspberry Pi OS r.2021-05-07) sulla scheda microSD (16+ GB). Inserire la scheda e avviare il computer a scheda singola.
    2. Configurare il computer a scheda singola per la libreria 3D Python pi3d: (barra dei menu) Preferenze > Configurazione Raspberry Pi.
      1. Fare clic su Visualizza > Oscuramento schermo > Disabilita.
      2. Fare clic su Interfacce > porta seriale > abilitare.
      3. Fare clic su Performance > GPU Memory > 256 (MB).
    3. Aggiornare il pacchetto della libreria di immagini Python per pi3d: (terminale)> sudo pip3 install pillow --upgrade.
    4. Installare il pacchetto pi3d Python 3D per il computer a scheda singola: (terminale)> sudo pip3 install pi3d.
    5. Aumentare il livello di uscita HDMI per il proiettore: (terminale)> sudo nano /boot/config.txt, decommentare config_hdmi_boost=4, salvare e riavviare.
    6. Scaricare e installare l'ambiente di sviluppo integrato (IDE) da arduino.cc/en/software (ad esempio, arduino-1.8.19-linuxarm.tar.gz), necessario per caricare il codice sull'encoder rotativo e sui microcontrollori ESP32 di comportamento.
    7. Installare il supporto del microcontroller ESP32 sull'IDE:
      1. Fare clic su File > Preferenze > URL aggiuntivi di Board Manager = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Fare clic su Strumenti > schede > Gestione schede > ESP32 (di Espressif). Installazione v.2.0.0 (caricamento attualmente non riuscito su v2.0.4).
    8. Scaricare e installare l'IDE di elaborazione da https://github.com/processing/processing4/releases (ad esempio, processing-4.0.1-linux-arm32.tgz), necessario per la registrazione e il tracciamento online del comportamento del mouse durante la realtà virtuale.
      NOTA: gli ambienti Arduino e Processing possono essere eseguiti su un PC separato dal computer a scheda singola VR, se lo si desidera.
  2. Impostare le connessioni ESP32 dell'encoder rotativo.
    NOTA: L'encoder rotativo accoppiato all'asse della ruota misura la rotazione della ruota con la locomozione del mouse, che viene contata con un microcontrollore ESP32. Le modifiche di posizione vengono quindi inviate alla porta seriale GPIO del computer a scheda singola per controllare il movimento attraverso l'ambiente virtuale utilizzando il pacchetto software grafico, nonché al comportamento ESP32 per controllare le zone di ricompensa (Figura 2).
    1. Collegare i fili tra il componente encoder rotativo e l'ESP32 rotativo. Gli encoder rotativi hanno generalmente quattro fili: +, GND, A e B (due linee digitali per encoder in quadratura). Collegarli tramite fili ponticelli a ESP32 3,3 V, GND, 25, 26 (nel caso del codice allegato).
    2. Collegare i fili seriali RX/TX tra l'ESP32 rotante e il comportamento ESP32. Effettuare una semplice connessione a due fili tra la porta rotativa ESP32 Serial0 RX/TX (ricezione/trasmissione) e la porta Serial2 del comportamento ESP32 (TX/RX, pin 17, 16; vedere Porta Serial2 a destra di OMwSmall PCB). Ciò trasporterà le informazioni di movimento dall'encoder rotativo alla configurazione del comportamento per le zone spaziali come le zone di ricompensa.
    3. Collegare i cavi seriali RX/TX tra l'ESP32 rotante e la GPIO del computer a scheda singola (o connessione USB diretta). Effettuare una connessione a due fili tra i pin GPIO 14, 15 (RX/TX) del computer a scheda singola e la seriale ESP32 rotante (TX/RX, pin 17, 16). Questo trasporterà le informazioni di movimento dall'encoder rotativo al pacchetto software grafico in esecuzione sul computer a scheda singola.
      NOTA: Questo passaggio è necessario solo se l'ESP32 rotativo non è collegato tramite USB (cioè è una connessione seriale GPIO in "/dev/ttyS0"), ma il codice HallPassVR_wired.py deve essere modificato per utilizzare "/dev/ttyUSB0". Questa connessione cablata verrà sostituita con una connessione Bluetooth wireless nelle versioni future.
    4. Collegare l'USB rotativo ESP32 all'USB del computer a scheda singola (o a un altro PC che esegue l'IDE) per caricare il codice dell'encoder rotativo iniziale.
  3. Impostare le connessioni ESP32 comportamentali con l'hardware comportamentale (tramite OpenMaze PCB).
    NOTA: Il microcontrollore comportamentale ESP32 controllerà tutte le interazioni animali non-VR (fornendo stimoli e ricompense non-VR, rilevando leccate del mouse), che sono collegate attraverso una "breakout board" PCB generale per l'ESP32, "OMwSmall", i cui progetti sono disponibili attraverso il sito web OpenMaze (www.openmaze.org). Il PCB contiene i componenti elettronici necessari per pilotare i componenti elettromeccanici, come le elettrovalvole utilizzate per erogare ricompense liquide.
    1. Collegare l'elettrovalvola per liquidi da 12 V all'uscita IC ULN2803 all'estrema sinistra del PCB OMwSmall (pin 12 nella configurazione e nel codice di esempio). Questo circuito integrato collega l'alimentazione a 12 V all'elettrovalvola di ricompensa, controllata da un'uscita GPIO sul microcontrollore ESP32 di comportamento.
    2. Collegare la porta lick all'ingresso touch ESP32 (ad esempio, T0, GPIO4 nel codice di esempio). L'ESP32 è dotato di rilevamento tattile capacitivo incorporato su pin specifici, che il codice ESP32 utilizza per rilevare il leccamento del mouse della porta metallica collegata durante il comportamento VR.
    3. Collegare i fili seriali RX/TX tra il comportamento ESP32 Serial2 (pin 16, 17) e l'encoder rotativo ESP32 Serial0 (vedere il passaggio 2.2.2).
    4. Collegare l'USB alla porta USB del computer a scheda singola (o altro PC) per caricare nuovi programmi sul comportamento ESP32 per diversi paradigmi sperimentali (ad esempio, numero/posizione delle zone di ricompensa) e per acquisire dati sul comportamento utilizzando lo sketch di elaborazione incluso.
    5. Collegare l'adattatore da parete da 12 V CC al connettore jack barilotto da 2,1 mm sul PCB ESP32 OMwSmall per fornire l'alimentazione per l'elettrovalvola di ricompensa.
    6. Collegare l'uscita HDMI #2 del computer a scheda singola alla porta HDMI del proiettore; questo porterà l'ambiente VR renderizzato dalla GPU del computer a scheda singola sullo schermo di proiezione.
    7. (facoltativo) Collegare il filo di sincronizzazione (pin 26) a una configurazione di imaging neurale o registrazione elettrofisiologica. Un segnale TTL (Transistor-Transistor-Logic) da 3,3 V verrà inviato ogni 5 s per allineare i sistemi con una precisione vicina al millisecondo.
  4. Configurare il software: caricare il firmware/software sull'encoder rotativo ESP32 (Figura 2B) e il comportamento ESP32 (Figura 2E) utilizzando l'IDE e scaricare il software VR Python sul computer a scheda singola. Vedi https://github.com/GergelyTuri/HallPassVR/software.
    1. Collegare prima l'encoder rotativo ESP32 alla porta USB del computer a scheda singola: questo verrà automaticamente chiamato "/dev/ttyUSB0 " dal sistema operativo.
    2. Caricare il codice dell'encoder rotativo: aprire il file RotaryEncoder_Esp32_VR.ino nell'IDE, quindi selezionare ESP32 in Strumenti > schede > modulo di sviluppo ESP32. Selezionare la porta ESP32 facendo clic su Strumenti > Porta > /dev/ttyUSB0, quindi fare clic su Carica.
    3. Collegare il comportamento ESP32 alla porta USB del computer a scheda singola Successivamente: questo verrà chiamato "/ dev / ttyUSB1" dal sistema operativo.
    4. Caricare il codice della sequenza di comportamento sul comportamento ESP32 (IDE, ESP32 Dev Module già selezionato), quindi fare clic su Strumenti > Porta > /dev/ttyUSB1 e fare clic su Carica: wheel_VR_behavior.ino.
    5. Testare le connessioni seriali selezionando la porta seriale per ciascun ESP32 nell'IDE (Tools > Port > /dev/ttyUSB0 o /dev/ttyUSB1) e quindi facendo clic su Tools > Serial Monitor (baud rate: 115,200) per osservare l'uscita seriale dalla scheda rotante (USB0) o dalla scheda di comportamento (USB1). Ruotare la rotellina per visualizzare un'uscita di movimento raw dall'ESP32 rotativo su USB0 o un'uscita di movimento formattata dal comportamento ESP32 su USB1.
    6. Scarica il pacchetto software grafico Python code da https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (to /home/pi/Documents). Questa cartella contiene tutti i file necessari per eseguire il pacchetto software grafico se il pacchetto pi3d Python3 è stato installato correttamente in precedenza (passo 2.1).

3. Esecuzione e test del pacchetto software grafico

NOTA: eseguire la GUI del pacchetto software grafico per avviare un ambiente di traccia lineare VR, calibrare le distanze sul software VR e il codice ESP32 del comportamento e testare l'acquisizione e il tracciamento online del comportamento di corsa e licking del mouse con lo sketch del linguaggio di elaborazione incluso.

  1. Aprire la finestra del terminale nel computer a scheda singola e accedere alla cartella HallPassVR (terminale:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Eseguire la GUI VR: (terminale)> python3 HallPassVR_GUI.py (si aprirà la finestra GUI, Figura 3A).
  3. GUI software grafica
    1. Seleziona e aggiungi quattro elementi (immagini) dalla casella di riepilogo (o seleziona il modello pre-memorizzato qui sotto, quindi fai clic su Carica) per ciascuno dei tre modelli lungo la traccia, quindi fai clic su Genera.
      NOTA: i nuovi file di immagine (.jpeg) possono essere inseriti nella cartella HallPassVR/HallPassVR_wired/images/ELEMENTS prima dell'esecuzione della GUI.
    2. Selezionare le immagini del pavimento e del soffitto dai menu a discesa e impostare la lunghezza della traccia su 2 m per questo codice di esempio (deve essere uguale a trackLength in millimetri [mm] nel codice ESP32 di comportamento e nel codice di elaborazione).
    3. Assegna un nome a questo modello, se lo desideri (verrà memorizzato in HallPassVR_wired/images/PATH_HIST).
    4. Fai clic sul pulsante Start (attendi fino all'avvio della finestra VR prima di fare clic altrove). L'ambiente VR apparirà sullo schermo #2 (schermo di proiezione, Figura 3B, C).
  4. Eseguite lo sketch Elaborazione (Processing) per acquisire e tracciare i dati/movimenti comportamentali.
    1. Aprire VRwheel_RecGraphSerialTxt.pde nell'IDE di elaborazione.
    2. Cambia l'animale = "yourMouseNumber"; variabile e impostare sessionMinutes uguale alla durata della sessione comportamentale in minuti.
    3. Fare clic sul pulsante Esegui sull'IDE di elaborazione.
    4. Controllare la finestra Elaborazione plot, che dovrebbe mostrare la posizione corrente del mouse sulla traccia lineare virtuale mentre la ruota ruota, insieme alle zone di ricompensa e agli istogrammi in esecuzione dei lick, dei giri e delle ricompense aggiornati ogni 30 s (Figura 3D). Avanzare manualmente la rotellina di corsa per simulare l'esecuzione del mouse per il test oppure utilizzare un mouse di prova per la configurazione iniziale.
    5. Fare clic sulla finestra del plottaggio e premere il tasto q sulla tastiera per interrompere l'acquisizione dei dati comportamentali. Un file di testo degli eventi comportamentali e dei tempi (di solito <2 MB di dimensione per sessione) e un'immagine della finestra di stampa finale (.png) vengono salvati quando sessionMinutes è trascorso o l'utente preme il tasto q per uscire.
      NOTA: a causa delle dimensioni ridotte dei file .txt di output, si stima che almeno diverse migliaia di registrazioni di comportamento possano essere memorizzate sulla scheda SD del computer a scheda singola. I file di dati possono essere salvati su una chiavetta USB per l'analisi successiva o, se connessi a una rete locale, i dati possono essere gestiti in remoto.
  5. Calibra la lunghezza della traccia di comportamento con la lunghezza della traccia VR.
    1. Avanza la ruota a mano mentre osservi il corridoio VR e la posizione del mouse (sul grafico Elaborazione). Se il corridoio VR termina prima/dopo che il mouse raggiunge la fine del grafico di comportamento, aumentare/diminuire la lunghezza della traccia VR in modo incrementale (HallPassVR_wired.py, corridor_length_default, in centimetri [cm]) fino a quando la traccia non viene ripristinata simultaneamente nei due sistemi.
      NOTA: il codice è attualmente calibrato per una ruota rotante da 6 pollici di diametro utilizzando un encoder rotativo in quadratura a 256 posizioni, pertanto l'utente potrebbe dover modificare il codice VR (HallPassVR_wired.py, corridor_length_default, in centimetri [cm]) e di comportamento (wheel_VR_behavior.ino, trackLength, in millimetri [mm]) per tenere conto di altre configurazioni. La posizione comportamentale viene, tuttavia, ripristinata su ogni giro VR per mantenere la corrispondenza tra i sistemi.

4. Addestramento del mouse e comportamento di apprendimento spaziale

NOTA: I topi vengono impiantati per la fissazione della testa, abituati al contenimento della testa e quindi addestrati a correre sulla ruota e leccare costantemente per ricompense liquide progressivamente ("foraggiamento casuale"). I topi che raggiungono una corsa e una leccata costanti vengono quindi addestrati su un compito di ricompensa spaziale nascosto utilizzando l'ambiente VR, in cui viene presentata una singola zona di ricompensa seguendo un segnale visivo sulla traccia lineare virtuale. L'apprendimento spaziale viene quindi misurato come una maggiore selettività di licking per le posizioni immediatamente precedenti alla zona di ricompensa.

  1. Chirurgia post-impianto della testa: Questa procedura è descritta in dettaglio altrove in questa rivista e in altri, quindi fare riferimento a questa letteratura per istruzioni specifiche 7,17,18,19,20,21.
  2. Programma dell'acqua
    1. Eseguire la restrizione idrica 24 ore prima della prima manipolazione (vedi sotto) e consentire il consumo di acqua ad libitum dopo ogni sessione di assuefazione o comportamento di ritenuta della testa. Ridurre gradualmente il tempo di disponibilità di acqua nell'arco di tre giorni durante l'assuefazione a circa 5 minuti e regolare la quantità per i singoli topi in modo che il loro peso corporeo non scenda al di sotto dell'80% del loro peso pre-restrizione. Monitorare quotidianamente il peso di ciascun animale e osservare anche le condizioni di ciascun topo per segni di disidratazione22. I topi che non sono in grado di mantenere l'80% del loro peso corporeo pre-restrizione o appaiono disidratati devono essere rimossi dallo studio e data disponibilità di acqua gratuita.
      NOTA: la restrizione idrica è necessaria per motivare i topi a correre sulla ruota usando ricompense liquide, nonché per utilizzare il licking spaziale come indicazione delle posizioni apprese lungo la pista. Le linee guida istituzionali possono differire su istruzioni specifiche per questa procedura, quindi l'utente deve consultare i propri comitati istituzionali per la cura degli animali per garantire la salute e il benessere degli animali durante la restrizione idrica.
  3. Manipolazione: maneggiare i topi impiantati ogni giorno per abituarli al contatto umano, a seguito del quale può essere somministrata acqua limitata ad libitum come rinforzo (1-5 minuti / giorno, da 2 giorni a 1 settimana).
  4. Abitudine al poggiatesta
    1. Abituare i topi al poggiatesta per periodi di tempo crescenti posizionandoli nell'apparato di ritenuta della testa e premiandoli con occasionali gocce d'acqua per ridurre lo stress della fissazione della testa.
    2. Inizia con 5 minuti di fissazione della testa e aumenta la durata di incrementi di 5 minuti al giorno fino a quando i topi sono in grado di tollerare la fissazione fino a 30 minuti. Rimuovere i topi dall'apparato di fissazione se sembrano lottare o muoversi molto poco. Tuttavia, i topi generalmente iniziano a correre sulla ruota spontaneamente entro diverse sessioni, il che significa che sono pronti per la fase successiva dell'allenamento.
      NOTA: I topi che lottano ripetutamente sotto il poggiatesta o non corrono e leccano per le ricompense dovrebbero essere regrediti alle fasi precedenti dell'allenamento e rimossi dallo studio se non riescono a progredire per tre di questi cicli di recupero (vedi Tabella 1).
  5. Allenamento di corsa/leccata (foraggiamento casuale)
    NOTA: Per eseguire l'attività di apprendimento spaziale nell'ambiente VR, i topi devono prima imparare a correre sul volante e leccare costantemente per ricompense occasionali. La progressione nei parametri comportamentali operanti è controllata tramite il microcontrollore comportamentale ESP32.
    1. Foraggiamento casuale con ricompense non operative
      1. Eseguire il programma GUI del software grafico con un percorso di elementi visivi arbitrari (scelta dell'utente, vedere il passaggio 3.3).
      2. Caricare il programma di comportamento nell'ESP32 comportamentale con più ricompense non operanti (variabili di codice: isOperant=0, numRew=4, isRandRew=1) per condizionare i topi a correre e leccare. Esegui i topi in sessioni di 20-30 minuti fino a quando i topi corrono per almeno 20 giri per sessione e leccano per le ricompense presentate in posizioni casuali (da una a quattro sessioni).
    2. Foraggiamento casuale con ricompense operative a giri alternati
      1. Carica il programma di comportamento con altOpt=1 (alternando giri operanti/non operanti) e addestra i topi fino a quando non leccano per entrambe le zone di ricompensa non operanti e operanti (da una a quattro sessioni).
    3. Foraggiamento casuale completamente operativo
      1. Carica il programma di comportamento con quattro zone di ricompensa casuale operanti (variabili di codice ESP32 del comportamento: isOperant=1, numRew=4, isRandRew=1). Alla fine di questa fase di addestramento, i topi dovrebbero correre costantemente ed eseguire leccate di prova su tutta la lunghezza della pista (da una a quattro sessioni; Figura 4A).
  6. Apprendimento spaziale
    NOTA: Eseguire un esperimento di apprendimento spaziale con una singola zona di ricompensa nascosta a una certa distanza da un singolo segnale visivo selezionando un corridoio lungo 2 m con pannelli scuri lungo la pista e un singolo pannello di stimolo visivo ad alto contrasto nel mezzo come segnale visivo (posizione 0,9-1,1 m), analogamente ai recenti esperimenti con segnali olfattivi spaziali20 . I topi sono tenuti a leccare in una zona di ricompensa (in una posizione di 1,5-1,8 m) situata a una distanza dal segnale visivo nell'ambiente di traccia lineare virtuale.
    1. Eseguire il programma software grafico con un percorso di un corridoio buio con un singolo segnale visivo al centro (ad esempio, scacchiera, vedere il passo 3.3, Figura 3A).
    2. Caricare il programma di comportamento con una singola zona di ricompensa nascosta nel comportamento ESP32 (variabili di codice ESP32 del comportamento: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Posizionare delicatamente il mouse nell'apparato di fissaggio della testa, regolare il beccuccio di leccata in una posizione appena anteriore alla bocca del mouse e posizionare la rotellina del mouse al centro della zona dello schermo di proiezione. Assicurarsi che la testa del mouse sia a ~ 12-15 cm di distanza dallo schermo dopo le regolazioni finali.
    4. Impostare il nome dell'animale nello sketch Elaborazione, quindi premere Esegui nell'IDE di elaborazione per iniziare ad acquisire e tracciare i dati comportamentali (vedere il passaggio 3.4).
    5. Esegui il mouse per sessioni di 30 minuti con una singola zona di ricompensa nascosta e un singolo corridoio VR visiva.
    6. Offline: scarica il file di dati .txt dalla cartella Processing sketch e analizza il comportamento di licking spaziale (ad esempio, in Matlab con i file inclusi procVRbehav.m e vrLickByLap.m).
      NOTA: I topi dovrebbero inizialmente eseguire leccate di prova sull'intera traccia virtuale ("foraggiamento casuale") e quindi iniziare a leccare selettivamente solo vicino alla posizione della ricompensa seguendo il segnale visivo VR (Figura 4).

Risultati

Questa configurazione comportamentale di realtà virtuale open source ci ha permesso di quantificare il comportamento di licking come una lettura dell'apprendimento spaziale mentre i topi con la testa trattenuta navigavano in un ambiente di binario lineare virtuale. Sette topi C57BL / 6 di entrambi i sessi a 4 mesi di età sono stati sottoposti a un programma di acqua limitato e prima addestrati a leccare continuamente a bassi livelli mentre correvano sulla ruota per ricompense spaziali casuali ("foraggiamento casuale") ...

Discussione

Questo sistema VR open source per mouse funzionerà solo se le connessioni seriali sono effettuate correttamente tra i microcontrollori rotativi e comportamentali ESP32 e il computer a scheda singola (passaggio 2), che può essere confermato utilizzando il monitor seriale IDE (passaggio 2.4.5). Per risultati comportamentali di successo da questo protocollo (fase 4), i topi devono essere abituati all'apparato ed essere a proprio agio nel correre sulla ruota per ricompense liquide (passaggi 4.3-4.5). Ciò richiede una rest...

Divulgazioni

Clay Lacefield è il fondatore e manutentore di OpenMaze.org, che fornisce gratuitamente i progetti per il PCB OMwSmall utilizzato in questo protocollo per il download.

Riconoscimenti

Vorremmo ringraziare Noah Pettit del laboratorio Harvey per la discussione e i suggerimenti durante lo sviluppo del protocollo in questo manoscritto. Questo lavoro è stato supportato da un BBRF Young Investigator Award e NIMH 1R21MH122965 (G.F.T.), oltre a NINDS R56NS128177 (R.H., C.L.) e NIMH R01MH068542 (R.H.).

Materiali

NameCompanyCatalog NumberComments
1/4 " diam aluminum rodMcMaster-Carr9062K263" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2)Amazon.comB09ZNMR41Vfor affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2)8020.net1020wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick)Canal Plastics33210090702Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screwsMcMaster-Carr92196A194fastening head post holder to optical post 
Adjustable arm (14")Amazon.comB087BZGKSLto hold/adjust lick spout
Analysis code (MATLAB)custom writtenfile at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" IDPololu1993for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2)McMaster-Carr57155K324for mounting wheel axle to frame
Behavior ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick)Canal Plastics32918353422laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick)Canal Plastics32920770574laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2)Amazon.comB086YS4Z3Fmicrocontroller for behavior and rotary encoder
ESP32 shieldOpenMaze.orgOMwSmalldescription at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets 8020.net4138, 3382,3280for wheel frame mounts
goniometersEdmund Optics66-526, 66-527optional for behavior. Fine tuning head for imaging
HallPassVR python codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holdercustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projectorTexas InstrumentsDLPDLCR230NPEVMor other small LED projector
Lick spoutVWR20068-638(or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screwsMcMaster-Carr92015A097securing head post 
Matte white diffusion paperAmazon.comscreen material
Metal headpostscustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID)for constructing the water line
Optical breadboardThorlabsas per user's requirements
Optical posts, 1/2" diam (2x)ThorlabsTR4for head fixation setup
Processing codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4Braspberry.com, adafruit.comSingle-board computer for rendering of HallPassVR envir.
Right angle clampThorlabsRA90for head fixation setup
Rotary encoder (quadrature, 256 step)DigiKeyENS1J-B28-L00256Lto measure wheel rotation
Rotary encoder ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cementAmazon.com
Shaft couplerMcMaster-Carr9861T426to couple rotary encoder shaft with axle
Silver mirror acrylic sheetsCanal Plastics32913817934laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valveParker003-0137-900to administer water rewards

Riferimenti

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

NeuroscienzeNumero 193

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati