JoVE Logo

Accedi

È necessario avere un abbonamento a JoVE per visualizzare questo. Accedi o inizia la tua prova gratuita.

In questo articolo

  • Riepilogo
  • Abstract
  • Introduzione
  • Protocollo
  • Risultati
  • Discussione
  • Divulgazioni
  • Riconoscimenti
  • Materiali
  • Riferimenti
  • Ristampe e Autorizzazioni

Riepilogo

Abbiamo sviluppato un'unica piattaforma per tracciare il comportamento degli animali durante due attività di apprendimento associativo dipendenti dalla fibra di arrampicata. Il design a basso costo consente l'integrazione con esperimenti optogenetici o di imaging diretti verso l'arrampicata dell'attività cerebellare associata alle fibre.

Abstract

Gli input di fibre rampicanti alle cellule di Purkinje forniscono segnali istruttivi critici per l'apprendimento associativo dipendente dal cervelletto. Lo studio di questi segnali in topi fissi facilita l'uso di metodi di imaging, elettrofisiologici e optogenetici. Qui, è stata sviluppata una piattaforma comportamentale a basso costo (~ $ 1000) che consente il monitoraggio dell'apprendimento associativo in topi fissi a testa che locomotano liberamente su una ruota da corsa. La piattaforma incorpora due paradigmi di apprendimento associativo comuni: il condizionamento dell'eyeblink e il condizionamento dello startle tattile ritardato. Il comportamento viene monitorato utilizzando una telecamera e il movimento della ruota da un rilevatore. Descriviamo i componenti e la configurazione e forniamo un protocollo dettagliato per la formazione e l'analisi dei dati. Questa piattaforma consente l'incorporazione della stimolazione optogenetica e dell'imaging a fluorescenza. Il design consente a un singolo computer host di controllare più piattaforme per addestrare più animali contemporaneamente.

Introduzione

Il condizionamento pavloviano dell'associazione sub-seconda tra stimoli per suscitare una risposta condizionata è stato a lungo utilizzato per sondare l'apprendimento cerebellare-dipendente. Ad esempio, nel classico condizionamento ritardato dell'occhio (DEC), gli animali imparano a fare un battito di ciglia protettivo tempestivo in risposta a uno stimolo condizionale neutro (CS; ad esempio, un lampo di luce o un tono uditivo) quando è accoppiato ripetutamente con uno stimolo incondizionato (US; ad esempio, un soffio d'aria applicato alla cornea) che provoca sempre un battito di ciglia riflesso, e che arriva alla fine o vicino alla fine del CS. La risposta appresa è indicata come risposta condizionata (CR), mentre la risposta riflessa è indicata come risposta incondizionata (UR). Nei conigli, le lesioni specifiche del cervelletto interrompono questa forma di apprendimento 1,2,3,4. Inoltre, i picchi complessi di cellule di Purkinje, guidati dai loro ingressi in fibra rampicante5, forniscono un segnale 6,7 necessario e sufficiente 8,9 per l'acquisizione di CR correttamente temporizzati.

Più recentemente, sono stati sviluppati paradigmi di apprendimento associativo dipendenti dalla fibra rampicante per topi fissi a testa. DEC è stato il primo paradigma di apprendimento associativo ad essere adattato a questa configurazione10,11. Dec in topi fissi è stato utilizzato per identificare le regioni cerebellari 11,12,13,14,15,16,17 e gli elementi circuitali 11,1 2,13,14,15,18,19 che sono necessari per l'acquisizione e l'estinzione delle attività. Questo approccio è stato utilizzato anche per dimostrare come la rappresentazione fisiologica a livello cellulare dei parametri del compito si evolve con l'apprendimento 13,15,16.

Oltre all'eyeblink, il paradigma del condizionamento tattile dello startle ritardato (DTSC) è stato recentemente sviluppato come un nuovo compito di apprendimento associativo per topi fissi a testa20. Concettualmente simile al DEC, DTSC prevede la presentazione di un CS neutro con un US, un tap to the face di intensità sufficiente per innestare un riflesso di startle21,22 come UR. Nel paradigma DTSC, sia l'UR che il CR vengono letti come locomozione all'indietro su una ruota. DTSC è stato ora utilizzato per scoprire come l'apprendimento associativo altera l'attività cerebellare e i modelli di espressione genica20.

In questo lavoro, è stato sviluppato un metodo per applicare in modo flessibile DEC o DTSC in un'unica piattaforma. Gli attributi di stimolo e piattaforma sono schematizzati nella Figura 1. Il design incorpora la capacità di tracciare il comportamento degli animali con una telecamera e un encoder rotativo per tracciare la locomozione del mouse su una ruota. Tutti gli aspetti della registrazione dei dati e della struttura di prova sono controllati da microcontrollori accoppiati (Arduino) e da un computer a scheda singola (SBC; Raspberry Pi). È possibile accedere a questi dispositivi tramite un'interfaccia utente grafica fornita. Qui presentiamo un flusso di lavoro per l'installazione, la preparazione e l'esecuzione degli esperimenti e una pipeline di analisi personalizzata per la visualizzazione dei dati.

Protocollo

I protocolli sugli animali qui descritti sono stati approvati dai comitati per la cura e l'uso degli animali dell'Università di Princeton.

1. Impostazione del CFS

  1. Collegare il cavo CSI (Camera Serial Interface) alla telecamera Raspberry NoIR V2 e alla porta della telecamera sull'SBC.
  2. Scaricare il sistema operativo per l'SBC sul computer host. Scrivere l'immagine del sistema operativo su una scheda micro secure digital (microSD).
    NOTA: le istruzioni dettagliate per queste procedure per un SBC Raspberry Pi sono disponibili altrove23. Il sistema è stato testato utilizzando i seguenti sistemi operativi: Stretch, Buster, Bullseye.
  3. Per abilitare la comunicazione sicura della shell, creare un file senza estensione chiamato "ssh" nella partizione di avvio della scheda microSD. Una volta fatto questo, espellere la scheda microSD dalla macchina host e inserirla nello slot per schede microSD SBC. Alimenta l'SBC collegando il suo alimentatore.
  4. Preparare l'SBC per accettare una connessione cablata all'host.
    1. Collegare un monitor con un cavo appropriato all'SBC. Aprire un terminale, digitare il comando ifconfig e registrare l'indirizzo IP ethernet dell'SBC.
      NOTA: Raspberry Pi modello 3B+ ha una porta display HDMI, mentre il modello 4B ha una porta micro-HDMI.
    2. Vai alla scheda Interfaccia dell'impostazione di configurazione di Raspberry Pi e abilita le opzioni per Fotocamera, SSH (Secure Shell Network Protocol) e VNC (Virtual Network Computing).
  5. Stabilire una connessione cablata tra il computer host e l'SBC.
    1. Collegare un cavo Ethernet alla porta Ethernet dell'SBC e di un computer host. Collegare l'altra estremità di questi cavi a uno switch Ethernet.
    2. Utilizzare un client di elaborazione di rete virtuale come VNC viewer24 e accedere al desktop utilizzando l'indirizzo IP SBC e l'autenticazione predefinita (user = "pi", password = "raspberry").
  6. Scarica il software richiesto incluso nei passaggi del protocollo.
    ATTENZIONE: modificare il nome utente e la password predefiniti per impedire l'accesso non autorizzato all'SBC.
    1. Immettere il seguente comando nel terminale SBC per scaricare il software rig:
      git clone --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Immettere i seguenti comandi per scaricare le librerie python necessarie.
      cd assocLearnRig
      setup.py python3
    3. Per consentire il controllo diretto sul microcontrollore, connettersi all'SBC e scaricare l'ambiente di sviluppo integrato (IDE) del microcontroller seguendo i passaggi 1.6.4-1.6.7.
    4. Aprire il browser Web sul desktop SBC e passare a https://arduino.cc/en/software. Scarica l'ultima versione linux ARM a 32 bit dell'IDE.
    5. Aprire una finestra del terminale sul desktop SBC e passare alla directory dei download digitando cd Downloads/
    6. Per installare l'IDE, digitare i seguenti comandi nel terminale:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (qui è la versione dell'IDE scaricato)
    7. Aprire un'istanza dell'IDE del microcontroller sul desktop SBC. Selezionare l'opzione di menu Strumenti > Gestisci librerie. Installare la libreria "Encoder" di Paul Stoffregen.
  7. Espandi la memoria SBC integrata con una chiavetta USB.
    1. Inserire una chiavetta USB in una porta USB dell'SBC. Utilizzare una porta USB 3.0, se disponibile.
    2. Digitare il terminale ls -l /dev/disk/by-uuid/ per trovare la chiavetta USB e il suo riferimento univoco (UUID). Registrare l'UUID.
    3. Per consentire all'utente pi di scrivere sul dispositivo USB, digitare i seguenti comandi uno per uno nel terminale:
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      NOTA: la chiavetta USB può essere aggiunta come dispositivo che si monterà automaticamente al riavvio dell'SBC aggiungendo la seguente riga alla fine del file fstab in /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Cablaggio dell'hardware di stimolo e fase di assemblaggio

  1. Collegare e preparare i microcontrollori.
    1. Collegare l'SBC alla porta di programmazione del microcontrollore (Arduino Due) con un cavo micro da USB2 tipo A a USB2.
      NOTA: utilizzare un cavo di alta qualità come il prodotto nella Tabella dei materiali per garantire il corretto funzionamento.
    2. Individuare "dueAssocLearn.ino" nel repository del progetto scaricato. Aprire lo sketch con l'IDE del microcontrollore e caricarlo sul microcontrollore collegato all'SBC.
    3. Scaricare e installare la versione appropriata dell'IDE Arduino sul computer host.
    4. Collegare il computer host al microcontrollore (Arduino Uno) con un cavo da USB2 di tipo B a USB2 di tipo A.
    5. Vai al repository GitHub (https://github.com/gerardjb/assocLearnRig) e scarica lo sketch "DTSC_US.ino" sul computer host.
    6. Sul computer host, eseguire l'IDE del microcontroller e aprire lo sketch "DTSC_US.ino", quindi caricarlo nel microcontroller.
  2. Collegare i fili ai microcontrollori, alla breadboard, ai LED, all'encoder rotativo, al motore passo-passo con driver e all'elettrovalvola con driver, come indicato nello schema di Fritzing nella Figura 2.
  3. Alimentare il motore passo-passo e l'elettrovalvola.
    1. Collegare correttamente un canale di un alimentatore ai pin +V e GND del driver del motore passo-passo.
    2. Accendere l'alimentatore e impostare la tensione del canale collegato su 25 V.
      NOTA: se le connessioni tra il motore passo-passo, il driver e l'alimentatore sono configurate correttamente, si accenderà un LED indicatore verde sul driver del motore passo-passo.
    3. Collegare correttamente il cavo positivo di un alimentatore al pin di tensione di mantenimento del driver dell'elettrovalvola e l'altro cavo positivo al pin di tensione di picco.
    4. Collegare i cavi negativi a un terreno condiviso con il segnale di controllo.
    5. Accendere l'alimentatore e impostare il canale collegato alla tensione di attesa a circa 2,5 V e il canale collegato alla tensione di picco a circa 12 V.
  4. Collegare una sorgente d'aria regolata a una pressione di ~ 20 PSI all'elettrovalvola utilizzando l'adattatore luer.
  5. Verificare che tutti i componenti dello stimolo e la fotocamera funzionino correttamente.
    1. Aprire un terminale sull'SBC e digitare cd ~/assocLearnRig per passare al repository GitHub clonato.
    2. Nel terminale, digitare python3 assocLearnRig_app.py per avviare l'interfaccia utente grafica di controllo.
    3. Avvia il flusso della videocamera premendo il pulsante Stream .
    4. Selezionare il pulsante di opzione DEC , caricarlo sul microcontrollore e avviare una sessione con i parametri predefiniti premendo il pulsante Avvia sessione .
      NOTA: dopo questo passaggio, nel terminale dovrebbe apparire una stampa del registro dati, il messaggio sul flusso della telecamera dovrebbe scomparire e il LED CS e l'elettrovalvola US dovrebbero accendersi e spegnersi nei momenti appropriati durante ogni prova.
    5. Al termine della sessione, ripetere i passaggi precedenti con il pulsante di opzione DTSC selezionato.
      NOTA: gli schizzi nel repository GitHub ("testStepper.ino", "testRotary.ino" e "testSolenoid.ino") possono essere utilizzati per testare singoli componenti se i passaggi precedenti non forniscono risultati soddisfacenti.
  6. Fai la ruota da corsa.
    1. Tagliare una ruota da 3 "da un rullo di schiuma. Praticare un foro da 1/4 "nel centro esatto della ruota in modo che la ruota non oscilli quando viene ruotata dalla locomozione del mouse.
    2. Inserire un albero da 1/4 " nella ruota e fissarlo in posizione utilizzando mozzi di serraggio posizionati su ciascun lato della ruota.
  7. Fissare l'encoder rotativo su un canale in alluminio da 4,5" utilizzando un bullone M3. Stabilizzare il canale in alluminio sulla breadboard in alluminio utilizzando una staffa ad angolo retto con un bullone, un dado e una rondella da 1/4 "come mostrato.
  8. Fissare la ruota e l'encoder rotativo utilizzando un manicotto di accoppiamento dell'albero.
  9. Stabilizzare il lato libero dell'albero della ruota con un cuscinetto inserito in un morsetto ad angolo retto installato su un montante ottico montato su breadboard.
    NOTA: assicurarsi che la ruota giri liberamente senza oscillare quando ruotata a mano.
  10. Posiziona l'hardware di stimolo, il poggiatesta, l'array di luce a infrarossi e il picamera attorno alla ruota assemblata.
    1. Posizionare i poggiatesta utilizzando montanti ottici e morsetti ad angolo retto in modo che i montanti della testa si trovino 1,5 cm davanti all'asse della ruota e 2 cm sopra la superficie della ruota. (I valori sono per un mouse da 20 g).
    2. Posizionare il LED CS e l'uscita dell'elettrovalvola utilizzata per il DEC US a meno di 1 cm dall'occhio utilizzato per dec.
    3. Montare il motore passo-passo utilizzato per il DTSC US
    4. Montare la picamera su un palo ottico a ~ 10 cm da dove si troverà l'animale.
      NOTA: il design per il supporto picamera può essere realizzato su una stampante 3D dal file in "RaspPiCamMount1_1.stl" nel repository GitHub.
    5. Posizionare l'array di luce a infrarossi leggermente sopra e direttamente rivolto verso la posizione del viso sullo stesso lato del picamera.
    6. Crea uno stimolo tattile per DTSC nastrando la schiuma sul bordo di un pezzo di acrilico montato su un albero da 1/4 "usando un mozzo di serraggio. Attaccare lo stimolo tattile all'albero motore passo-passo.
      NOTA: il design per il pezzo acrilico può essere tagliato al laser seguendo lo schema in "TactileStimDesign.pdf" nel repository GitHub.

3. Preparazione ed esecuzione di esperimenti comportamentali

  1. Impianto della piastra di testa del mouse.
    1. Anestetizzare un mouse utilizzando il 2% di isoflurano e fissare la testa in un frame stereotassico.
    2. Applicare un unguento oftalmico agli occhi.
    3. Rasare il cuoio capelluto con acqua saponata e un bisturi sterile. Iniettare lidocaina direttamente sotto la pelle del sito di incisione e pulire il sito chirurgico con povidone.
    4. Fai un'incisione con un bisturi lungo la linea mediana del cuoio capelluto dal bordo posteriore degli occhi al bordo posteriore del cranio, facendo attenzione a non premere troppo forte sul cranio.
    5. Stendere l'incisione aperta e bloccare entrambi i lati con emostati sterili per tenerla aperta. Rimuovere delicatamente il periostio utilizzando un batuffolo di cotone imbevuto di etanolo e lasciare asciugare la superficie del cranio esposto.
    6. Posizionare il livello della piastra frontale sul cranio, assicurandosi di posizionare la parte anteriore della piastra posteriore agli occhi. Utilizzare la colla cianoacrilata per fissare la piastra di testa al cranio e lasciare asciugare completamente la colla.
    7. Mescolare la polvere di cemento dentale (1 misurino), il solvente (2 gocce) e il catalizzatore (1 goccia) in un piatto di miscelazione e applicare su tutte le aree dell'osso esposto. Aggiungere strati fino a quando la superficie non è a filo con il bordo superiore della piastra di testa, assicurandosi che la piastra della testa sia saldamente attaccata al cranio.
    8. Suturare la pelle chiusa dietro e davanti alla piastra di testa, se necessario.
    9. Iniettare analgesia post-operatoria come il carprofene secondo le linee guida istituzionali, consentendo all'animale di riprendersi per almeno 5 giorni.
  2. Preparazione per le sessioni comportamentali.
    1. Consentire agli animali da esperimento di abituarsi alla piattaforma montandoli nel poggiatesta per sessioni di 30 minuti per 5 giorni prima degli esperimenti.
      NOTA: Entro la fine delle sessioni di assuefazione, gli animali dovrebbero correre comodamente sulla ruota.
    2. (Solo DEC) Prima delle sessioni, assicurarsi che l'uscita dell'elettrovalvola sia centrata sull'occhio bersaglio posizionato a >1 cm di distanza.
    3. (Solo DEC) Azionare manualmente un soffio d'aria utilizzando il pulsante. Assicurarsi che il mouse produca prontamente un battito di ciglia senza mostrare segni evidenti di stress come l'adozione di una postura curva o l'afferramento della regione perioculare interessata con la zampa anteriore ipsilaterale.
    4. (Solo DTSC) Prima delle sessioni, assicurarsi che lo stimolo tattile sia centrato sul naso dell'animale posizionato a circa 1,5 cm di distanza.
      NOTA: quando una sessione comportamentale DTSC non è in esecuzione, il motore passo-passo viene automaticamente disattivato per consentire il riposizionamento manuale.
    5. (Solo DTSC) Nel terminale SBC, digitare python3 assocLearnRig_app.py per avviare la GUI.
    6. (Solo DTSC) Esegui una sessione di test di tre versioni di prova con i parametri predefiniti premendo il pulsante Avvia sessione nella GUI.
    7. (Solo DTSC) Assicurarsi che i dati registrati che vengono stampati sul terminale mostrino una deflessione superiore a 20 ma inferiore a 100 passi registrati sull'encoder rotativo dopo gli Stati Uniti in ogni prova.
      ATTENZIONE: Per evitare danni e ridurre lo stress per l'animale, iniziare lo stimolo più lontano dall'animale e avvicinarlo fino a quando non vengono soddisfatte le condizioni richieste.
  3. Esecuzione di sessioni comportamentali con registrazione dei dati.
    1. Montare un mouse sul poggiatesta.
    2. Nel terminale dell'SBC, digitare python3 assocLearnRig_app.py per avviare la GUI.
    3. Per consentire le registrazioni della videocamera durante le prove comportamentali, premi il pulsante Stream .
      NOTA: le sessioni possono essere eseguite senza videocamera. In questo caso, vengono registrati solo i dati dell'encoder rotativo e i timestamp di presentazione dello stimolo.
    4. Inserisci le informazioni di identificazione per l'animale nel campo ID animale e premi il pulsante Imposta .
    5. Selezionare DEC o DTSC dal pulsante di opzione sotto l'intestazione Tipo di sessione a seconda del paradigma comportamentale desiderato.
    6. Inserisci i parametri dell'esperimento desiderato nei campi sotto il campo ID animale e premi il pulsante Carica su Arduino .
      NOTA: i dettagli dei parametri dell'esperimento sono disponibili nella sezione LEGGIMI del repository GitHub.
    7. Premi il pulsante Avvia sessione per iniziare la sessione.
    8. Quando una sessione viene inizializzata, i dati inizieranno a registrare in una nuova directory creata in "/media/usb" nel punto di montaggio della chiavetta SBC.

4. Esportazione e analisi dei dati

  1. Per esportare tutte le sessioni registrate sul computer host, aprire un prompt dei comandi e immettere il comando pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination, quindi autenticarsi con la password SBC.
    NOTA: il comando precedente è per un computer Windows. Su macchine Mac e Linux, utilizzare terminale e sostituire "pscp" con "scp".
  2. Installare Anaconda25 o un altro gestore di pacchetti python (PPM) sul computer host.
  3. Vai al repository GitHub e scarica "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" e "requirementsHost.txt".
  4. Apri un prompt PPM e digita conda install --file directory_containing_requirementsHostrequirements Host.txt per assicurarti che l'installazione del pacchetto Python abbia le librerie python richieste.
  5. Nel prompt, digitare cd directory_containing_analyzeData per passare alla directory contenente "analyzeData.py" e "session2mp4s.py". Esegui il programma di analisi digitando python analyzeSession.py
    NOTA: verrà generato un messaggio di errore se si utilizza una versione di Python 2 come python. Per controllare la versione, digitare python -V nel prompt.
  6. Selezionare la directory contenente i dati quando richiesto. Le directory con più sottodirectory verranno analizzate in sequenza.
  7. Per le sessioni DEC, per ogni directory di sessione analizzata, selezionare una regione di interesse (ROI) contenente l'occhio del mouse da un'immagine media di prova.
    NOTA: i file di dati di analisi finale e i grafici di riepilogo verranno popolati in una sottodirectory di ogni directory di sessione analizzata.
  8. Digitare python summarizeSessions.py per generare dati di riepilogo in più sessioni.
  9. Digitare il prompt python session2mp4s.py per convertire i file di dati di imaging in file di .mp4 visualizzabili.

Risultati

Flusso di lavoro per esperimenti e analisi DEC
Una corretta selezione dei parametri sperimentali è importante per il successo dell'allenamento di condizionamento ritardato dell'occhio (DEC). Per i dati qui presentati, la GUI è stata utilizzata per scegliere una durata CS di 350 ms e una durata STATUNITENSE di 50 ms. Questo accoppiamento si traduce in un intervallo inter-stimolo di 300 ms: abbastanza lungo da prevenire la produzione di CR a bassa ampiezza10 e abbastanza breve ...

Discussione

La piattaforma con i protocolli associati qui descritti può essere utilizzata per tracciare in modo affidabile il comportamento animale in due attività di apprendimento associativo sensoriale. Ogni compito dipende dalla comunicazione intatta attraverso il percorso in fibra di arrampicata. Nel progetto qui descritto, incorporiamo elementi per facilitare l'apprendimento e la registrazione / perturbazione della risposta cerebellare. Questi includono una ruota per consentire la locomozione libera

Divulgazioni

Gli autori non hanno conflitti di interesse da divulgare.

Riconoscimenti

Questo lavoro è supportato da sovvenzioni del National Institutes of Mental Health NRSA F32 MH120887-03 (a G.J.B.) e R01 NS045193 e R01 MH115750 (a S.S-H.W.). Ringraziamo i dottori Bas Koekkoek e Henk-Jan Boele per le discussioni utili per l'ottimizzazione della configurazione DEC e i dottori Yue Wang e Xiaoying Chen per le discussioni utili per ottimizzare la configurazione DTSC.

Materiali

NameCompanyCatalog NumberComments
"B" Quick Base For C&B METABOND - 10 mL bottleParkellS398Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mLParkellS371Catalyst
#8 WashersThorlabsW8S038Washers
0.250" (1/4") x 8.00" Stainless Steel Precision ShaftingServocity6341721/4" shaft
0.250” (0.770") Clamping HubServocity545588Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 packActobotics625106Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" LongThorlabsSH25S0751/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs ResistorsEDGELEC‎ED_YT05_U_100PcsCS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 VideoStar-tech‎HDDDVIMM2MRaspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash DriveSanDisk‎SDCZ430-256G-G46USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter ModuleAmazonB00ZC6B8VMLogic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory CardSamsung‎MB-ME32GA/AMmicroSD card
4.50" Aluminum ChannelServocity5854444.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision IlluminatorTowallmarkSODIALInfrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting BlocksREXQualisB07DL13RZHBreadboard
5 Port Gigabit Unmanaged Ethernet Network SwitchTP-Link‎TL-SG105Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/AdapterCanakit‎DCAR-RSP-2A5Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3Ethicon668GSutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc SupplyCalt B01EWER68IRotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 PackThorlabsTR1-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 PackThorlabsTR2-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 PackThorlabsTR4-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 PackThorlabsTR6-P5Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2"ThorlabsPH2Optical post holder
Adapter-062-M X LUER LOCK-FThe Lee Co.TMRA3201950ZSolenoid valve luer adapter
Aeromat Foam Roller Size: 36" LengthAeromatB002H3CMUEFoam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 TapsThorlabsMB1012Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-PackAmazonHL-007347Raspberry Pi3B+ to monitor cable
Arduino  Uno R3ArduinoA000066Arduino Uno (microcontroller board)
Arduino DueArduino‎A000062Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 ATenma72-8335APower supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8"McMaster Carr8560K257Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper MotorStepper OnlineB06Y5VPSFNStepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPTMcMaster Carr6763K13Air source regulator
Cotton SwabPuritan806-WCCotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPCDell1908FPCComputer monitor
Flex Cable for Raspberry Pi CameraAdafruit2144camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder MotorStepper Online17HS24-2104SStepper motor
IsofluraneHenry Schein66794001725Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz.Krazy GlueKG483Cyanoacrylate glue
Lidocaine HClVetOne510212Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread SizeMcMaster Carr90473A029Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcsUxcellA16040100ux1380M3 bolt
NEMA 17 Stepper Motor MountACTOBOTICS555152Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m longAdafruit4298Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tubeOptixcare142422Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum SpeedMcMaster-Carr3759T57Bearing
Premium Female/Female Jumper Wires - 40 x 6"Adafruit266Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm)Adafruit826Wires
Premium Male/Male Jumper Wires - 40 x 6"Adafruit758Wires
Radiopaque L-Powder for C&B METABOND - 5 gParkellS396Dental cement powder
Raspberry Pi (3B+ or 4B)Adafruit3775 or 4295Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30Raspberry Pi FoundationRPI3-NOIR-V2Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 TapsThorlabsAB90ERight-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" HexThorlabsRA90Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" HexThorlabsRA180Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet CableAmazon‎CAT6-7FT-5P-BLUEEthernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" HexThorlabsSWCRotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MSThe Lee Co.IECX0501350ASolenoid valve driver
Swivel Base AdapterThorlabsUPHAPost holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feetAmazon‎7T9MV4USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m)AmazonB072L34SZSUSB2 type B to USB2 type A cable
VHS-M/SP-12 VThe Lee Co.INKX0514900ASolenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000"McMaster Carr91090A108Washers

Riferimenti

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. . Raspberry Pi Operating system images Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021)
  24. . VNC Server. VNC® Connect Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021)
  25. . Anaconda: The world's most popular data science platform Available from: https://xddebuganaconda.xdlab.co/ (2021)
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -. J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Ristampe e Autorizzazioni

Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE

Richiedi Autorizzazione

Esplora altri articoli

NeuroscienzeNumero 179cervellettoapprendimento motorio associativoritardo condizionamento del battito oculareritardo condizionamento dello stimolo tattile

This article has been published

Video Coming Soon

JoVE Logo

Riservatezza

Condizioni di utilizzo

Politiche

Ricerca

Didattica

CHI SIAMO

Copyright © 2025 MyJoVE Corporation. Tutti i diritti riservati