JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Nous avons développé une plate-forme unique pour suivre le comportement des animaux lors de deux tâches d’apprentissage associative dépendantes des fibres d’escalade. La conception à faible coût permet l’intégration avec des expériences optogénétiques ou d’imagerie orientées vers l’activité cérébelleuse associée aux fibres grimpantes.

Résumé

Les entrées de fibres grimpantes dans les cellules de Purkinje fournissent des signaux instructifs essentiels à l’apprentissage associatif dépendant du cervelet. L’étude de ces signaux chez des souris à tête fixe facilite l’utilisation de méthodes d’imagerie, électrophysiologiques et optogénétiques. Ici, une plate-forme comportementale à faible coût (~ 1000 $) a été développée qui permet de suivre l’apprentissage associatif chez des souris à tête fixe qui se déplacent librement sur une roue de course. La plateforme intègre deux paradigmes d’apprentissage associatifs courants : le conditionnement des sourcils et le conditionnement des sursauts tactiles retardés. Le comportement est suivi à l’aide d’une caméra et le mouvement de la roue par un détecteur. Nous décrivons les composants et la configuration et fournissons un protocole détaillé pour la formation et l’analyse des données. Cette plateforme permet l’incorporation de la stimulation optogénétique et de l’imagerie par fluorescence. La conception permet à un seul ordinateur hôte de contrôler plusieurs plates-formes pour l’entraînement simultané de plusieurs animaux.

Introduction

Le conditionnement pavlovien de l’association subseconde entre les stimuli pour provoquer une réponse conditionnée a longtemps été utilisé pour sonder l’apprentissage cérébelleux-dépendant. Par exemple, dans le conditionnement classique des sourcils à retard (DEC), les animaux apprennent à faire un clignotement protecteur bien synchronisé en réponse à un stimulus conditionnel neutre (CS; par exemple, un éclair de lumière ou un ton auditif) lorsqu’il est associé à plusieurs reprises à un stimulus inconditionnel (US; par exemple, une bouffée d’air appliquée à la cornée) qui provoque toujours un clignement réflexe, et qui arrive à la fin ou près de la fin du CS. La réponse apprise est appelée réponse conditionnée (RC), tandis que la réponse réflexe est appelée réponse inconditionnée (UR). Chez le lapin, les lésions spécifiques au cervelet perturbent cette forme d’apprentissage 1,2,3,4. En outre, les pics du complexe cellulaire de Purkinje, entraînés par leurs entrées de fibre ascendante5, fournissent un signal nécessaire de 6,7 et suffisamment de 8,9 pour l’acquisition de CR correctement chronométrés.

Plus récemment, des paradigmes d’apprentissage associatif dépendant des fibres grimpantes ont été développés pour les souris à tête fixe. DEC a été le premier paradigme d’apprentissage associatif à être adapté à cette configuration10,11. Dec chez les souris à tête fixe a été utilisé pour identifier les régions cérébelleuses 11,12,13,14,15,16,17 et les éléments de circuit 11,1 2,13,14,15,18,19 qui sont nécessaires à l’acquisition et à l’extinction des tâches. Cette approche a également été utilisée pour démontrer comment la représentation physiologique au niveau cellulaire des paramètres de la tâche évolue avec l’apprentissage 13,15,16.

En plus du clin d’œil, le paradigme du conditionnement tactile à sursaut différé (DTSC) a récemment été développé en tant que nouvelle tâche d’apprentissage associatif pour les souris à tête fixe20. Conceptuellement similaire à DEC, DTSC implique la présentation d’un CS neutre avec un US, un tapotement sur le visage suffisamment intense pour engager un réflexe de sursaut21,22 comme UR. Dans le paradigme DTSC, l’UR et le CR sont lus comme une locomotion vers l’arrière sur une roue. DTSC a maintenant été utilisé pour découvrir comment l’apprentissage associatif modifie l’activité cérébelleuse et les modèles d’expression des gènes20.

Dans ce travail, une méthode a été développée pour appliquer de manière flexible DEC ou DTSC dans une seule plate-forme. Les attributs du stimulus et de la plate-forme sont schématisés à la figure 1. La conception intègre la capacité de suivre le comportement des animaux avec une caméra ainsi qu’un codeur rotatif pour suivre la locomotion de la souris sur une roue. Tous les aspects de l’enregistrement des données et de la structure d’essai sont contrôlés par des microcontrôleurs couplés (Arduino) et un ordinateur monocarte (SBC; Raspberry Pi). Ces appareils sont accessibles via une interface utilisateur graphique fournie. Ici, nous présentons un flux de travail pour la configuration, la préparation et l’exécution des expériences, ainsi qu’un pipeline d’analyse personnalisé pour la visualisation des données.

Protocole

Les protocoles animaux décrits ici ont été approuvés par les comités de soins et d’utilisation des animaux de l’Université de Princeton.

1. Configuration du SBC

  1. Connectez le câble de l’interface série de la caméra (CSI) à la caméra Raspberry NoIR V2 et au port de la caméra sur le SBC.
  2. Téléchargez le système d’exploitation du contrôleur SBC sur l’ordinateur hôte. Écrivez l’image du système d’exploitation sur une carte numérique micro sécurisée (microSD).
    REMARQUE: Des instructions détaillées pour ces procédures pour un Raspberry Pi SBC peuvent être trouvées ailleurs23. Le système a été testé en utilisant les systèmes d’exploitation suivants : Stretch, Buster, Bullseye.
  3. Pour activer la communication shell sécurisée, créez un fichier sans extension appelé « ssh » dans la partition de démarrage de la carte microSD. Une fois cela fait, éjectez la carte microSD de la machine hôte et insérez-la dans l’emplacement pour carte microSD SBC. Alimentez le SBC en branchant son bloc d’alimentation.
  4. Préparez le contrôleur SBC à accepter une connexion filaire à l’hôte.
    1. Connectez un moniteur avec un câble approprié au SBC. Ouvrez un terminal, tapez la commande ifconfig et enregistrez l’adresse IP Ethernet du SBC.
      REMARQUE: Raspberry Pi modèle 3B + a un port d’affichage HDMI, tandis que le modèle 4B a un port micro-HDMI.
    2. Accédez à l’onglet Interface du paramètre de configuration du Raspberry Pi et activez les options Camera, Secure Shell Network Protocol (SSH) et Virtual Network Computing (VNC).
  5. Établissez une connexion câblée entre l’ordinateur hôte et le contrôleur SBC.
    1. Connectez un câble Ethernet au port Ethernet du SBC et à un ordinateur hôte. Connectez l’autre extrémité de ces câbles à un commutateur Ethernet.
    2. Utilisez un client informatique de réseau virtuel tel que VNC Viewer24 et accédez au bureau à l’aide de l’adresse IP SBC et de l’authentification par défaut (utilisateur = « pi », mot de passe = « raspberry »).
  6. Téléchargez les logiciels requis inclus dans les étapes du protocole.
    ATTENTION : Modifiez le nom d’utilisateur et le mot de passe par défaut pour empêcher tout accès non autorisé au contrôleur SBC.
    1. Entrez la commande suivante dans le terminal SBC pour télécharger le logiciel de la plate-forme:
      git clone --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Entrez les commandes suivantes pour télécharger les bibliothèques python nécessaires.
      cd assocLearnRig
      python3 setup.py
    3. Pour permettre un contrôle direct sur le microcontrôleur, connectez-vous au contrôleur SBC et téléchargez l’environnement de développement intégré (IDE) du microcontrôleur en suivant les étapes 1.6.4 à 1.6.7.
    4. Ouvrez le navigateur Web sur le bureau SBC et accédez à https://arduino.cc/en/software. Téléchargez la dernière version Linux ARM 32 bits de l’IDE.
    5. Ouvrez une fenêtre de terminal sur le bureau SBC et accédez au répertoire des téléchargements en tapant cd Downloads/
    6. Pour installer l’IDE, tapez les commandes suivantes dans le terminal :
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (ici est la version de l’IDE téléchargé)
    7. Ouvrez une instance de l’IDE du microcontrôleur sur le bureau SBC. Sélectionnez l’option de menu Outils > Gérer les bibliothèques. Installez la bibliothèque « Encoder » de Paul Stoffregen.
  7. Développez la mémoire intégrée SBC avec une clé USB.
    1. Insérez une clé USB dans un port USB du SBC. Utilisez un port USB 3.0 si disponible.
    2. Tapez dans le terminal ls -l /dev/disk/by-uuid/ pour trouver la clé USB et sa référence unique (UUID). Enregistrez l’UUID.
    3. Pour permettre à l’utilisateur pi d’écrire sur le périphérique USB, tapez les commandes suivantes une par une dans le terminal :
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      REMARQUE: La clé USB peut être ajoutée en tant que périphérique qui se monte automatiquement lorsque le SBC redémarre en ajoutant la ligne suivante à la fin du fichier fstab dans /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Câblage du matériel de stimulation et étage d’assemblage

  1. Connectez et préparez les microcontrôleurs.
    1. Connectez le SBC au port de programmation du microcontrôleur (Arduino Due) à l’aide d’un câble micro USB2 type A vers USB2.
      REMARQUE: Utilisez un câble de haute qualité tel que le produit dans la table des matériaux pour assurer un bon fonctionnement.
    2. Localisez « dueAssocLearn.ino » dans le référentiel de projet téléchargé. Ouvrez l’esquisse avec l’IDE du microcontrôleur et téléchargez-la sur le microcontrôleur connecté au SBC.
    3. Téléchargez et installez la version appropriée de l’IDE Arduino sur l’ordinateur hôte.
    4. Connectez l’ordinateur hôte au microcontrôleur (Arduino Uno) à l’aide d’un câble USB2 de type B vers USB2 de type A.
    5. Accédez au référentiel GitHub (https://github.com/gerardjb/assocLearnRig) et téléchargez l’esquisse « DTSC_US.ino » sur l’ordinateur hôte.
    6. Sur l’ordinateur hôte, exécutez l’IDE du microcontrôleur et ouvrez l’esquisse " DTSC_US.ino », puis téléchargez-la sur le microcontrôleur.
  2. Fixez des fils aux microcontrôleurs, à la breadboard, aux LED, au codeur rotatif, au moteur pas à pas avec pilote et à l’électrovanne avec pilote, comme indiqué dans le diagramme de Fritzing de la figure 2.
  3. Alimentez le moteur pas à pas et l’électrovanne.
    1. Câblez correctement un canal d’une alimentation aux broches +V et GND du pilote du moteur pas à pas.
    2. Allumez le bloc d’alimentation et réglez la tension du canal connecté sur 25 V.
      REMARQUE: Si les connexions entre le moteur pas à pas, le pilote et le bloc d’alimentation sont correctement configurées, un voyant vert sur le pilote du moteur pas à pas s’allume.
    3. Câblez correctement le fil positif d’une alimentation à la broche de tension de maintien du pilote de l’électrovanne et l’autre fil positif à la broche de tension de pointe.
    4. Fixez les fils négatifs à un sol partagé avec le signal de commande.
    5. Allumez l’alimentation et réglez le canal connecté à la tension de maintien à environ 2,5 V et le canal connecté à la tension de pointe à environ 12 V.
  4. Connectez une source d’air régulée à une pression d’environ 20 PSI à l’électrovanne à l’aide de l’adaptateur luer.
  5. Vérifiez que tous les composants du stimulus et la caméra fonctionnent correctement.
    1. Ouvrez un terminal sur le SBC et tapez cd ~/assocLearnRig pour accéder au référentiel GitHub cloné.
    2. Dans le terminal, tapez python3 assocLearnRig_app.py pour démarrer l’interface utilisateur graphique du contrôle.
    3. Démarrez le flux de la caméra en appuyant sur le bouton Flux .
    4. Sélectionnez la case d’option DEC , téléchargez-la sur le microcontrôleur et démarrez une session avec les paramètres par défaut en appuyant sur le bouton Démarrer la session .
      REMARQUE: Après cette étape, une impression du journal de données devrait apparaître dans le terminal, le message sur le flux de la caméra devrait disparaître et la LED CS et l’électrovanne US devraient s’allumer et s’éteindre à des moments appropriés pendant chaque essai.
    5. Une fois la session terminée, répétez les étapes précédentes avec la case d’option DTSC sélectionnée.
      REMARQUE: Les esquisses dans le référentiel GitHub (« testStepper.ino », « testRotary.ino » et « testSolenoid.ino ») peuvent être utilisées pour tester des composants individuels si les étapes ci-dessus ne fournissent pas de résultats satisfaisants.
  6. Faites la roue de roulement.
    1. Coupez une roue de 3 » à partir d’un rouleau en mousse. Percez un trou de 1/4 « dans le centre exact de la roue afin que la roue ne vacille pas lorsqu’elle est tournée par la locomotion de la souris.
    2. Insérez un arbre de 1/4 » dans la roue et fixez-le en place à l’aide de moyeux de serrage placés de chaque côté de la roue.
  7. Fixez le codeur rotatif à un canal en aluminium de 4,5 pouces à l’aide d’un boulon M3. Stabilisez le canal en aluminium sur la planche à pain en aluminium à l’aide d’un support à angle droit avec un boulon, un écrou et une rondelle de 1/4 « , comme indiqué.
  8. Fixez la roue et le codeur rotatif à l’aide d’un manchon d’accouplement d’arbre.
  9. Stabilisez le côté libre de l’arbre de roue à l’aide d’un roulement inséré dans une pince d’extrémité à angle droit installée sur un poteau optique monté sur une planche à pain.
    REMARQUE: Assurez-vous que la roue tourne librement sans vaciller lorsqu’elle est tournée à la main.
  10. Positionnez le matériel de stimulation, l’appuie-tête, le réseau de lumière infrarouge et la picamera autour de la roue assemblée.
    1. Positionnez les appuie-tête à l’aide de poteaux optiques et de pinces de poteau à angle droit de manière à ce que les appuie-tête se trouvent à 1,5 cm devant l’essieu de la roue et à 2 cm au-dessus de la surface de la roue. (Les valeurs sont pour une souris de 20 g).
    2. Placez la LED CS et la sortie de l’électrovanne utilisées pour le DEC US à moins de 1 cm de l’œil utilisé pour le DEC.
    3. Montez le moteur pas à pas utilisé pour le DTSC US
    4. Montez la picamera sur un poteau optique à environ 10 cm de l’endroit où se trouvera l’animal.
      REMARQUE: La conception du support picamera peut être effectuée sur une imprimante 3D à partir du fichier dans « RaspPiCamMount1_1.stl » dans le référentiel GitHub.
    5. Placez le réseau de lumière infrarouge légèrement au-dessus et directement face à la position du visage du même côté que la picamera.
    6. Créez un stimulus tactile pour DTSC en collant de la mousse sur le bord d’un morceau d’acrylique monté sur un arbre de 1/4 « à l’aide d’un moyeu de serrage. Fixez le stimulus tactile à l’arbre du moteur pas à pas.
      REMARQUE: La conception de la pièce acrylique peut être découpée au laser en suivant le modèle de « TactileStimDesign.pdf » dans le référentiel GitHub.

3. Préparation et exécution d’expériences comportementales

  1. Implanter la plaque frontale de la souris.
    1. Anesthésiez une souris à l’aide de 2% d’isoflurane et fixez la tête dans un cadre stéréotaxique.
    2. Appliquez une pommade ophtalmique sur les yeux.
    3. Rasez le cuir chevelu à l’eau savonneuse et à un scalpel stérile. Injecter de la lidocaïne directement sous la peau du site d’incision et nettoyer le site chirurgical avec de la povidone.
    4. Faites une incision avec un scalpel le long de la ligne médiane du cuir chevelu du bord arrière des yeux au bord arrière du crâne, en prenant soin de ne pas appuyer trop fort sur le crâne.
    5. Écartez l’incision ouverte et serrez les deux côtés avec des hémostats stériles pour la maintenir ouverte. Retirez doucement le périoste à l’aide d’un coton-tige trempé dans de l’éthanol et laissez sécher la surface du crâne exposé.
    6. Positionnez la plaque frontale au niveau du crâne, en vous assurant de positionner l’avant de la plaque de tête postérieure aux yeux. Utilisez de la colle cyanoacrylate pour fixer la plaque frontale au crâne et permettre à la colle de sécher complètement.
    7. Mélanger la poudre de ciment dentaire (1 cuillère), le solvant (2 gouttes) et le catalyseur (1 goutte) dans un plat mélangeur et appliquer sur toutes les zones de l’os exposé. Ajoutez des couches jusqu’à ce que la surface soit au ras du bord supérieur de la plaque de tête, en vous assurant que la plaque de tête est solidement attachée au crâne.
    8. Suturez la peau fermée derrière et devant la plaque frontale si nécessaire.
    9. Injecter une analgésie postopératoire telle que le carprofène selon les directives institutionnelles tout en permettant à l’animal de récupérer pendant au moins 5 jours.
  2. Préparation aux séances de comportement.
    1. Permettez aux animaux d’essai de s’habituer à la plate-forme en les montant dans l’appuie-tête pendant des séances de 30 minutes pendant les 5 jours précédant les expériences.
      REMARQUE: À la fin des séances d’accoutumance, les animaux doivent courir confortablement sur le volant.
    2. (DEC seulement) Avant les séances, assurez-vous que la sortie de l’électrovanne est centrée sur l’œil cible positionné à >1 cm de distance.
    3. (DEC seulement) Actionnez manuellement une bouffée d’air à l’aide du bouton-poussoir. Assurez-vous que la souris produit rapidement un clignement des yeux sans montrer de signes manifestes de stress, tels que l’adoption d’une posture voûtée ou la saisie de la région périoculaire affectée avec la patte avant ipsilatérale.
    4. (DTSC uniquement) Avant les séances, assurez-vous que le stimulus tactile est centré sur le nez de l’animal positionné à environ 1,5 cm de distance.
      REMARQUE: Lorsqu’une session comportementale DTSC n’est pas en cours d’exécution, le moteur pas à pas est automatiquement désactivé pour permettre le repositionnement manuel.
    5. (DTSC uniquement) Dans le terminal SBC, tapez python3 assocLearnRig_app.py pour démarrer l’interface graphique.
    6. (DTSC uniquement) Exécutez une session de test de trois essais avec les paramètres par défaut en appuyant sur le bouton Démarrer la session dans l’interface graphique.
    7. (DTSC uniquement) Assurez-vous que les données enregistrées qui impriment sur le terminal affichent une déviation de plus de 20 mais moins de 100 étapes enregistrées sur le codeur rotatif suivant les États-Unis à chaque essai.
      ATTENTION: Pour éviter les dommages et réduire le stress de l’animal, commencez le stimulus plus loin de l’animal et rapprochez-le jusqu’à ce que les conditions requises soient remplies.
  3. Exécution de sessions comportementales avec journalisation des données.
    1. Montez une souris sur l’appuie-tête.
    2. Dans le terminal du SBC, tapez python3 assocLearnRig_app.py pour démarrer l’interface graphique.
    3. Pour autoriser les enregistrements de caméra pendant les essais comportementaux, appuyez sur le bouton Stream .
      REMARQUE: Les sessions peuvent être exécutées sans caméra. Dans ce cas, seules les données du codeur rotatif et des horodatages de présentation des stimuli sont enregistrées.
    4. Entrez les informations d’identification de l’animal dans le champ Identification de l’animal et appuyez sur le bouton Définir.
    5. Sélectionnez le DEC ou le DTSC à partir de la case d’option sous l’en-tête Type de session en fonction du paradigme comportemental souhaité.
    6. Entrez les paramètres d’expérience souhaités dans les champs situés sous le champ Animal ID et appuyez sur le bouton Télécharger vers Arduino .
      REMARQUE : Les détails des paramètres d’expérience se trouvent dans la section README du référentiel GitHub.
    7. Appuyez sur le bouton Démarrer la session pour commencer la session.
    8. Lorsqu’une session est initialisée, les données commencent à se connecter dans un nouveau répertoire créé dans « /media/usb » dans le point de montage de la clé USB SBC.

4. Exportation et analyse des données

  1. Pour exporter toutes les sessions enregistrées vers l’ordinateur hôte, ouvrez une invite de commande et entrez la commande pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination, puis authentifiez-vous avec le mot de passe SBC.
    REMARQUE: La commande ci-dessus est pour une machine Windows. Sur les machines Mac et Linux, utilisez le terminal et remplacez « pscp » par « scp ».
  2. Installez Anaconda25 ou un autre gestionnaire de paquets python (PPM) sur l’ordinateur hôte.
  3. Accédez au référentiel GitHub et téléchargez « analyzeSession.py », « summarizeSessions.py », « session2mp4s.py » et « requirementsHost.txt ».
  4. Ouvrez une invite PPM et tapez conda install --file directory_containing_requirementsHostrequirements Host.txt pour vous assurer que l’installation du package Python dispose des bibliothèques python requises.
  5. Dans l’invite, tapez cd directory_containing_analyzeData pour accéder au répertoire contenant « analyzeData.py » et « session2mp4s.py ». Exécutez le programme d’analyse en tapant python analyzeSession.py
    Remarque : Un message d’erreur sera généré si vous utilisez une version de Python 2 en tant que python. Pour vérifier la version, tapez python -V dans l’invite.
  6. Sélectionnez le répertoire contenant les données lorsque vous y êtes invité. Les répertoires comportant plusieurs sous-répertoires seront analysés séquentiellement.
  7. Pour les sessions DEC, pour chaque répertoire de session analysé, sélectionnez une région d’intérêt (ROI) contenant l’œil de la souris à partir d’une image moyenne d’essai.
    REMARQUE : Les fichiers de données d’analyse finale et les graphiques récapitulatifs seront renseignés dans un sous-répertoire de chaque répertoire de session analysé.
  8. Tapez python summarizeSessions.py pour générer des données récapitulatives sur plusieurs sessions.
  9. Tapez le session2mp4s.py python d’invite pour convertir les fichiers de données d’imagerie en fichiers .mp4 visibles.

Résultats

Flux de travail pour les expériences et l’analyse DEC
Une sélection appropriée des paramètres expérimentaux est importante pour une formation réussie au conditionnement des sourcils (DEC). Pour les données présentées ici, l’interface graphique a été utilisée pour choisir une durée CS de 350 ms et une durée US de 50 ms. Ce couplage se traduit par un intervalle inter-stimulus de 300 ms : assez long pour empêcher la production de CR de faible amplitude10 et asse...

Discussion

La plate-forme avec les protocoles associés décrits ici peut être utilisée pour suivre de manière fiable le comportement animal dans deux tâches d’apprentissage associatif sensoriel. Chaque tâche dépend d’une communication intacte à travers le sentier de fibre d’escalade. Dans la conception décrite ici, nous incorporons des éléments pour faciliter l’apprentissage et l’enregistrement / perturbation de la réponse cérébelleuse. Ceux-ci incluent une roue pour permettre une locomotion libre

Déclarations de divulgation

Les auteurs n’ont aucun conflit d’intérêts à divulguer.

Remerciements

Ce travail est soutenu par des subventions des National Institutes of Mental Health NRSA F32 MH120887-03 (à G.J.B.) et R01 NS045193 et R01 MH115750 (à S.S-H.W.). Nous remercions les Drs Bas Koekkoek et Henk-Jan Boele pour leurs discussions utiles pour l’optimisation de la configuration du DEC et les Drs Yue Wang et Xiaoying Chen pour leurs discussions utiles pour optimiser la configuration du DTSC.

matériels

NameCompanyCatalog NumberComments
"B" Quick Base For C&B METABOND - 10 mL bottleParkellS398Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mLParkellS371Catalyst
#8 WashersThorlabsW8S038Washers
0.250" (1/4") x 8.00" Stainless Steel Precision ShaftingServocity6341721/4" shaft
0.250” (0.770") Clamping HubServocity545588Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 packActobotics625106Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" LongThorlabsSH25S0751/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs ResistorsEDGELEC‎ED_YT05_U_100PcsCS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 VideoStar-tech‎HDDDVIMM2MRaspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash DriveSanDisk‎SDCZ430-256G-G46USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter ModuleAmazonB00ZC6B8VMLogic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory CardSamsung‎MB-ME32GA/AMmicroSD card
4.50" Aluminum ChannelServocity5854444.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision IlluminatorTowallmarkSODIALInfrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting BlocksREXQualisB07DL13RZHBreadboard
5 Port Gigabit Unmanaged Ethernet Network SwitchTP-Link‎TL-SG105Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/AdapterCanakit‎DCAR-RSP-2A5Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3Ethicon668GSutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc SupplyCalt B01EWER68IRotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 PackThorlabsTR1-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 PackThorlabsTR2-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 PackThorlabsTR4-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 PackThorlabsTR6-P5Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2"ThorlabsPH2Optical post holder
Adapter-062-M X LUER LOCK-FThe Lee Co.TMRA3201950ZSolenoid valve luer adapter
Aeromat Foam Roller Size: 36" LengthAeromatB002H3CMUEFoam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 TapsThorlabsMB1012Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-PackAmazonHL-007347Raspberry Pi3B+ to monitor cable
Arduino  Uno R3ArduinoA000066Arduino Uno (microcontroller board)
Arduino DueArduino‎A000062Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 ATenma72-8335APower supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8"McMaster Carr8560K257Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper MotorStepper OnlineB06Y5VPSFNStepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPTMcMaster Carr6763K13Air source regulator
Cotton SwabPuritan806-WCCotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPCDell1908FPCComputer monitor
Flex Cable for Raspberry Pi CameraAdafruit2144camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder MotorStepper Online17HS24-2104SStepper motor
IsofluraneHenry Schein66794001725Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz.Krazy GlueKG483Cyanoacrylate glue
Lidocaine HClVetOne510212Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread SizeMcMaster Carr90473A029Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcsUxcellA16040100ux1380M3 bolt
NEMA 17 Stepper Motor MountACTOBOTICS555152Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m longAdafruit4298Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tubeOptixcare142422Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum SpeedMcMaster-Carr3759T57Bearing
Premium Female/Female Jumper Wires - 40 x 6"Adafruit266Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm)Adafruit826Wires
Premium Male/Male Jumper Wires - 40 x 6"Adafruit758Wires
Radiopaque L-Powder for C&B METABOND - 5 gParkellS396Dental cement powder
Raspberry Pi (3B+ or 4B)Adafruit3775 or 4295Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30Raspberry Pi FoundationRPI3-NOIR-V2Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 TapsThorlabsAB90ERight-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" HexThorlabsRA90Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" HexThorlabsRA180Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet CableAmazon‎CAT6-7FT-5P-BLUEEthernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" HexThorlabsSWCRotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MSThe Lee Co.IECX0501350ASolenoid valve driver
Swivel Base AdapterThorlabsUPHAPost holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feetAmazon‎7T9MV4USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m)AmazonB072L34SZSUSB2 type B to USB2 type A cable
VHS-M/SP-12 VThe Lee Co.INKX0514900ASolenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000"McMaster Carr91090A108Washers

Références

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. . Raspberry Pi Operating system images Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021)
  24. . VNC Server. VNC® Connect Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021)
  25. . Anaconda: The world's most popular data science platform Available from: https://xddebuganaconda.xdlab.co/ (2021)
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -. J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

Neurosciencesnum ro 179cerveletapprentissage moteur associatifconditionnement des sourcils retardconditionnement des stimuli tactiles retard

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.