JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Ici, nous présentons une configuration matérielle et logicielle open source simplifiée pour étudier l’apprentissage spatial de la souris à l’aide de la réalité virtuelle (VR). Ce système affiche une piste linéaire virtuelle vers une souris retenue par la tête fonctionnant sur une roue en utilisant un réseau de microcontrôleurs et un ordinateur monocarte exécutant un logiciel graphique Python facile à utiliser.

Résumé

Les expériences comportementales restreintes à la tête chez la souris permettent aux neuroscientifiques d’observer l’activité des circuits neuronaux avec des outils d’imagerie électrophysiologique et optique à haute résolution tout en fournissant des stimuli sensoriels précis à un animal qui se comporte. Récemment, des études sur les humains et les rongeurs utilisant des environnements de réalité virtuelle (RV) ont montré que la RV est un outil important pour découvrir les mécanismes neuronaux sous-jacents à l’apprentissage spatial dans l’hippocampe et le cortex, en raison du contrôle extrêmement précis de paramètres tels que les indices spatiaux et contextuels. La mise en place d’environnements virtuels pour les comportements spatiaux des rongeurs peut toutefois être coûteuse et nécessiter une vaste expérience en ingénierie et en programmation informatique. Ici, nous présentons un système simple mais puissant basé sur du matériel et des logiciels peu coûteux, modulaires et open source qui permet aux chercheurs d’étudier l’apprentissage spatial chez des souris retenues à la tête en utilisant un environnement VR. Ce système utilise des microcontrôleurs couplés pour mesurer la locomotion et fournir des stimuli comportementaux tandis que des souris retenues par la tête courent sur une roue de concert avec un environnement de piste linéaire virtuel rendu par un progiciel graphique fonctionnant sur un ordinateur monocarte. L’accent mis sur le traitement distribué permet aux chercheurs de concevoir des systèmes flexibles et modulaires pour susciter et mesurer des comportements spatiaux complexes chez la souris afin de déterminer le lien entre l’activité des circuits neuronaux et l’apprentissage spatial dans le cerveau des mammifères.

Introduction

La navigation spatiale est un comportement éthologiquement important par lequel les animaux codent les caractéristiques de nouveaux emplacements dans une carte cognitive, qui est utilisée pour trouver des zones de récompense possible et éviter les zones de danger potentiel. Inextricablement liés à la mémoire, les processus cognitifs sous-jacents à la navigation spatiale partagent un substrat neuronal dans l’hippocampe1 et le cortex, où les circuits neuronaux de ces zones intègrent les informations entrantes et forment des cartes cognitives des environnements et des événements pour un rappel ultérieur2. Alors que la découverte de cellules de lieu dans l’hippocampe3,4 et de cellules de grille dans le cortex entorhinal5 a mis en lumière la façon dont la carte cognitive dans l’hippocampe est formée, de nombreuses questions demeurent sur la façon dont les sous-types neuronaux spécifiques, les microcircuits et les sous-régions individuelles de l’hippocampe (le gyrus denté et les aires cornu ammonis, CA3-1) interagissent et participent à la formation et au rappel de la mémoire spatiale.

L’imagerie in vivo à deux photons a été un outil utile pour découvrir la dynamique cellulaire et des populations en neurophysiologie sensorielle 6,7; Cependant, la nécessité typique d’un appuie-tête limite l’utilité de cette méthode pour examiner le comportement spatial des mammifères. L’avènement de la réalité virtuelle (RV)8 a comblé cette lacune en présentant des environnements visuospatiaux immersifs et réalistes tandis que des souris retenues à la tête courent sur une balle ou un tapis roulant pour étudier l’encodage spatial et contextuel dans l’hippocampe 8,9,10 et le cortex 11. De plus, l’utilisation d’environnements de RV avec des souris se comportant a permis aux chercheurs en neurosciences de disséquer les composantes du comportement spatial en contrôlant avec précision les éléments de l’environnement VR12 (par exemple, le flux visuel, la modulation contextuelle) d’une manière qui n’est pas possible dans les expériences réelles d’apprentissage spatial, telles que le labyrinthe aquatique Morris, le labyrinthe Barnes ou les tâches de planche de trous.

Les environnements de réalité virtuelle visuelle sont généralement rendus sur l’unité de traitement graphique (GPU) d’un ordinateur, qui gère la charge de calcul rapide des milliers de polygones nécessaires pour modéliser un environnement 3D en mouvement sur un écran en temps réel. Les exigences de traitement importantes nécessitent généralement l’utilisation d’un PC séparé avec un GPU qui rend l’environnement visuel sur un moniteur, plusieurs écrans13 ou un projecteur14 lorsque le mouvement est enregistré à partir d’un tapis roulant, d’une roue ou d’une balle en mousse sous l’animal. L’appareil résultant pour contrôler, rendre et projeter l’environnement VR est donc relativement coûteux, encombrant et encombrant. En outre, de nombreux environnements de ce type dans la littérature ont été mis en œuvre à l’aide de logiciels propriétaires qui sont à la fois coûteux et ne peuvent être exécutés que sur un PC dédié.

Pour ces raisons, nous avons conçu un système de RV open-source pour étudier les comportements d’apprentissage spatial chez des souris retenues à la tête à l’aide d’un ordinateur monocarte Raspberry Pi. Cet ordinateur Linux est à la fois petit et peu coûteux mais contient une puce GPU pour le rendu 3D, permettant l’intégration d’environnements VR avec l’appareil d’affichage ou comportemental dans diverses configurations individuelles. De plus, nous avons développé un logiciel graphique écrit en Python, « HallPassVR », qui utilise l’ordinateur monocarte pour rendre un environnement visuospatial simple, une piste linéaire virtuelle ou un couloir, en recombinant des caractéristiques visuelles personnalisées sélectionnées à l’aide d’une interface utilisateur graphique (GUI). Ceci est combiné avec des sous-systèmes de microcontrôleurs (par exemple, ESP32 ou Arduino) pour mesurer la locomotion et coordonner le comportement, par exemple par la livraison d’autres modalités de stimuli sensoriels ou de récompenses pour faciliter l’apprentissage par renforcement. Ce système fournit une méthode alternative peu coûteuse, flexible et facile à utiliser pour fournir des environnements de RV visuospatiaux à des souris contraintes par la tête pendant l’imagerie à deux photons (ou d’autres techniques nécessitant une fixation de la tête) pour étudier les circuits neuronaux sous-jacents au comportement d’apprentissage spatial.

Protocole

Toutes les procédures de ce protocole ont été approuvées par le Comité institutionnel de soin et d’utilisation des animaux de l’Institut psychiatrique de l’État de New York.

REMARQUE: Un ordinateur monocarte est utilisé pour afficher un environnement visuel VR coordonné avec le fonctionnement d’une souris retenue par la tête sur une molette. Les informations de mouvement sont reçues sous forme d’entrée série à partir d’un microcontrôleur ESP32 lisant un codeur rotatif couplé à l’essieu de roue. L’environnement VR est rendu à l’aide de l’accélération matérielle OpenGL sur le GPU Raspberry Pi, qui utilise le package 3D Python pi3d pour Raspberry Pi. L’environnement rendu est ensuite affiché via un projecteur sur un écran parabolique compact enveloppant centré sur le champ visuel de la souris retenue par la tête15,16, tandis que le comportement (par exemple, léchage en réponse à des récompenses spatiales) est mesuré par un second microcontrôleur ESP32 comportemental. Le progiciel graphique permet la création d’environnements de pistes linéaires virtuelles consistant en des motifs répétés de stimuli visuels le long d’un couloir ou d’un couloir virtuel avec une interface utilisateur graphique (GUI). Cette conception est facilement paramétrée, permettant ainsi la création d’expériences complexes visant à comprendre comment le cerveau encode les lieux et les indices visuels pendant l’apprentissage spatial (voir section 4). Les conceptions des composants matériels personnalisés nécessaires à ce système (c’est-à-dire la roue de roulement, l’écran de projection et l’appuie-tête) sont déposées dans un référentiel GitHub public (https://github.com/GergelyTuri/HallPassVR). Il est recommandé de lire la documentation de ce référentiel ainsi que ce protocole, car le site sera mis à jour avec les améliorations futures du système.

1. Configuration du matériel: Construction de la roue de roulement, de l’écran de projection et de l’appareil de fixation de la tête

REMARQUE: Les composants personnalisés pour ces configurations peuvent être facilement fabriqués si l’utilisateur a accès à des équipements d’impression 3D et de découpe laser ou peuvent être sous-traités à des services professionnels de fabrication ou de prototypage 3D (par exemple, eMachinehop). Tous les fichiers de conception sont fournis sous la forme . Fichiers 3D STL ou . DXF AutoCAD fichiers.

  1. Roue de roulement et configuration comportementale (Figure 1)
    REMARQUE: La roue est constituée d’un cylindre en acrylique transparent (6 pouces de diamètre, 3 pouces de largeur, 1/8 de pouce d’épaisseur) centré sur un essieu suspendu à des supports en acrylique découpés au laser via des roulements à billes. La roue est ensuite montée sur un cadre en aluminium léger (fentes en T) et solidement fixée à une breadboard optique (figure 1C-E).
    1. Découpez au laser les côtés de la roue et des supports d’essieu à partir d’une feuille d’acrylique de 1/4 de pouce et fixez les côtés de la roue au cylindre en acrylique avec du ciment acrylique. Vissez la bride de l’essieu au centre de la pièce latérale de la roue.
    2. Insérez l’essieu dans la bride centrale de la roue, enclenchez les roulements à billes dans les supports d’essieu et fixez-les à la barre de support verticale en aluminium.
    3. Insérez l’axe de roue dans les roulements à billes montés, en laissant 0,5 à 1 pouce de l’essieu au-delà des roulements pour la fixation du codeur rotatif.
    4. Fixez le support de codeur rotatif à l’extrémité de l’essieu opposé à la roue et insérez le codeur rotatif; Ensuite, utilisez l’attelage de l’arbre pour coupler l’essieu de roue à l’arbre de codage rotatif.
    5. Fixez l’orifice de léchage au bras flexible, puis fixez sur le cadre de roue en aluminium avec des écrous à fente en T. Utilisez un tube de 1/16 pouce pour connecter l’orifice de léchage à l’électrovanne et la vanne au réservoir d’eau.
      REMARQUE: Le port de léchage doit être en métal avec un fil soudé pour le fixer aux broches de détection tactile capacitives du comportement ESP32.
  2. Ecran de projection
    NOTE: L’écran VR est un petit écran de rétroprojection parabolique (taille de la toile: 54 cm x 21,5 cm) basé sur un design développé dans le laboratoire de Christopher Harvey15,16. L’angle de projection (clé de voûte) du projecteur LED utilisé est différent de celui du projecteur laser utilisé précédemment; ainsi, la conception originale est légèrement modifiée en montant l’unité sous l’écran et en simplifiant le système de miroirs (Figure 1A, B). Il est fortement recommandé de lire la documentation du laboratoire Harvey ainsi que la nôtre pour adapter l’environnement VR aux besoins de l’utilisateur15.
    1. Découpez au laser les côtés de l’écran de projection à partir de 1/4 de feuilles d’acrylique mat noir. Découper au laser le miroir de projection arrière à partir de 1/4 en acrylique miroir.
    2. Assemblez le cadre de l’écran de projection avec les barres d’aluminium et découpez au laser les panneaux acryliques.
    3. Insérez le matériau de l’écran de projection translucide dans la fente parabolique du cadre. Insérez le rétroviseur de projection arrière dans la fente située à l’arrière du cadre de l’écran de projection.
    4. Placez un projecteur LED sur la plaque de montage inférieure à l’intérieur du cadre de l’écran de projection. Alignez le projecteur avec des boulons de montage pour optimiser le positionnement de l’image projetée sur l’écran de rétroprojection parabolique.
    5. Scellez le boîtier du projecteur pour éviter toute contamination lumineuse des capteurs optiques si nécessaire.
  3. Appuie-tête
    NOTA: Cette conception d’appuie-tête consiste en deux collecteurs imbriqués imprimés en 3D pour fixer un poteau de culasse métallique (figure 1E, F).
    1. À l’aide d’une imprimante 3D SLM haute résolution, imprimez en 3D les bras de maintien de la tige de tête.
      REMARQUE: Le plastique imprimé en résine est capable de fournir une fixation stable de la tête pour les expériences comportementales; Cependant, pour obtenir une stabilité maximale pour les applications sensibles telles que l’enregistrement à une cellule ou l’imagerie à deux photons, il est recommandé d’utiliser des pièces métalliques usinées (par exemple, eMachineShop).
    2. Installez le support de poteau de tête imprimé en 3D sur un goniomètre à deux axes avec des poteaux de montage optiques afin que la tête de l’animal puisse être inclinée pour niveler la préparation.
      REMARQUE: Cette fonctionnalité est indispensable pour les expériences d’imagerie in vivo à long terme lorsque la recherche de la même population cellulaire lors de sessions d’imagerie ultérieures est nécessaire. Sinon, cette fonctionnalité peut être omise pour réduire le coût de l’installation.
    3. Fabriquez les poteaux de tête.
      NOTE: Deux types de poteaux de tête de complexité (et de prix) différents sont déposés dans le lien fourni dans le tableau des matériaux avec ces instructions.
      1. En fonction du type d’expérience, décidez quel poteau principal mettre en œuvre. Les barres de tête sont en acier inoxydable et sont généralement sous-traitées à n’importe quel atelier d’usinage local ou service en ligne (par exemple, eMachineShop) pour la fabrication.

2. Configuration du matériel/logiciel électronique (ordinateur monocarte, microcontrôleurs ESP32, Figure 2)

  1. Configurez l’ordinateur monocarte.
    REMARQUE: L’ordinateur monocarte inclus dans le tableau des matériaux (Raspberry Pi 4B) est optimal pour cette configuration car il dispose d’un GPU embarqué pour faciliter le rendu de l’environnement VR et de deux ports HDMI pour le contrôle / surveillance des expériences et la projection VR. D’autres ordinateurs monocartes avec ces caractéristiques peuvent potentiellement être remplacés, mais certaines des instructions suivantes peuvent être spécifiques à Raspberry Pi.
    1. Téléchargez l’application d’imagerie d’ordinateur monocarte sur le PC et installez le système d’exploitation (actuellement Raspberry Pi OS r.2021-05-07) sur la carte microSD (16+ Go). Insérez la carte et démarrez l’ordinateur monocarte.
    2. Configurez l’ordinateur monocarte pour la bibliothèque 3D Python pi3d : (barre de menus) Préférences > Configuration de Raspberry Pi.
      1. Cliquez sur Affichage > Suppression de l’écran > désactiver.
      2. Cliquez sur Interfaces > port série > activer.
      3. Cliquez sur Performance > GPU Memory > 256 (MB).
    3. Mettez à niveau le paquet de bibliothèque d’images Python pour pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Installez le paquet 3D Python pi3d pour l’ordinateur monocarte: (terminal)> sudo pip3 install pi3d.
    5. Augmentez le niveau de sortie HDMI du projecteur: (terminal)> sudo nano / boot / config.txt, décommentez config_hdmi_boost = 4, enregistrez et redémarrez.
    6. Téléchargez et installez l’environnement de développement intégré (IDE) à partir de arduino.cc/en/software (par exemple, arduino-1.8.19-linuxarm.tar.gz), qui est nécessaire pour charger le code sur le codeur rotatif et les microcontrôleurs ESP32 de comportement.
    7. Installez la prise en charge du microcontrôleur ESP32 sur l’IDE :
      1. Cliquez sur Préférences de > Fichier > URL supplémentaires du gestionnaire de conseil = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Cliquez sur Outils > Boards > Boards Manager > ESP32 (par Espressif ). Installez v.2.0.0 (le téléchargement échoue actuellement sur v2.0.4).
    8. Téléchargez et installez l’IDE de traitement à partir de https://github.com/processing/processing4/releases (par exemple, processing-4.0.1-linux-arm32.tgz), qui est nécessaire pour l’enregistrement et le traçage en ligne du comportement de la souris pendant la réalité virtuelle.
      REMARQUE: Les environnements Arduino et Processing peuvent être exécutés sur un PC séparé de l’ordinateur monocarte VR si vous le souhaitez.
  2. Configurez les connexions du codeur rotatif ESP32.
    REMARQUE: Le codeur rotatif couplé à l’axe de roue mesure la rotation de la roue avec la locomotion de la souris, qui est comptée avec un microcontrôleur ESP32. Les changements de position sont ensuite envoyés au port série GPIO de l’ordinateur monocarte pour contrôler le mouvement dans l’environnement virtuel à l’aide du progiciel graphique, ainsi qu’au comportement ESP32 pour contrôler les zones de récompense (Figure 2).
    1. Connectez les fils entre le composant codeur rotatif et l’ESP32 rotatif. Les codeurs rotatifs ont généralement quatre fils: +, GND, A et B (deux lignes numériques pour les codeurs en quadrature). Connectez-les via des fils de démarrage à ESP32 3,3 V, GND, 25, 26 (dans le cas du code attaché).
    2. Connectez les fils série RX/TX entre l’ESP32 rotatif et l’ESP32 de comportement. Effectuez une simple connexion à deux fils entre le port rotatif ESP32 Serial0 RX/TX (réception/émission) et le port Serial2 du comportement ESP32 (TX/RX, broches 17, 16 ; voir port Serial2 à droite du PCB OMwSmall). Cela transportera les informations de mouvement du codeur rotatif à la configuration du comportement pour les zones spatiales telles que les zones de récompense.
    3. Connectez les fils série RX/TX entre l’ESP32 rotatif et le GPIO de l’ordinateur monocarte (ou connexion USB directe). Établissez une connexion à deux fils entre les broches GPIO 14, 15 (RX/TX) de l’ordinateur monocarte et le système rotatif ESP32 Serial2 (TX/RX, broches 17, 16). Cela transportera les informations de mouvement du codeur rotatif vers le progiciel graphique exécuté sur l’ordinateur monocarte.
      REMARQUE: Cette étape n’est nécessaire que si l’ESP32 rotatif n’est pas connecté via une clé USB (c’est-à-dire qu’il s’agit d’une connexion série GPIO à « /dev/ttyS0 »), mais le code HallPassVR_wired.py doit être modifié pour utiliser « /dev/ttyUSB0 ». Cette connexion câblée sera remplacée par une connexion Bluetooth sans fil dans les versions futures.
    4. Branchez l’ESP32 USB rotatif sur l’ordinateur monocarte USB (ou un autre PC exécutant l’IDE) pour télécharger le code du codeur rotatif initial.
  3. Configurez les connexions ESP32 de comportement avec le matériel comportemental (via OpenMaze PCB).
    REMARQUE: Le microcontrôleur ESP32 de comportement contrôlera toutes les interactions animales non-VR (fournir des stimuli et des récompenses non-VR, détecter les léchages de souris), qui sont connectés via une « carte de dérivation » PCB générale pour l’ESP32, « OMwSmall », dont les conceptions sont disponibles sur le site Web OpenMaze (www.openmaze.org). Le PCB contient les composants électroniques nécessaires à l’entraînement des composants électromécaniques, tels que les électrovannes utilisées pour délivrer des récompenses liquides.
    1. Connectez l’électrovanne liquide 12 V à la sortie du circuit intégré ULN2803 à l’extrême gauche du circuit imprimé OMwSmall (broche 12 dans l’exemple de configuration et de code). Ce circuit intégré alimente 12 V à l’électrovanne de récompense, contrôlée par une sortie GPIO sur le microcontrôleur de comportement ESP32.
    2. Connectez le port de léchage à l’entrée tactile ESP32 (par exemple, T0, GPIO4 dans l’exemple de code). L’ESP32 dispose d’une détection tactile capacitive intégrée sur des broches spécifiques, que le code de comportement ESP32 utilise pour détecter le léchage de la souris du port de léchage métallique attaché pendant le comportement VR.
    3. Connectez les fils série RX/TX entre le comportement ESP32 Serial2 (broches 16, 17) et le codeur rotatif ESP32 Serial0 (voir étape 2.2.2).
    4. Branchez l’USB sur le port USB de l’ordinateur monocarte (ou un autre PC) pour télécharger de nouveaux programmes sur le comportement ESP32 pour différents paradigmes expérimentaux (par exemple, le nombre / l’emplacement des zones de récompense) et pour capturer les données de comportement à l’aide de l’esquisse de traitement incluse.
    5. Branchez l’adaptateur mural 12 V CC dans le connecteur jack barillet de 2,1 mm sur le circuit imprimé de comportement ESP32 OMwSmall pour fournir l’alimentation de l’électrovanne de récompense.
    6. Branchez la sortie HDMI #2 de l’ordinateur monocarte dans le port HDMI du projecteur; cela transportera l’environnement VR rendu par le GPU de l’ordinateur monocarte à l’écran de projection.
    7. (facultatif) Connectez le fil de synchronisation (broche 26) à une installation d’imagerie neuronale ou d’enregistrement électrophysiologique. Un signal transistor-transistor-logique (TTL) de 3,3 V sera envoyé toutes les 5 s pour aligner les systèmes avec une précision proche de la milliseconde.
  4. Configurer le logiciel : chargez le micrologiciel/logiciel sur le codeur rotatif ESP32 (Figure 2B) et le comportement ESP32 (Figure 2E) à l’aide de l’IDE, puis téléchargez le logiciel VR Python sur l’ordinateur monocarte. Voir https://github.com/GergelyTuri/HallPassVR/software.
    1. Branchez d’abord l’encodeur rotatif ESP32 sur le port USB de l’ordinateur monocarte - cela sera automatiquement nommé « / dev / ttyUSB0 » par le système d’exploitation.
    2. Pour charger le code du codeur rotatif : Ouvrez le fichier RotaryEncoder_Esp32_VR.ino dans l’IDE, puis sélectionnez l’ESP32 sous Outils > cartes > ESP32 Dev Module. Sélectionnez le port ESP32 en cliquant sur Outils > Port > /dev/ttyUSB0, puis cliquez sur Télécharger.
    3. Branchez ensuite le comportement ESP32 sur le port USB de l’ordinateur monocarte - celui-ci sera nommé « / dev / ttyUSB1 » par le système d’exploitation.
    4. Chargez le code de séquence de comportement sur le comportement ESP32 (IDE, ESP32 Dev Module déjà sélectionné), puis cliquez sur Outils > Port > /dev/ttyUSB1, et cliquez sur Télécharger : wheel_VR_behavior.ino.
    5. Testez les connexions série en sélectionnant le port série pour chaque ESP32 dans l’IDE (Tools > Port > /dev/ttyUSB0 ou /dev/ttyUSB1), puis en cliquant sur Outils > Moniteur série (débit en bauds : 115 200) pour observer la sortie série de la carte rotative (USB0) ou de la carte de comportement (USB1). Faites pivoter la molette pour voir une sortie de mouvement brute de l’ESP32 rotatif sur USB0 ou une sortie de mouvement formatée à partir du comportement ESP32 sur USB1.
    6. Téléchargez le code du logiciel graphique Python à partir de https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (vers /home/pi/Documents). Ce dossier contient tous les fichiers nécessaires à l’exécution du package logiciel graphique si le package pi3d Python3 a été installé correctement précédemment (étape 2.1).

3. Exécution et test du progiciel graphique

REMARQUE: Exécutez l’interface graphique du logiciel pour lancer un environnement de piste linéaire VR, calibrez les distances sur le logiciel VR et le code ESP32 de comportement, et testez l’acquisition et le traçage en ligne du comportement de course et de léchage de la souris avec l’esquisse de langage de traitement incluse.

  1. Ouvrez la fenêtre du terminal dans l’ordinateur monocarte et accédez au dossier HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Exécutez l’interface graphique VR : (terminal)> python3 HallPassVR_GUI.py (la fenêtre GUI s’ouvrira, Figure 3A).
  3. Interface graphique du logiciel
    1. Sélectionnez et ajoutez quatre éléments (images) dans la zone de liste (ou sélectionnez le motif pré-stocké ci-dessous, puis cliquez sur Télécharger) pour chacun des trois modèles le long de la piste, puis cliquez sur Générer.
      REMARQUE: Les nouveaux fichiers image (.jpeg) peuvent être placés dans le dossier HallPassVR / HallPassVR_wired / images / ELEMENTS avant l’exécution de l’interface graphique.
    2. Sélectionnez des images de sol et de plafond dans les menus déroulants et définissez la longueur de la piste sur 2 m pour cet exemple de code (elle doit être égale à trackLength en millimètres [mm] dans le code de comportement ESP32 et le code de traitement).
    3. Nommez ce modèle si vous le souhaitez (il sera stocké dans HallPassVR_wired/images/PATH_HIST).
    4. Cliquez sur le bouton Démarrer (attendez que la fenêtre VR démarre avant de cliquer ailleurs). L’environnement VR apparaîtra sur l’écran #2 (écran de projection, Figure 3B, C).
  4. Exécutez l’esquisse Traitement pour acquérir et tracer les données/mouvements comportementaux.
    1. Ouvrez VRwheel_RecGraphSerialTxt.pde dans l’IDE de traitement.
    2. Changez l’animal = « yourMouseNumber »; et définissez sessionMinutes égale à la durée de la session comportementale en minutes.
    3. Cliquez sur le bouton Exécuter dans l’IDE de traitement.
    4. Vérifiez la fenêtre du tracé de traitement, qui devrait afficher la position actuelle de la souris sur la piste linéaire virtuelle lorsque la roue tourne, ainsi que les zones de récompense et les histogrammes en cours d’exécution des léchages, des tours et des récompenses mis à jour toutes les 30 s (Figure 3D). Faites avancer la roue à la main pour simuler la souris en cours d’exécution pour les tests, ou utilisez une souris de test pour la configuration initiale.
    5. Cliquez sur la fenêtre de tracé et appuyez sur la touche q du clavier pour arrêter l’acquisition de données comportementales. Un fichier texte des événements comportementaux et des heures (généralement <2 Mo par session) et une image de la fenêtre de tracé finale (.png) sont enregistrés lorsque sessionMinutes s’est écoulé ou que l’utilisateur appuie sur la touche q pour quitter.
      REMARQUE: En raison de la petite taille de la sortie .txt fichiers, on estime qu’au moins plusieurs milliers d’enregistrements de comportement peuvent être stockés sur la carte SD de l’ordinateur monocarte. Les fichiers de données peuvent être enregistrés sur une clé USB pour une analyse ultérieure, ou s’ils sont connectés à un réseau local, les données peuvent être gérées à distance.
  5. Calibrez la longueur de la piste de comportement avec la longueur de la piste VR.
    1. Faites avancer la roue à la main tout en observant le couloir VR et la position de la souris (sur le tracé Traitement). Si le couloir VR se termine avant/après que la souris atteigne la fin du diagramme de comportement, augmentez/diminuez la longueur de la piste VR de manière incrémentielle (HallPassVR_wired.py, corridor_length_default, en centimètres [cm]) jusqu’à ce que la piste se réinitialise simultanément dans les deux systèmes.
      REMARQUE: Le code est actuellement calibré pour une roue de roulement de 6 pouces de diamètre à l’aide d’un codeur rotatif en quadrature à 256 positions, de sorte que l’utilisateur peut avoir à modifier le VR (HallPassVR_wired.py, corridor_length_default, en centimètres [cm]) et le code de comportement (wheel_VR_behavior.ino, trackLength, en millimètres [mm]) pour tenir compte d’autres configurations. La position comportementale est cependant réinitialisée à chaque tour VR pour maintenir la correspondance entre les systèmes.

4. Entraînement de souris et comportement d’apprentissage spatial

NOTE: Les souris sont implantées pour la fixation de la tête, habituées à l’appuie-tête, puis entraînées à courir sur la roue et à lécher régulièrement pour obtenir progressivement des récompenses liquides (« recherche de nourriture aléatoire »). Les souris qui réussissent à courir et à lécher de manière cohérente sont ensuite entraînées sur une tâche de récompense cachée spatiale en utilisant l’environnement VR, dans lequel une seule zone de récompense est présentée suivant un repère visuel sur la piste linéaire virtuelle. L’apprentissage spatial est ensuite mesuré comme une sélectivité accrue du léchage pour les positions immédiatement avant la zone de récompense.

  1. Chirurgie post-implantation de la tête: Cette procédure est décrite en détail ailleurs dans cette revue et dans d’autres, alors reportez-vous à cette littérature pour des instructions spécifiques 7,17,18,19,20,21.
  2. Horaire de l’eau
    1. Effectuer une restriction d’eau 24 heures avant la première manipulation (voir ci-dessous) et permettre la consommation d’eau ad libitum après chaque séance d’accoutumance ou de comportement restreint de la tête. Réduisez progressivement le temps de disponibilité de l’eau sur trois jours pendant l’accoutumance à environ 5 minutes, et ajustez la quantité pour les souris individuelles de sorte que leur poids corporel ne tombe pas en dessous de 80% de leur poids avant la restriction. Surveillez quotidiennement le poids de chaque animal et observez également l’état de chaque souris pour détecter tout signe de déshydratation22. Les souris qui ne sont pas en mesure de maintenir 80% de leur poids corporel d’avant la restriction ou qui semblent déshydratées doivent être retirées de l’étude et avoir accès à de l’eau gratuite.
      REMARQUE: La restriction d’eau est nécessaire pour motiver les souris à courir sur la roue en utilisant des récompenses liquides, ainsi que pour utiliser le léchage spatial comme indication des emplacements appris le long de la piste. Les lignes directrices de l’établissement peuvent différer sur les instructions spécifiques pour cette procédure, de sorte que l’utilisateur doit consulter les comités de protection des animaux de leur établissement pour assurer la santé et le bien-être des animaux pendant la restriction d’eau.
  3. Manipulation: Manipuler quotidiennement les souris implantées pour les habituer au contact humain, après quoi de l’eau ad libitum limitée peut être administrée en renfort (1-5 min / jour, 2 jours à 1 semaine).
  4. Habituation à l’appuie-tête
    1. Habituer les souris à l’appuie-tête pendant de plus en plus de temps en les plaçant dans l’appuie-tête tout en les récompensant avec des gouttes d’eau occasionnelles pour réduire la contrainte de la fixation de la tête.
    2. Commencez par 5 minutes de fixation de la tête et augmentez la durée par incréments de 5 minutes par jour jusqu’à ce que les souris soient capables de tolérer la fixation jusqu’à 30 minutes. Retirez les souris de l’appareil de fixation si elles semblent se débattre ou bouger très peu. Cependant, les souris commencent généralement à courir sur la roue spontanément en plusieurs séances, ce qui signifie qu’elles sont prêtes pour la prochaine étape de l’entraînement.
      NOTE: Les souris qui luttent à plusieurs reprises sous l’appuie-tête ou qui ne courent pas et ne lèchent pas pour obtenir des récompenses doivent être rétrogradées aux stades antérieurs de l’entraînement et retirées de l’étude si elles ne progressent pas pendant trois de ces cycles de rattrapage (voir tableau 1).
  5. Entraînement à courir/lécher (recherche aléatoire de nourriture)
    REMARQUE: Pour effectuer la tâche d’apprentissage spatial dans l’environnement VR, les souris doivent d’abord apprendre à courir sur la roue et à lécher régulièrement pour des récompenses occasionnelles. La progression dans les paramètres comportementaux opérants est contrôlée via le microcontrôleur de comportement ESP32.
    1. Recherche aléatoire de nourriture avec récompenses non opérantes
      1. Exécutez le programme graphique GUI du logiciel avec un chemin d’éléments visuels arbitraires (choix de l’utilisateur, voir étape 3.3).
      2. Téléchargez le programme de comportement dans le comportement ESP32 avec plusieurs récompenses non opérantes (variables de code : isOperant=0, numRew=4, isRandRew=1) pour conditionner les souris à courir et à lécher. Faites courir les souris en sessions de 20 à 30 minutes jusqu’à ce que les souris courent au moins 20 tours par session et léchent pour obtenir des récompenses présentées dans des endroits aléatoires (une à quatre séances).
    2. Recherche aléatoire de nourriture avec des récompenses opérantes sur des tours alternatifs
      1. Téléchargez le programme de comportement avec altOpt=1 (alternance de tours opérants/non opérants) et entraînez les souris jusqu’à ce qu’elles lèchent pour les zones de récompense non opérantes et opérantes (une à quatre sessions).
    3. Alimentation aléatoire entièrement opérante
      1. Téléchargez le programme de comportement avec quatre zones de récompense aléatoires opérantes (variables de code de comportement ESP32 : isOperant=1, numRew=4, isRandRew=1). À la fin de cette étape d’entraînement, les souris doivent courir régulièrement et effectuer des tests de léchage sur toute la longueur de la piste (une à quatre séances; Figure 4A).
  6. Apprentissage spatial
    REMARQUE: Effectuez une expérience d’apprentissage spatial avec une seule zone de récompense cachée à une certaine distance d’un seul repère visuel en sélectionnant un couloir de 2 m de long avec des panneaux sombres le long de la piste et un seul panneau de stimulus visuel à contraste élevé au milieu comme repère visuel (position de 0,9 à 1,1 m), analogue aux expériences récentes avec des repères olfactifs spatiaux20 . Les souris doivent lécher dans une zone de récompense (à une position de 1,5 à 1,8 m) située à une distance du repère visuel dans l’environnement de piste linéaire virtuelle.
    1. Exécutez le logiciel graphique avec le chemin d’un couloir sombre avec un seul repère visuel au centre (par exemple, l’échiquier, voir l’étape 3.3, Figure 3A).
    2. Téléchargez le programme de comportement avec une seule zone de récompense masquée dans le comportement ESP32 (variables de code de comportement ESP32 : isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Placez doucement la souris dans l’appareil de fixation de la tête, ajustez le bec à lécher à un endroit juste en avant de la bouche de la souris et placez la molette de la souris au centre de la zone de l’écran de projection. Assurez-vous que la tête de la souris est à ~12-15 cm de l’écran après les derniers réglages.
    4. Définissez le nom de l’animal dans l’esquisse de traitement, puis appuyez sur exécuter dans l’IDE de traitement pour commencer à acquérir et à tracer les données comportementales (voir étape 3.4).
    5. Exécutez la souris pendant des sessions de 30 minutes avec une seule zone de récompense cachée et un seul couloir de repère visuel VR.
    6. Hors ligne : téléchargez le fichier de données .txt à partir du dossier Processing sketch et analysez le comportement de léchage spatial (par exemple, dans Matlab avec les fichiers inclus procVRbehav.m et vrLickByLap.m).
      REMARQUE: Les souris doivent d’abord effectuer des tests de léchage sur l’ensemble de la piste virtuelle (« recherche de nourriture aléatoire »), puis commencer à lécher sélectivement uniquement près de l’emplacement de la récompense après le signal visuel VR (Figure 4).

Résultats

Cette configuration comportementale de réalité virtuelle open source nous a permis de quantifier le comportement de léchage en tant que lecture de l’apprentissage spatial alors que des souris retenues à la tête naviguaient dans un environnement de piste linéaire virtuel. Sept souris C57BL / 6 des deux sexes à l’âge de 4 mois ont été placées sur un programme d’eau restreint et d’abord entraînées à lécher continuellement à de faibles niveaux tout en courant sur la roue pour des récompenses spatiale...

Discussion

Ce système VR open-source pour souris ne fonctionnera que si les connexions série sont établies correctement entre les microcontrôleurs rotatifs et de comportement ESP32 et l’ordinateur monocarte (étape 2), ce qui peut être confirmé à l’aide du moniteur série IDE (étape 2.4.5). Pour que les résultats comportementaux réussis de ce protocole (étape 4), les souris doivent être habituées à l’appareil et être à l’aise de courir sur la roue pour obtenir des récompenses liquides (étapes 4.3-4.5). Cel...

Déclarations de divulgation

Clay Lacefield est le fondateur et le mainteneur de OpenMaze.org, qui fournit gratuitement des conceptions pour le PCB OMwSmall utilisé dans ce protocole.

Remerciements

Nous tenons à remercier Noah Pettit du laboratoire Harvey pour la discussion et les suggestions lors de l’élaboration du protocole dans ce manuscrit. Ce travail a été soutenu par une bourse de jeune chercheur BBRF et NIMH 1R21MH122965 (G.F.T.), en plus de NINDS R56NS128177 (R.H., C.L.) et NIMH R01MH068542 (R.H.).

matériels

NameCompanyCatalog NumberComments
1/4 " diam aluminum rodMcMaster-Carr9062K263" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2)Amazon.comB09ZNMR41Vfor affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2)8020.net1020wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick)Canal Plastics33210090702Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screwsMcMaster-Carr92196A194fastening head post holder to optical post 
Adjustable arm (14")Amazon.comB087BZGKSLto hold/adjust lick spout
Analysis code (MATLAB)custom writtenfile at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" IDPololu1993for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2)McMaster-Carr57155K324for mounting wheel axle to frame
Behavior ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick)Canal Plastics32918353422laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick)Canal Plastics32920770574laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2)Amazon.comB086YS4Z3Fmicrocontroller for behavior and rotary encoder
ESP32 shieldOpenMaze.orgOMwSmalldescription at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets 8020.net4138, 3382,3280for wheel frame mounts
goniometersEdmund Optics66-526, 66-527optional for behavior. Fine tuning head for imaging
HallPassVR python codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holdercustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projectorTexas InstrumentsDLPDLCR230NPEVMor other small LED projector
Lick spoutVWR20068-638(or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screwsMcMaster-Carr92015A097securing head post 
Matte white diffusion paperAmazon.comscreen material
Metal headpostscustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID)for constructing the water line
Optical breadboardThorlabsas per user's requirements
Optical posts, 1/2" diam (2x)ThorlabsTR4for head fixation setup
Processing codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4Braspberry.com, adafruit.comSingle-board computer for rendering of HallPassVR envir.
Right angle clampThorlabsRA90for head fixation setup
Rotary encoder (quadrature, 256 step)DigiKeyENS1J-B28-L00256Lto measure wheel rotation
Rotary encoder ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cementAmazon.com
Shaft couplerMcMaster-Carr9861T426to couple rotary encoder shaft with axle
Silver mirror acrylic sheetsCanal Plastics32913817934laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valveParker003-0137-900to administer water rewards

Références

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

Neurosciencesnum ro 193

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.