Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.
Method Article
Hier stellen wir ein vereinfachtes Open-Source-Hardware- und Software-Setup zur Untersuchung des räumlichen Lernens von Mäusen mit Hilfe von Virtual Reality (VR) vor. Dieses System zeigt einer kopfgebundenen Maus, die auf einem Rad läuft, eine virtuelle lineare Spur an, indem es ein Netzwerk von Mikrocontrollern und einen Einplatinencomputer verwendet, auf dem ein einfach zu bedienendes grafisches Python-Softwarepaket ausgeführt wird.
Kopfgebundene Verhaltensexperimente an Mäusen ermöglichen es Neurowissenschaftlern, die Aktivität neuronaler Schaltkreise mit hochauflösenden elektrophysiologischen und optischen Bildgebungswerkzeugen zu beobachten und gleichzeitig einem sich verhaltenden Tier präzise sensorische Reize zu geben. In jüngster Zeit haben Studien an Menschen und Nagetieren mit Virtual-Reality-Umgebungen (VR) gezeigt, dass VR aufgrund der äußerst präzisen Kontrolle von Parametern wie räumlichen und kontextuellen Hinweisen ein wichtiges Werkzeug ist, um die neuronalen Mechanismen aufzudecken, die dem räumlichen Lernen im Hippocampus und im Kortex zugrunde liegen. Das Einrichten virtueller Umgebungen für das räumliche Verhalten von Nagetieren kann jedoch kostspielig sein und erfordert einen umfangreichen Hintergrund in Ingenieurwesen und Computerprogrammierung. Hier stellen wir ein einfaches, aber leistungsfähiges System vor, das auf kostengünstiger, modularer Open-Source-Hard- und Software basiert und es Forschern ermöglicht, räumliches Lernen in kopfgebundenen Mäusen mithilfe einer VR-Umgebung zu untersuchen. Dieses System verwendet gekoppelte Mikrocontroller, um die Fortbewegung zu messen und Verhaltensreize zu liefern, während kopfgebundene Mäuse auf einem Rad in Verbindung mit einer virtuellen linearen Spurumgebung laufen, die von einem grafischen Softwarepaket gerendert wird, das auf einem Einplatinencomputer läuft. Der Schwerpunkt auf verteilter Verarbeitung ermöglicht es den Forschern, flexible, modulare Systeme zu entwickeln, um komplexe räumliche Verhaltensweisen bei Mäusen zu ermitteln und zu messen, um den Zusammenhang zwischen der Aktivität neuronaler Schaltkreise und dem räumlichen Lernen im Gehirn von Säugetieren zu bestimmen.
Räumliche Navigation ist ein ethologisch wichtiges Verhalten, bei dem Tiere die Merkmale neuer Orte in einer kognitiven Karte kodieren, die verwendet wird, um Bereiche möglicher Belohnungen zu finden und potenzielle Gefahrenbereiche zu vermeiden. Die kognitiven Prozesse, die der räumlichen Navigation zugrunde liegen, sind untrennbar mit dem Gedächtnis verbunden und teilen sich ein neuronales Substrat im Hippocampus1 und im Kortex, wo neuronale Schaltkreise in diesen Bereichen eingehende Informationen integrieren und kognitive Karten von Umgebungen und Ereignissen für den späteren Abrufbilden 2. Während die Entdeckung von Ortszellen im Hippocampus3,4 und von Gitterzellen im entorhinalen Kortex5 Aufschluss darüber gegeben hat, wie die kognitive Karte innerhalb des Hippocampus gebildet wird, bleiben viele Fragen darüber offen, wie bestimmte neuronale Subtypen, Mikroschaltkreise und einzelne Subregionen des Hippocampus (Gyrus dentatus und Cornu ammonis Areale, CA3-1) interagieren und an der Bildung und dem Abruf des räumlichen Gedächtnisses beteiligt sind.
Die In-vivo-Zwei-Photonen-Bildgebung ist ein nützliches Werkzeug zur Aufdeckung der Zell- und Populationsdynamik in der sensorischen Neurophysiologie 6,7; Die typische Notwendigkeit einer Kopfstütze schränkt jedoch den Nutzen dieser Methode zur Untersuchung des räumlichen Verhaltens von Säugetieren ein. Das Aufkommen der virtuellen Realität (VR)8 hat dieses Manko behoben, indem immersive und realistische visuell-räumliche Umgebungen präsentiert wurden, während kopfgebundene Mäuse auf einem Ball oder Laufband liefen, um die räumliche und kontextuelle Kodierung im Hippocampus 8,9,10 und im Kortex 11 zu untersuchen. Darüber hinaus hat die Verwendung von VR-Umgebungen mit sich verhaltenden Mäusen es neurowissenschaftlichen Forschern ermöglicht, die Komponenten des räumlichen Verhaltens zu analysieren, indem sie die Elemente der VR-Umgebung12 (z. B. visueller Fluss, kontextuelle Modulation) auf eine Weise präzise steuern, die in realen Experimenten des räumlichen Lernens, wie z. B. dem Morris-Wasserlabyrinth, dem Barnes-Labyrinth oder Lochbrettaufgaben, nicht möglich ist.
Visuelle VR-Umgebungen werden in der Regel auf der Graphical Processing Unit (GPU) eines Computers gerendert, die die Last der schnellen Berechnung der Tausenden von Polygonen bewältigt, die erforderlich sind, um eine sich bewegende 3D-Umgebung in Echtzeit auf einem Bildschirm zu modellieren. Die großen Verarbeitungsanforderungen erfordern im Allgemeinen die Verwendung eines separaten PCs mit einer GPU, die die visuelle Umgebung auf einem Monitor, mehreren Bildschirmen13 oder einem Projektor14 wiedergibt, während die Bewegung von einem Laufband, einem Rad oder einem Schaumstoffball unter dem Tier aufgezeichnet wird. Die daraus resultierende Vorrichtung zur Steuerung, zum Rendern und zur Projektion der VR-Umgebung ist daher relativ teuer, sperrig und umständlich. Darüber hinaus wurden viele solcher Umgebungen in der Literatur mit proprietärer Software implementiert, die sowohl kostspielig ist als auch nur auf einem dedizierten PC ausgeführt werden kann.
Aus diesen Gründen haben wir ein Open-Source-VR-System entwickelt, um das räumliche Lernverhalten von kopfgebundenen Mäusen mit einem Raspberry Pi-Einplatinencomputer zu untersuchen. Dieser Linux-Computer ist sowohl klein als auch kostengünstig und enthält dennoch einen GPU-Chip für 3D-Rendering, der die Integration von VR-Umgebungen mit dem Display oder dem Verhaltensapparat in verschiedenen individuellen Setups ermöglicht. Darüber hinaus haben wir ein in Python geschriebenes grafisches Softwarepaket, "HallPassVR", entwickelt, das den Einplatinencomputer nutzt, um eine einfache visuell-räumliche Umgebung, eine virtuelle lineare Strecke oder einen Flur, zu rendern, indem benutzerdefinierte visuelle Merkmale, die über eine grafische Benutzeroberfläche (GUI) ausgewählt wurden, neu kombiniert werden. Dies wird mit Mikrocontroller-Subsystemen (z. B. ESP32 oder Arduino) kombiniert, um die Fortbewegung zu messen und das Verhalten zu koordinieren, z. B. durch die Abgabe anderer Modalitäten von Sinnesreizen oder Belohnungen, um das Reinforcement Learning zu erleichtern. Dieses System bietet eine kostengünstige, flexible und einfach zu bedienende alternative Methode zur Bereitstellung visuell-räumlicher VR-Umgebungen für kopfgebundene Mäuse während der Zwei-Photonen-Bildgebung (oder anderer Techniken, die eine Kopffixierung erfordern), um die neuronalen Schaltkreise zu untersuchen, die dem räumlichen Lernverhalten zugrunde liegen.
Alle Verfahren in diesem Protokoll wurden vom Institutional Animal Care and Use Committee des New York State Psychiatric Institute genehmigt.
HINWEIS: Ein Einplatinencomputer wird verwendet, um eine visuelle VR-Umgebung anzuzeigen, die mit dem Ausführen einer kopfgebundenen Maus auf einem Rad koordiniert ist. Bewegungsinformationen werden als serieller Eingang von einem ESP32-Mikrocontroller empfangen, der einen mit der Radachse gekoppelten Drehgeber liest. Die VR-Umgebung wird mit OpenGL-Hardwarebeschleunigung auf der Raspberry Pi-GPU gerendert, die das pi3d-Python-3D-Paket für Raspberry Pi verwendet. Die gerenderte Umgebung wird dann über einen Projektor auf eine kompakte, umlaufende Parabolleinwand ausgegeben, die auf das Gesichtsfeld der kopfgebundenen Maus15,16 zentriert ist, während das Verhalten (z. B. Lecken als Reaktion auf räumliche Belohnungen) von einem ESP32-Mikrocontroller mit zweitem Verhalten gemessen wird. Das grafische Softwarepaket ermöglicht die Erstellung virtueller linearer Gleisumgebungen, die aus sich wiederholenden Mustern visueller Reize entlang eines virtuellen Korridors oder Flurs mit einer grafischen Benutzeroberfläche (GUI) bestehen. Dieses Design lässt sich leicht parametrisieren und ermöglicht so die Erstellung komplexer Experimente, die darauf abzielen, zu verstehen, wie das Gehirn Orte und visuelle Hinweise während des räumlichen Lernens kodiert (siehe Abschnitt 4). Entwürfe für die benutzerdefinierten Hardwarekomponenten, die für dieses System erforderlich sind (d. h. das Laufrad, die Projektionsleinwand und die Kopfstütze), werden in einem öffentlichen GitHub-Repository (https://github.com/GergelyTuri/HallPassVR) abgelegt. Es wird empfohlen, die Dokumentation dieses Repositorys zusammen mit diesem Protokoll zu lesen, da die Site mit zukünftigen Verbesserungen des Systems aktualisiert wird.
1. Hardware-Setup: Aufbau des Laufrads, der Projektionsfläche und der Kopffixierungsvorrichtung
HINWEIS: Die kundenspezifischen Komponenten für diese Setups können leicht hergestellt werden, wenn der Benutzer Zugang zu 3D-Druck- und Laserschneidgeräten hat oder an professionelle Fertigungs- oder 3D-Prototyping-Dienste (z. B. eMachinehop) ausgelagert werden kann. Alle Designdateien werden als bereitgestellt. STL-3D-Dateien oder . DXF-AutoCAD-Dateien.
2. Aufbau der Elektronik-Hardware/-Software (Einplatinencomputer, ESP32-Mikrocontroller, Abbildung 2)
3. Ausführen und Testen des grafischen Softwarepakets
HINWEIS: Führen Sie die grafische Softwarepaket-GUI aus, um eine lineare VR-Spurumgebung zu initiieren, kalibrieren Sie die Abstände im ESP32-Code der VR-Software und des Verhaltens und testen Sie die Erfassung und Online-Darstellung des Lauf- und Leckverhaltens der Maus mit der mitgelieferten Verarbeitungssprachenskizze.
4. Maustraining und räumliches Lernverhalten
HINWEIS: Die Mäuse werden zur Kopffixierung implantiert, an die Kopfstütze gewöhnt und dann darauf trainiert, auf dem Rad zu laufen und nach und nach flüssigen Belohnungen zu lecken ("zufällige Nahrungssuche"). Mäuse, die gleichmäßig laufen und lecken, werden dann mithilfe der VR-Umgebung auf eine räumliche versteckte Belohnungsaufgabe trainiert, in der eine einzelne Belohnungszone nach einem visuellen Hinweis auf der virtuellen linearen Spur dargestellt wird. Das räumliche Lernen wird dann als erhöhte Leckselektivität für Positionen unmittelbar vor der Belohnungszone gemessen.
Dieses Open-Source-Virtual-Reality-Verhaltens-Setup ermöglichte es uns, das Leckverhalten als Auslesen des räumlichen Lernens zu quantifizieren, während kopfgebundene Mäuse durch eine virtuelle lineare Spurumgebung navigierten. Sieben C57BL/6-Mäuse beiderlei Geschlechts im Alter von 4 Monaten wurden auf einen eingeschränkten Wasserplan gesetzt und zunächst darauf trainiert, kontinuierlich auf niedrigem Niveau zu lecken, während sie auf dem Rad liefen, um zufällige räumliche Belohnungen zu erhalten ("zufällige ...
Dieses Open-Source-VR-System für Mäuse funktioniert nur, wenn die seriellen Verbindungen zwischen den rotierenden und verhaltensfähigen ESP32-Mikrocontrollern und dem Einplatinencomputer korrekt hergestellt sind (Schritt 2), was mit dem seriellen IDE-Monitor bestätigt werden kann (Schritt 2.4.5). Für erfolgreiche Verhaltensergebnisse aus diesem Protokoll (Schritt 4) müssen die Mäuse an den Apparat gewöhnt sein und sich wohl fühlen, auf dem Rad zu laufen, um flüssige Belohnungen zu erhalten (Schritte 4.3-4.5). D...
Clay Lacefield ist der Gründer und Betreuer von OpenMaze.org, das Designs für die in diesem Protokoll verwendete OMwSmall-Leiterplatte kostenlos zum Download bereitstellt.
Wir bedanken uns bei Noah Pettit vom Harvey-Labor für die Diskussion und die Anregungen bei der Entwicklung des Protokolls in diesem Manuskript. Diese Arbeit wurde durch einen BBRF Young Investigator Award und NIMH 1R21MH122965 (G.F.T.) unterstützt, zusätzlich zu NINDS R56NS128177 (R.H., C.L.) und NIMH R01MH068542 (R.H.).
Name | Company | Catalog Number | Comments |
1/4 " diam aluminum rod | McMaster-Carr | 9062K26 | 3" in length for wheel axle |
1/4"-20 cap screws, 3/4" long (x2) | Amazon.com | B09ZNMR41V | for affixing head post holders to optical posts |
2"x7" T-slotted aluminum bar (x2) | 8020.net | 1020 | wheel/animal mounting frame |
6" diam, 3" wide acrylic cylinder (1/8" thick) | Canal Plastics | 33210090702 | Running wheel (custom width cut at canalplastics.com) |
8-32 x 1/2" socket head screws | McMaster-Carr | 92196A194 | fastening head post holder to optical post |
Adjustable arm (14") | Amazon.com | B087BZGKSL | to hold/adjust lick spout |
Analysis code (MATLAB) | custom written | file at github.com/GergelyTuri/HallPassVR/software/Analysis code | |
Axle mounting flange, 1/4" ID | Pololu | 1993 | for mounting wheel to axle |
Ball bearing (5/8" OD, 1/4" ID, x2) | McMaster-Carr | 57155K324 | for mounting wheel axle to frame |
Behavior ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board | |
Black opaque matte acrylic sheets (1/4" thick) | Canal Plastics | 32918353422 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Clear acrylic sheet (1/4" thick) | Canal Plastics | 32920770574 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly |
ESP32 devKitC v4 (x2) | Amazon.com | B086YS4Z3F | microcontroller for behavior and rotary encoder |
ESP32 shield | OpenMaze.org | OMwSmall | description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs |
Fasteners and brackets | 8020.net | 4138, 3382,3280 | for wheel frame mounts |
goniometers | Edmund Optics | 66-526, 66-527 | optional for behavior. Fine tuning head for imaging |
HallPassVR python code | custom written | file at github.com/GergelyTuri/HallPassVR/software/HallPassVR | |
Head post holder | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp | |
LED projector | Texas Instruments | DLPDLCR230NPEVM | or other small LED projector |
Lick spout | VWR | 20068-638 | (or ~16 G metal hypodermic tubing) |
M 2.5 x 6 set screws | McMaster-Carr | 92015A097 | securing head post |
Matte white diffusion paper | Amazon.com | screen material | |
Metal headposts | custom design | 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs | |
Miscellenous tubing and tubing adapters (1/16" ID) | for constructing the water line | ||
Optical breadboard | Thorlabs | as per user's requirements | |
Optical posts, 1/2" diam (2x) | Thorlabs | TR4 | for head fixation setup |
Processing code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Processing code | |
Raspberry Pi 4B | raspberry.com, adafruit.com | Single-board computer for rendering of HallPassVR envir. | |
Right angle clamp | Thorlabs | RA90 | for head fixation setup |
Rotary encoder (quadrature, 256 step) | DigiKey | ENS1J-B28-L00256L | to measure wheel rotation |
Rotary encoder ESP32 code | custom written | file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder | |
SCIGRIP 10315 acrylic cement | Amazon.com | ||
Shaft coupler | McMaster-Carr | 9861T426 | to couple rotary encoder shaft with axle |
Silver mirror acrylic sheets | Canal Plastics | 32913817934 | laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly |
Solenoid valve | Parker | 003-0137-900 | to administer water rewards |
Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden
Genehmigung beantragenThis article has been published
Video Coming Soon
Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten