JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Wir haben eine einzige Plattform entwickelt, um das Verhalten von Tieren während zweier kletterfaserabhängiger assoziativer Lernaufgaben zu verfolgen. Das kostengünstige Design ermöglicht die Integration mit optogenetischen oder bildgebenden Experimenten, die auf das Klettern der faserassoziierten Kleinhirnaktivität gerichtet sind.

Zusammenfassung

Kletterfasereingänge zu Purkinje-Zellen liefern lehrreiche Signale, die für das kleinhirnabhängige assoziative Lernen entscheidend sind. Die Untersuchung dieser Signale an kopffixierten Mäusen erleichtert den Einsatz von bildgebenden, elektrophysiologischen und optogenetischen Methoden. Hier wurde eine kostengünstige Verhaltensplattform (~ $ 1000) entwickelt, die die Verfolgung des assoziativen Lernens in kopffesten Mäusen ermöglicht, die sich frei auf einem laufenden Rad befinden. Die Plattform umfasst zwei gängige assoziative Lernparadigmen: Augenzwinkernkonditionierung und verzögerte taktile Schreckkonditionierung. Das Verhalten wird mit einer Kamera und die Radbewegung von einem Detektor verfolgt. Wir beschreiben die Komponenten und den Aufbau und stellen ein detailliertes Protokoll für Training und Datenanalyse zur Verfügung. Diese Plattform ermöglicht die Integration von optogenetischer Stimulation und Fluoreszenzbildgebung. Das Design ermöglicht es einem einzelnen Host-Computer, mehrere Plattformen für das gleichzeitige Training mehrerer Tiere zu steuern.

Einleitung

Die pawlowsche Konditionierung der Subsekundenassoziation zwischen Reizen, um eine konditionierte Reaktion hervorzurufen, wird seit langem verwendet, um das kleinhirnabhängige Lernen zu untersuchen. Zum Beispiel lernen Tiere bei der klassischen verzögerten Augenblinzelung (DEC), als Reaktion auf einen neutralen bedingten Reiz (CS; z. B. ein Lichtblitz oder einen auditiven Ton) ein gut getimtes schützendes Blinzeln zu machen, wenn es wiederholt mit einem bedingungslosen Reiz (US; z. B. einem Luftstoß auf die Hornhaut) gepaart wird, der immer ein Reflexblinzeln hervorruft. und die am oder nahe dem Ende des CS kommt. Die erlernte Reaktion wird als konditionierte Reaktion (CR) bezeichnet, während die Reflexantwort als unkonditionierte Antwort (UR) bezeichnet wird. Bei Kaninchen stören kleinhirnspezifische Läsionen diese Form des Lernens 1,2,3,4. Darüber hinaus liefern Purkinje-Zellkomplexspitzen, angetrieben durch ihre Kletterfasereingänge5, ein notwendiges6,7- und ausreichendes 8,9-Signal für die Erfassung von richtig getimten CRs.

In jüngerer Zeit wurden klimmfaserabhängige assoziative Lernparadigmen für kopffixierte Mäuse entwickelt. DEC war das erste assoziative Lernparadigma, das an diese Konfiguration angepasstwurde 10,11. DEC in kopffixierten Mäusen wurde verwendet, um Kleinhirnregionen 11,12,13,14,15,16,17 und Schaltungselemente 11,1 2,13,14,15,18,19 zu identifizieren die für die Aufgabenerfassung und das Löschen erforderlich sind. Dieser Ansatz wurde auch verwendet, um zu demonstrieren, wie sich die physiologische Darstellung von Aufgabenparametern auf zellulärer Ebene mit dem Lernen von 13,15,16 entwickelt.

Zusätzlich zum Augenblinzeln wurde kürzlich das DTSC-Paradigma (Delayed Startle Tactile Conditioning) als neuartige assoziative Lernaufgabe für kopffeste Mäuse20 entwickelt. Konzeptionell ähnlich wie DEC, beinhaltet DTSC die Präsentation eines neutralen CS mit einem US, einem Klopfen auf das Gesicht, das in der Intensität ausreicht, um einen Schreckreflex21,22 als UR zu aktivieren. Im DTSC-Paradigma werden sowohl die UR als auch die CR als rückwärts gerichtete Fortbewegung auf einem Rad ausgelesen. DTSC wurde nun verwendet, um aufzudecken, wie assoziatives Lernen die Kleinhirnaktivität und die Muster der Genexpressionverändert 20.

In dieser Arbeit wurde eine Methode entwickelt, um DEC oder DTSC flexibel in einer einzigen Plattform anzuwenden. Die Stimulus- und Plattformattribute sind in Abbildung 1 schematisiert. Das Design umfasst die Fähigkeit, das Verhalten von Tieren mit einer Kamera zu verfolgen, sowie einen Drehgeber, um die Fortbewegung der Maus auf einem Rad zu verfolgen. Alle Aspekte der Datenprotokollierung und der Versuchsstruktur werden von gepaarten Mikrocontrollern (Arduino) und einem Einplatinencomputer (SBC; Raspberry Pi). Auf diese Geräte kann über eine bereitgestellte grafische Benutzeroberfläche zugegriffen werden. Hier stellen wir einen Workflow für den Aufbau, die Versuchsvorbereitung und -durchführung sowie eine maßgeschneiderte Analysepipeline für die Datenvisualisierung vor.

Protokoll

Die hier beschriebenen Tierprotokolle wurden von den Animal Care and Use Committees der Princeton University genehmigt.

1. Einrichtung des SBC

  1. Schließen Sie das CSI-Kabel (Serial Interface) der Kamera an die Raspberry NoIR V2-Kamera und den Kameraanschluss des SBC an.
  2. Laden Sie das Betriebssystem für den SBC auf den Hostcomputer herunter. Schreiben Sie das Betriebssystemabbild auf eine micro Secure Digital (microSD)-Karte.
    HINWEIS: Detaillierte Anweisungen zu diesen Verfahren für einen Raspberry Pi SBC finden Sie an anderer Stelle23. Das System wurde mit den folgenden Betriebssystemen getestet: Stretch, Buster, Bullseye.
  3. Um eine sichere Shell-Kommunikation zu ermöglichen, erstellen Sie eine erweiterungslose Datei namens "ssh" in der Boot-Partition der microSD-Karte. Sobald dies erledigt ist, werfen Sie die microSD-Karte aus dem Host-Computer aus und setzen Sie sie in den SBC microSD-Kartensteckplatz ein. Versorgen Sie den SBC mit Strom, indem Sie das Netzteil anschließen.
  4. Bereiten Sie den SBC so vor, dass er eine Kabelverbindung zum Host akzeptiert.
    1. Befestigen Sie einen Monitor mit einem geeigneten Kabel am SBC. Öffnen Sie ein Terminal, geben Sie den Befehl ifconfig ein und notieren Sie die Ethernet-IP-Adresse des SBC.
      HINWEIS: Raspberry Pi Modell 3B + hat einen HDMI-Display-Anschluss, während Modell 4B einen Micro-HDMI-Anschluss hat.
    2. Gehen Sie zur Registerkarte Schnittstelle der Raspberry Pi-Konfigurationseinstellung und aktivieren Sie die Optionen für Kamera, Secure Shell Network Protocol (SSH) und Virtual Network Computing (VNC).
  5. Stellen Sie eine Kabelverbindung zwischen dem Hostcomputer und dem SBC her.
    1. Schließen Sie ein Ethernet-Kabel an den Ethernet-Port des SBC und eines Host-Computers an. Schließen Sie das andere Ende dieser Kabel an einen Ethernet-Switch an.
    2. Verwenden Sie einen virtuellen Netzwerk-Computing-Client wie VNC Viewer24 und greifen Sie mit der SBC-IP-Adresse und der Standardauthentifizierung (Benutzer = "pi", Kennwort = "Raspberry") auf den Desktop zu.
  6. Laden Sie die erforderliche Software herunter, die in den Protokollschritten enthalten ist.
    ACHTUNG: Ändern Sie den Standardbenutzernamen und das Standardkennwort, um unbefugten Zugriff auf den SBC zu verhindern.
    1. Geben Sie den folgenden Befehl in das SBC-Terminal ein, um die Rig-Software herunterzuladen:
      Git-Klon --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Geben Sie die folgenden Befehle ein, um die erforderlichen Python-Bibliotheken herunterzuladen.
      cd assocLearnRig
      python3 setup.py
    3. Um eine direkte Steuerung des Mikrocontrollers zu ermöglichen, stellen Sie eine Verbindung zum SBC her und laden Sie die integrierte Entwicklungsumgebung (IDE) des Mikrocontrollers herunter, indem Sie die Schritte 1.6.4-1.6.7 ausführen.
    4. Öffnen Sie den Webbrowser auf dem SBC-Desktop und navigieren Sie zu https://arduino.cc/en/software. Laden Sie die neueste Linux ARM 32-Bit-Version der IDE herunter.
    5. Öffnen Sie ein Terminalfenster auf dem SBC-Desktop und navigieren Sie zum Download-Verzeichnis, indem Sie cd Downloads/ eingeben
    6. Um die IDE zu installieren, geben Sie die folgenden Befehle in das Terminal ein:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (hier ist die Version der heruntergeladenen IDE)
    7. Öffnen Sie eine Instanz der Mikrocontroller-IDE auf dem SBC-Desktop. Wählen Sie die Menüoption Extras > Bibliotheken verwalten. Installieren Sie die Bibliothek "Encoder" von Paul Stoffregen.
  7. Erweitern Sie den SBC-Onboard-Speicher mit einem USB-Stick.
    1. Schließen Sie einen USB-Stick an einen USB-Anschluss am SBC an. Verwenden Sie einen USB 3.0-Anschluss, falls verfügbar.
    2. Geben Sie das Terminal ls -l /dev/disk/by-uuid/ ein, um den USB-Stick und seine eindeutige Referenz (UUID) zu finden. Notieren Sie die UUID.
    3. Damit der pi-Benutzer auf das USB-Gerät schreiben kann, geben Sie nacheinander die folgenden Befehle in das Terminal ein:
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      HINWEIS: Der USB-Stick kann als Gerät hinzugefügt werden, das beim Neustart des SBC automatisch eingehängt wird, indem die folgende Zeile am Ende der fstab-Datei unter /etc/fstab hinzugefügt wird:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Verdrahtungs-Stimulus-Hardware und Montagestufe

  1. Schließen Sie Mikrocontroller an und bereiten Sie sie vor.
    1. Verbinden Sie den SBC mit einem USB2-Mikrokabel vom Typ A auf USB2 mit dem Programmieranschluss des Mikrocontrollers (Arduino Due).
      HINWEIS: Verwenden Sie ein hochwertiges Kabel wie das Produkt in der Materialtabelle , um einen ordnungsgemäßen Betrieb zu gewährleisten.
    2. Suchen Sie "dueAssocLearn.ino" im heruntergeladenen Projekt-Repository. Öffnen Sie die Skizze mit der Mikrocontroller-IDE und laden Sie sie auf den Mikrocontroller hoch, der mit dem SBC verbunden ist.
    3. Laden Sie die entsprechende Version der Arduino-IDE herunter und installieren Sie sie auf dem Host-Computer.
    4. Verbinden Sie den Host-Computer mit einem USB2-Typ-B-auf-USB2-Typ-A-Kabel mit dem Mikrocontroller (Arduino Uno).
    5. Gehen Sie zum GitHub-Repository (https://github.com/gerardjb/assocLearnRig) und laden Sie die Skizze "DTSC_US.ino" auf den Hostcomputer herunter.
    6. Führen Sie auf dem Hostcomputer die Mikrocontroller-IDE aus, öffnen Sie die Skizze "DTSC_US.ino" und laden Sie sie dann auf den Mikrocontroller hoch.
  2. Befestigen Sie Drähte an den Mikrocontrollern, der Steckplatine, den LEDs, dem Drehgeber, dem Schrittmotor mit Treiber und dem Magnetventil mit Treiber, wie im Fritzing-Diagramm in Abbildung 2 dargestellt.
  3. Versorgen Sie den Schrittmotor und das Magnetventil mit Strom.
    1. Verdrahten Sie einen Kanal eines Netzteils ordnungsgemäß mit den +V- und GND-Pins des Schrittmotortreibers.
    2. Schalten Sie das Netzteil ein und stellen Sie die angeschlossene Kanalspannung auf 25 V ein.
      HINWEIS: Wenn die Verbindungen zwischen Schrittmotor, Treiber und Netzteil korrekt konfiguriert sind, leuchtet eine grüne Anzeige-LED am Schrittmotortreiber auf.
    3. Verdrahten Sie die positive Leitung eines Netzteils ordnungsgemäß mit dem Magnetventiltreiber-Haltespannungsstift und die andere positive Leitung mit dem Spike-Voltage-Pin.
    4. Befestigen Sie die negativen Leitungen an einem Boden, der mit dem Steuersignal geteilt wird.
    5. Schalten Sie das Netzteil ein und stellen Sie den Kanal, der an die Haltespannung angeschlossen ist, auf ca. 2,5 V und den an die Spike-Spannung angeschlossenen Kanal auf ca. 12 V ein.
  4. Schließen Sie eine auf einen Druck von ~20 PSI geregelte Luftquelle mit dem Luer-Adapter an das Magnetventil an.
  5. Testen Sie, ob alle Stimuluskomponenten und die Kamera ordnungsgemäß funktionieren.
    1. Öffnen Sie ein Terminal auf dem SBC und geben Sie cd ~/assocLearnRig ein, um zum geklonten GitHub-Repository zu navigieren.
    2. Geben Sie im Terminal python3 assocLearnRig_app.py ein, um die grafische Benutzeroberfläche des Steuerelements zu starten.
    3. Starten Sie den Kamerastream, indem Sie auf die Schaltfläche Stream klicken.
    4. Wählen Sie das DEC-Optionsfeld aus, laden Sie es auf den Mikrocontroller hoch und starten Sie eine Sitzung mit Standardparametern, indem Sie auf die Schaltfläche Sitzung starten klicken.
      HINWEIS: Nach diesem Schritt sollte ein Ausdruck des Datenprotokolls im Terminal erscheinen, die Meldung im Kamerastream sollte verschwinden und die LED CS und das Magnetventil US sollten sich zu geeigneten Zeiten während jeder Testphase ein- und ausschalten.
    5. Wiederholen Sie nach Abschluss der Sitzung die vorherigen Schritte bei ausgewähltem Optionsfeld DTSC.
      HINWEIS: Skizzen im GitHub-Repository ("testStepper.ino", "testRotary.ino" und "testSolenoid.ino") können verwendet werden, um einzelne Komponenten zu testen, wenn die oben genannten Schritte keine zufriedenstellenden Ergebnisse liefern.
  6. Machen Sie das Laufrad.
    1. Schneiden Sie ein 3-Zoll-Rad aus einer Schaumstoffwalze. Bohren Sie ein 1/4 "-Loch in die genaue Radmitte, damit das Rad nicht wackelt, wenn es durch die Fortbewegung der Maus gedreht wird.
    2. Setzen Sie eine 1/4-Zoll-Welle in das Rad ein und befestigen Sie sie mit Klemmnaben auf jeder Seite des Rades.
  7. Befestigen Sie den Drehgeber mit einer M3-Schraube an einem 4,5-Zoll-Aluminiumkanal. Stabilisieren Sie den Aluminiumkanal auf dem Aluminium-Panierbrett mit einer rechten spitzen Halterung mit einer 1/4-Zoll-Schraube, einer Mutter und einer Unterlegscheibe, wie gezeigt.
  8. Befestigen Sie das Rad und den Drehgeber mit einer Wellenkupplungshülse.
  9. Stabilisieren Sie die freie Seite der Radwelle mit einem Lager, das in eine rechtwinklige Endklemme eingefügt ist, die auf einem an einer Steckplatine montierten optischen Pfosten installiert ist.
    HINWEIS: Stellen Sie sicher, dass sich das Rad frei dreht, ohne zu wackeln, wenn es von Hand gedreht wird.
  10. Positionieren Sie die Stimulus-Hardware, die Kopfstütze, das Infrarot-Licht-Array und die Picamera um das montierte Rad.
    1. Positionieren Sie die Kopfstützen mit optischen Pfosten und rechtwinkligen Pfostenklemmen so, dass sich die Kopfstützen 1,5 cm vor der Radachse und 2 cm über der Radoberfläche befinden. (Die Werte beziehen sich auf eine 20-g-Maus).
    2. Positionieren Sie die CS-LED und den Magnetventilausgang, die für den DEC US verwendet werden, weniger als 1 cm von dem für DEC verwendeten Auge.
    3. Montieren Sie den Schrittmotor, der für den DTSC US verwendet wird
    4. Montieren Sie die Pikamera auf einem optischen Pfosten ~ 10 cm von der Stelle entfernt, an der sich das Tier befinden wird.
      HINWEIS: Das Design für die Picamera-Halterung kann auf einem 3D-Drucker aus der Datei in "RaspPiCamMount1_1.stl" im GitHub-Repository erstellt werden.
    5. Platzieren Sie das Infrarotlicht-Array leicht über und direkt mit Blick auf die Position des Gesichts auf der gleichen Seite wie die Picamera.
    6. Machen Sie einen taktilen Stimulus für DTSC, indem Sie Schaum mit einer Klemmnabe an den Rand eines Akrylstücks kleben, das an einem 1/4-Zoll-Schaft montiert ist. Befestigen Sie den taktilen Stimulus an der Schrittmotorwelle.
      HINWEIS: Das Design für das Acrylstück kann nach dem Muster in "TactileStimDesign.pdf" im GitHub-Repository lasergeschnitten werden.

3. Vorbereiten und Ausführen von Verhaltensexperimenten

  1. Implantieren der Kopfplatte der Maus.
    1. Anästhesieren Sie eine Maus mit 2% Isofluran und Kopffixierung in einem stereotaktischen Rahmen.
    2. Tragen Sie eine Augensalbe auf die Augen auf.
    3. Rasieren Sie die Kopfhaut mit Seifenwasser und einem sterilen Skalpell. Injizieren Sie Lidocain direkt unter die Haut der Inzisionsstelle und reinigen Sie die Operationsstelle mit Povidon.
    4. Machen Sie einen Schnitt mit einem Skalpell entlang der Mittellinie der Kopfhaut vom hinteren Rand der Augen bis zum hinteren Rand des Schädels, wobei Sie darauf achten, nicht zu stark auf den Schädel zu drücken.
    5. Verteilen Sie den Schnitt und klemmen Sie beide Seiten mit sterilen Hämostaten fest, um ihn offen zu halten. Entfernen Sie das Periost vorsichtig mit einem Wattestäbchen, das mit Ethanol getaucht ist, und lassen Sie die Oberfläche des freiliegenden Schädels trocknen.
    6. Positionieren Sie die Kopfplatte auf Höhe des Schädels und stellen Sie sicher, dass die Vorderseite der Kopfplatte nach den Augen positioniert wird. Verwenden Sie Cyanacrylat-Kleber, um die Kopfplatte am Schädel zu befestigen und den Kleber vollständig trocknen zu lassen.
    7. Mischen Sie das Zahnzementpulver (1 Messlöffel), das Lösungsmittel (2 Tropfen) und den Katalysator (1 Tropfen) in einer Mischschale und tragen Sie es auf alle Bereiche des exponierten Knochens auf. Fügen Sie Schichten hinzu, bis die Oberfläche bündig mit der Oberkante der Kopfplatte ist, und stellen Sie sicher, dass die Kopfplatte sicher am Schädel befestigt ist.
    8. Nähen Sie die Haut bei Bedarf hinter und vor der Kopfplatte geschlossen.
    9. Injizieren Sie postoperative Analgesie wie Carprofen gemäß den institutionellen Richtlinien, während sich das Tier mindestens 5 Tage lang erholen kann.
  2. Vorbereiten von Verhaltenssitzungen.
    1. Erlauben Sie den Versuchstieren, sich an die Plattform zu gewöhnen, indem Sie sie 5 Tage vor den Experimenten für 30-minütige Sitzungen in der Kopfstütze montieren.
      HINWEIS: Am Ende der Gewöhnungssitzungen sollten die Tiere bequem auf dem Rad laufen.
    2. (Nur DEC) Stellen Sie vor den Sitzungen sicher, dass der Magnetventilauslass auf dem > 1 cm entfernten Zielauge zentriert ist.
    3. (Nur DEC) Betätigen Sie manuell einen Luftstoß mit dem Druckknopf. Stellen Sie sicher, dass die Maus sofort ein Blinzeln erzeugt, ohne offensichtliche Anzeichen von Stress zu zeigen, z. B. eine gebeugte Haltung einzunehmen oder die betroffene periokulare Region mit der ipsilateralen Vorderpfote zu greifen.
    4. (nur DTSC) Stellen Sie vor den Sitzungen sicher, dass der taktile Reiz auf der Nase des Tieres zentriert ist, die ~ 1,5 cm entfernt ist.
      HINWEIS: Wenn eine DTSC-Verhaltenssitzung nicht ausgeführt wird, wird der Schrittmotor automatisch deaktiviert, um eine manuelle Neupositionierung zu ermöglichen.
    5. (nur DTSC) Geben Sie im SBC-Terminal python3 assocLearnRig_app.py ein, um die GUI zu starten.
    6. (nur DTSC) Führen Sie eine Testsitzung mit drei Versuchen mit den Standardparametern durch, indem Sie auf die Schaltfläche Sitzung starten in der GUI klicken.
    7. (nur DTSC) Stellen Sie sicher, dass die protokollierten Daten, die auf das Terminal gedruckt werden, eine Ablenkung von mehr als 20, aber weniger als 100 Schritten aufweisen, die auf dem Drehgeber nach den USA bei jedem Versuch protokolliert wurden.
      VORSICHT: Um Schäden zu vermeiden und Stress für das Tier zu reduzieren, starten Sie den Reiz weiter vom Tier entfernt und bewegen Sie ihn näher, bis die erforderlichen Bedingungen erfüllt sind.
  3. Ausführen von Verhaltenssitzungen mit Datenprotokollierung.
    1. Montieren Sie eine Maus an der Kopfstütze.
    2. Geben Sie im Terminal des SBC python3 assocLearnRig_app.py ein, um die GUI zu starten.
    3. Um Kameraaufnahmen während der Verhaltensversuche zuzulassen, drücken Sie die Schaltfläche Stream .
      HINWEIS: Sitzungen können ohne Kamera ausgeführt werden. In diesem Fall werden nur Daten vom Drehgeber und den Zeitstempeln der Stimulusdarstellung protokolliert.
    4. Geben Sie identifizierende Informationen für das Tier in das Feld Tier-ID ein und drücken Sie die Schaltfläche Festlegen .
    5. Wählen Sie entweder das DEC oder DTSC aus dem Optionsfeld unter der Überschrift Sitzungstyp aus, je nachdem, welches Verhaltensparadigma gewünscht wird.
    6. Geben Sie die gewünschten Experimentparameter in die Felder unter dem Feld Tier-ID ein und klicken Sie auf die Schaltfläche Auf Arduino hochladen .
      HINWEIS: Details zu den Experimentparametern finden Sie im README-Abschnitt des GitHub-Repositorys.
    7. Klicken Sie auf die Schaltfläche Sitzung starten, um die Sitzung zu starten .
    8. Wenn eine Sitzung initialisiert wird, beginnen die Daten mit der Anmeldung in einem neuen Verzeichnis, das in "/media/usb" im Einhängepunkt des SBC-USB-Sticks erstellt wurde.

4. Exportieren und Analysieren von Daten

  1. Um alle aufgezeichneten Sitzungen auf den Hostcomputer zu exportieren, öffnen Sie eine Eingabeaufforderung und geben Sie den Befehl pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination ein, und authentifizieren Sie sich dann mit dem SBC-Passwort.
    HINWEIS: Der obige Befehl gilt für einen Windows-Computer. Verwenden Sie auf Mac- und Linux-Computern Terminal und ersetzen Sie "pscp" durch "scp".
  2. Installieren Sie Anaconda25 oder einen anderen Python-Paketmanager (PPM) auf dem Hostcomputer.
  3. Gehen Sie zum GitHub-Repository und laden Sie "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" und "requirementsHost.txt" herunter.
  4. Öffnen Sie eine PPM-Eingabeaufforderung und geben Sie conda install --file directory_containing_requirementsHostrequirements Host.txt ein, um sicherzustellen, dass die Python-Paketinstallation über die erforderlichen Python-Bibliotheken verfügt.
  5. Geben Sie in der Eingabeaufforderung cd directory_containing_analyzeData ein, um zu dem Verzeichnis zu navigieren, das "analyzeData.py" und "session2mp4s.py" enthält. Führen Sie das Analyseprogramm aus, indem Sie python analyzeSession.py eingeben
    HINWEIS: Bei Verwendung einer Python 2-Version als Python wird eine Fehlermeldung generiert. Um die Version zu überprüfen, geben Sie python -V in die Eingabeaufforderung ein.
  6. Wählen Sie das Verzeichnis aus, das die Daten enthält, wenn Sie dazu aufgefordert werden. Verzeichnisse mit mehreren Unterverzeichnissen werden nacheinander analysiert.
  7. Wählen Sie für DEC-Sitzungen für jedes analysierte Sitzungsverzeichnis einen Bereich von Interesse (ROI) aus, der das Auge der Maus aus einem durchschnittlichen Testbild enthält.
    HINWEIS: Abschließende Analysedatendateien und Zusammenfassungsdiagramme werden in ein Unterverzeichnis jedes analysierten Sitzungsverzeichnisses gefüllt.
  8. Geben Sie python summarizeSessions.py ein, um Zusammenfassungsdaten über mehrere Sitzungen hinweg zu generieren.
  9. Geben Sie die Eingabeaufforderung python session2mp4s.py ein, um Imaging-Datendateien in anzeigbare .mp4 Dateien zu konvertieren.

Ergebnisse

Workflow für DEC-Experimente und -Analysen
Die richtige experimentelle Parameterauswahl ist wichtig für ein erfolgreiches DEC-Training (Delay Eyeblink Conditioning). Für die hier dargestellten Daten wurde die GUI verwendet, um eine CS-Dauer von 350 ms und eine US-Dauer von 50 ms zu wählen. Diese Paarung führt zu einem Inter-Stimulus-Intervall von300 ms: lang genug, um eine CR-Produktion mit niedriger Amplitudezu verhindern 10, und kurz genug, um zu ...

Diskussion

Die hier skizzierte Plattform mit zugehörigen Protokollen kann verwendet werden, um das Verhalten von Tieren in zwei sensorisch assoziativen Lernaufgaben zuverlässig zu verfolgen. Jede Aufgabe hängt von einer intakten Kommunikation über den Kletterfaserweg ab. In das hier beschriebene Design integrieren wir Elemente, die das Lernen und die Aufzeichnung / Störung der Kleinhirnreaktion erleichtern. Dazu gehört ein Rad, das eine freie Fortbewegung11,18 sowie e...

Offenlegungen

Die Autoren haben keine Interessenkonflikte offenzulegen.

Danksagungen

Diese Arbeit wird durch Zuschüsse der National Institutes of Mental Health NRSA F32 MH120887-03 (an G.J.B.) und R01 NS045193 und R01 MH115750 (an S.S-H.W.) unterstützt. Wir danken Dr. Bas Koekkoek und Dr. Henk-Jan Boele für hilfreiche Gespräche zur Optimierung des DEC-Setups und Dr. Yue Wang und Dr. Xiaoying Chen für hilfreiche Gespräche zur Optimierung des DTSC-Setups.

Materialien

NameCompanyCatalog NumberComments
"B" Quick Base For C&B METABOND - 10 mL bottleParkellS398Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mLParkellS371Catalyst
#8 WashersThorlabsW8S038Washers
0.250" (1/4") x 8.00" Stainless Steel Precision ShaftingServocity6341721/4" shaft
0.250” (0.770") Clamping HubServocity545588Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 packActobotics625106Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" LongThorlabsSH25S0751/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs ResistorsEDGELEC‎ED_YT05_U_100PcsCS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 VideoStar-tech‎HDDDVIMM2MRaspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash DriveSanDisk‎SDCZ430-256G-G46USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter ModuleAmazonB00ZC6B8VMLogic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory CardSamsung‎MB-ME32GA/AMmicroSD card
4.50" Aluminum ChannelServocity5854444.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision IlluminatorTowallmarkSODIALInfrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting BlocksREXQualisB07DL13RZHBreadboard
5 Port Gigabit Unmanaged Ethernet Network SwitchTP-Link‎TL-SG105Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/AdapterCanakit‎DCAR-RSP-2A5Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3Ethicon668GSutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc SupplyCalt B01EWER68IRotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 PackThorlabsTR1-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 PackThorlabsTR2-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 PackThorlabsTR4-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 PackThorlabsTR6-P5Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2"ThorlabsPH2Optical post holder
Adapter-062-M X LUER LOCK-FThe Lee Co.TMRA3201950ZSolenoid valve luer adapter
Aeromat Foam Roller Size: 36" LengthAeromatB002H3CMUEFoam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 TapsThorlabsMB1012Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-PackAmazonHL-007347Raspberry Pi3B+ to monitor cable
Arduino  Uno R3ArduinoA000066Arduino Uno (microcontroller board)
Arduino DueArduino‎A000062Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 ATenma72-8335APower supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8"McMaster Carr8560K257Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper MotorStepper OnlineB06Y5VPSFNStepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPTMcMaster Carr6763K13Air source regulator
Cotton SwabPuritan806-WCCotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPCDell1908FPCComputer monitor
Flex Cable for Raspberry Pi CameraAdafruit2144camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder MotorStepper Online17HS24-2104SStepper motor
IsofluraneHenry Schein66794001725Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz.Krazy GlueKG483Cyanoacrylate glue
Lidocaine HClVetOne510212Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread SizeMcMaster Carr90473A029Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcsUxcellA16040100ux1380M3 bolt
NEMA 17 Stepper Motor MountACTOBOTICS555152Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m longAdafruit4298Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tubeOptixcare142422Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum SpeedMcMaster-Carr3759T57Bearing
Premium Female/Female Jumper Wires - 40 x 6"Adafruit266Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm)Adafruit826Wires
Premium Male/Male Jumper Wires - 40 x 6"Adafruit758Wires
Radiopaque L-Powder for C&B METABOND - 5 gParkellS396Dental cement powder
Raspberry Pi (3B+ or 4B)Adafruit3775 or 4295Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30Raspberry Pi FoundationRPI3-NOIR-V2Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 TapsThorlabsAB90ERight-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" HexThorlabsRA90Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" HexThorlabsRA180Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet CableAmazon‎CAT6-7FT-5P-BLUEEthernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" HexThorlabsSWCRotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MSThe Lee Co.IECX0501350ASolenoid valve driver
Swivel Base AdapterThorlabsUPHAPost holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feetAmazon‎7T9MV4USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m)AmazonB072L34SZSUSB2 type B to USB2 type A cable
VHS-M/SP-12 VThe Lee Co.INKX0514900ASolenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000"McMaster Carr91090A108Washers

Referenzen

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. . Raspberry Pi Operating system images Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021)
  24. . VNC Server. VNC® Connect Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021)
  25. . Anaconda: The world's most popular data science platform Available from: https://xddebuganaconda.xdlab.co/ (2021)
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -. J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

NeurowissenschaftenAusgabe 179Kleinhirnassoziatives motorisches LernenVerz gerung der AugenblinzelkonditionierungVerz gerung der taktilen Reizkonditionierung

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten