Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Nagetier qualifizierte sausen wird häufig verwendet, um geschickte Fähigkeiten zu studieren, erfordert aber viel Zeit und Mühe, um die Aufgabe zu implementieren und das Verhalten zu analysieren. Wir beschreiben eine automatisierte Version des geschickten Erreichens mit Bewegungsverfolgung und dreidimensionaler Rekonstruktion von Reichweitenbahnen.

Zusammenfassung

Nagetier qualifizierte sausen wird häufig verwendet, um geschickte Fähigkeiten zu studieren, erfordert aber viel Zeit und Mühe, um die Aufgabe zu implementieren und das Verhalten zu analysieren. In jüngster Zeit wurden mehrere automatisierte Versionen von Fachkräften entwickelt. Hier beschreiben wir eine Version, die Ratten automatisch Pellets präsentiert, während sie High-Definition-Videos aus mehreren Winkeln mit hohen Bildraten (300 fps) aufzeichnet. Die Pfote und einzelne Ziffern werden mit DeepLabCut nachverfolgt, einem maschinellen Lernalgorithmus für die markerlose Posenschätzung. Dieses System kann auch mit physiologischen Aufzeichnungen synchronisiert oder zur Auslösung physiologischer Eingriffe (z. B. elektrischer oder optischer Stimulation) verwendet werden.

Einleitung

Der Mensch ist stark von geschicktem Geschick abhängig, definiert als Bewegungen, die präzise aufeinander abgestimmte mehrgelenke und ziffernförmige Bewegungen erfordern. Diese Fähigkeiten werden durch eine Reihe von häufigen Erkrankungen des zentralen Nervensystems beeinflusst, einschließlich struktureller Läsionen (z. B. Schlaganfall, Tumor, demyelinisierende Läsionen), neurodegenerative Erkrankungen (z. B. Parkinson-Krankheit) und funktionelle Anomalien (z. B. Dystonie). Zu verstehen, wie geschickte Fähigkeiten von zentralen Motorkreisläufen erlernt und umgesetzt werden, hat daher das Potenzial, die Lebensqualität einer großen Bevölkerung zu verbessern. Darüber hinaus dürfte ein solches Verständnis die motorische Leistung bei gesunden Menschen verbessern, indem sie Trainings- und Rehabilitationsstrategien optimiert.

Die Sezieren der neuronalen Schaltkreise, die der Geschicklichkeit beim Menschen zugrunde liegen, wird durch technologische und ethische Überlegungen begrenzt, was die Verwendung von Tiermodellen erfordert. Nichtmenschliche Primaten werden häufig verwendet, um geschickte Gliedmaßenbewegungen zu studieren, da ihre motorischen Systeme und ihr Verhaltensrepertoire mit dem Menschen vergleichbar sind1. Nichtmenschliche Primaten sind jedoch mit langen Erzeugungszeiten teuer, was die Anzahl der Studienteilnehmer und genetische Interventionen begrenzt. Während die neurowissenschaftliche Toolbox für nichtmenschliche Primaten größer ist als für den Menschen, sind viele technologische Fortschritte in jüngster Zeit entweder nicht verfügbar oder bei Primaten erheblich begrenzt.

Nagetier-Fachkräfte erreichen ist ein komplementärer Ansatz, um geschickte Motorsteuerung zu studieren. Ratten und Mäuse können trainiert werden, um ein Zuckerpellet in einer stereotypen Abfolge von Bewegungen zu erreichen, zu greifen und zurückzuholen, die homologe zu menschlichen Reichweitemustern2sind. Aufgrund ihrer relativ kurzen Erzeugungszeit und niedrigeren Wohnkosten sowie ihrer Fähigkeit, über Tage bis Wochen qualifizierte Fachkräfte zu erwerben, ist es möglich, eine große Anzahl von Fächern sowohl in Lern- als auch in Qualifikationskonsolidierungsphasen zu studieren. Der Einsatz von Nagetieren, insbesondere Mäusen, erleichtert auch den Einsatz leistungsstarker moderner neurowissenschaftlicher Werkzeuge (z. B. Optogenetik, Kalziumbildgebung, genetische Modelle von Krankheiten), um geschickte Fähigkeiten zu studieren.

Nagetier-Fachkräfte erreichen wird seit Jahrzehnten verwendet, um normale motorische Kontrolle zu studieren und wie es von bestimmten Pathologien wie Schlaganfall und Parkinson-Krankheit betroffen ist3. Die meisten Versionen dieser Aufgabe sind jedoch arbeits- und zeitintensiv und mindern die Vorteile des Studiums von Nagetieren. Typische Umsetzungen beinhalten das Platzieren von Nagetieren in einer Durchgangskammer mit einem Regal vor einem schmalen Schlitz, durch den das Nagetier gelangen muss. Ein Forscher legt Zuckerpellets manuell ins Regal, wartet auf das Erreichen des Tieres und legt dann ein anderes. Erreicht wird als Erfolge oder Misserfolge entweder in Echtzeit oder per Video-Rezension4bewertet. Das einfache Scoring von Reichweiten als Erfolge oder Misserfolge ignoriert jedoch reiche kinematische Daten, die einen Einblick in das (im Gegensatz zu der bloßen Frage) des Erreichens geben können. Dieses Problem wurde durch die Implementierung einer detaillierten Überprüfung der Erreichen von Videos angegangen, um die Teilsätze5zu identifizieren und semiquantitativ zu bewerten. Während dies einige Daten über Die Kinematik hinzugefügt, es auch deutlich erhöht Experimentator Zeit und Aufwand. Darüber hinaus kann ein hohes Maß an Experimentierbeteiligung zu Inkonsistenzen bei der Methodik und Datenanalyse führen, selbst innerhalb desselben Labors.

In jüngerer Zeit wurden mehrere automatisierte Versionen von qualifizierten Erreichen entwickelt. Einige befestigen sich am hauseigenen Käfig6,7, wodurch die Notwendigkeit, Tiere zu übertragen, entfallen. Dies reduziert sowohl die Belastung der Tiere als auch die Notwendigkeit, sie an eine spezialisierte Zusendekammer zu akklimatisieren. Andere Versionen ermöglichen Pfotenverfolgung, so dass kinematische Veränderungen unter bestimmten Interventionen untersucht werden können8,9,10, oder haben Mechanismen, um automatisch zu bestimmen, ob Pellets aus dem Regal geworfen wurden11. Automatisierte qualifizierte Aufgaben sind besonders nützlich für hochintensives Training, wie es für die Rehabilitation nach einer Verletzung erforderlich sein kann12. Automatisierte Systeme ermöglichen es Tieren, eine große Anzahl von Reichweiten über lange Zeiträume durchzuführen, ohne dass eine intensive Beteiligung von Forschern erforderlich ist. Darüber hinaus reduzieren Systeme, die Pfotenverfolgung und automatisierte Ergebnisbewertung ermöglichen, die Zeit, die forscher für die Datenanalyse aufgewendet werden.

Wir haben ein automatisiertes Ratten-Fachkräfte-Greifsystem mit mehreren speziellen Funktionen entwickelt. Erstens erhalten wir mit einem beweglichen Sockel, um das Pellet von unten in "Erreichbare Position" zu bringen, einen nahezu ungehinderten Blick auf das Vorderglied. Zweitens ermöglicht ein System von Spiegeln mehrere gleichzeitige Ansichten der Reichweite mit einer einzigen Kamera, wodurch eine dreidimensionale (3-D) Rekonstruktion von Reichweitenbahnen mit einer hochauflösenden, hochschnellen (300 fps) Kamera ermöglicht wird. Mit der jüngsten Entwicklung robuster Machine Learning-Algorithmen für markerloses Bewegungstracking13verfolgen wir nun nicht nur die Pfote, sondern auch einzelne Knöchel, um detaillierte Reichweiten zu extrahieren und Kinematik zu erfassen. Drittens ermöglicht ein Framegrabber, der eine einfache Videoverarbeitung durchführt, die Echtzeit-Identifikation verschiedener Erreichensphasen. Diese Informationen werden verwendet, um die Videoaufnahme auszulösen (kontinuierliche Videoerfassung ist aufgrund der Dateigröße nicht praktikabel) und können auch verwendet werden, um Interventionen (z. B. Optogenetik) in genauen Momenten auszulösen. Schließlich werden einzelne Videoframes durch Transistor-Transistor-Logik(TTL)-Impulse ausgelöst, so dass das Video präzise mit neuronalen Aufnahmen (z.B. Elektrophysiologie oder Photometrie) synchronisiert werden kann. Hier beschreiben wir, wie man dieses System baut, Ratten trainiert, um die Aufgabe auszuführen, das Gerät mit externen Systemen zu synchronisieren und 3D-Reichweiten zu rekonstruieren.

Protokoll

Alle hier beschriebenen Methoden zur Verwendung von Tieren wurden vom Institutional Animal Care and Use Committee (IACUC) der University of Michigan genehmigt.

1. Einrichten der Zustellkammer

HINWEIS: Einzelheiten und Diagramme des Geräts finden Sie unter Ellens et al.14. Teilenummern beziehen sich auf Abbildung 1.

  1. Verkleben Sie klare Polycarbonatplatten mit Acrylzement, um die Zubruchkammer (15 cm breit und 40 cm lang und 40 cm hoch) (Teil #1) zu bilden. Eine Seitenwand (Teil #2) hat eine Aufklapptür (18 cm breit und 15 cm hoch) mit einem Schloss. Wenn die Ratte an ein Kabel gefesselt wird, schneiden Sie einen Schlitz (5 cm breit und 36 cm lang) in die Kammerdecke, um sie unterzubringen (Teil #12). Die Bodenplatte hat 18 Löcher (1,75 cm Durchmesser) (Teil #13) in sie geschnitten und ist nicht mit dem Rest der Kammer verbunden.
  2. Montieren und ausrichten Infrarotsensoren (Teil #3) in den Seitenwänden 4,5 cm von der Rückseite der Kammer und 3,8 cm vom Boden entfernt. Die Verhaltenssoftware hat einen Indikator ('IR Back'), der grün ist, wenn der Infrarotstrahl ungebrochen und rot ist, wenn der Strahl gebrochen ist. Sobald die Software eingerichtet ist, kann dies verwendet werden, um die Sensorausrichtung zu überprüfen.
  3. Montieren Sie einen Spiegel (15 cm x 5 cm, Teil #4) 10 cm über dem Schlitz (Teil #14). Winkeln Sie den Spiegel, so dass die Pellet-Förderstange für die Kamera sichtbar ist.
  4. Legen Sie die Kammer auf eine sanitizierbare Stützbox (59 cm breit und 67,3 cm lang und 30,5 cm hoch, Teil #5). Die Kammer ruht über einem Loch in der Stützbox (12 cm breit und 25 cm lang), so dass Der Einstreu durch die Bodenlöcher (Teil #13) und aus der Durchgangskammer fallen kann. Schneiden Sie ein zweites Loch (7 cm breit und 6 cm lang, Teil #15) in den Stützkasten vor dem Zuschlagsschlitz, wodurch eine Pellet-Förderstange Pellets zum Erreichen stellstelle.
  5. Montieren Sie zwei Spiegel (8,5 cm breit x 18,5 cm hoch, Teil #6) mit Magneten auf beiden Seiten der Kammer auf den Boden, so dass die lange Kante des Spiegels die Seitenwand 3 cm von der Vorderseite des Zubruchkastens berührt. Winkeln Sie die Spiegel, so dass die Kamera in die Box und den Bereich vor dem Zubruchschlitz sehen kann, wo das Pellet geliefert wird.
  6. Montieren Sie die High-Definition-Kamera (Teil #7) 17 cm vom Zubruchschlitz entfernt, mit Blick auf die Box.
  7. Montieren Sie schwarzes Papier (Teil #18) auf beiden Seiten der Kamera, so dass der Hintergrund in den Seitenspiegeln dunkel ist. Dies verbessert den Kontrast, um die Erkennung von Echtzeit- und Off-Line-Pfoten zu verbessern.
  8. Montieren Sie den Linearantrieb (Teil #16) auf einem sanitizierbaren Rahmen (25 cm breit und 55 cm lang und 24 cm hoch, Teil #8) mit Schrauben. Der Aktuator ist kopfüber montiert, um zu verhindern, dass sich Pelletstaub in seinem positionsempfindlichen Potentiometer ansammelt.
  9. Setzen Sie einen Schaum-O-Ring in den Hals des Pelletbehälters (Funnel) (Teil #9) ein, um zu verhindern, dass sich Staub in der Baugruppe ansammelt. Montieren Sie den Trichter unter einem Loch (ca. 6 cm Durchmesser, Teil #17) in der Oberseite des Rahmens, indem Sie die Kanten des Trichters über drei Schrauben, die in die Unterseite der Rahmenoberseite gebohrt werden, verrutschen. Setzen Sie das Führungsrohr (Teil #10) in den Hals des Trichters ein.
  10. Befestigen Sie den Kunststoff-T-Stecker am Ende der Stahlstange des Aktuators. Setzen Sie das verjüngte Ende des Pellet-Förderstabs in die Oberseite des Verbinders und das Gekuppelende durch das Führungsrohr in das Pelletreservoir ein.
  11. Stellen Sie die Linearantriebsbaugruppe unter die fachkundige Kontaktkammer, damit sich der Pelletförderstab durch das Loch (Teil #15) vor dem Halteschlitz ausdehnen kann.
  12. Legen Sie das gesamte Griffgerät in einen Radschrank (121 cm x 119 cm x 50 cm) mit Computerlüftern belüftet (der Innenraum wird warm, wenn es gut beleuchtet ist) und mit Akustikschaum ausgekleidet.
  13. Bauen Sie fünf Lichtpaneele (Teil #11) durch Anhaftung von LED-Lichtstreifen auf 20,3 cm x 25,4 cm Stützplatten. Montieren Sie Diffusorfolie über die Lichtstreifen. Montieren Sie eine Lichtplatte an der Decke über dem Pellet-Lieferstangenbereich. Montieren Sie die anderen vier an den Seiten der Schränke entlang der Erreichenskammer.
    HINWEIS: Es ist wichtig, den Bereich um den erreichenden Schlitz und Pellet-Lieferstab für die Echtzeit-Pfotenidentifikation zu beleuchten.

2. Einrichten des Computers und der Hardware

  1. Installieren Sie den FPGA-Rahmengrabber und die digitalen Erweiterungskarten gemäß den Anweisungen des Herstellers (siehe Tabelle der Materialien).
    HINWEIS: Wir empfehlen mindestens 16 GB RAM und eine interne Solid-State-Festplatte für die Datenspeicherung, da das Streaming des Hochgeschwindigkeitsvideos eine erhebliche Pufferkapazität erfordert.
  2. Installieren Sie Treiber für die High-Definition-Kamera und schließen Sie sie an den FPGA-Framegrabber an. Die Verhaltenssoftware muss ausgeführt werden und mit der Kamera verbunden sein, um die mit der Kamera verbundene Software verwenden zu können.
    HINWEIS: Der enthaltene Code (siehe Zusatzdateien) greift auf programmierbare Register in der Kamera zu und ist möglicherweise nicht mit anderen Marken kompatibel. Wir empfehlen die Aufnahme von mindestens 300 Bildern pro Sekunde (fps); bei 150 fps stellten wir fest, dass wichtige Änderungen in der Pfotenhaltung oft übersehen wurden.
  3. Kopieren Sie den mitgelieferten Code (Projekt) in "SR Automation_dig_ext_card_64bit" auf den Computer.

3. Verhaltenstraining

  1. Bereiten Sie Ratten vor dem Training vor.
    1. Haus Long-Evans Ratten (männlich oder weiblich, im Alter von 10 bis 20 Wochen) in Gruppen von 2–3 pro Käfig auf einem umgekehrten hellen/dunklen Zyklus. Legen Sie Ratten drei Tage vor dem Training auf Nahrungsbeschränkung, um das Körpergewicht 10–20% unter der Ausgangsbasis zu halten.
    2. Behandeln Sie Ratten für mehrere Minuten pro Tag für mindestens 5 Tage. Legen Sie nach der Handhabung 4–5 Zuckerpellets pro Ratte in jeden Käfig, um das neuartige Futter vorzustellen.
  2. Habituate die Ratte in die erreichende Kammer (1-3 Tage)
    1. Schalten Sie die LED-Leuchten ein und legen Sie 3 Zuckerpellets in die Vorder- und Rückseite der Kammer.
    2. Legen Sie die Ratte in die Kammer und lassen Sie die Ratte für 15 min zu erkunden. Überwachen, ob es die Pellets isst. Wiederholen Sie diese Phase, bis die Ratte alle Pellets vom Boden isst.
    3. Reinigen Sie die Kammer mit Ethanol zwischen Ratten.
      HINWEIS: Führen Sie Während der dunklen Phase Schulungen und Tests durch. Trainieren Sie täglich Ratten gleichzeitig.
  3. Trainieren Sie die Ratte zu erreichen und zu beobachten Pfote Präferenz (1-3 Tage).
    1. Schalten Sie die Lichter ein und legen Sie die Ratte in die qualifizierte Kontaktkammer.
    2. Halten Sie mit Zangen ein Pellet durch den Anlaufschlitz an der Vorderseite des Kastens (Abbildung1, Abbildung 2). Lassen Sie die Ratte 3 Pellets aus der Zange essen.
    3. Wenn die Ratte das nächste Mal versucht, das Pellet von den Zangen zu essen, ziehen Sie das Pellet zurück. Schließlich wird die Ratte versuchen, mit ihrer Pfote nach dem Pellet zu greifen.
    4. Wiederholen Sie dies 11 Mal. Die Pfote, die die Ratte am meisten von den 11 Versuchen verwendet, ist die "Pfotenpräferenz" der Ratte.
      HINWEIS: Ein Versuch ist definiert als die Pfote, die sich über den erreichenden Schlitz hinausstreckt. Die Ratte muss das Pellet nicht erfolgreich erhalten und essen.
  4. Trainieren Sie die Ratte, um bis zur Pellet-Lieferstange zu gelangen (1–3 Tage)
    1. Richten Sie den Pellet-Förderstab mit der Seite des Kontaktschlitzes kontralateral auf die bevorzugte Pfote der Ratte aus (verwenden Sie eine Führung, um eine gleichmäßige Platzierung 1,5 cm von der Vorderseite der Zulaufkammer zu gewährleisten). Die Oberseite des Förderstabs sollte mit der Unterseite des Zulaufschlitzes ausgerichtet werden (Abbildung 2B). Legen Sie ein Pellet auf die Förderstange.
      HINWEIS: Das Positionieren der Förderstange gegenüber der bevorzugten Pfote der Ratte macht es der Ratte schwer, das Pellet mit ihrer nicht bevorzugten Pfote zu erhalten. Wir hatten keine Probleme mit Ratten, die ihre nicht bevorzugte Pfote benutzten. Bei bestimmten Modellen (z.B. Schlaganfall) kann dies jedoch weiterhin vorkommen und eine Zurückhaltung an der nicht bevorzugten erreichenden Gliedmaße kann hinzugefügt werden.
    2. Ködern Sie die Ratte mit einem Pellet, das mit Zangen gehalten wird, aber richten Sie die Ratte in Richtung der Förderstange, so dass ihre Pfote das Pellet auf der Stange trifft. Wenn die Ratte das Pellet von der Stange abwirft, ersetzen Sie es. Einige Ratten greifen vielleicht anfangs nicht weit genug hinaus. In diesem Fall bewegen Sie die Pellet-Förderstange näher an den erreichenden Schlitz und bewegen Sie ihn dann langsam weiter weg, wenn sich die Ratte verbessert.
    3. Nach ca. 5-15 ködert erreicht die Ratte wird beginnen, für das Pellet auf der Förderstange spontan zu greifen. Sobald die Ratte versucht hat, 10 bis zur Förderstange zu erreichen, ohne geködert zu werden, kann sie in die nächste Phase vordringen.
  5. Trainieren Sie die Ratte, um ein Pellet anzufordern (2–8 Tage).
    HINWEIS: Obwohl wir 100% Erfolgstraining Ratten hatten, um nach Pellets zu greifen, können etwa 10% der Ratten nicht lernen, ein Pellet anzufordern, indem sie sich auf die Rückseite der Kammer bewegen.
    1. Positionieren Sie den Pellet-Förderstab basierend auf der Pfotenpräferenz der Ratte und stellen Sie sie auf Position 2 ein (Abbildung 2A). Stellen Sie die Höhenpositionen der Pellet-Förderstange mit der Aktuatorfernbedienung ein. Haltetasten 1 und 2 gleichzeitig bewegt die Förderstange nach oben, während halten Tasten 3 und 2 bewegt die Lieferstange nach unten. Wenn sich der Förderstab in der richtigen Höhe befindet, halten Sie die gewünschte Zahl gedrückt, bis das Licht rot blinkt, um ihn einzustellen.
    2. Legen Sie die Ratte in die Kammer und ködern Sie die Ratte mit einem Pellet nach hinten. Wenn sich die Ratte weit genug nach hinten bewegt, dass sie den Infrarotstrahl brechen würde, wenn die automatisierte Version läuft, bewegen Sie den Pellet-Förderstab auf Position 3 (Abbildung 2B).
    3. Warten Sie, bis die Ratte nach dem Pellet greift, und bewegen Sie dann den Pellet-Förderstab wieder auf Position 2 (Abbildung 2A). Legen Sie ein neues Pellet auf die Förderstange, wenn es abgeschlagen wurde.
    4. Wiederholen Sie diese Schritte, indem Sie die Ratte nach und nach immer weniger ködern, bis die Ratte beginnt, (i) nach hinten zu gehen, um ein Pellet anzufordern, ohne geködert zu werden, und (ii) sich sofort nach vorne bewegen, nachdem sie ein Pellet im Rücken angefordert hat. Sobald die Ratte dies 10 Mal getan hat, ist sie bereit für die Schulung über die automatisierte Aufgabe.

4. Schulung von Ratten mit dem automatisierten System

  1. Richten Sie das automatisierte System ein.
    1. Schalten Sie die Lichter in der Kammer ein und füllen Sie bei Bedarf das Pelletreservoir wieder auf.
    2. Positionieren Sie die Pellet-Förderstange entsprechend der Pfotenpräferenz der Ratte. Überprüfen Sie, ob die Aktuatorpositionen korrekt eingestellt sind (wie in Abbildung 2A).
    3. Schalten Sie den Computer ein und öffnen Sie das Skilled Reaching-Programm (SR_dig_extension_card_64bit_(HOST)_3.vi). Geben Sie die Ratten-ID-Nummer unter Betreff ein und wählen Sie die Pfotenpräferenz aus dem Dropdown-Menü Hand aus. Geben Sie den Speicherpfad für die Videos an.
    4. Legen Sie Sitzungszeit und Max Videos fest (Anzahl der Videos, an denen die Sitzung beendet werden soll). Das Programm wird nicht mehr mit dem Limit ausgeführt, das zuerst erreicht wird.
    5. Pellet Lift Dauer einstellen (Dauer, dass die Förderstange in Position "3" verbleibt, nachdem die Ratte ein Pellet anfordert). Aktivieren oder deaktivieren Sie Early Reach Penalty (Lieferstange wird auf Position "1" und dann wieder auf "2" zurückgesetzt, wenn die Ratte erreicht, bevor sie ein Pellet anfordert).
  2. Nehmen Sie Kalibrierungsbilder auf. Die 3D-Trajektorierekonstruktion verwendet eine Computer Vision Toolbox, um die geeigneten Transformationsmatrizen zu bestimmen, die das Identifizieren übereinstimmender Punkte in jeder Ansicht erfordert. Verwenden Sie dazu einen kleinen Würfel mit Schachbrettmustern auf jeder Seite (Abbildung 3).
    1. Legen Sie die helfende Hand in die Zulaufkammer und stechen Sie den Alligatorclip durch den erreichenden Schlitz. Halten Sie den Würfel mit dem Alligatorclip vor den Einzugsschlitz.
    2. Positionieren Sie den Würfel so, dass die rote Seite im oberen Spiegel, die grüne Seite im linken Spiegel und die blaue Seite im rechten Spiegel angezeigt wird. Die gesamte Fläche jeder der drei Seiten sollte in den Spiegeln sichtbar sein (Abbildung 3).
    3. Stellen Sie im Verhaltensprogramm sicher, dass der ROI-Schwellenwert auf einen sehr großen Wert (z. B. 60000) festgelegt ist. Klicken Sie auf die Schaltfläche "Ausführen" (weißer Pfeil). Sobald die Kamera initialisierte Taste grün wird, drücken Sie START. Beachten Sie, dass das Video erworben wird.
    4. Klicken Sie auf Cal-Modus. Nehmen Sie dann ein Bild auf, indem Sie auf Cal-Bild aufnehmenklicken. Der Bildverzeichnispfad wird nun unter ".png-Pfad" mit dem als "GridCalibration_YYYYMMDD_img.png" formatierten .png-Dateinamen angezeigt.
    5. Bewegen Sie den Würfel leicht, und nehmen Sie ein anderes Bild. Wiederholen Sie dies erneut für insgesamt 3 Bilder.
    6. Beenden Sie das Programm, indem Sie auf STOP und dann auf die Stoppzeichen-Schaltfläche klicken. Entfernen Sie die helfende Hand und den Würfel aus der Box.
    7. Achten Sie darauf, nichts in der Verhaltenskammer zu stoßen, nachdem an diesem Tag Kalibrierungsbilder aufgenommen wurden. Wenn sich etwas bewegt, müssen neue Kalibrierungsbilder aufgenommen werden.
  3. Führen Sie das automatisierte System aus.
    HINWEIS: Bestimmen Sie die "ROI-Schwellenwert"-Einstellungen (siehe unten) für jeden Spiegel, bevor Ratten für die tatsächliche Datenerfassung ausgeführt werden. Sobald diese Einstellungen festgelegt wurden, stellen Sie sie vor dem Start des Programms vor und passen Sie sie bei Bedarf während der Erfassung an.
    1. Legen Sie die Ratte in die qualifizierte Kontaktkammer. Klicken Sie auf den weißen Pfeil, um das Programm auszuführen.
    2. Bevor Sie auf STARTklicken, legen Sie die Position des ROI für die Pfotenerkennung fest, indem Sie x-Offset (x-Koordinate der oberen linken Ecke des ROI-Rechtecks), y-Offset (y-Koordinate der oberen linken Ecke des ROI), ROI-Breite und ROI-Höhe.
    3. Positionieren Sie den ROI im Seitenspiegel, der das Dorsum der Pfote zeigt, direkt vor dem erreichenden Schlitz (Abbildung 2C). Stellen Sie sicher, dass die Pellet-Förderstange nicht in den ROI eindringt und dass sich der ROI nicht in die Box erstreckt, um zu verhindern, dass das Pellet oder das Fell der Ratte ein Video auslöst, wenn die Ratte nicht erreicht.
    4. Klicken Sie auf START, um das Programm zu starten.
    5. Passen Sie den Wert "Low ROI Threshold" an, bis der "Live ROI Trigger Value" zwischen "0" und "1" oszilliert (wenn die Ratte nicht erreicht). Dieser Wert ist die Anzahl der Pixel innerhalb des ROI mit Intensitätswerten im Schwellenwertbereich.
    6. Legen Sie den ROI-Schwellenwertfest. Beobachten Sie den Live ROI Trigger Value, wenn die Ratte ihre Nase in den ROI stochert und wenn die Ratte nach dem Pellet greift. Legen Sie den ROI-Schwellenwert bei Nasenstochern deutlich höher als der "Live ROI Trigger Value" und niedriger als der "Live ROI Trigger Value" fest, wenn die Ratte erreicht. Anpassen, bis Videos konsequent ausgelöst werden, wenn die Ratte erreicht, aber nicht, wenn sie ihre Nase durch den Schlitz stochert
      HINWEIS: Dies setzt voraus, dass die Pfote heller gefärbt ist als die Nase; die Einstellungen würden umgekehrt, wenn die Pfote dunkler als die Nase ist.
    7. Überwachen Sie die ersten Versuche, um sicherzustellen, dass alles ordnungsgemäß funktioniert. Wenn eine Ratte erreicht, bevor sie ein Pellet anfordert (Lieferstab in Position "2"), erhöht sich die Zahl "Early Reaches". Wenn eine Ratte nach der Anforderung eines Pellets (Lieferstab in Position "3") erreicht, erhöht sich die "Videos"-Nummer und ein Video wird als .bin-Datei mit dem Namen "RXXXX_YYYYMMDD_HH_MM_SS_trial" gespeichert.
      HINWEIS: Standardmäßig enthalten Videos 300 Frames (d. h. 1 s) vor und 1000 Frames nach dem Triggerereignis (dies ist in der Software konfigurierbar), was lang genug ist, um die gesamte Reichweite-zu-Griff-Bewegung einschließlich Pfotenrückzieher zu enthalten.
    8. Sobald die Sitzungszeit oder max. Videos erreicht sind, wird das Programm beendet. Drücken Sie die Stopp-Zeichen-Taste.
    9. Reinigen Sie die Kammer mit Ethanol und wiederholen Sie mit einer anderen Ratte, oder wenn für den Tag getan, um Videos zu konvertieren.
  4. Konvertieren Sie .bin-Dateien in .avi-Dateien.
    HINWEIS: Das Komprimieren von Videos während der Erfassung verursacht verworfene Frames, sodass Binärdateien während der Erfassung auf die Festplatte gestreamt werden (verwenden Sie ein Solid-State-Laufwerk aufgrund hoher Datenübertragungsraten). Diese Binärdateien müssen offline komprimiert werden, oder die Speicheranforderungen sind unerschwinglich groß.
    1. Öffnen Sie das Programm "bin2avi-color_1473R_noEncode.vi".
    2. Klicken Sie unter "Dateipfadsteuerung" auf die Ordnerschaltfläche, um die Sitzung auszuwählen (z. B. R0235_20180119a), die Sie konvertieren möchten. Wiederholen Sie dies für jede Sitzung (bis zu sechs).
    3. Klicken Sie auf den weißen Pfeil (Laufen) und dann auf "START", um zu beginnen. Sie können die Videokomprimierung im "Gesamtfortschritt (%)" bar. Lassen Sie das Programm über Nacht laufen.
    4. Bevor Sie am nächsten Tag mit dem Training von Tieren beginnen, überprüfen Sie, ob die Videos konvertiert wurden, und löschen Sie die .bin-Dateien, damit genügend Platz zum Abrufen neuer Videos vorhanden ist.

5. Analysieren von Videos mit DeepLabCut

HINWEIS: Für jede Pfotenpräferenz (rechte Pfote und linke Pfote) und für jede Ansicht (direkte Ansicht und linke Spiegelansicht für rechte Ratten, direkte Ansicht und rechte Spiegelansicht für linke Pfotenratten) werden verschiedene Netzwerke trainiert. Die obere Spiegelansicht wird nicht für die 3D-Rekonstruktion verwendet – nur um zu erkennen, wann die Nase den Schlitz betritt, was nützlich sein kann, um Interventionen auszulösen (z. B. Optogenetik). Jedes Netzwerk wird dann verwendet, um eine Reihe von Videos zu analysieren, die für die entsprechende Pfote und Ansicht zugeschnitten wurden.

  1. Trainieren Sie die DeepLabCut-Netzwerke (detaillierte Anweisungen finden Sie in der DeepLabCut-Dokumentation auf https://github.com/AlexEMG/DeepLabCut).
    1. Erstellen und konfigurieren Sie ein neues Projekt in DeepLabCut, einem Machine Learning-Algorithmus für die markerlose Pose-Schätzung13.
    2. Verwenden Sie das Programm, um Frames aus den erfahrenen Erreichen von Videos zu extrahieren und Bilder in die Ansicht zu schneiden, um (direkte oder Spiegelansicht) in die Programmoberfläche aufzunehmen. Zuschneiden von Rahmen groß genug, so dass die Ratte und beide Vorderpfoten sichtbar sind.
      HINWEIS: Netzwerke erfordern in der Regel 100–150 Trainingsrahmen. Mehr Trainingsrahmen sind erforderlich, wenn die Pfote innen ist, im Vergleich zu außerhalb der Kammer wegen der Beleuchtung. Eine engere Zuschneidezeit reduziert die Verarbeitungszeit, aber achten Sie darauf, dass die beschnittenen Bereiche groß genug sind, um die volle Flugbahn der Pfote für jede Ratte zu erkennen. Es sollte breit genug sein, damit der gesamte Körper der Ratte in den Rahmen passt (Direktansicht), und so weit wie möglich zurück in die Kammer und vor der Förderstange zu sehen (Spiegelansicht).
    3. Verwenden Sie die Programm-GUI, um Körperteile zu beschriften. Beschriften Sie 16 Punkte in jedem Rahmen: 4 metacarpophalangeale (MCP) Gelenke, 4 proximale interphalangeale (PIP) Gelenke, 4-stellige Spitzen, das Dorsum der erreichenden Pfote, die Nase, das Dorsum der nicht erreichenden Pfote und das Pellet (Abbildung 4).
    4. Befolgen Sie die DeepLabCut-Anweisungen (absofort als DLC abgekürzt), um das Trainings-Dataset zu erstellen, das Netzwerk zu trainieren und das trainierte Netzwerk auszuwerten.
  2. Analysieren Sie Videos, und verfeinern Sie das Netzwerk.
    1. Analysieren Sie vor der Analyse aller Videos mit einem neu trainierten Netzwerk 10 Videos, um die Leistung des Netzwerks zu bewerten. Wenn in bestimmten Posen konsistente Fehler auftreten, extrahieren Sie zusätzliche Trainingsrahmen, die diese Posen enthalten, und trainieren Sie das Netzwerk neu.
    2. Achten Sie bei der Analyse von Videos darauf, csv-Dateien auszugeben, die in den Code für die 3D-Trajektorierekonstruktion eingespeist werden.

6. Box-Kalibrierung

HINWEIS: Diese Anweisungen werden verwendet, um die Transformationsmatrizen zu bestimmen, um Punkte, die in den direkten und Spiegelansichten identifiziert wurden, in 3D-Koordinaten zu konvertieren. Die aktuellste Version und weitere Details zur Verwendung des boxCalibration-Pakets finden Sie im Leventhal Lab GitHub: https://github.com/LeventhalLab/boxCalibration, das Schritt-für-Schritt-Anleitungen für deren Verwendung enthält.

  1. Sammeln Sie alle Kalibrierungsbilder im selben Ordner.
  2. Markieren Sie mit ImageJ/Fiji manuell die Schachbrettpunkte für jedes Kalibrierbild. Speichern Sie dieses Bild als "GridCalibration_YYYYMMDD_.tif", wobei 'YYYYMMDD' das Datum ist, dem das Kalibrierbild entspricht, und ''' die Bildnummer für dieses Datum ist.
    1. Verwenden Sie die Messfunktion in ImageJ (in der Symbolleiste wählen Sie Analysieren | Maßnahme). Dadurch wird eine Tabelle mit Koordinaten für alle markierten Punkte angezeigt. Speichern Sie diese Datei mit dem Namen "GridCalibration_YYYYMMDD_.csv", wobei Datum und Bildnummer mit der entsprechenden .tif-Datei identisch sind.
  3. Öffnen Sie im boxCalibration-Paket die Datei 'setParams.m'. Diese Datei enthält alle erforderlichen Variablen und deren Beschreibung. Bearbeiten Sie Variablen nach Bedarf, um die Projektspezifikationen anzupassen.
  4. Führen Sie die funktion calibrateBoxes aus. Im Eingabefenster werden mehrere Eingabeaufforderungen angezeigt. In der ersten Eingabeaufforderung wird gefragt, ob alle Bilder im Ordner analysiert werden sollen. Wenn Sie Y eingeben, werden die Eingabeaufforderungen beendet, und alle Bilder für alle Datumsangaben werden analysiert. Wenn Sie N eingeben, wird der Benutzer aufgefordert, die zu analysierenden Daten einzugeben.
    HINWEIS: Im Ordner "Kalibrierungsbilder" werden zwei neue Verzeichnisse erstellt: 'markedImages' enthält PNG-Dateien mit den benutzerdefinierten Schachbrettmarkierungen auf dem Kalibrierbild. Der Ordner 'boxCalibration' enthält .mat-Dateien mit den Box-Kalibrierungsparametern.
  5. Führen Sie die checkBoxCalibration-Funktion aus. Dadurch wird ein neuer Ordner erstellt, 'checkCalibration' im Ordner 'boxCalibration'. Jedes Datum wird einen Unterordner mit den Bildern und mehrere .fig-Dateien haben, die verwendet werden, um zu überprüfen, ob die Boxkalibrierung genau abgeschlossen wurde.

7. Rekonstruieren von 3D-Trajektorien

  1. Stellen Sie die .csv-Dateien, die die Ausgabe des Lernprogramms enthalten, in die Verzeichnisstruktur zusammen, die im Reconstruct3Dtrajectories-Skript beschrieben wird.
  2. Führen Sie reconstruct3Dtrajectoriesaus. Dieses Skript durchsucht die Verzeichnisstruktur und gleicht direkte/spiegelbildende Punkte basierend auf ihren Namen im schiefen Programm ab (es ist wichtig, in beiden Ansichten die gleichen Körperteilnamen zu verwenden).
  3. Ausführen calculateKinematics. Dieses Skript extrahiert einfache kinematische Features aus den 3D-Trajektorien-Rekonstruktionen, die auf spezifische Bedürfnisse zugeschnitten werden können.
    HINWEIS: Die Software schätzt die Position der verdeckten Körperteile basierend auf ihren Nachbarn und ihre Position in der komplementären Ansicht (z. B. die Position eines Körperteils in der direkten Kameraansicht schränkt seine möglichen Positionen in der Spiegelansicht ein). Für Zeiten, in denen die Pfote in der Spiegelansicht verdeckt ist, während sie durch den Schlitz geht, werden Pfotenkoordinaten basierend auf benachbarten Frames interpoliert.

Ergebnisse

Ratten erwerben die qualifizierte Aufgabe schnell, sobald sie sich an das Gerät akklimatisieren, mit Leistungsplateaus in Bezug auf die Anzahl der Reichweiten und die Genauigkeit über 1-2 Wochen (Abbildung5). Abbildung 6 zeigt Beispielvideoframes, die von DeepLabCut identifizierte Strukturen anzeigen, und Abbildung 7 zeigt überlagerte individuelle Reichweitenbahnen aus einer einzelnen Sitzung. Schließlich veranschaulichen wir in...

Diskussion

Nagetier-Fachkräfte sind zu einem Standardwerkzeug geworden, um die Physiologie des Motorsystems und die Pathophysiologie zu studieren. Wir haben beschrieben, wie eine automatisierte Ratten-Fachkräfte-Reichweite-Aufgabe implementiert werden kann, die es ermöglicht: Training und Tests mit minimaler Überwachung, 3-D-Pfote und Ziffernbahn-Rekonstruktion (beim Greifen, Greifen und Zurückziehen der Pfote), Echtzeit-Identifikation der Pfote während des Erreichens und Synchronisation mit externer Elektronik. Es eignet sic...

Offenlegungen

Die Autoren haben nichts zu verraten.

Danksagungen

Die Autoren danken Karunesh Ganguly und seinem Labor für die Beratung bei der kompetenten Aufgabe und Alexander und Mackenzie Mathis für ihre Hilfe bei der Anpassung von DeepLabCut. Diese Arbeit wurde vom National Institute of Neurological Disease and Stroke (Grant-Nummer K08-NS072183) und der University of Michigan unterstützt.

Materialien

NameCompanyCatalog NumberComments
clear polycarbonate panelsTAP Plasticscut to order (see box design)
infrared source/detectorMed AssociatesENV-253SD30" range
cameraBasleracA2000-340kc2046 x 1086 CMV2000 340 fps Color Camera Link
camera lensMegapixel (computar)M0814-MP22/3" 8mm f1.4 w/ locking Iris & Focus
camera cablesBasler#2000031083Cable PoCL Camera Link SDR/MDR Full, 5 m - Data Cables
mirrorsAmazon
linear actuatorConcentricsLACT6PLinear Actuator 6" Stroke (nominal), 110 Lb Force, 12 VDC, with Potentiometer
pellet reservoir/funnelAmico (Amazon)a12073000ux08906" funnel
guide tubeePlasticsACREXT.500X.2501/2" OD x 1/4" ID Clear. Extruded Plexiglass Acrylic Tube x 6ft long
pellet delivery rodePlasticsACRCAR.2500.250" DIA. Cast Acrylic Rod (2' length)
plastic T connectorUnited States Plastic Corp#620653/8" x 3/8" x 3/8" Hose ID Black HDPE Tee
LED lightsLighting EVER4100066-DW-F12V Flexible Waterproof LED Light Strip, LED Tape, Daylight White, Super Bright 300 Units 5050 LEDS, 16.4Ft 5 M Spool
Light backingePlasticsACTLNAT0.125X12X360.125" x 12" x 36" Natural Acetal Sheet
Light diffuser filmsinventables23114-01.007x8.5x11", matte two sides
cabinet and custom frame materialsvarious (Home Depot, etc.)3/4" fiber board (see protocol for dimensions of each structure)
acoustic foamAcoustic FirstFireFlex Wedge Acoustical Foam (2" Thick)
ventilation fansCooler Master (Amazon)B002R9RBO0Rifle Bearing 80mm Silent Cooling Fan for Computer Cases and CPU Coolers
cabinet door hingesEverbilt (Home Depot#14609continuous steel hinge (1.4" x 48")
cabinet wheelsEverbilt (Home Depot#49509Soft rubber swivel plate caster with 90 lb. load rating and side brake
cabinet door handleEverbilt (Home Depot#15094White light duty door pull (4.5")
computerHewlett PackardZ620HP Z620 Desktop Workstation
Camera Link Frame GrabberNational Instruments#781585-01PCIe-1473 Virtex-5 LX50 Camera Link - Full
Multifunction RIO BoardNational Instruments#781100-01PCIe-17841R
Analog RIO Board CableNational InstrumentsSCH68M-68F-RMIOMultifunction Cable
Digital RIO Board CableNational Instruments#191667-01SHC68-68-RDIO Digital Cable for R Series
Analog Terminal BlockNational Instruments#782536-01SCB-68A Noise Rejecting, Shielded I/O Connector Block
Digital Terminal BlockNational Instruments#782536-01SCB-68A Noise Rejecting, Shielded I/O Connector Block
24 position relay rackMeasurement Computing Corp.SSR-RACK24Solid state relay backplane (Gordos/OPTO-22 type relays), 24-channel
DC switchMeasurement Computing Corp.SSR-ODC-05Solid state relay module, single, DC switch, 3 to 60 VDC @ 3.5 A
DC SenseMeasurement Computing Corp.SSR-IDC-05solid state relay module, single, DC sense, 3 to 32 VDC
DC Power SupplyBK Precision1671ATriple-Output 30V, 5A Digital Display DC Power Supply
sugar pelletsBio ServF0023Dustless Precision Pellets, 45 mg, Sucrose (Unflavored)
LabVIEWNational InstrumentsLabVIEW 2014 SP1, 64 and 32-bit versions64-bit LabVIEW is required to access enough memory to stream videos, but FPGA coding must be performed in 32-bit LabVIEW
MATLABMathworksMatlab R2019abox calibration and trajectory reconstruction software is written in Matlab and requires the Computer Vision toolbox

Referenzen

  1. Chen, J., et al. An automated behavioral apparatus to combine parameterized reaching and grasping movements in 3D space. Journal of Neuroscience Methods. , (2018).
  2. Sacrey, L. A. R. A., Alaverdashvili, M., Whishaw, I. Q. Similar hand shaping in reaching-for-food (skilled reaching) in rats and humans provides evidence of homology in release, collection, and manipulation movements. Behavioural Brain Research. 204, 153-161 (2009).
  3. Whishaw, I. Q., Kolb, B. Decortication abolishes place but not cue learning in rats. Behavioural Brain Research. 11, 123-134 (1984).
  4. Klein, A., Dunnett, S. B. Analysis of Skilled Forelimb Movement in Rats: The Single Pellet Reaching Test and Staircase Test. Current Protocols in Neuroscience. 58, 8.28.1-8.28.15 (2012).
  5. Whishaw, I. Q., Pellis, S. M. The structure of skilled forelimb reaching in the rat: a proximally driven movement with a single distal rotatory component. Behavioural Brain Research. 41, 49-59 (1990).
  6. Zeiler, S. R., et al. Medial premotor cortex shows a reduction in inhibitory markers and mediates recovery in a mouse model of focal stroke. Stroke. 44, 483-489 (2013).
  7. Fenrich, K. K., et al. Improved single pellet grasping using automated ad libitum full-time training robot. Behavioural Brain Research. 281, 137-148 (2015).
  8. Azim, E., Jiang, J., Alstermark, B., Jessell, T. M. Skilled reaching relies on a V2a propriospinal internal copy circuit. Nature. , (2014).
  9. Guo, J. Z. Z., et al. Cortex commands the performance of skilled movement. Elife. 4, e10774 (2015).
  10. Nica, I., Deprez, M., Nuttin, B., Aerts, J. M. Automated Assessment of Endpoint and Kinematic Features of Skilled Reaching in Rats. Frontiers in Behavioral Neuroscience. 11, 255 (2017).
  11. Wong, C. C., Ramanathan, D. S., Gulati, T., Won, S. J., Ganguly, K. An automated behavioral box to assess forelimb function in rats. Journal of Neuroscience Methods. 246, 30-37 (2015).
  12. Torres-Espín, A., Forero, J., Schmidt, E. K. A., Fouad, K., Fenrich, K. K. A motorized pellet dispenser to deliver high intensity training of the single pellet reaching and grasping task in rats. Behavioural Brain Research. 336, 67-76 (2018).
  13. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21, 1281-1289 (2018).
  14. Ellens, D. J., et al. An automated rat single pellet reaching system with high-speed video capture. Journal of Neuroscience Methods. 271, 119-127 (2016).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

VerhaltenAusgabe 149NagetiereVerhaltenqualifiziertes ErreichenComputer VisionPfoten Trackingmaschinelles Lernen

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten