Durch die Befolgung der in diesem Protokoll beschriebenen Methoden werden Forscher in der Lage sein, Videos von Nagetieren aufzuzeichnen und zu analysieren, die komplexe Verhaltenstests in Operant-Konditionierungskammern durchführen. Das Protokoll beschreibt, wie man kostengünstige Videokamera baut und sie zusammen mit einer Open-Source-Tracking-Software verwendet. Dies ist ein attraktiver Ansatz für Labore mit einem Budget.
Die Methode ist wertvoll für Forschungsprojekte, die Opernkonditionierung bei Nagetieren beinhalten. Da Videoanalyse das Verständnis von Verhaltensweisen, die in dieser Art von Tests gesehen werden, erheblich verbessern kann. Beginnen Sie mit dem Anbringen des Metallrings um die Öffnung des Kameraständers.
Befestigen Sie dann das Kameramodul mit den Muttern und Schrauben, die das Kit begleiten. Öffnen Sie die Flachbandkabelanschlüsse am Kameramodul und am Mikrocomputer, indem Sie sich sanft an den Rändern ihrer Kunststofflippen bündeln. Brennen Sie das Flachbandkabel im offenen Anschluss des Kameramoduls, so dass die Kabel silber Nader auf die Platine blicken.
Dann verriegeln Sie es an Ort und Stelle, indem Sie in den Kunststoffclip drücken. Wiederholen Sie den Vorgang mit einem Port auf dem Mikrocomputer. Befestigen Sie dann die Fisheye-Linse am Metallring am Kameraständer.
Legen Sie den Mikrocomputer in das Kunststoffgehäuse und legen Sie die aufgelistete Micro-SD-Karte ein. Schließen Sie dann einen Monitor, eine Tastatur und eine Maus an den Mikrocomputer an und schließen Sie das Netzteil an. Öffnen Sie ein Terminalfenster und geben Sie sudo apt binich, erhalten Sie Aktualisierung.
Drücken Sie dann die Eingabetaste. Nächster Typ sudo apt voller Bindestrich Upgrade und drücken Sie enter. Wählen Sie im Startmenü Einstellungen und Raspberry PI-Konfigurationen aus.
Wenn das Fenster geöffnet wird, gehen Sie auf die Registerkarte Schnittstellen und aktivieren Sie die Kamera und I2C Dann klicken Sie auf okay. Kopieren Sie die Zusatzdatei eins auf einen USB-Speicherstick. Übertragen Sie es dann in den PI-Ordner der Microcomputer und benennen Sie ihn um.
Öffnen Sie ein Terminalfenster Typ Pseudo-Nano-Schrägstrich usw., schrägen SIE RC-Punkt lokal und drücken Sie die Eingabetaste. Verwenden Sie die Pfeiltasten der Tastatur, um den Cursor nach unten in den Abstand zwischen fi und Exit Zero zu bewegen. Fügen Sie dann Text hinzu, damit der Computer das kopierte Skript startet.
Und die Infrarot-LEDs, wann immer es bootet. Speichern Sie die Änderungen, indem Sie die Steuerung und X gefolgt von Y drücken und eingeben. Als nächstes Lötwiderstände und weibliche Jumperkabel auf die Beine von zwei farbigen LEDs.
Löten weibliche Jumperkabel auf zwei Tastenschalter. Schließen Sie dann die farbigen LEDs der Schalter und das aufgelistete Infrarot-LED-Modul an die GPI-Reifenenden der Computer an. Wenn sie richtig angeschlossen ist, zeigt eine LED an, dass die Kamera eingeschaltet und einsatzbereit ist.
Während die andere anzeigt, dass die Kamera ein Video aufnimmt. Die Taste mit den langen Kabeln wird verwendet, um Videoaufnahmen zu starten und zu stoppen. Während die Taste mit diesen kurzen Kabeln verwendet wird, um die Kamera auszuschalten.
Legen Sie das Protokoll fest, um die Opernkammern Hauslicht als Indikator für einen bestimmten Schritt im Protokoll zu verwenden. Legen Sie dann das Protokoll fest, um alle Ereignisse von Interesse mit Zeitstempeln in Bezug auf die Aktivität dieses Protokollschrittindikators aufzuzeichnen. Stellen Sie die Kamera auf die Opernkammern und beginnen Sie, indem Sie sie über das Netzkabel an eine Steckdose anschließen.
Verwenden Sie die zuvor angeschlossene Taste, um Videoaufzeichnungen zu starten und zu beenden. Wenn die Videoaufzeichnungen abgeschlossen sind, schließen Sie die Kamera an einen Monitor, eine Tastaturmaus und ein USB-Speichergerät an, und rufen Sie die Videodateien vom Desktop ab. Verwenden Sie die DeeplabCuts Frame Grabbing-Funktion, um 700 bis 900 Videoframes aus einem oder mehreren der aufgenommenen Videos zu extrahieren.
Stellen Sie sicher, dass die ausgewählten Videorahmen das Tier in verschiedenen Haltungen anzeigen, sowohl stationär mit dem Kopf außerhalb als auch innerhalb von Öffnungen und in verschiedene Richtungen bewegen. Verwenden Sie die Beschriftungs-Toolbox, um die Position des Kopfes der Ratte in jedem Videorahmen manuell zu markieren, indem Sie ein Kopfetikett in einer zentralen Position zwischen den Ohren der Ratte platzieren. Beschriften Sie auch andere Körperteile, die von Interesse sein können.
Markieren Sie außerdem eine Position der Protokollschrittanzeige in jedem Videoframe, in dem sie aktiv leuchtet. Verwenden Sie als Nächstes den Schulungsdatensatz erstellen und Netzwerkfunktionen trainieren, um einen Trainingsdatensatz aus den beschrifteten Videoframes zu erstellen und mit dem Training eines neuronalen Netzwerks zu beginnen. Wenn ein neuronales Netzwerk trainiert wurde, verwenden Sie es, um die gesammelten Videos zu analysieren.
Dadurch wird eine CSV-Datei erstellt, die die Track-Positionen des Kopfes der Ratte, andere Körperteile von Interesse und die Protokollschrittanzeige in jedem Videoframe auflistet. Darüber hinaus werden markierte Videodateien erstellt, in denen die Spurpositionen visuell angezeigt werden. Um Koordinaten bestimmter Sehenswürdigkeiten innerhalb der Operantkammern zu erhalten, markieren Sie diese manuell wie zuvor beschrieben und rufen Sie die Koordinaten aus der CSV-Datei ab, die automatisch unter beschrifteten Daten im Projektordner gespeichert wird.
Beachten Sie, in welchen Videosegmenten die Protokollschrittanzeige innerhalb von 60 Pixeln der manuell im vorherigen Abschnitt erhaltenen Position verfolgt wird, und extrahieren Sie den genauen Startpunkt für jeden Zeitraum, in dem der Indikator aktiv ist. Verwenden Sie die Punkte, an denen die Protokollschrittanzeige aktiv wird, und die Zeitstempel, die von den Operantkammern aufgezeichnet werden. Um zu bestimmen, welche Videosegmente bestimmte Ereignisse des Testprotokolls abdecken, z. B. Zwischentestintervalle, Antworten oder Belohnungsabrufe.
Beachten Sie die Videoframes, in denen alle Ereignisse behandelt werden, die von besonderem Interesse sind. Führen Sie schließlich eine relevante eingehende Analyse der Position und Der Bewegungen des Tieres während dieser Ereignisse durch. Die Fischaugenlinse der Kamera sollte es ihr ermöglichen, einen vollständigen Blick auf das Innere der meisten Nagetier-Betriebskonditionierungskammern zu erfassen.
Durch die Verwendung einer geeigneten Infrarot-Beleuchtungsquelle ermöglicht die Kamera auch die Videoaufnahme bei völliger Dunkelheit. Ein gut ausgebildetes Netzwerk sollte eine Genauigkeit von über 90 % bei der Verfolgung des Kopfes eines Tieres ermöglichen. Genaue Verfolgung ist eindeutig erkennbar durch Marker, die einem Tier während seiner Bewegungen folgen und gezeichnete Pfade, die glatt erscheinen.
Im Gegensatz dazu ist die ungenaue Verfolgung durch Markierungen gekennzeichnet, die nicht zuverlässig auf dem Ziel bleiben, und durch gezackte geplottete Pfade. Als Folge dieser ungenauen Verfolgung verursacht in der Regel plötzliche Verschiebungen in berechneten Bewegungen Geschwindigkeiten. Indem man verfolgt, wo sich ein Tier während einer Testsitzung befindet, kann man beurteilen, wie unterschiedliche Bewegungsmuster mit der Leistung zusammenhängen.
Beispielsweise können im fünfwahlseriellen Reaktionszeittest Kopfbewegungen während des Inter-Trial-Intervalls verwendet werden, um Emissionsversuche zu trennen, bei denen das Tier ein begrenztes Interesse an einer Reaktion zeigt. Von einem Missionsversuch, bei dem das Tier den kurzen Lichtblick einfach nicht bemerkt. Darüber hinaus kann die Untersuchung von Kopfbewegungen die Erkennung und Charakterisierung verschiedener Aufmerksamkeitsstrategien ermöglichen.
Beim Versuch dieses Verfahrens ist es wichtig, dass das Protokollschrittkennzeichen zuverlässig ist. Und dass das neuronale Netzwerk mit einem Tauchgang von Videoframes trainiert wird. Um eine genaue Verfolgung zu gewährleisten.