Öffnen Sie zunächst das MATLAB. Öffnen Sie die Datei test_parallel.m. Geben Sie in der Variablen baseDir den Speicherort des Ordners für Rohbildsequenzen an.
Weisen Sie die Variablen numOfSlice mit der Gesamtzahl der Bildsequenzen und numOfImage mit der Anzahl der Bilder in jeder Sequenz zu. Untersuchen Sie die Bildsequenz der mittleren Ebene des Zebrafischherzens. Identifizieren Sie die Bildnummern der ersten und vierten Systole in der Sequenz und weisen Sie sie den Variablen systolicpoint_1st und systolicpoint_4th zu.
Klicken Sie auf Ausführen, um die Imaging-Rekonstruktion zu starten. Laden Sie das 3D Cell Tracker-Paket herunter und richten Sie die Python-Umgebung ein. Laden Sie die ITK-SNAP Annotation Software herunter und öffnen Sie sie.
Beschriften Sie das 3D-Herzbild manuell zu zwei Zeitpunkten, einen während der ventrikulären distalen und den anderen während der ventrikulären Systole, um Trainings- und Validierungsdatensätze zu erstellen. Führen Sie in Python das 3D-Cell-Tracker-Trainingsprogramm aus. Initialisieren Sie in der 3D-Funktion der Trainingseinheit die Parameter noise_level, folder_path und Modell, um das vordefinierte 3D-Einheitenmodell festzulegen.
Verwenden Sie in MATLAB den imageDimConverter. m zum Konvertieren und Umbenennen des Trainings- und Validierungsdatensatzes in das richtige Format zum Laden. Verwenden Sie in Python den Trainer.
load_dataset und Trainer. draw_dataset Funktionen zum Laden der Trainings- bzw. Validierungsdatensätze. Führen Sie dann den ersten Teil des 3D Cell Tracker Trainingsprogramms aus und definieren Sie die Bildgebungsparameter für die 3D-Zellsegmentierung.
Verwenden Sie nun in MATLAB den imageDimConverter. m Programm zum Konvertieren und Umbenennen aller 3D-Herzbilder in das richtige Format und zum Übertragen in den Datenordner. Führen Sie in Python den zweiten Teil des 3D-Cell-Tracker-Programms aus, um die Segmentierung zu starten.
Sobald das erste 3D-Bild segmentiert ist, vergleichen Sie das Segmentierungsergebnis mit dem Rohbild. Verschieben Sie die korrigierte Segmentierung in den erstellten manuellen Volume One-Ordner. Führen Sie in Python den dritten Teil des 3D-Cell-Tracker-Programms aus, um alle Bilder zu segmentieren.
Öffnen Sie als Nächstes die Amira-Software und vergleichen Sie die Positionen der verfolgten Zellen mit den entsprechenden Rohbildern, um die Tracking-Ergebnisse visuell zu bewerten. Validieren Sie die Ergebnisdaten der Zellverfolgung manuell und wählen Sie Zellen mit konsistenter Bildintensität über alle Volumina hinweg aus. Verwenden Sie in der 3D Slicer Software die Verwendung von Zellbeschriftungen für OBJ.
IPYNB-Skript, generieren Sie ein Oberflächennetz und weisen Sie jeder Zelle einen eindeutigen Farbcode zu. Exportieren Sie jedes 3D-Modell als einzelne OBJ-Datei mit mehreren Unterobjekten, begleitet von einer MTL-Datei, um die Zellenbeschriftung zu beschreiben. Importieren Sie die 3D-Modelle mit der Education-Lizenz in Unity.
Wenden Sie die benutzerdefinierten Skripte, die aus im C#-Programm geschriebenen Funktionen bestehen, auf die Modelle und Benutzeroberflächenelemente für die 4D-Visualisierung und interaktive Analyse an.