Para empezar, abra MATLAB. Abra el archivo test_parallel.m. En la variable baseDir, especifique la ubicación de la carpeta Raw Image Sequences.
Asigne las variables numOfSlice con el número total de secuencias de imágenes y numOfImage con el número de imágenes de cada secuencia. Inspecciona la secuencia de imágenes del plano medio del corazón del pez cebra. Identifique los números de trama de la primera y cuarta sístole de la secuencia y asígnelos a las variables systolicpoint_1st y systolicpoint_4th.
Haga clic en Ejecutar para iniciar la reconstrucción por imágenes. Descargue el paquete 3D Cell Tracker y configure el entorno de Python. Descargue y abra el software de anotación ITK-SNAP.
Etiquete manualmente la imagen del corazón en 3D en dos puntos temporales, uno durante la districión ventricular y el otro durante la sístole ventricular para crear conjuntos de datos de entrenamiento y validación. En Python, ejecute el programa de entrenamiento 3D Cell Tracker. En la función 3D de la unidad de entrenamiento, inicialice los parámetros de noise_level, folder_path y modelo para establecer el modelo de unidad 3D predefinido.
En MATLAB, utilice imageDimConverter. m para convertir y cambiar el nombre del conjunto de datos de entrenamiento y validación al formato adecuado para la carga. En Python, use el entrenador.
load_dataset y formador. draw_dataset funciones para cargar los conjuntos de datos de entrenamiento y validación, respectivamente. A continuación, ejecute la primera parte del programa de entrenamiento de rastreadores de células 3D y defina los parámetros de imagen para la segmentación de células 3D.
Ahora, en MATLAB, utilice imageDimConverter. m para convertir y cambiar el nombre de todas las imágenes de corazón 3D al formato adecuado y transferirlas a la carpeta de datos. En Python, ejecute la segunda parte del programa 3D Cell Tracker para iniciar la segmentación.
Una vez segmentada la primera imagen 3D, compare el resultado de la segmentación con la imagen sin procesar. Mueva la segmentación corregida a la carpeta del volumen uno manual creada. En Python, ejecute la tercera parte del programa 3D Cell Tracker para segmentar todas las imágenes.
A continuación, abra el software Amira y compare las posiciones de las celdas rastreadas con sus correspondientes imágenes sin procesar para la evaluación visual de los resultados del seguimiento. Valide manualmente los datos de resultados de seguimiento de celdas y seleccione celdas con una intensidad de imagen uniforme en todos los volúmenes. En el software 3D Slicer, el uso de etiquetas de celda para OBJ.
IPYNB Script, genere una malla de superficie y asigne un código de color único a cada celda. Exporte cada modelo 3D como un único archivo OBJ con varios subobjetos acompañados de un archivo MTL para describir la etiqueta de la celda. Importe los modelos 3D a Unity, utilizando la licencia educativa.
Aplique los scripts personalizados que consisten en funciones escritas en C#Program a los modelos y elementos de la interfaz de usuario para la visualización 4D y el análisis interactivo.