JoVE Logo

Anmelden

Zum Anzeigen dieser Inhalte ist ein JoVE-Abonnement erforderlich. Melden Sie sich an oder starten Sie Ihre kostenlose Testversion.

In diesem Artikel

  • Zusammenfassung
  • Zusammenfassung
  • Einleitung
  • Protokoll
  • Ergebnisse
  • Diskussion
  • Offenlegungen
  • Danksagungen
  • Materialien
  • Referenzen
  • Nachdrucke und Genehmigungen

Zusammenfassung

Wir stellen eine Methode vor, die einen generalisierbaren flächenbasierten Bildanalyseansatz verwendet, um Zellzahlen zu identifizieren. Die Analyse verschiedener Zellpopulationen nutzte die signifikanten Zellhöhen- und Strukturunterschiede zwischen verschiedenen Zelltypen innerhalb eines adaptiven Algorithmus.

Zusammenfassung

Die Quantifizierung von Zellen ist für eine Vielzahl von biologischen und biochemischen Studien notwendig. Die konventionelle Bildanalyse von Zellen verwendet typischerweise entweder Fluoreszenzdetektionsansätze wie Immunfluoreszenzfärbung oder Transfektion mit fluoreszierenden Proteinen oder Kantendetektionstechniken, die aufgrund von Rauschen und anderen Nicht-Idealitäten im Bildhintergrund oft fehleranfällig sind.

Wir haben einen neuen Algorithmus entwickelt, der Makrophagen und Fibroblasten, Zellen verschiedener Phänotypen, die oft während der Geweberegeneration kolokalisieren, genau zählen und unterscheiden kann. MATLAB wurde verwendet, um den Algorithmus zu implementieren, der verschiedene Zelltypen basierend auf Höhenunterschieden vom Hintergrund unterscheidet. Ein primärer Algorithmus wurde unter Verwendung einer flächenbasierten Methode entwickelt, um Variationen in der Zellgröße / -struktur und die Bedingungen für die Aussaat mit hoher Dichte zu berücksichtigen.

Nicht-Idealitäten in Zellstrukturen wurden mit einem sekundären, iterativen Algorithmus berücksichtigt, der interne Parameter wie die Zellbedeckung verwendet, die unter Verwendung experimenteller Daten für einen bestimmten Zelltyp berechnet wurde. Schließlich wurde eine Analyse der Kokulturumgebungen mit einem Isolationsalgorithmus durchgeführt, bei dem verschiedene Zelltypen selektiv ausgeschlossen wurden, basierend auf der Bewertung der relativen Höhenunterschiede innerhalb des Bildes. Es wurde festgestellt, dass dieser Ansatz Zellen innerhalb einer Fehlerspanne von 5% für monokultivierte Zellen und innerhalb einer Fehlerspanne von 10% für kokultivierte Zellen genau zählt.

Einleitung

Software wird routinemäßig während der Bildanalysetechniken implementiert, um sicherzustellen, dass die Ergebnisse genau, effizient und unvoreingenommen sind. Bei zellbasierten Assays ist ein häufiges Problem die Fehlidentifizierung von Zellen. Bilder mit falschen Fokus- und Kontrasteinstellungen können zu Zellunschärfe führen, bei der die Grenze einzelner Zellen schwer zu identifizieren ist1. Das Vorhandensein von Fremdbildmerkmalen wie Poren, Blasen oder anderen unerwünschten Objekten kann die Zählvorgänge behindern, indem es den Zählvorgang verlangsamt und zu einer falschen Identifizierung führt. Darüber hinaus kann das Zählen von Zellen mühsam sein, und das Zählen von Hunderten von Replikaten kann äußerst zeitaufwendig sein. Darüber hinaus besteht während der manuellen Zählung eine inhärente subjektive Verzerrung, und daher ist die Entscheidungsfindung in Bezug auf die Zellidentifizierung oft ungenau2. Automatisierte Software bietet ein aufregendes Potenzial, all diese Probleme zu umgehen, indem Zellen schnell und präzise von Fremdobjekten unterschieden werden, einschließlich Objekten, die weit über die menschlichen Fähigkeiten zur präzisen Erkennung hinausgehen, basierend auf klar definierten Identifikationskriterien, die den Einfluss von Investigator Bias reduzieren. Gängige Techniken zur Identifizierung von Zellen mit automatisierter Software umfassen zwei Hauptmethoden: Segmentierung und Schwellenwert3. Hierin demonstrieren wir ein generalisierbares flächenbasiertes Protokoll, das eine schnelle, genaue und kostengünstige Zellzählung innerhalb eines allgemein zugänglichen Software-Frameworks ermöglicht.

Segmentierungstechniken, wie die Kantenerkennung, versuchen, einzelne Zellen zu isolieren, indem Intensitätsunterschiede innerhalb eines Bildes genutzt werden. Intensitätsänderungen, die eine Zelle vom Rest des Bildes unterscheiden, bestehen meistens aus scharfen Helligkeitsänderungen4. Die Kantenerkennung umfasst einen Regularisierungsfilterschritt, gefolgt von einem Differenzierungsschritt, in dem Intensitätsänderungen erkannt werden. Der Differenzierungsprozess identifiziert Kanten und Konturen innerhalb des Bildes von hochintensiven Veränderungen, und diese Kanten und Konturen korrelieren mit der Zellpräsenz. Obwohl Bilder mit Rauschen durch Rauschalgorithmen4 ausgeführt werden können, werden Kantenerkennungstechniken idealerweise für die Analyse von Bildern mit geringem Hintergrundrauschen verwendet. Der Prozess funktioniert optimal, wenn Zellgrenzen klar und leicht unterscheidbar sind und nicht durch Helligkeitskonturen behindert werden, die nichts mit Zellpräsenz, Zellunschärfe, Fremdobjekten oder definierten internen Zellstrukturen zu tunhaben 1,2. Wenn ein Bild besonders verrauscht ist, können Zellen durch fluoreszierende Färbung oder Transfektion mit fluoreszierenden Proteinen weiter unterschiedenwerden 2,5. Obwohl dies die Genauigkeit der Segmentierungstechniken erheblich verbessert, erfordert dies zusätzliche Kosten und zusätzliche Zeitinvestitionen, um Zellkulturen für die Bildgebung vorzubereiten.

Schwellenwerttechniken beinhalten die Unterteilung eines Bildes in zwei Kategorien: den Vordergrund und den Hintergrund, wobei Zellen dem Vordergrundzugewiesen sind 3. Diese Techniken verwenden Farb- / Kontraständerungen, um die scheinbare Höhe eines Objekts zu definieren. Objekte, die routinemäßig "höher" sind als der Hintergrund, können leicht als Zellen identifiziert werden. Die Wasserscheiden-Transformation funktioniert auf diese Weise, indem sie Oberflächen mit hellen Pixeln als Vordergrund und solchen mit dunklen Pixelnals Hintergrund 6,7 assoziiert. Durch höhenbasierte Identifizierung können Schwellentechniken routinemäßig Geräusche von gewünschten Objekten unterscheiden, vorausgesetzt, sie befinden sich innerhalb derselben Brennebene. In Kombination mit einer flächenbasierten Quantifizierung kann eine Wassereinzugsgebietstransformation Gruppen von Objekten in Umgebungen genau identifizieren, in denen typische Segmentierungstechniken wie die Kantenerkennung ungenau wären.

Wasserscheiden-Transformationen werden üblicherweise mit Segmentierungstechniken gekoppelt, um Bilder für eine sauberere Analyse vorzubereiten, was zu einer höheren Genauigkeit der Zellzählung führt. Für diesen Prozess wird die Wassereinzugsgebietstransformation verwendet, um potenzielle Regionen von Interesse vor der Segmentierung hervorzuheben. Eine Wasserscheidentransformation bietet einzigartige Vorteile, indem sie Zellen im Vordergrund von Bildern identifiziert, was die Genauigkeit der Segmentierungsanalyse verbessern kann, indem potenzielle Fehlalarme für Zellen entfernt werden, z. B. ungleichmäßige Hintergrundflecken. Schwierigkeiten können jedoch auftreten, wenn versucht wird, zellbasierte Bilder an eine Wasserscheide-Transformation anzupassen. Bilder mit hoher Zelldichte können mit Untersegmentierung geplagt werden, bei der Aggregate von Zellen als singuläre Gruppe und nicht als einzelne Komponenten identifiziert werden. Das Vorhandensein von Rauschen oder starken Intensitätsänderungen kann auch zu einer Übersegmentierung führen, bei der der Algorithmus die Zellen überisoliert, was zu übermäßigen und ungenauen Zellzahlenführt 8.

Hierin beschreiben wir eine Methode zur Minimierung der primären Nachteile der Wassereinzugsgebietstransformation, indem Komponenten einer Schwellenwertanalyse in einen flächenbasierten Quantifizierungsalgorithmus integriert werden, wie in Abbildung 1 dargestellt. Insbesondere wurde dieser Algorithmus mit Open-Source- und / oder weit verbreiteter Software implementiert, und die Anwendung dieses Zellzähl-Frameworks war ohne teure Reagenzien oder komplexe Zellpräparationstechniken möglich. RAW264.7-Makrophagen wurden verwendet, um die Methode aufgrund ihrer kritischen Rolle bei der Regulierung der Bindegewebserhaltung und der Wundheilungsprozessezu demonstrieren 9. Darüber hinaus wurden NIH/3T3-Fibroblasten aufgrund ihrer Schlüsselrolle bei der Erhaltung und Reparatur von Gewebe analysiert. Fibroblastenzellen koexistieren oft mit Makrophagen und unterstützen sie, was die Notwendigkeit erzeugt, diese phänotypisch unterschiedlichen Zelltypen in Kokulturstudien zu unterscheiden.

Zellzahlen aus Bildern mit hoher lebensfähiger Zelldichte (VCD) konnten zuverlässig und effizient quantifiziert werden, indem die von den Zellen abgedeckte Fläche und die durchschnittliche Fläche einer einzelnen Zelle berechnet wurden. Die Verwendung von Schwellenwerten im Gegensatz zur Segmentierung für die Zellidentifikation ermöglichte auch komplexere Analysen, wie z.B. Experimente, in denen verschiedene Zelltypen in Kokulturen gleichzeitig analysiert wurden. Es wurde festgestellt, dass NIH / 3T3-Fibroblasten, die häufig mit RAW264.7-Makrophagen innerhalb einer Wundheilungsstelle kolokalisieren, auf einer fokalen Ebene wachsen, die sich von der fokalen Ebene von Makrophagen10 unterscheidet. Dementsprechend wurden mehrere Schwellenwertalgorithmen ausgeführt, um den Hintergrund und den Vordergrund in Abhängigkeit vom analysierten Zelltyp zu definieren, was eine genaue Zählung von zwei verschiedenen Zelltypen innerhalb desselben Bildes ermöglicht.

Protokoll

1. Zellkultur und Bilderfassung

  1. Kultur RAW264.7 Makrophagen bei 37 °C und 5% CO2 in Dulbeccos Modified Eagle Medium (DMEM), ergänzt mit 10% fetalem Rinderserum (FBS), 1% Penicillin-Streptomycin, 1,5 g/L Natriumbicarbonat und 5 μM β-Mercaptoethanol.
    1. Für die Monokultur-Bildgebung Kultur RAW264.7 Zellen bei einer Dichte von 25.000 Zellen/cm2 in einem 5 ml Zellkulturkolben mit 1 ml Medium.
  2. Kultur NIH/3T3-Zellen bei 37 °C und 5% CO2 in DMEM, ergänzt mit 10% fetalem Rinderserum und 1% Penicillin-Streptomycin11.
  3. Für die Kokulturbildgebung werden Kulturmakrophagen RAW264.7 und NIH/3T3-Fibroblasten in unterschiedlichen Verhältnissen bei einer Gesamtdichte von 25.000 Zellen/cm2 zusammengeführt. Verwenden Sie Kokulturmedium, das 1 Teil RAW264.7 Medium (DMEM ergänzt mit 10% FBS, 1% Penicillin-Streptomycin, 1,5 g/L Natriumbicarbonat und 5 μM β-Mercaptoethanol) und 1 Teil NIH/3T3 Medium (DMEM ergänzt mit 10% fetalem Rinderserum und 1% Penicillin-Streptomycin) ist.
  4. Nach der Aussaat die Zellen bei 37 °C und 5% CO 2 inkubieren, um eine lebensfähige Zelldichte von 80% Zellzusammenfluss zu erreichen.
  5. Bildzellen mit einem inversen Mikroskop, das mit einem 40-fachen Objektiv ausgestattet ist. Erfassen Sie alle Bilder in Graustufen und exportieren Sie sie in die rohe '.czi'-Datei.
    1. Bestimmen Sie die Fähigkeit des Algorithmus, Bilder mit einer Reihe von Bildqualitäten genau auszuwerten. Erfassen Sie Bilder mit unterschiedlichen Schwerpunkten, wodurch sowohl "nicht-bulböse" Bilder (Abbildung 2) als auch "bauchige" Bilder (Abbildung 3) erzeugt werden.
    2. Exportieren und konvertieren Sie Zellenbilder mit ImageJ mithilfe der Funktion "Batch Convert" für die rohen ".czi"-Dateien vor der MATLAB-Analyse in das 8-Bit-TIFF-Bildformat (.tiff). Speichern Sie konvertierte Bilder in einem lokalen Ordner und übertragen Sie diese Bilddateien manuell in den entsprechenden MATLAB-Behälter.

2. Bildanalyse-Monokultur, wobei hauptsächlich die Datei "Monokultur.m" verwendet wird

HINWEIS: Die folgenden Schritte wurden mit MATLAB durchgeführt. Für das MATLAB-Protokoll wurden drei Dateien verwendet: "process.m" (Supplemental coding file 1), die Datei, die den Algorithmus enthält, "monoculture.m" (Supplemental coding file 2), die Datei, die zur Analyse von Monokulturbildern ausgeführt werden soll, und "coculture_modified.m" (Supplemental coding file 3), die Datei, die zur Analyse von Coculture-Bildern ausgeführt werden soll.

  1. Verwenden Sie die flächenbasierte Methode, um Bilder von Zellen zu erhalten, die relative Höhenunterschiede aufweisen. Bildausgaben für jeden Teilschritt unter Verwendung der Funktion 'imshow()' für jedes Unterbild. Kopieren Sie die Bilddatei zur Analyse, fügen Sie sie in den Papierkorb ein und geben Sie den Dateinamen in den folgenden Befehl ein. Drücken Sie Ausführen , um das Programm zu starten.
    imread('Dateiname.tiff')
    1. Analysieren Sie Bilder durch "Öffnen durch Rekonstruktion", gefolgt von "Schließen durch Rekonstruktion", indem Sie die Quellfunktionen8 verwenden, um den Vordergrund aus dem Hintergrund zu vergrößern. Verwenden Sie den ersten Befehl zum Öffnen durch Rekonstruktion und die zweite und dritte Sequenz, um mit der Rekonstruktion zu schließen
      "unoffen()"
      "imerode()"
      'imreconstruct()'
  2. Binarisieren Sie die rekonstruierten Bilder mit einem perzentilbasierten Identifikationssystem zu reinen schwarzen und reinen weißen Pixeln. Beachten Sie, dass Zellen in diesem System in einen rein weißen Pixelwert von "255" konvertiert werden, während Hintergrund- und fremde (nicht zellulare) Objekte in einen reinen schwarzen Pixelwert von "0" konvertiert werden.
    1. Unterscheiden Sie Zellen vom Hintergrund, indem Sie eine Perzentildifferenz vom "maximal relevanten Pixel" verwenden, dem größten Pixelwert, der mindestens 0,5% eines bestimmten Bildes umfasst.
    2. Analysieren und bewerten Sie die Pixelwerte für RAW264.7-Makrophagen. Wenn diese Werte innerhalb von 4,5 % des maximal relevanten Pixels liegen, markieren Sie das Pixel als zellulär.
      HINWEIS: Dieser Befehl kann mit einer einfachen if-Anweisung ausgegeben werden.
    3. Implementieren Sie für Bilder mit bauchigen Zellprofilen, wie sie in Abbildung 2 zu sehen sind, ein iteratives Verfahren, um eine fehlerhafte Binarisierung in den Zentren der Zellen (sogenannte "Inseln" (siehe unten) wie folgt zu korrigieren.
    4. Bestimmen Sie eine erste Schätzung für die gesamte Zellabdeckung; 60% wurden für diese Studie verwendet. Beachten Sie, dass die Anzahl der im Bild vorhandenen Zellen von der Zellabdeckung abhängen sollte - die Beziehung zwischen Zellzahl und Zellabdeckung kann daher experimentell bestimmt werden. Bestimmen Sie anhand dieser Beziehung die Variablen 'Alpha' und 'kappa'.
      HINWEIS: "Alpha" stellt einen 3 x 1-Vektor dar, der die folgenden relativen Höhenperzentile enthält: das Höhenperzentil, in dem Zellen identifiziert wurden, das Höhenperzentil, in dem der Hintergrund identifiziert wurde, und das Höhenperzentil, auf dem sich Inselregionen befanden, in denen die Intensitätswerte signifikant niedriger waren als die Zellwerte. 'Kappa' stellt die Gesamtfläche dar, die von Zellen im Bild bedeckt wird.
    5. Führen Sie den Algorithmus aus, der (i) Bilder mit anfänglichen Schätzungen von Alpha und Kappa, um einen Teil der Inseln zu füllen, analysiert und (ii) die Anzahl und Abdeckung der Zellen und der Abdeckung nach der Analyse verwendet, um Kappa neu zu berechnen. Wenn der kappa-Wert innerhalb von 10 % der ursprünglichen Schätzung liegt, fahren Sie mit dem nächsten Schritt fort.
      HINWEIS: Für Bilder, die RAW264.7- und NIH/3T3-Zellen enthalten, wurde Alpha als [4.3, 5.5, 10] gefunden. Mit anderen Worten, eine Differenz von 4,3% vom maximal relevanten Pixel bestimmte das Höhenperzentil, bei dem Zellen identifiziert wurden, eine Differenz von 5,5% vom maximal relevanten Pixel bestimmte das Höhenperzentil, bei dem der Hintergrund identifiziert wurde. Eine Differenz von 10 % vom maximal relevanten Pixel bestimmte das Höhenperzentil, in dem sich Inseln typischerweise befanden.
  3. Bestimmen Sie nach der Binarisierung des Bildes automatisch die durchschnittliche Zellfläche mit dem Open-Source-Kreisfindungsalgorithmus, der eine Hough-Transformation für das binarisierte Bild12,13,14 durchführt. Verwenden Sie den folgenden Befehl, um einen Vektor aller Mittelpositionen und Radien von Kreisen im Bild zu erhalten.
    '[Zentren, Radien] = Imfindcircle(A, [minradius, maxradius])'
    'A' in diesem Befehl ist das Bild der Wahl, und [minradius, maxradius] ist der Bereich der Radien, den der Algorithmus zu erkennen versucht.
    HINWEIS: Dieses Verfahren zur Bestimmung der durchschnittlichen Zellfläche geht davon aus, dass die Morphologie der Makrophagenzellen sowohl kreisförmig als auch konsistent zwischen den Zellen10 war. Aus experimentellen Daten geht hervor, dass die Radien von Makrophagen am häufigsten zwischen 30 und 50 Pixeln bei 40-facher Vergrößerung liegen. Dieser Pixelbereich ist definiert als der akzeptable Bereich für den Kreisfindungsalgorithmus. Die Radien könnten für andere Zelltypen signifikant unterschiedlich sein und würden eine Bestimmung mittels experimenteller Analyse erfordern.
    1. Verwenden Sie die Radienausgaben, um die durchschnittliche Zellfläche durch Mittelwertbildung zu berechnen. Analysieren Sie mindestens 10 Zellen, um eine genaue Bereichsidentifikation zu gewährleisten.
  4. Bestimmen Sie die Gesamtzahl der Zellen im Bild anhand der durchschnittlichen Zellfläche.
    1. Durchlaufen Sie die Bildmatrix und zählen Sie die Gesamtzahl der Zellenpixel. Bestimmen Sie die Gesamtzellenabdeckung, indem Sie die Anzahl der Zellenpixel durch die Gesamtzahl der Pixel im Bild dividieren. Bestimmen Sie die Gesamtzahl der Zellen im Bild, indem Sie die Anzahl der Zellenpixel durch die durchschnittliche Fläche einer Zelle dividieren.

3. Bildanalyse-Kokultur unter Verwendung der "coculture_modified.m"-Datei primär

HINWEIS: Die folgenden Schritte wurden mit MATLAB durchgeführt.

  1. Verwenden Sie die flächenbasierte Methode, um Bilder von Zellen zu erhalten, die relative Höhenunterschiede aufweisen. Bildausgaben für jeden Teilschritt unter Verwendung der Funktion 'imshow()' für jedes Unterbild. Kopieren Sie die Bilddatei zur Analyse, fügen Sie sie in den Papierkorb ein und geben Sie den Dateinamen in den folgenden Befehl ein. Drücken Sie Ausführen , um das Programm zu starten.
    'imread('Dateiname.tiff')'
    1. Analysieren Sie Bilder durch "Öffnen durch Rekonstruktion", gefolgt von "Schließen durch Rekonstruktion" mit Quellfunktionen10, um den Vordergrund aus dem Hintergrund zu vergrößern. Verwenden Sie den ersten Befehl zum Öffnen durch Rekonstruktion und die zweite und dritte Sequenz, um durch Rekonstruktion zu schließen.
      "ungeöffnet ()"
      "imerode()"
      'imreconstruct()'
  2. Führen Sie eine Analyse von Kokulturen durch, die RAW264.7- und NIH/3T3-Zellen enthalten, indem Sie zwei selektive Binarisierungen verwenden, die durch Ausnutzung der Höhenunterschiede zwischen den beiden Zelltypen erhalten werden.
    1. Experimentelle Bestimmung eines Parameters 'phi' unter Verwendung von Bildern von RAW264.7- und NIH/3T3-Zellen, wobei Phi den proportionalen Höhenunterschied zwischen den beiden Zelltypen darstellt. Erraten Sie einen anfänglichen Phi-Wert und iterieren Sie, bis Zellzählung und -abdeckung eng mit den manuellen Zählungen übereinstimmen, die für die RAW264.7- und NIH / 3T3-Kokultur spezifisch sind.
      HINWEIS: Der Wert für Phi, der in diesen Studien verwendet wurde, wurde mit 3,2 ermittelt. Phi wird verwendet, um ein Bild selektiv so zu filtern, dass es nur RAW264.7-Zellen zu enthalten scheint, wie in Abbildung 4C dargestellt.
    2. Bestimmen Sie die RAW264.7-Zellzahl und die Gesamtzellabdeckung auf ähnliche Weise wie bei Monokulturbildern.
  3. Analysieren Sie das durch Wassereinzugsgebiete transformierte Bild erneut ohne den Phi-Parameter und erkennen Sie sowohl Makrophagen als auch Fibroblasten. Erfassen Sie NIH/3T3-Fibroblastendaten durch selektive Subtraktion von RAW264,7-Zellpixeln, die unter Verwendung der in Schritt 2 beschriebenen Standard-Schwellenwert- und flächenbasierten Quantifizierungsmethoden erhalten wurden.
    1. Sobald das gesamte Bild analysiert wurde, bestimmen Sie die Gesamtzahl der NIH/3T3-Pixel, indem Sie die Gesamtzahl der Zellenpixel von der Anzahl der RAW264.7-Pixel subtrahieren. Berechnen Sie die Abdeckung von NIH/3T3- und RAW264.7-Zellen, indem Sie durch die Anzahl der Zellenpixel für jede Zellenzeile durch die Gesamtzahl der Bildpixel dividiert werden.

Ergebnisse

Die Analyse von nicht-bauchigen RAW264.7-Makrophagen wurde in einer Monokulturumgebung bei 25.000 Zellen/cm2 durchgeführt. Repräsentative Bilder der Zellkultur wurden aufgenommen und in MATLAB nach der Konvertierung in 8-Bit-Tiff in ImageJ verarbeitet. Algorithmusausgaben während des gesamten Prozesses wurden aufgezeichnet und in Abbildung 2 für das repräsentative Bild dokumentiert. In diesem Bild zählte der Algorithmus 226 Zellen, und diese Bildanzahl wurde durch Vergleich ...

Diskussion

Wir haben ein allgemeines flächenbasiertes Verfahren entwickelt, das Zellen auf der Grundlage der Zellgröße genau und effizient zählt und so eine fleckenfreie Quantifizierung von Zellen auch in Kokultursystemen ermöglicht. Kritische Schritte für dieses Verfahren waren die Implementierung eines relativen Intensitätssystems, mit dem Zellen differenziert werden konnten. Die Verwendung einer relativen Höhenanalyse diente zwei Zwecken: Die Notwendigkeit externer Parameter wurde überflüssig, da die relativen Paramete...

Offenlegungen

Die Autoren erklären, dass sie keine Interessenkonflikte haben.

Danksagungen

Diese Arbeit wurde zum Teil von den National Institutes of Health (R01 AR067247) und zum Teil vom Delaware INBRE-Programm finanziert, unterstützt durch einen Zuschuss des National Institute of General Medical Sciences-NIGMS (P20 GM103446) von den National Institutes of Health und dem Bundesstaat Delaware. Der Inhalt des Manuskripts spiegelt nicht unbedingt die Ansichten der Förderagenturen wider.

Materialien

NameCompanyCatalog NumberComments
Axio Observer 7 Inverted MicroscopeZeiss1028290770
β-mercaptoethanolLife Technologies21985023
Cell ScrapersCellTreat229310
Dublecco's Modified Eagle MediumFisher Scientific12430047
Dublecco's PBSFisher Scientific14190144
MATLAB SoftwareMathWorks2021A
NIH/3T3 CellsATCCATCC CRL - 1658
Penicillin–StreptomycinSigma AldrichP4333-20ML
RAW264.7 CellsATCCATCC TIB - 71
Sodium BicarbonateSigma AldrichS6014-25G
T75 Cell Culture FlaskCorningCLS3814-24EA

Referenzen

  1. Young, D., Glasbey, C., Gray, A., Martin, N. Identification and sizing of cells in microscope images by template matching and edge detection. Fifth International Conference on Image Processing and its Applications, 1995. , 266-270 (1995).
  2. Zhu, R., Sui, D., Qin, H., Hao, A. An extended type cell detection and counting method based on FCN. Proc. - 2017 IEEE 17th International Conference on Bioinformatics and Bioengineering (BIBE). , 51-56 (2018).
  3. Choudhry, P. High-throughput method for automated colony and cell counting by digital image analysis based on edge detection. PLoS One. 11 (2), 0148469 (2016).
  4. Torre, V., Poggio, T. On edge detection. MIT Artificial Intelligence Lab Memo 768. , 1-9 (1984).
  5. Fuller, M. E., et al. Development of a vital fluorescent staining method for monitoring bacterial transport in subsurface environments. Applied and Environmental Microbiology. 66 (10), 4486-4496 (2000).
  6. Meyer, F. Topographic distance and watershed lines. Signal Processing. 38 (1), 113-125 (1994).
  7. Image Processing Toolbox Documentation. MATLAB_Marker-controlled watershed segmentation. MathWorks Available from: https://www.mathworks.com/help/images/marker-controlled-watershed-segmentation.html (2022)
  8. Bala, A. An improved watershed image segmentation technique using MATLAB. International Journal of Scientific and Engineering Research. 3 (6), 1206-1209 (2012).
  9. Glaros, T., Larsen, M., Li, L. Macrophages and fibroblasts during inflammation, tissue damage and organ injury. Frontiers in Bioscience (Landmark Edition). 14, 3988-3993 (2009).
  10. Witherel, C., Abebayehu, D., Barker, T., Spiller, K. Macrophage and fibroblast interactions in biomaterial-mediated fibrosis. Advanced Healthcare Materials. 8 (4), 1801451 (2019).
  11. Urello, M., Kiick, K., Sullivan, M. Integration of growth factor gene delivery with collagen-triggered wound repair cascades using collagen-mimetic peptides. Bioengineering & Translational Medicine. 1 (2), 207-219 (2016).
  12. Image Processing Toolbox Documentation. MATLAB_Detect and measure circular objects in an image. MathWorks Available from: https://www.mathworks.com/help/images/detect-and-measure-circular-objects-in-an-image.html (2022)
  13. Atherton, T., Kerbyson, D. Size invariant circle detection. Image and Vision Computing. 17, 795-803 (1999).
  14. Maitra, M., Kumar Gupta, R., Mukherjee, M. Detection and counting of red blood cells in blood cell images using Hough transform. International Journal of Computer Applications. 53 (16), 18-22 (2012).
  15. Uslu, F., Icoz, K., Tasdemir, K., Doğan, R. S., Yilmaz, B. Image-analysis based readout method for biochip: Automated quantification of immunomagnetic beads, micropads and patient leukemia cell. Micron. 133, 102863 (2020).
  16. Uslu, F., Icoz, K., Tasdemir, K., Yilmaz, B. Automated quantification of immunomagnetic beads and leukemia cells from optical microscope images. Biomedical Signal Processing and Control. 49, 473-482 (2019).
  17. Anderl, J., Redpath, S., Ball, A. A neuronal and astrocyte co-culture assay for high content analysis of neurotoxicity. Journal of Visualized Experiments: JoVE. (27), e1173 (2009).
  18. Holt, D., Chamberlain, L., Grainger, D. Cell-cell signaling in co-cultures of macrophages and fibroblasts. Biomaterials. 31 (36), 9382-9394 (2010).
  19. Boddupalli, A., Zhu, L., Bratlie, K. Methods for implant acceptance and wound healing: material selection and implant location modulate macrophage and fibroblast phenotypes. Advanced Healthcare Materials. 5 (20), 2575-2594 (2016).
  20. Wang, Z., Li, H. Generalizing cell segmentation and quantification. BMC Bioinformatics. 18 (1), 189 (2017).
  21. Zou, K. H., et al. Statistical validation of image segmentation quality based on a spatial overlap index. Academic Radiology. 11 (2), 178-189 (2004).

Nachdrucke und Genehmigungen

Genehmigung beantragen, um den Text oder die Abbildungen dieses JoVE-Artikels zu verwenden

Genehmigung beantragen

Weitere Artikel entdecken

BioengineeringAusgabe 180

This article has been published

Video Coming Soon

JoVE Logo

Datenschutz

Nutzungsbedingungen

Richtlinien

Forschung

Lehre

ÜBER JoVE

Copyright © 2025 MyJoVE Corporation. Alle Rechte vorbehalten