JoVE Logo

S'identifier

Un abonnement à JoVE est nécessaire pour voir ce contenu. Connectez-vous ou commencez votre essai gratuit.

Dans cet article

  • Résumé
  • Résumé
  • Introduction
  • Protocole
  • Résultats
  • Discussion
  • Déclarations de divulgation
  • Remerciements
  • matériels
  • Références
  • Réimpressions et Autorisations

Résumé

Nous présentons ici un protocole pour une seule particule suivi d’analyse d’images qui permet une évaluation quantitative des coefficients de diffusion, types de tailles de motion et cluster de simples particules détectées par microscopie à fluorescence.

Résumé

Suivi sur une séquence vidéo et de l’analyse postérieure de leurs trajectoires de particules est aujourd'hui une opération courante dans de nombreuses études biologiques. À l’aide de l’analyse des récepteurs de la membrane cellulaire des grappes comme modèle, nous présentons un protocole détaillé pour cette tâche d’analyse image à l’aide de Fidji (ImageJ) et routines Matlab pour : 1) définir des zones d’intérêt et de concevoir des masques adaptés à ces régions ; 2) suivre les particules dans les vidéos de microscopie de fluorescence ; 3) analyser les caractéristiques de diffusion et de l’intensité des titres sélectionnés. L’analyse quantitative des coefficients de diffusion, les types de mouvement et la taille de cluster obtenues en microscopie par fluorescence et de traitement d’image fournit un outil précieux pour déterminer objectivement la dynamique des particules et les conséquences de la modification conditions environnementales. Dans cet article, nous présentons des protocoles détaillés pour l’analyse de ces fonctionnalités. La méthode décrite ici non seulement permet la détection de molécules simples suivi, mais automatise également l’estimation des paramètres de diffusion latérale à la membrane cellulaire, classifie le type de trajectoire et permet une analyse complète ainsi surmonter la difficultés pour quantifier la taille du spot sur sa trajectoire entière à la membrane cellulaire.

Introduction

Protéines de la membrane intégrées dans la bicouche lipidique sont en mouvement continu en raison de la diffusion thermique. Leur dynamique est essentielle pour réguler les réactions de cellules, comme les interactions intermoléculaires permettent la formation de complexes qui varient en taille de monomères d’oligomères et influencent la stabilité des complexes de signalisation. Élucider les mécanismes qui contrôlent la dynamique des protéines est donc un nouveau défi en biologie cellulaire, nécessaire pour comprendre les voies de transduction de signal et d’identifier les fonctions des cellules imprévus.

Certaines méthodes optiques ont été développées pour étudier ces interactions dans la vie des cellules1. Parmi ceux-ci, microscopie à fluorescence (FRBR) réflexion totale interne, mis au point dans les années 1980, permet l’étude des interactions moléculaires à ou très près de la membrane de la cellule2. Afin d’étudier les paramètres dynamiques des trajectoires de protéine de membrane FRBR données dans les cellules vivantes, il faut une seule particule suivi méthode (SPT). Bien que plusieurs algorithmes sont disponibles pour cela, nous utilisons actuellement celles publiées par Jaqaman et al.3 qui abordent l’hétérogénéité de mouvement de particules dans un champ de particules denses en liant les particules entre images consécutives pour relier la piste qui en résulte segments en trajectoires complets (disparition temporaire de particules). Le logiciel capture la particule qui résulte de l’agrégation et la dissociation des événements3de fractionnement et fusion. Parmi les données de sortie de ce logiciel est détection des particules le long de la trajectoire toute en définissant leurs positions X et Y dans chaque image.

Une fois que les particules sont détectés, nous appliquons différents algorithmes pour déterminer le décalage court diffusion coefficient (D1-4)4,5. En appliquant l’analyse du spectre de mise à l’échelle de Moment (MSS)6,7,8 , ou en ajustant la valeur « alpha » par un ajustement de la déplacement quadratique moyenne (TMS) à la courbe9, nous avons également classer les particules selon le type de trajectoire.

Analyse d’intensité spot en images de fluorescence est un objectif commun pour les scientifiques dans le domaine10,11. L’algorithme couramment utilisé est la soi-disant numéro et la luminosité. Cette méthode néanmoins ne permet pas bonne intensité d’image par image détection de particules dans la fraction mobile. Nous avons, par conséquent, généré un nouvel algorithme d’évaluer ces particules intensités image par image et de déterminer leur état d’agrégation. Une fois que les coordonnées de chaque particule sont détectées à l’aide de logiciel U-Track23, nous définissons son intensité dans chaque image sur la trajectoire complète, compte tenu également de l’arrière-plan de la cellule dans chaque image. Ce logiciel offre différentes possibilités afin de déterminer l’intensité du spot et l’arrière-plan de la cellule et, à l’aide de protéines monomériques et dimériques connues comme références, calcule le nombre approximatif des protéines dans la particule détectés (taille de cluster).

Dans cet article, nous décrivons un guide attentif pour effectuer ces trois étapes : 1) détecter et suivre des particules seul le long d’une vidéo de microscopie de fluorescence à l’aide de rail-U ; 2) analysant le coefficient de diffusion instantanée (D1-4) de ces particules et le type de mouvement (clos, libre ou dirigée) des particules avec longues trajectoires par MSS ; 3) mesure de l’intensité de tache le long de la vidéo corrigée par la fluorescence de fond estimée pour chaque tache. Cela permet l’estimation de taille de cluster et l’identification des étapes Photoblanchiment.

L’utilisation du présent protocole ne nécessite pas de compétences spécialisées et peut être effectuée dans n’importe quel laboratoire de culture cellulaire, flow cytometry et microscopie des installations. Le protocole utilise ImageJ ou Fidji (une distribution de ImageJ12), U-piste3et des routines de hoc fait ad (http://i2pc.es/coss/Programs/protocolScripts.zip). U-track et ad hoc routines écrasé de Matlab qui peut être installé dans n’importe quel ordinateur compatible.

Protocole

1. préparation des échantillons biologiques

  1. La croissance de cellules Jurkat dans RPMI 1640 additionné de 10 % FCS, NaPyr et L-glutamine (RPMI complet). Cellules Electroporate Jurkat (20 x 106 cellules/400 µL de milieu RPMI 1640 avec 10 % FCS) avec un vecteur de récepteurs monomères chemokine GFP-étiqueté (CXCR4-AcGFP, 20 μg) afin de permettre sa détection à l’aide de la microscopie de fluorescence.
    Remarque : Il est possible d’utiliser d’autres protéines fluorescentes monomères tels que mCherry, mScarlet, etc..
  2. 24h après la transfection d’analyser les cellules dans un cytomètre en flux de déterminer la viabilité cellulaire ainsi qu’expression CXCR4-AcGFP.
  3. Sélectionnez les cellules exprimant des niveaux faibles de CXCR4-AcGFP par un tri de cellules des cellules positivesfaible de GFP (Figure 1), comme la faible expression du récepteur transfectée est requis dans les expériences de TIRFM afin d’assurer le suivi de la particule pour le suivi individuel 9de trajectoires.
  4. Quantifier le nombre de récepteurs à la surface des cellules.
    Remarque : Comme un exemple13, ~ 8 500-22 000 marqué AcGFP récepteurs/cellule, correspondent à2~ 2-4.5 particules/μm.
  5. Remettre en suspension les cellules triées dans RPMI complet et incuber pendant au moins 2 h à 37 ° C, 5 % de CO2. Centrifuger les cellules (300 x g, 5 min) et eux resuspendu dans un tampon FRBR (HBSS, 25 mM HEPES, 2 % FCS, pH 7,3).
    1. Plaque sur la vaisselle de microtitration à fond de verre de 35 mm (2-3 x 105 cellules/plat) revêtue de la fibronectine (20 μg/mL, 1 h, 37 ° C) dans la présence ou l’absence du ligand approprié (c.-à-d. CXCL12, 100 nM, 1 h, 37 ° C). Incuber les cellules (20 min à 37 ° C, 5 % de CO2) avant l’acquisition d’images.
  6. Réaliser des expériences à l’aide d’un microscope TIRF, équipé d’un appareil EM-CCD, un 100 x objectif immersion dans l’huile (HCX PL APO 100 x / 1.46 NA) et un laser diode à 488 nm. Le microscope permet le contrôle de température et d’incubation en CO2. Localiser et concentrer les cellules avec les boutons de mise au point grossière et fine, en utilisant le champ lumineux afin de minimiser les effets de Photoblanchiment. Pour le réglage de mise au point fine en mode FRBR, utiliser une intensité laser faible, insuffisante pour la détection de la particule ou d’induire des effets de Photoblanchiment (puissance de laser de 5 %, 28 μW).
  7. Acquérir des films (séquences d’images) d’environ 50 s réduisant au minimum l’intervalle de temps entre les images. Pénétration du champ évanescent devrait être de 70-90 nm de profondeur. Enregistrer les films acquis pour chaque condition expérimentale comme « .lif » (video.lif).
    Remarque : Films dans l’exemple décrit ont été acquises à 49 % à la puissance de laser (2 mW) avec un temps de pose de 90 ms et un intervalle de temps de la SP 98, pour 49 s (500 images). Pénétration de l’onde évanescente sélectionné était de 90 nm.

2. sélection d’Images et création de masques

  1. Pour chaque condition expérimentale (video.lif), créez un nouveau dossier (VideoName) qui doit contenir des dossiers différents pour chaque série. Chaque dossier contient un dossier « videoSeq » pour les images vidéo et un dossier de « résultats » pour les résultats de l’analyse. Assurez-vous que la structure de fichier en ce moment est la suivante :
    VideoName/video.lif
    VideoName/Series1/videoSeq
    VideoName/Series1/résultats
    Remarque : Du microscope .lif différents fichiers sont obtenus avec plusieurs vidéos pour chaque condition de traitement (FN, FN + SDF). « video.lif » correspond au fichier vidéo input.lif avec toutes les acquisitions de films FRBR (série) réalisé au microscope. «videoSeq» dossier contiendra les 500 cadres du film que nous analysons. Le dossier de «résultats» contient tous les fichiers résultant de l’analyse effectuée. Nomenclature exacte et la localisation des différents dossiers sont essentiels pour le bon fonctionnement des algorithmes. Les noms en caractères gras dans la liste ci-dessus sont fixes (c.-à-d., ils ont d’être appelé de cette façon parce que ce sont les noms recherchés par les scripts). Pas en caractères gras les noms peuvent changer afin de refléter l’expérience réalisée.
  2. Ouvrir la vidéo TIRFM (fichier .lif) avec les Fidji ou ImageJ par glisser-déposer le fichier sur la barre de menus de Fidji et cliquez sur OK pour importer le fichier FRV à l’aide de BioFormats (supplémentaire Figure 1).
  3. Sélectionnez la série de traiter et cliquez sur OK (Supplemental Figure 2 a). Pour créer un masque pour l’analyse de cette vidéo, importez également une image multicanal avec les chromophores différents (dans l’exemple, série 1 est l’image multicanal et série 2 la vidéo correspondante). La vidéo (et l’image multicanal) doivent s’ouvrir comme une pile de ImageJ. Dans l’exemple (Supplemental Figure 2 b), l’image se trouve sur la gauche et la vidéo se trouve sur la droite.
    Remarque : Si la création d’un masque pour la vidéo n’est pas nécessaire, passez à étape 2.5.
  4. Créer un masque. Créer une image unique avec les canaux utiles pour la conception du masque. Dans ce cas, les canaux intéressants sont le rouge, vert et gris.
    1. Diviser les canaux de l’image multicanal (complémentaire Figure 3 a) : sélectionnez l’Image dans la barre de menu et cliquez sur couleur | Fractionner des chaînes. Les différents canaux seront affichera comme images distinctes (complémentaire Figure 3 b).
    2. Fusionner à nouveau les trois chaînes en une seule image (Supplemental Figure 4 a) : sélectionnez l’Image dans la barre de menu et sélectionnez couleur | Fusionner les canaux. Sélectionner les canaux appropriés, puis appuyez sur OK (Supplemental Figure 4 b). Une nouvelle image non-stack sera généré (Supplemental Figure 4).
    3. Synchroniser les deux fenêtres à l’aide de l’outil de Synchronisation Windows (Supplemental Figure 5 a) : sélectionnez analyser dans la barre de menu | Outils | Synchronisation Windows. Une nouvelle fenêtre avec les possibilités de synchroniser image s’affichera (Supplemental Figure 5 b).
    4. Avec les deux fenêtres synchronisés (seule la vidéo s’il n’y a aucune image multicanal associé), la même région dans les deux fenêtres peut être recadrée. Dessinez la zone concernée avec l’outil de sélection rectangulaire du menu flottant ImageJ. Sélectionnez l’Image dans la barre de menu et sélectionnez Crop (Supplemental Figure 6 a). Les deux images recadrées montrera individuellement (Supplemental Figure 6 b).
    5. Unsynchronize les deux fenêtres (Supplemental Figure 6 b) en appuyant sur le bouton Tout Unsynchronize dans le gestionnaire de Synchronisation Windows .
  5. Si un masque n’a pas été créé comme dans l’étape 2.4, dessinez la zone concernée avec l’outil de sélection rectangulaire du menu flottant ImageJ.
  6. Enregistrer la vidéo comme une séquence d’images dans le répertoire videoSeq sous le répertoire vidéo correspondant (Supplemental Figure 7 a) : sélectionnez le fichier dans la barre de menu et cliquez sur Enregistrer sous | Séquence d’image... renommer les étiquettes pour la séquence vidéo comme video0000.tif, video0001.tif,..., video0499.tif (Supplemental Figure 7 b) : dans la zone nom , renommez en vidéo , cliquez sur OK. La séquence doit être seule dans son répertoire pour être utilisé avec succès par U-track.
    Remarque : Si ce n’est pas le cas, concevoir un masque pour la vidéo, allez à l’étape 2.8.
  7. Concevoir un masque. Sélectionnez l’image multicanal et ouvrez l’éditeur de Segmentation plugin (Supplemental Figure 8 a) : sélectionnez Plugins dans la barre de menu et sélectionnez Segmentation | Éditeur de segmentation. Ajouter et renommer les étiquettes de la segmentation selon les besoins par un clic droit sur l’étiquette de l’éditeur de Segmentation (Supplemental Figure 8 b, C).
    1. Choisissez l’outil de sélection approprié dans le menu flottant ImageJ (utiliser ici, à main levée), sélectionnez une étiquette (vert) et concevoir tout d’abord le masque ultrapériphérique (Supplemental Figure 9 a). Une fois conçu, sur le bouton + en option de sélection de fenêtre Composite et le masque sélectionné apparaît sur l’afficheur (Supplemental Figure 9 a). Répétez cette étape avec des étiquettes suivant (intérieur, en rouge) (Supplemental Figure 9 b).
      Remarque : Après la conception du masque pour les labels verts et de l’intérieur, le masque extérieur occupera le reste de l’image.
    2. Masques sont codées dans l’image comme régions 0, 1, 2... Selon l’ordre des étiquettes dans la fenêtre d’étiquettes de RVB. Lorsque les tous les masques pour les différents labels sont conçus, enregistrez le masque avec le même nom que la vidéo, avec le nom mask.tif (Supplemental Figure 9) : sélectionnez le fichier dans la barre de menu et sélectionnez Enregistrer sous | TIFF....
      Remarque : Les masques sélectionnés seront utilisées dans le calcul des coefficients de diffusion et de classification des trajectoires (voir l’étape 4.2).
  8. Vérifier que la structure de fichier en ce moment est la suivante :
    VideoName/video.lif
    VideoName/Series1/mask.tif
    VideoName/Series1/ videoSeq / video0000.tif
    VideoName/Series1/ videoSeq / video0001.tif
    ...
    VideoName/Series1/ videoSeq / video0499.tif
    VideoName/Series1/résultats
    Remarque : Le mask.tif est une image avec le masque comme conçu en étapes 2,4 et 2,7. Le video*.tiff est la vidéo enregistré à l’étape 2.6. Comme indiqué ci-dessus, les noms en caractères gras dans la liste ci-dessus sont fixés, par exemple, ils doivent être appelé de cette façon parce que ce sont les noms recherchés par les scripts. Pas en caractères gras les noms peuvent changer afin de refléter l’expérience réalisée.

3. suivi des particules

  1. Le suivi de toutes les particules vus dans les vidéos sélectionnées à l’aide d’U-piste.
  2. Ouvrir Matlab et ajouter répertoire U voie le chemin d’accès à l’aide de Set Path | Ajouter avec option de sous-dossiers dans le menu. Enregistrez le chemin afin qu’à l’avenir les exécutions de Matlab U-rail est dans le chemin d’accès. Ce paramètre de chemin d’accès doit être fait qu’une seule fois.
  3. Changer le répertoire de travail vers le répertoire contenant la série pour être analysés. U-voie d’appel en tapant dans la console (Supplemental Figure 10) movieSelectorGUI et appuyez sur entrée. La fenêtre de sélection de films sera ouvert (Supplemental Figure 11 a).
  4. Appuyez sur le bouton de film nouveau et la fenêtre d’édition de film apparaîtra (Supplemental Figure 11 b).
  5. Appuyez sur ajouter un canal pour choisir le répertoire avec la vidéo (VideoName/Series1/vidéo) et renseignez les paramètres d’informations de film. Définir le répertoire de sortie pour les résultats de U-piste aux résultats (videoName/Series1/résultats).
    Remarque : Les paramètres d’informations de film peuvent être obtenues au microscope et les conditions d’acquisition.
  6. Appuyer sur les paramètres avancés de canal et renseignez les paramètres liés à l’acquisition. Regardez les valeurs des paramètres dans l’exemple (Supplemental Figure 11).
  7. Appuyez sur enregistrer dans la fenêtre paramètres de canal avancées et enregistrer sur la fenêtre d’édition de film . Le programme vous demandera confirmation d’écrire le fichier appelé movieData.mat dans le répertoire de résultats . Confirmer.
  8. Après la création du film, appuyez sur continuer dans la fenêtre de sélection du film. U-piste posera sur le type d’objet à analyser. Le choix de Single-particules (Supplemental Figure 12). La fenêtre du panneau contrôle apparaîtra (Supplemental Figure 13 a).
    1. Sélectionnez la première étape Etape 1 : détection et appuyez sur le paramètre. La fenêtre de Montage de mélange-modèle gaussien paramètre s’affiche (Supplemental Figure 13 b). Dans l’exemple, « Valeur Alpha pour la comparaison avec le contexte local » est égale à 0.001 et « Rolling-fenêtre temps moyenne » à 3 (Supplemental Figure 13 b).
    2. Appuyez sur appliquer dans la fenêtre Paramètres de mélange-modèle gaussien mise en place et exécuter dans le panneau de configuration. Avec la configuration supplémentaire Figure13, seulement l’étape de détection s’exécute. Cette étape prend quelques minutes (2-5). Vérifier les résultats en appuyant sur le bouton résultat de l’étape 1 (détection, supplémentaire Figure 14).
      Remarque : Comme indiqué ci-dessus, le film montre les cercles rouges sur les particules détectées. Si aucun cercle rouge ne s’affiche, puis cette étape n’a pas été travaillé correctement.
  9. Effectuer l’identification des titres, c'est-à-dire, fusionnant les particules détectées dans l’étape précédente en pistes qui s’étendent sur plusieurs images. C’est la étape 2 : suivi des de U-track dont les paramètres doivent être définis comme illustré en Figure supplémentaire 15 a-C. L’étape 2 coût fonction paramètres image à image qui relie et écart de fermeture, fractionnement et fusion dans l’exemple sont les complémentaire Figure 15 b et C, respectivement.
  10. Après avoir configuré les paramètres pour l’étape 2, appuyez sur Run dans le panneau de configuration et seule étape 2 s’exécute (Supplemental Figure 16).
  11. Effectuer l’analyse de morceaux, étape 3. Définissez les paramètres comme indiqué dans le supplément Figure 17 (panneau de droite). Ensuite, appuyez sur appliquer dans le panneau d’analyse de la mise en mouvement et courir dans le Control Panel-U-Track. Cette étape prend quelques secondes.
  12. Avec le bouton du résultat de l’étape 3, vérifiez que le processus a identifié correctement toutes les pistes. Pour ce faire, cliquez sur voir la numéro de la piste de la fenêtre options de la vidéo et vérifier l’image par image, que chaque piste a été correctement identifié (Supplemental Figure 18). Manuellement annoter ces particules qui ne sont pas des particules vrais.
    Remarque : Si cette sélection manuelle n’est pas faite, une plus faible sélection automatique peut être effectuée plus tard lors du calcul du coefficient de diffusion (voir étape 4).

4. calcul des Coefficients de Diffusion et Classification des trajectoires

  1. N’oubliez pas que tous les scripts sont appelées à partir du répertoire de la vidéo en cours d’analyse (dans l’exemple, VideoName/Serie1).
  2. Lire toutes les trajectoires pour calculer les coefficients de diffusion en publiant dans Matlab console la commande : trajectories=readTrajectories(0.1), où 0,1 est le temps en secondes entre deux images consécutives (intervalle de temps indiqué dans le panneau de film Informations, supplémentaire Figure 11 b).
  3. Exclure les trajectoires correspondant aux taches/trajectoires incorrectement identifiés. Donner une liste des sites à exclure. Par exemple, pour exclure les points 4, 5 et 28, tapez : trajectoires = readTrajectories (0,1, [4, 5, 28]).
  4. Calculer les coefficients de diffusion instantanée pour chacun des titres de cette cellule. Dans ce cas, calculer le coefficient de diffusion pour un décalage dans le temps = 4, appelé D1-4. Pour ce faire, exécutez dans la console Matlab la commande : D = calculateDiffusion (trajectoires, 113.88e-3, 0.0015, « alpha ») où les trajectoires sont les trajectoires obtenues à l’étape 3, 113.88e-3 est la taille en pixels des images acquises en microns, 0,0015 est un limite supérieure pour les coefficients de diffusion des particules immobiles, mesurées en µm2/s et « alpha » est le modèle ajusté tel qu’expliqué ci-dessous.
    Remarque : Lorsque vous utilisez un appareil photo plus rapide et la nécessité plus d’images pour calculer le paramètre diffusion porter, par exemple à 20, de D = calculateDiffusion (trajectoires, 113.88e-3, 0.0015, 'alpha', '', 20). Avant le 20, dans l’exemple ci-dessus, le paramètre de chaîne '', est le suffixe ajouté aux fichiers de sortie. Ce suffixe peut servir à différencier les différentes analyses.
  5. S’adapter à la MSD avec une fonction différente en appelant la fonction calculateDiffusion avec un mode de montage différentes (« limité », « libre » ou « dirigé »). Dans cet exemple, « limite » : D = calculateDiffusion (trajectoires, 113.88e-3, 0.0015, 'limité').
  6. Obtenez les résultats de raccord pour le modèle réalisé, conformément à la Supplemental Figure 20.
  7. Décomposer les trajectoires en trajectoires courtes et longues. Utilisez la commande : [shortTrajectories, longTrajectories]=separateTrajectoriesByLength(trajectories,50) où 50 est la longueur minimale dans les cadres d’une trajectoire à considérer longtemps (dans l’exemple illustré).
  8. Étudier les trajectoires courtes utilisant la même procédure de montage décrite dans étape 4.3 : D = calculateDiffusion (shortTrajectories, 113.88e-3, 0.0015, 'dirigé', 'Court'). Analyser les trajectoires courtes et anormaux avec la commande : D = calculateDiffusion (shortTrajectories, 113.88e-3, 0.0015, « alpha », « Courte »).
  9. Analyser les longues trajectoires pour classifier le type de requête par le biais de leur spectre de mise à l’échelle de Moment (MSS)7. La commande : trajectoriesClassification = classifyLongTrajectories (longTrajectories, 113.88e-3,0.0015, 'Long') présente l’analyse en écran et génère un fichier appelé trajectoryClassification < suffixe > .txt dans le répertoire results\TrackingPackage\tracks.

5. calcul de Ssize Cluster par le biais de la densité de particules

Remarque : N’oubliez pas que tous les scripts sont appelées à partir du répertoire de la vidéo en cours d’analyse (dans l’exemple montré, VideoName/Serie1).

  1. Analyser l’intensité de chaque particule le long de leur trajectoire. Pour ce faire, appelez le script en tapant dans la console de Matlab : analyzeSpotIntensities qui prend comme entrée les trajectoires calculées par U-track dans la première section. Dans sa forme la plus simple, il suffit d’appeler le script sans aucun argument de l’annuaire de la vidéo en cours d’analyse (dans l’exemple montré, VideoName/Series1) analyzeSpotIntensities(). Configurer le comportement de cet base de différentes manières en fournissant des arguments au script comme dans : analyzeSpotIntensities ('Arg1´, Value1, ' Arg2´, valeur2,...). Des arguments valides avec leurs valeurs de variable correspondantes (« ArgN´, valeurn) sont répertoriés.
    1. (« spotRadius´, 1)
      Analyser l’intensité de fluorescence à l’aide de la spotRadius de 1 pixel (par défaut) qui correspond à une parcelle de taille 3 x 3, centrée à l’endroit ((2*spotRadius+1)x(2*spotRadius+1)).
      Remarque : Pour un timbre de 5 x 5, centrée à l’endroit, choisir un spotRadius de 2, etc..
    2. (« onlyInitialTrajectories´, 1)
      Si cet argument est donné (true, valeur de 1), analyser uniquement les trajectoires qui commencent dans la première image de la vidéo. Ceci est utile pour analyser les images de contrôle (par défaut 0, false).
    3. ('trackTrajectory´, 0)
      Si cet argument a la valeur 0 (false), puis continuez la coordonnée de la place de sa première image pour tous les cadres (Ceci est utile pour les taches immobiles). Si l’argument est défini sur 1 (par défaut 1, true), le spot est suivi le long de la vidéo qui suit les coordonnées calculées par U-track.
    4. (« excludeTrajectories´, [4,5,28])
      Inclure le numéro de la trajectoire de ces trajectoires exclu à l’étape 4.3 (dans l’exemple 4, 5, 28).
    5. (' ´ extendTrajectory, 1)
      Si cet argument a la valeur 1 (true), puis analyser l’intensité dans la mise à jour à la fin de la vidéo (même si la trajectoire s’arrête plus tôt). La coordonnée du spot est la dernière coordonnée dans la trajectoire (si trackTrajectory a la valeur true) ou la première coordonnée dans la trajectoire (si trackTrajectory a la valeur false). Cet argument a la valeur false (0) par défaut.
    6. (« subtractBackground´, 1)
      Si ce paramètre est défini, puis corriger la raw fluorescence mesurée à chaque endroit par l’estimation de la fluorescence de fond pour cet endroit (voir ci-dessous). Cet argument a la valeur true (1), par défaut.
    7. (« meanLength´, numéro d’image)
      Si ce paramètre est défini, puis la place de la densité moyenne est mesurée à la longueur indiquée. La valeur « meanLength », 20 pour mesurer l’intensité moyenne de spot dans les 20 premiers cadres. Si l’argument n’est pas défini, l’intensité du spot est calculée à la trajectoire entière (par défaut, toute la longueur).
    8. (« showIntensityProfiles´, 1)
      Définissez ce paramètre en tant que 1 (par défaut, 0, false), pour tracer le profil d’intensité le long les trames différentes ainsi que leurs origines.
      Remarque : Ces emplacements sont très utiles pour identifier le Photoblanchiment comme indiqué dans le supplément Figure 21. Pour chaque chemin d’accès, la routine analyse automatiquement s’il est possible qu’il y a eu le Photoblanchiment. Ceci est fait en comparant les valeurs d’intensité avec t de l’élève dans les premiers et le derniers N cadres le long du chemin. Par défaut, N est de 10, mais cette valeur peut être modifiée par le biais de l’argument ' Nbleach´.
    9. (« backgroundMethod´, valeur)
      Définissez ce paramètre pour déterminer l’arrière-plan de chaque spot. Cela peut être fait de plusieurs façons, et que l'on à utiliser peut être sélectionnée changeant la « valeur » :
      1. ('backgroundMethod´, 0)
        Utilisez cette valeur pour identifier manuellement l’arrière-plan pour l’intégralité de la vidéo. Permettent de sélectionner les 8 points dans la première image de la vidéo. Un patch autour de ces points est analysé le long de la vidéo en entier, et le quantile de 95 % de tous ces intensités est choisie comme l’intensité de l’arrière-plan pour toutes les taches.
      2. (« backgroundMethod´, 1)
        Utilisez cette valeur pour identifier manuellement le fond de chaque image. Choisissez 8 points pour chaque endroit et chaque image. Il s’agit d’une tâche chronophage, mais il donne beaucoup de contrôle à l’utilisateur. Le quantile de 95 % de l’intensité dans ces patchs est choisie comme l’intensité de l’arrière-plan pour cette place dans ce cadre.
      3. (« backgroundMethod´, 2)
        Utiliser cette valeur pour calculer le fond de chaque spot estimée de 8 points situés dans un cercle autour de la tache avec un rayon contrôlé par l’argument ' backgroundRadius´ (par défaut, 4 * spotRadius).
      4. (« backgroundMethod´, 3)
        Utilisez cette valeur pour calculer le fond de chaque image par tout d’abord localiser la cellule dans la vidéo et l’analyse ensuite les intensités de la cellule dans chaque trame (Supplemental Figure 22).
        Remarque : L’arrière-plan est choisie comme la valeur de gris à un quantile donné de cette répartition (par défaut, 0,5 (= 50 %), bien que ce paramètre peut être contrôlé par le biais de l’argument ' backgroundPercentile´, cette valeur peut être plus élevé, par exemple, 0,9 (= 90 %) Si désireux de la plus grande partie de la cellule à considérer comme toile de fond. Pour aider à l’identification de la cellule, indiquer quel est la valeur maximale de fond attendue le long des cadres à l’aide de l’argument ' maxBackground´ (par exemple, dans toutes les vidéos analysées, la valeur background normalement jamais dépasse 6000)13. Par défaut, cette option est définie sur 0, ce qui signifie que cette aide n’est pas utilisée par défaut. Visitez la détection de cellules et de la zone sélectionnée pour l’estimation de l’arrière-plan en définissant l’argument ' showImages´ à 1 (arrêt de l’exécution à tout moment en appuyant sur CTRL-C).
  2. Recueillir les informations de diffusion et de l’intensité pour toutes les trajectoires calculées dans les étapes 4 et 5.1, respectivement, en utilisant gatherDiffusion.AndIntensity (). Recueillir uniquement les informations de diffusion et de l’intensité des trajectoires courtes. Pour ce faire, utiliser les suffixes utilisés dans étape 4.7, tapez : gatherDiffusionAndIntensity ('Short´) où ' Short´ est le suffixe utilisé dans l’étape 4.7.
  3. Recueillir le Moment mise à l’échelle du spectre et l’intensité informationby en tapant : gatherTrajectoryClassificationAndIntensity('Long') où « Long » est le suffixe utilisé dans l’étape 4.7. Un résumé de tous les fichiers générés à l’aide de ce protocole est illustré à la Figure 2.

Résultats

L’utilisation de ce protocole permet le suivi automatique des particules détectées dans les films de microscopie par fluorescence et de l’analyse de leurs caractéristiques dynamiques. Au début, les cellules sont transfectées avec la protéine fluorescent couplé à suivre. Le niveau approprié des récepteurs présente sur la surface de la cellule qui permet la que SPT est obtenue par cellule tri (Figure 1). Les cellules sélectionnées sont analysé...

Discussion

La méthode décrite est facile à réaliser, même sans avoir aucune expérience antérieure de travail avec Matlab. Toutefois, les routines Matlab exigent extrêmement précision avec la nomenclature des différentes commandes et la localisation des différents dossiers utilisés par le programme. Dans le suivi routine d’analyse (étape 3), plusieurs paramètres peuvent être modifiés. La fenêtre « Réglage mélange gaussien modèle convenable » (étape 3,8) contrôle comment U-track permet de détecter des par...

Déclarations de divulgation

Les auteurs n’ont rien à divulguer.

Remerciements

Nous sommes reconnaissants à Carlo Manzo et Maria García Parajo pour leur aide et le code source de l’analyse de coefficient de diffusion. Ce travail a été soutenu en partie par des subventions du ministère espagnol de la Science, l’Innovation et des universités (SAF 2017-82940-R) et le programme RETICS de l’Instituto de salud Carlos III (RD12/0009/009 et RD16/0012/0006 ; RIER). LMM et JV sont pris en charge par le programme COMFUTURO de la Fundación General CSIC.

matériels

NameCompanyCatalog NumberComments
Human Jurkat cellsATCCCRL-10915Human T cell line. Any other cell type can be analyzed with this software
pAcGFPm-N1 (PT3719-5)DNA3GFPClontech632469Different fluorescent proteins can be followed and analyzed with this routine
Gene Pulse X Cell electroporator BioRad We use 280 V, 975 mF, for Jurkat cells.  Use the transfection method best working in your hands. 
Cytomics FC 500 flow cytometer Beckman Coulter
MoFlo Astrios Cell Sorter Beckman CoulterDepending on the level of transfection, cell sorting may not be required.  You can also employ cells with stable expression of adequate levels of the receptor of interest.
Dako QifikitDakoCytomationK0078Used for quantification the number of receptors in the cell surface.
Glass bottom microwell dishesMatTek corporationP35G-1.5-10-C
Human Fibronectin from plasmaSigma-AldrichF0895
Recombinant human CXCL12PeproTech300928A
Inverted Leica AM TIRFLeica
EM-CCD cameraAndor DU 885-CSO-#10-VP
MATLABThe MathWorks, Natick, MA
U-Track2 softwareDanuser Laboratory
ImageJNIHhttps://imagej.nih.gov/ij/
FiJiFiJIhttps://imagej.net/Fiji)
u-Track2 softwareMatlab tool.  For installing, download .zip file from the web page (http://lccb.hms.harvard.edu/software.html) and uncompress the file in a directory of your choice
GraphPad PrismGraphPad software

Références

  1. Yu, J. Single-molecule studies in live cells. Annual Review of Pysical Chemistry. 67 (565-585), (2016).
  2. Mattheyses, A. L., Simon, S. M., Rappoport, J. Z. Imaging with total internal reflection fluorescence microscopy for the cell biologist. Journal of Cell Science. 123 (Pt 21), 3621-3628 (2010).
  3. Jaqaman, K., et al. Robust single-particle tracking in live-cell time-lapse sequences. Nature Methods. 5 (8), 695-702 (2008).
  4. Bakker, G. J., et al. Lateral mobility of individual integrin nanoclusters orchestrates the onset for leukocyte adhesion. Proceedings of the National Academy of Sciences U S A. 109 (13), 4869-4874 (2012).
  5. Kusumi, A., Sako, Y., Yamamoto, M. Confined lateral diffusion of membrane receptors as studied by single particle tracking (nanovid microscopy). Effects of calcium-induced differentiation in cultured epithelial cells. Biophysical Journal. 65 (5), 2021-2040 (1993).
  6. Ferrari, R. M., Manfroi, A. J., Young, W. R. Strongly and weakly self-similar diffusion. Physica D. 154, 111-137 (2001).
  7. Sbalzarini, I. F., Koumoutsakos, P. Feature point tracking and trajectory analysis for video imaging in cell biology. Journal of Structural Biology. 151 (2), 182-195 (2005).
  8. Ewers, H., et al. Single-particle tracking of murine polyoma virus-like particles on live cells and artificial membranes. Proceedings of the National Academy of Sciences U S A. 102 (42), 15110-15115 (2005).
  9. Manzo, C., Garcia-Parajo, M. F. A review of progress in single particle tracking: from methods to biophysical insights. Report on Progress in Physics. 78 (12), 124601 (2015).
  10. Calebiro, D., et al. Single-molecule analysis of fluorescently labeled G-protein-coupled receptors reveals complexes with distinct dynamics and organization. Proceedings of the National Academy of Sciences U S A. 110 (2), 743-748 (2013).
  11. Digman, M. A., Dalal, R., Horwitz, A. F., Gratton, E. Mapping the number of molecules and brightness in the laser scanning microscope. Biophysical Journal. 94 (6), 2320-2332 (2008).
  12. Schindelin, J., et al. Fiji: an open-source platform for biological-image analysis. Nature Methods. 9 (7), 676-682 (2012).
  13. Martinez-Munoz, L., et al. Separating Actin-Dependent Chemokine Receptor Nanoclustering from Dimerization Indicates a Role for Clustering in CXCR4 Signaling and Function. Molecular Cell. 70 (1), 106-119 (2018).
  14. Destainville, N., Salome, L. Quantification and correction of systematic errors due to detector time-averaging in single-molecule tracking experiments. Biophysical Journal. 90 (2), L17-L19 (2006).

Réimpressions et Autorisations

Demande d’autorisation pour utiliser le texte ou les figures de cet article JoVE

Demande d’autorisation

Explorer plus d’articles

Immunologie et Infectionnum ro 146SPTr cepteurs de chemokinetrackinggrappesdiffusionlogiciel d analyse

This article has been published

Video Coming Soon

JoVE Logo

Confidentialité

Conditions d'utilisation

Politiques

Recherche

Enseignement

À PROPOS DE JoVE

Copyright © 2025 MyJoVE Corporation. Tous droits réservés.