JoVE Logo

Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

Aqui, apresentamos um protocolo para acompanhamento de análise de imagem que permite a avaliação quantitativa dos coeficientes de difusão, tipos de tamanhos de cluster e o movimento de partículas único detectados por microscopia de fluorescência de partícula única.

Resumo

Acompanhamento em uma sequência de vídeo e a análise posterior de suas trajetórias de partículas hoje em dia é uma operação comum em muitos estudos biológicos. Usando a análise dos receptores de membrana celular de clusters como modelo, apresentamos um protocolo detalhado para esta tarefa de análise de imagem usando Fiji (ImageJ) e rotinas de Matlab para: 1), definir as regiões de interesse e projetar máscaras adaptadas a estas regiões; 2) acompanhar as partículas em vídeos de microscopia de fluorescência; 3) analise as características de difusão e intensidade de faixas selecionadas. A análise quantitativa dos coeficientes de difusão, tipos de movimento e o tamanho do cluster obtidas por microscopia de fluorescência e processamento de imagem fornece uma ferramenta valiosa para determinar objetivamente a dinâmica da partícula e as consequências de modificar condições ambientais. Neste artigo apresentamos protocolos detalhados para a análise desses recursos. O método descrito aqui não só permite a detecção de rastreamento único-molécula, mas também automatiza a estimativa dos parâmetros de difusão lateral na membrana celular, classifica o tipo de trajetória e permite a análise completa, assim, superar a dificuldades em quantificar o tamanho de ponto ao longo de sua trajetória inteira na membrana celular.

Introdução

Proteínas de membrana incorporadas a bicamada lipídica estão em contínuo movimento devido à difusão térmica. Sua dinâmica é essencial para regular as respostas celulares, como interações intermoleculares permitem a formação de complexos que variam em tamanho de monômeros de oligômeros e influenciam a estabilidade de complexos de sinalização. Elucidar os mecanismos para controlar a dinâmica da proteína é, portanto, um novo desafio em biologia celular, necessária para compreender as vias de transdução de sinal e para identificar as funções da célula imprevistos.

Foram desenvolvidos alguns métodos ópticos para estudar essas interações na vida, as células1. Entre estes, microscopia de fluorescência (TIRF) de reflexão interna total, desenvolvida na década de 1980, permite o estudo de interações moleculares ou muito próximo da membrana celular2. Para estudar parâmetros dinâmicos de trajetórias de proteína de membrana obtidos de dados TIRF em células vivas, uma única partícula rastreamento método (SPT) é necessária. Embora vários algoritmos estão disponíveis para isto, atualmente usamos aqueles publicados por Jaqaman et al.3 que abordam a heterogeneidade de movimento das partículas em um campo de partículas densas, vinculando as partículas entre quadros consecutivos para se conectar a faixa resultante segmentos em trajetórias completas (desaparecimento temporário das partículas). O software capta a partícula mesclando e dividindo esse resultado de agregação e dissociação de eventos3. Um dos dados de saída deste software é a detecção das partículas ao longo da trajetória inteira definindo suas posições X e Y em cada quadro.

Uma vez que as partículas são detectadas, aplicamos diferentes algoritmos para determinar o curto lapso difusão coeficiente (D1-4)4,5. Aplicando-se o espectro de dimensionamento do momento (MSS)6,7,8 análise ou por encaixe o valor 'alpha' pelo ajuste de deslocamento o quadrado médio (MSD) para a curva9, podemos também classificar as partículas de acordo com o tipo de trajetória.

Análise de intensidade local em imagens de fluorescência é um objectivo comum para os cientistas no campo10,11. O algoritmo mais comum usado é o número de chamados e brilho. Este método, no entanto, não permitir a detecção de intensidade correta do frame-por-frame em partículas na fração móvel. Temos, assim, geramos um novo algoritmo para avaliar estas partículas intensidades quadro-a-quadro e determinar o seu estado de agregação. Uma vez que as coordenadas de cada partícula são detectadas usando U-Track2 software3, definimos a sua intensidade em cada quadro sobre a trajetória completa, tendo também em conta o plano de fundo de célula em cada quadro. Este software oferece diferentes possibilidades para determinar a intensidade do ponto e o plano de fundo da célula e, usando proteínas monoméricas e dimérica conhecidas como referências, calcula o número aproximado de proteínas na partícula detectada (tamanho do cluster).

Neste artigo, descrevemos um cuidado guia para executar estas três etapas: 1) detecção e rastreamento única partículas ao longo de um vídeo de microscopia de fluorescência usando U-faixa; 2) analisando o coeficiente de difusão instantânea (D1-4) de tais partículas e o tipo de movimento (confinado, livre ou dirigido) de partículas com longa trajetória por MSS; 3) medindo a intensidade local ao longo do vídeo corrigido por fluorescência fundo estimado para cada ponto. Isso permite que a estimativa de tamanho de cluster e identificação das etapas fotobranqueamento.

O uso do presente protocolo não requer habilidades especializadas e pode ser executado em qualquer laboratório com cultura celular, instalações de microscopia e citometria de fluxo. O protocolo usa ImageJ ou Fiji (uma distribuição do ImageJ12), U-faixa3e algumas rotinas de hoc feita anúncio (http://i2pc.es/coss/Programs/protocolScripts.zip). U-track e ad-hoc rotinas atropelar Matlab que pode ser instalado em qualquer computador compatível.

Protocolo

1. preparação de amostras biológicas

  1. Desenvolvem-se células Jurkat em RPMI 1640 suplementado com 10% de FCS, NaPyr e L-glutamina (RPMI completa). Células Electroporate Jurkat (20 x 106 células/400 µ l de RPMI 1640 com 10% de FCS) com um vetor de receptor do chemokine monomérica com rótulo GFP (CXCR4-AcGFP, 20 μg) para permitir que sua detecção usando microscopia de fluorescência.
    Nota: É possível usar outras proteínas monoméricas fluorescentes como mCherry, mScarlet, etc.
  2. 24 h após a transfeccao analisar as células em um citômetro de fluxo para determinar tanto a viabilidade celular e a expressão do CXCR4-AcGFP.
  3. Selecione células expressando baixos níveis de CXCR4-AcGFP, classificando o celular de células positivas GFP,baixo (Figura 1), como a baixa expressão do receptor transfectado é exigido em experimentos TIRFM a fim de assegurar o acompanhamento de partícula única para rastreamento individual trajetórias de9.
  4. Quantificar o número de receptores na superfície celular.
    Nota: Como um exemplo13, receptores de AcGFP-rotulado ~ 8.500-22.000/célula, correspondem a ~ 2-4,5 μm de2.
  5. Ressuspender as células classificadas em RPMI completa e incubar durante pelo menos 2 h a 37 ° C, 5% de CO2. Centrifugar as células (300 x g, 5 min) e resuspended-los em tampão TIRF (HBSS, 25mm HEPES, FCS de 2%, pH 7,3).
    1. Placa em pratos de microplacas com fundo de vidro de 35 mm (2-3 x 105 célula/prato) revestida com fibronectina (20 μg/mL, 1 h, 37 ° C) na presença ou ausência de ligante apropriado (ou seja, CXCL12, 100 nM, 1 h, 37 ° C). Incube as células (20 min a 37 ° C, 5% CO2) antes da aquisição de imagens.
  6. Realizar experimentos usando um microscópio TIRF, equipado com uma câmera EM CCD, uma 100 x objetivo de óleo-imersão (HCX PL APO 100 x / 1.46 nd) e um laser de díodo 488 nm. O microscópio permite controle de temperatura e incubação com CO2. Localizar e focar as células com os botões de foco grosso e fino, usando o campo claro para minimizar efeitos de fotobranqueamento. Para o ajuste de foco fino no modo TIRF use uma intensidade do laser de baixa, insuficiente para a deteção da único-partícula ou para induzir efeitos fotobranqueamento (poder do laser de 5%, 28 μW).
  7. Adquirir filmes (sequências de imagem) de aproximadamente 50 s minimizando o intervalo de tempo entre os quadros. Penetração do campo evanescente deve ser de 70-90 nm de profundidade. Salve os filmes adquiridos para cada condição experimental como ".lif" (video.lif).
    Nota: Filmes no exemplo descrito foram adquiridos em 49% a potência do laser (2 mW) com um tempo de exposição de 90 ms e um intervalo de tempo de 98 ms, por 49 s (500 frames). Penetração da onda evanescente selecionada foi de 90 nm.

2. seleção de imagens e criação de máscaras

  1. Para cada condição experimental (video.lif), crie uma nova pasta (VideoName) que deve conter pastas diferentes para cada série. Cada pasta contém uma pasta "videoSeq" para as imagens de vídeo e uma pasta de "resultados" para os resultados da análise. Certifique-se que a estrutura de arquivo neste momento é o seguinte:
    VideoName/video.lif
    Series1/VideoName/videoSeq
    VideoName/Series1/resultados
    Nota: O microscópio .lif diferentes arquivos são obtidos com vários vídeos para cada condição de tratamento (ou seja, FN, FN + SDF). "video.lif" corresponde o input.lif arquivo de vídeo com todas as aquisições de filmes TIRF (série) realizado no microscópio. "videoSeq" pasta conterá os 500 frames do filme que estamos analisando. A "resultados" pasta conterá todos os arquivos resultantes das análises efectuadas. Exata nomenclatura e localização das pastas diferentes são essenciais para o funcionamento correto dos algoritmos. Nomes em negrito na lista acima são fixos (ou seja, eles têm de ser chamado assim, porque estes são os nomes que procurou pelos scripts). Nomes não em negrito podem mudar para refletir a experiência realizada.
  2. Abra o vídeo TIRFM (arquivo .lif) com Fiji ou ImageJ arrastando e soltando o arquivo na barra de menu de Fiji e clique no Okey para importar o arquivo de lif usando BioFormats (complementar a Figura 1).
  3. Selecione a série de processar e clique em Okey (Supplemental Figura 2A). Para criar uma máscara para a análise deste vídeo, também importar uma imagem multicanal com os diferentes cromóforos (no exemplo, o série 1 é o imagem multicanal e série 2 o vídeo correspondente). O vídeo (e a imagem multicanal) devem abrir como uma pilha de ImageJ. No exemplo (Supplemental figura 2B), a imagem está à esquerda e o vídeo é à direita.
    Nota: Se não é necessária a criação de uma máscara para o vídeo, vá para a etapa 2.5.
  4. Crie uma máscara. Crie uma única imagem com os canais úteis para o desenho da máscara. Neste caso, os canais interessantes são as de vermelhas, verdes e cinza.
    1. Dividir os canais da imagem multicanal (complementar a figura 3A): selecione a imagem na barra de menu e clique em cor | Separação de canais. Os diferentes canais irão mostrar como imagens separadas (complementar a Figura 3B).
    2. Mesclar novamente os três canais em uma única imagem (Supplemental figura 4A): selecione a imagem na barra de menu e selecione cor | Mesclagem de canais. Selecione os canais apropriados e pressione Okey (Supplemental Figura 4B). Uma nova imagem empilhados não será gerado (Supplemental Figura 4).
    3. Sincronizar as duas janelas usando a ferramenta Sincronizar janelas (Supplemental figura 5A): selecione analisar na barra de menu de | Ferramentas | Sincronizar o Windows. Uma nova janela com as possibilidades de imagem sincronizar aparece (Supplemental figura 5B).
    4. Com as duas janelas sincronizadas (somente o vídeo se não há nenhuma imagem multicanal associada), a mesma região em ambas as janelas pode ser cortada. Desenhe a região de interesse com a ferramenta de seleção retangular de menu flutuante ImageJ. Selecione a imagem na barra de menu e selecione Crop (Supplemental figura 6A). As duas imagens cortadas mostrará individualmente (Supplemental figura 6B).
    5. Unsynchronize as duas janelas (Supplemental figura 6B) pressionando o botão Unsynchronize todos no Gerenciador de Sincronização Windows .
  5. Se não foi criada uma máscara como na etapa 2.4, desenhe a região de interesse com a ferramenta de seleção retangular de menu flutuante ImageJ.
  6. Salvar o vídeo como uma sequência de imagens no diretório videoSeq sob o diretório de vídeo correspondente (Supplemental figura 7A): selecione o arquivo na barra de menu e clique em salvar como | Sequência de imagem... renomear os rótulos para a sequência de vídeo como video0000.tif, video0001.tif,..., video0499.tif (Supplemental figura 7B): na caixa de Name , renomeie como vídeo e clique em Okey. A sequência deve ser sozinha no seu diretório para ser utilizado com sucesso pela U-trilha.
    Nota: Se não projetar uma máscara para o vídeo, vá para a etapa 2.8.
  7. Desenha uma máscara. Selecione a imagem multicanal e abrir o Editor de segmentação plugin (Supplemental figura 8A): selecione Plugins na barra de menu e selecione segmentação | Editor de segmentação. Adicionar e renomear os rótulos da segmentação conforme necessário clicando com o botão direito sobre os rótulos do editor de segmentação (Supplemental figura 8B, C).
    1. Escolha a ferramenta de seleção apropriada no menu flutuante ImageJ (aqui, usar à mão livre), selecione uma etiqueta (verde) e desenha primeiro a máscara ultraperiférica (Supplemental Figura 9A). Uma vez projetado, o + a tecla na opção de seleção da janela de composição e a máscara selecionada será exibida no visualizador (Supplemental Figura 9A). Repita este passo com rótulos próxima (no Interior, em vermelho) (complementar figura 9B).
      Nota: Depois de projetar a máscara para os rótulos verde e Interior, a máscara Exterior ocupará o resto da imagem.
    2. Máscaras são codificadas na imagem como regiões 0, 1, 2,... de acordo com a ordem dos marcadores na janela de rótulos RGB. Quando todas as máscaras para os rótulos diferentes são projetados, salvar a máscara com o mesmo nome de arquivo como o vídeo, com o nome mask.tif (Supplemental Figura 9): selecione o arquivo na barra de menu e selecione salvar como | TIFF....
      Nota: As máscaras selecionadas serão utilizadas no cálculo dos coeficientes de difusão e classificação das trajectórias (consulte a etapa 4.2).
  8. Verifique se a estrutura de arquivos neste momento é o seguinte:
    VideoName/video.lif
    Series1/VideoName/mask.tif
    Series1/VideoName/ videoSeq / video0000.tif
    Series1/VideoName/ videoSeq / video0001.tif
    ...
    Series1/VideoName/ videoSeq / video0499.tif
    VideoName/Series1/resultados
    Nota: A mask.tif é uma imagem com a máscara como projetado em etapas 2.4 e 2.7. O video*.tiff é o vídeo que salvou no passo 2.6. Como acima, os nomes em negrito na lista acima são fixos, ou seja, eles têm que ser chamado assim, porque estes são os nomes que procurou pelos scripts. Nomes não em negrito podem mudar para refletir a experiência realizada.

3. as partículas de rastreamento

  1. Rastrear todas as partículas vistas nos vídeos selecionados usando U-faixa.
  2. Abrir o Matlab e adicionar diretório U-trilha para o caminho usando Definir caminho | Adicionar com opção de subpastas no menu. Salve o caminho para que no futuro as execuções de Matlab U pista é no caminho. Essa configuração de caminho precisa ser feito apenas uma vez.
  3. Altere o diretório de trabalho para o diretório que contém a série para ser analisado. Invocar o U-track, digitando no console (Supplemental Figura 10) movieSelectorGUI e pressione enter. A janela de seleção de filme será aberta (Figura suplementar 11A).
  4. Pressione o botão de filme de novo e a janela de edição do filme aparecerá (Supplemental figura 11B).
  5. Pressione Adicionar canal para escolher o diretório com o vídeo (vídeo/VideoName/Series1) e preencher os parâmetros de informações do filme. Defina o diretório de saída para os resultados de U-faixa de resultados (videoName/Series1/resultados).
    Nota: Os parâmetros de informações de filme podem ser obtidos o microscópio e as condições de aquisição.
  6. Pressione sobre as configurações de canal avançada e preencher os parâmetros relacionados com a aquisição. Veja os valores dos parâmetros no exemplo (Supplemental Figura 11).
  7. Pressione salvar na janela de Configurações avançadas do canal e salvar na janela de edição do filme . O programa irá pedir confirmação de escrever o arquivo chamado movieData.mat no diretório de resultados . Confirme.
  8. Depois de criar o filme, pressione em continuar na janela de seleção de filme. U-faixa irá perguntar sobre o tipo de objeto a ser analisado. Escolha de Single-partículas (Supplemental Figura 12). A janela do painel de controle aparecerá (Supplemental figura 13A).
    1. Selecione o primeiro passo passo 1: deteção e pressione na configuração. A janela de Configuração Gaussian mistura-modelo encaixe aparecerá (Supplemental figura 13B). No exemplo, "Valor de alfa para comparação com fundo local" é definido como 0,001 e "Rolling-janela tempo média" para 3 (Supplemental figura 13B).
    2. Carregue em aplicar na janela Configurações Gaussian mistura-modelo encaixe e executar no painel de controle. Com a configuração em suplementar Figura 13, somente a etapa de deteção será executada. Esta etapa leva alguns minutos (2-5). Verificar os resultados, pressionando o botão resultado do passo 1 (deteção, suplementar Figura 14).
      Nota: Como mostrado acima, o filme mostra círculos vermelhos das partículas detectadas. Se nenhum círculo vermelho é mostrado, então esta etapa não tem funcionado corretamente.
  9. Realize a identificação das faixas, ou seja, mesclando as partículas detectadas na etapa anterior em faixas que abrangem vários quadros. Este é o passo 2: acompanhamento da U-faixa cujas configurações devem ser definidos como mostrado na Figura suplementar 15A-C. As configurações de função de custo etapa 2 para vinculação de quadro a quadro e fechamento de Gap, mesclagem e divisão no exemplo são mostradas na Figura suplementar 15B e C, respectivamente.
  10. Depois de definir os parâmetros para o passo 2, pressione executar no painel de controle e só passo 2 é executado (Supplemental Figura 16).
  11. Realizar análise de trilha, etapa 3. Defina as configurações, conforme mostrado na Figura suplementar 17 (painel direito). Em seguida, prima aplicar no painel de configuração-Motion Analysis e executar no painel de controle-U-faixa. Esta etapa leva alguns segundos.
  12. Verificar com o botão do resultado da etapa 3, que o processo identificou corretamente todas as faixas. Para fazer isso, clique em mostrar o número da faixa da janela Opções de filme e verificar quadro a quadro, que cada faixa tem sido corretamente identificado (Supplemental Figura 18). Anote manualmente as partículas que não são verdadeiras partículas.
    Nota: Se não for feita esta selecção manual, uma fraca seleção automática pode ser realizada mais tarde, quando o coeficiente de difusão é calculado (ver passo 4).

4. cálculo dos coeficientes de difusão e classificação das trajetórias

  1. Certifique-se de que todos os scripts são invocados do diretório do vídeo sendo analisado (no exemplo, VideoName/Serie1).
  2. Ler todas as trajetórias para calcular os coeficientes de difusão, emitindo em Matlab a consolar o comando: trajectories=readTrajectories(0.1), onde 0.1 é o tempo em segundos entre dois quadros consecutivos (intervalo de tempo, mostrado no painel filme Informações, suplementar figura 11B).
  3. Trajetórias de exclusão correspondente incorretamente identificaram pontos/trajetórias. Dê uma lista dos pontos para excluir. Por exemplo, para excluir os pontos 4, 5 e 28, digite: trajetórias = readTrajectories (0.1, [4, 5, 28]).
  4. Calcule os coeficientes de difusão instantânea para cada uma das faixas dessa célula. Neste caso, calcular o coeficiente de difusão para um intervalo de tempo = 4, chamado D1-4. Para fazer isso, execute no console do Matlab com o comando: D = calculateDiffusion (trajetórias, 113.88e-3, 0,0015, 'alpha') onde as trajetórias são as trajetórias obtidas na etapa 3, 113.88e-3 é o tamanho do pixel das imagens adquiridas em mícrons, 0,0015 é um limite superior para os coeficientes de difusão de partículas imóveis medidos em µm2/s e 'alpha' é o modelo ajustado conforme explicado abaixo.
    Nota: Quando usando uma câmera mais rápida e a necessidade mais quadros para calcular o parâmetro de difusão aumentá-lo, por exemplo, até 20, por D = calculateDiffusion (trajetórias, 113.88e-3, 0,0015, 'alpha', ', 20). O parâmetro de sequência de caracteres antes de 20, no exemplo acima, ', é o sufixo adicionado aos arquivos de saída. Este sufixo pode ser usado para diferenciar as diferentes análises.
  5. Encaixe o MSD com uma função diferente, chamando a função calculateDiffusion novamente com um modo de encaixe diferentes ('confinado', 'livre' ou 'dirigido'). Neste exemplo, 'confinado': D = calculateDiffusion (trajetórias, 113.88e-3, 0,0015, 'confinado').
  6. Obter os resultados de encaixe para o modelo dirigido, como mostrado na Figura suplementar 20.
  7. Decompor as trajetórias em trajetórias curtas e longas. Use o comando: [shortTrajectories, longTrajectories]=separateTrajectoriesByLength(trajectories,50) onde 50 é o comprimento mínimo em quadros de uma trajetória para ser considerado longo (no exemplo mostrado).
  8. Estudar as trajetórias curtas usando o mesmo procedimento de instalação descrito no passo 4.3: D = calculateDiffusion (shortTrajectories, 113.88e-3, 0,0015, 'dirigido', 'Curtas'). Analisar as trajetórias curtas e anômalas com o comando: D = calculateDiffusion (shortTrajectories, 113.88e-3, 0,0015, 'alpha', 'Curto').
  9. Analise a longa trajetória para classificar o tipo de movimento através de seu espectro de dimensionamento do momento (MSS)7. O comando: trajectoriesClassification = classifyLongTrajectories (longTrajectories, 113.88e-3,0.0015, 'Long') mostra a análise em tela e gera um arquivo chamado trajectoryClassification < sufixo >. txt diretório results\TrackingPackage\tracks.

5. cálculo de Cluster Ssize através da densidade de partículas

Nota: Certifique-se de que todos os scripts são invocados do diretório do vídeo sendo analisado (no exemplo mostrado, VideoName/Serie1).

  1. Analise a intensidade de cada partícula ao longo de sua trajetória. Para fazê-lo, chamar o script digitando no console do Matlab: analyzeSpotIntensities que toma como entrada as trajetórias calculadas pela U-trilha na primeira seção. Em sua forma mais básica, simplesmente chamar o script sem qualquer argumento do diretório do vídeo sendo analisado (no exemplo mostrado, VideoName/Series1) analyzeSpotIntensities(). Configurar esse comportamento básico de muitas maneiras diferentes, fornecendo argumentos para o script, como em: analyzeSpotIntensities ('Arg1´, valor1, ' Arg2´, valor2,...). Argumentos válidos, com seus respectivos valores de variável ('ArgN´, Valor_n) são listados.
    1. ('spotRadius´, 1)
      Analisar a intensidade de fluorescência usando o spotRadius de 1 pixel (por padrão) que corresponde a um pedaço de tamanho 3x3 centrado no ponto ((2*spotRadius+1)x(2*spotRadius+1)).
      Nota: Um patch de 5 x 5 centrado no local, para escolher um spotRadius de 2, etc.
    2. ('onlyInitialTrajectories´, 1)
      Se esse argumento for fornecido (true, o valor de 1), analise apenas as trajetórias que começam no primeiro frame do vídeo. Isso é útil para analisar imagens de controle (por padrão é 0, falso).
    3. ('trackTrajectory´, 0)
      Se este argumento estiver definido para 0 (falso), então mantenha a coordenada do ponto em seu primeiro quadro para todos os quadros (isto é útil para manchas imóveis). Se o argumento é definido como 1 (por padrão 1, verdadeiro), o local é controlado ao longo o seguinte vídeo as coordenadas calculadas pela U-trilha.
    4. ('excludeTrajectories´, [4,5,28])
      Inclua o número de trajetória dessas trajetórias excluídos no passo 4.3 (no exemplo 4, 5, 28).
    5. ('extendTrajectory ´, 1)
      Se este argumento estiver definido como 1 (verdadeiro), em seguida, analise a intensidade no patch para o final do vídeo (mesmo se a trajetória parar mais cedo). A coordenada do ponto é a última coordenada na trajetória (se trackTrajectory) ou a primeira coordenada na trajetória (se trackTrajectory é false). Este argumento é falso (0) por padrão.
    6. ('subtractBackground´, 1)
      Se este parâmetro estiver definido, então correto a fluorescência bruta medido em cada ponto pela estimativa da fluorescência fundo para esse ponto (veja abaixo). Este argumento é verdadeiro (1), por padrão.
    7. ('meanLength´, número do quadro)
      Se este parâmetro estiver definido, então, o ponto de média intensidade é medido no comprimento indicado. Conjunto de 'meanLength', 20 para medir a intensidade de ponto média para os primeiros 20 frames. Se o argumento não estiver definido, a intensidade do ponto é calculada a trajetória inteira (por padrão, comprimento total).
    8. ('showIntensityProfiles´, 1)
      Defina este parâmetro como 1 (por padrão 0, falso), para traçar o perfil de intensidade ao longo de diferentes quadros, bem como seus antecedentes.
      Nota: Estes gráficos são muito úteis para identificar o fotobranqueamento conforme o suplementar figura 21. Para cada caminho, a rotina automaticamente analisa se é possível que tenha havido fotobranqueamento. Isto é feito comparando os valores de intensidade com t de um estudante nos primeiros e o últimos quadros de N ao longo do caminho. Por padrão, N é 10, mas esse valor pode ser modificado através de argumento ' Nbleach´.
    9. ('backgroundMethod´, valor)
      Defina esse parâmetro para determinar o plano de fundo de cada ponto. Isto pode ser feito de várias maneiras, e qual deles usar pode ser selecionado mudando o "valor":
      1. ('backgroundMethod´, 0)
        Use esse valor para identificar manualmente o plano de fundo para o vídeo inteiro. Permitem selecionar 8 pontos no primeiro quadro do vídeo. Um patch em torno destes pontos é analisado ao longo do vídeo inteiro, e o Quantil de 95% de todas estas intensidades é escolhida como a intensidade de fundo para todos os pontos.
      2. ('backgroundMethod´, 1)
        Use esse valor para identificar manualmente o plano de fundo para cada quadro. Escolha 8 pontos para cada ponto e cada quadro. Esta é uma tarefa demorada, mas ela dá um monte de controle para o usuário. O Quantil de 95% das intensidades nessas manchas é escolhida como a intensidade de fundo para este ponto neste quadro.
      3. ('backgroundMethod´, 2)
        Usar este valor para calcular o fundo de cada ponto estimado de 8 pontos, localizados em um círculo em torno do local, com um raio controlado pelo argumento ' backgroundRadius´ (por padrão, 4 * spotRadius).
      4. ('backgroundMethod´, 3)
        Use este valor para calcular o fundo de cada quadro primeiro localizando a célula no vídeo e em seguida analisar as intensidades da célula em cada quadro (Supplemental Figura 22).
        Nota: O plano de fundo é escolhido como o valor de cinza em um determinado Quantil desta distribuição (por padrão 0,5 (= 50%), embora este parâmetro pode ser controlado através de argumento ' backgroundPercentile´, esse valor pode ser definido mais elevado, por exemplo, 0,9 (= 90%) se querer a maioria da célula a ser considerado como plano de fundo. Para ajudar na identificação da célula, indicar qual é o valor de fundo máximo esperado ao longo os quadros usando o argumento ' maxBackground´ (por exemplo, em todos os vídeos analisados, o valor de fundo normalmente nunca ultrapassa 6000)13. Por padrão, essa opção é definida para 0, significando que esta ajuda não é usada por padrão. Ver o que é a detecção de células e a área selecionada para a estimativa do fundo, definindo o argumento ' showImages´ como 1 (parar a execução a qualquer momento pressionando CTRL-C).
  2. Reunir as informações de difusão e intensidade para todas as trajetórias calculadas nos passos 4 e 5.1, respectivamente, usando gatherDiffusion.AndIntensity (). Coletar somente as informações de difusão e intensidade de trajetórias curtas. Para fazer isso, usar os sufixos usados na etapa 4.7 e tipo: gatherDiffusionAndIntensity ('Short´) onde ' Short´ é o sufixo utilizado na etapa de 4,7.
  3. Reunir a escala do espectro de momento e a digitação de informação de intensidade: gatherTrajectoryClassificationAndIntensity('Long') onde 'Tempo' é o sufixo usado na etapa 4.7. Um resumo de todos os arquivos gerados usando este protocolo é mostrado na Figura 2.

Resultados

O uso deste protocolo permite o monitoramento automatizado de partículas detectada em filmes de microscopia de fluorescência e a análise de suas características dinâmicas. Inicialmente, as células são transfected com a proteína fluorescente acoplados a serem controladas. O nível adequado de receptores presentes na superfície das células, o que permite que o SPT é obtido por célula de triagem (Figura 1). Células selecionadas são analisadas por m...

Discussão

O método descrito é fácil de executar mesmo sem ter qualquer experiência anterior com Matlab. No entanto, rotinas Matlab extremamente exigem precisão com a nomenclatura dos diferentes comandos e a localização das diferentes pastas utilizadas pelo programa. No acompanhamento de rotina de análise (etapa 3), vários parâmetros podem ser modificados. A janela "Configuração Gaussian-mistura modelo encaixe" (passo 3.8) controla como U-faixa irá detectar partículas única no vídeo. Isso é feito colocando-se um mo...

Divulgações

Os autores não têm nada para divulgar.

Agradecimentos

Nós somos gratos a Carlo Manzo e Maria García Parajo para sua ajuda e código-fonte da análise do coeficiente de difusão. Este trabalho foi financiado em parte por subvenções do Ministério espanhol de ciência, inovação e universidades (SAF 2017-82940-R) e o programa de RETICS do Instituto de salud Carlos III (RD12/0009/009 e RD16/0012/0006; CARRIER). LMM e JV são suportados pelo programa COMFUTURO do CSIC a Fundación General.

Materiais

NameCompanyCatalog NumberComments
Human Jurkat cellsATCCCRL-10915Human T cell line. Any other cell type can be analyzed with this software
pAcGFPm-N1 (PT3719-5)DNA3GFPClontech632469Different fluorescent proteins can be followed and analyzed with this routine
Gene Pulse X Cell electroporator BioRad We use 280 V, 975 mF, for Jurkat cells.  Use the transfection method best working in your hands. 
Cytomics FC 500 flow cytometer Beckman Coulter
MoFlo Astrios Cell Sorter Beckman CoulterDepending on the level of transfection, cell sorting may not be required.  You can also employ cells with stable expression of adequate levels of the receptor of interest.
Dako QifikitDakoCytomationK0078Used for quantification the number of receptors in the cell surface.
Glass bottom microwell dishesMatTek corporationP35G-1.5-10-C
Human Fibronectin from plasmaSigma-AldrichF0895
Recombinant human CXCL12PeproTech300928A
Inverted Leica AM TIRFLeica
EM-CCD cameraAndor DU 885-CSO-#10-VP
MATLABThe MathWorks, Natick, MA
U-Track2 softwareDanuser Laboratory
ImageJNIHhttps://imagej.nih.gov/ij/
FiJiFiJIhttps://imagej.net/Fiji)
u-Track2 softwareMatlab tool.  For installing, download .zip file from the web page (http://lccb.hms.harvard.edu/software.html) and uncompress the file in a directory of your choice
GraphPad PrismGraphPad software

Referências

  1. Yu, J. Single-molecule studies in live cells. Annual Review of Pysical Chemistry. 67 (565-585), (2016).
  2. Mattheyses, A. L., Simon, S. M., Rappoport, J. Z. Imaging with total internal reflection fluorescence microscopy for the cell biologist. Journal of Cell Science. 123 (Pt 21), 3621-3628 (2010).
  3. Jaqaman, K., et al. Robust single-particle tracking in live-cell time-lapse sequences. Nature Methods. 5 (8), 695-702 (2008).
  4. Bakker, G. J., et al. Lateral mobility of individual integrin nanoclusters orchestrates the onset for leukocyte adhesion. Proceedings of the National Academy of Sciences U S A. 109 (13), 4869-4874 (2012).
  5. Kusumi, A., Sako, Y., Yamamoto, M. Confined lateral diffusion of membrane receptors as studied by single particle tracking (nanovid microscopy). Effects of calcium-induced differentiation in cultured epithelial cells. Biophysical Journal. 65 (5), 2021-2040 (1993).
  6. Ferrari, R. M., Manfroi, A. J., Young, W. R. Strongly and weakly self-similar diffusion. Physica D. 154, 111-137 (2001).
  7. Sbalzarini, I. F., Koumoutsakos, P. Feature point tracking and trajectory analysis for video imaging in cell biology. Journal of Structural Biology. 151 (2), 182-195 (2005).
  8. Ewers, H., et al. Single-particle tracking of murine polyoma virus-like particles on live cells and artificial membranes. Proceedings of the National Academy of Sciences U S A. 102 (42), 15110-15115 (2005).
  9. Manzo, C., Garcia-Parajo, M. F. A review of progress in single particle tracking: from methods to biophysical insights. Report on Progress in Physics. 78 (12), 124601 (2015).
  10. Calebiro, D., et al. Single-molecule analysis of fluorescently labeled G-protein-coupled receptors reveals complexes with distinct dynamics and organization. Proceedings of the National Academy of Sciences U S A. 110 (2), 743-748 (2013).
  11. Digman, M. A., Dalal, R., Horwitz, A. F., Gratton, E. Mapping the number of molecules and brightness in the laser scanning microscope. Biophysical Journal. 94 (6), 2320-2332 (2008).
  12. Schindelin, J., et al. Fiji: an open-source platform for biological-image analysis. Nature Methods. 9 (7), 676-682 (2012).
  13. Martinez-Munoz, L., et al. Separating Actin-Dependent Chemokine Receptor Nanoclustering from Dimerization Indicates a Role for Clustering in CXCR4 Signaling and Function. Molecular Cell. 70 (1), 106-119 (2018).
  14. Destainville, N., Salome, L. Quantification and correction of systematic errors due to detector time-averaging in single-molecule tracking experiments. Biophysical Journal. 90 (2), L17-L19 (2006).

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

Imunologia e infec oedi o 146SPTreceptor do chemokinetrackingclustersdifus osoftware de an lise

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados