JoVE Logo

Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

Este protocolo fornece um método para rastrear o estrabismo ocular automatizado em roedores ao longo do tempo de maneira compatível com o bloqueio de tempo para medidas neurofisiológicas. Espera-se que este protocolo seja útil para pesquisadores que estudam mecanismos de distúrbios dolorosos, como a enxaqueca.

Resumo

A dor espontânea tem sido um desafio para rastrear em tempo real e quantificar de uma forma que evite o viés humano. Isso é especialmente verdadeiro para métricas de dor de cabeça, como em distúrbios como a enxaqueca. O estrabismo ocular surgiu como uma métrica variável contínua que pode ser medida ao longo do tempo e é eficaz para prever estados de dor em tais ensaios. Este artigo fornece um protocolo para o uso do DeepLabCut (DLC) para automatizar e quantificar o estrabismo ocular (distância euclidiana entre as pálpebras) em camundongos contidos com movimentos de cabeça em rotação livre. Este protocolo permite que a quantificação imparcial do estrabismo ocular seja emparelhada e comparada diretamente com medidas mecanicistas, como neurofisiologia. Fornecemos uma avaliação dos parâmetros de treinamento de IA necessários para alcançar o sucesso, conforme definido pela discriminação de períodos de estrabismo e não estrabismo. Demonstramos a capacidade de rastrear e diferenciar de forma confiável o estrabismo em um fenótipo semelhante à enxaqueca induzido por CGRP em uma resolução inferior a um segundo.

Introdução

A enxaqueca é um dos distúrbios cerebrais mais prevalentes em todo o mundo, afetando mais de um bilhão de pessoas1. Modelos pré-clínicos de enxaqueca em camundongos surgiram como uma forma informativa de estudar os mecanismos da enxaqueca, pois esses estudos podem ser mais facilmente controlados do que os estudos em humanos, permitindo assim o estudo causal do comportamento relacionado à enxaqueca2. Tais modelos demonstraram uma resposta fenotípica forte e repetível a compostos indutores de enxaqueca, como o peptídeo relacionado ao gene da calcitonina (CGRP). A necessidade de medições robustas de comportamentos relevantes para a enxaqueca em modelos de roedores persiste, especialmente aquelas que podem ser acopladas a métricas mecanicistas, como abordagens de imagem e eletrofisiológicas.

Os estados cerebrais semelhantes à enxaqueca foram fenotipicamente caracterizados pela presença de aversão à luz, alodinia da pata, hiperalgesia facial a estímulos nocivos e careta facial3. Tais comportamentos são medidos pelo tempo total gasto na luz (aversão à luz) e pelos limiares de sensibilidade ao toque facial ou da pata (alodinia da pata e hiperalgesia facial) e são restritos a uma única leitura por grandes períodos de tempo (minutos ou mais). Comportamentos semelhantes à enxaqueca podem ser provocados em animais pela dosagem de compostos indutores de enxaqueca, como o CGRP, imitando os sintomas experimentados por pacientes humanos com enxaqueca3 (ou seja, demonstrando validade facial). Tais compostos também produzem sintomas de enxaqueca quando administrados em humanos, demonstrando a validade de construto desses modelos4. Estudos nos quais os fenótipos comportamentais foram atenuados farmacologicamente levaram a descobertas relacionadas ao tratamento da enxaqueca e fornecem mais comprovação desses modelos (ou seja, demonstrando validade preditiva)5,6.

Por exemplo, um anticorpo monoclonal anti-CGRP (ALD405) demonstrou reduzir o comportamento aversivo à luz5 e a careta facial em camundongos6 tratados com CGRP, e outros estudos demonstraram que as drogas antagonistas do CGRP reduzem comportamentos semelhantes à enxaqueca induzidos por óxido nitroso em animais 7,8. Ensaios clínicos recentes mostraram sucesso no tratamento da enxaqueca, bloqueando o CGRP 9,10, levando a vários medicamentos aprovados pela FDA direcionados ao CGRP ou seu receptor. A avaliação pré-clínica dos fenótipos relacionados à enxaqueca levou a avanços nos achados clínicos e, portanto, é essencial para a compreensão de alguns dos aspectos mais complexos da enxaqueca que são difíceis de testar diretamente em humanos.

Apesar das inúmeras vantagens, os experimentos que usam essas leituras comportamentais de enxaqueca em roedores são frequentemente restritos em suas habilidades de amostragem de pontos de tempo e podem ser subjetivos e propensos a erros experimentais humanos. Muitos ensaios comportamentais são limitados na capacidade de capturar a atividade em resoluções temporais mais finas, muitas vezes dificultando a captura de elementos mais dinâmicos que ocorrem em uma escala de tempo inferior a um segundo, como no nível da atividade cerebral. Tem se mostrado difícil quantificar os elementos de comportamento mais espontâneos e naturais ao longo do tempo em uma resolução temporal significativa para estudar os mecanismos neurofisiológicos. Criar uma maneira de identificar a atividade semelhante à enxaqueca em escalas de tempo mais rápidas permitiria validar externamente os estados cerebrais semelhantes à enxaqueca. Isso, por sua vez, pode ser sincronizado com a atividade cerebral para criar perfis de atividade cerebral mais robustos da enxaqueca.

Um desses fenótipos relacionados à enxaqueca, a careta facial, é utilizado em vários contextos como uma medida de dor em animais que pode ser medida instantaneamente e rastreada ao longo do tempo11. A careta facial é frequentemente usada como um indicador de dor espontânea com base na ideia de que humanos (especialmente humanos não verbais) e outras espécies de mamíferos exibem mudanças naturais na expressão facial ao sentir dor11. Estudos que mediram a careta facial como indicação de dor em camundongos na última década utilizaram escalas como a Escala de Carecas de Camundongos (MGS) para padronizar a caracterização da dor em roedores12. As variáveis de expressão facial do MGS incluem aperto orbital (estrabismo), protuberância do nariz, protuberância da bochecha, posição da orelha e alteração do bigode. Embora o MGS tenha demonstrado caracterizar de forma confiável a dor em animais13, é notoriamente subjetivo e depende de pontuação precisa, que pode variar entre os experimentadores. Além disso, o MGS é limitado na medida em que utiliza uma escala não contínua e não possui a resolução temporal necessária para rastrear o comportamento que ocorre naturalmente ao longo do tempo.

Uma maneira de combater isso é quantificar objetivamente uma característica facial consistente. O estrabismo é a característica facial mais consistentemente rastreável6. O estrabismo é responsável pela maior parte da variabilidade total nos dados ao contabilizar todas as variáveis MGS (estrabismo, protuberância do nariz, protuberância da bochecha, posição da orelha e mudança do bigode)6. Como o estrabismo contribui mais para a pontuação geral obtida usando o MGS e rastreia de forma confiável a resposta ao CGRP 6,14, é a maneira mais confiável de rastrear a dor espontânea em modelos de camundongos com enxaqueca. Isso torna o estrabismo um comportamento não homeostático quantificável induzido pelo CGRP. Vários laboratórios usaram características de expressão facial, incluindo estrabismo, para representar a potencial dor espontânea associada à enxaqueca 6,15.

Vários desafios permaneceram em relação à realização de estrabismo automatizado de uma forma que possa ser combinada com estudos mecanicistas de enxaqueca. Por exemplo, tem sido difícil rastrear o estrabismo de forma confiável sem depender de uma posição fixa que deve ser calibrada da mesma maneira entre as sessões. Outro desafio é a capacidade de realizar esse tipo de análise em escala contínua em vez de escalas discretas como a MGS. Para mitigar esses desafios, pretendemos integrar o aprendizado de máquina, na forma de DeepLabCut (DLC), em nosso pipeline de análise de dados. O DLC é um modelo de aprendizado de máquina de estimativa de pose desenvolvido por Mathis e colegas e foi aplicado a uma ampla gama de comportamentos16. Usando seu software de estimativa de pose, fomos capazes de treinar modelos que podiam prever com precisão os pontos em um olho de rato com precisão quase humana. Isso resolve os problemas de pontuação manual repetitiva e, ao mesmo tempo, aumenta drasticamente a resolução temporal. Além disso, ao criar esses modelos, criamos um meio repetível de pontuar o estrabismo e estimar a atividade cerebral semelhante à enxaqueca em grupos experimentais maiores. Aqui, apresentamos o desenvolvimento e a validação desse método para rastrear comportamentos estrábicos de uma forma que pode ser bloqueada no tempo para outras medições mecanicistas, como a neurofisiologia. O objetivo geral é catalisar estudos mecanicistas que exigem comportamentos de estrabismo bloqueados no tempo em modelos de roedores.

Protocolo

NOTA: Todos os animais utilizados nesses experimentos foram manejados de acordo com protocolos aprovados pelo Comitê Institucional de Cuidados e Uso de Animais (IACUC) da Universidade de Iowa.

1. Preparar equipamentos para coleta de dados

  1. Garanta a disponibilidade de todos os equipamentos necessários: certifique-se de que o hardware recomendado para executar o DLC tenha pelo menos 8 GB de memória. Consulte a Tabela de Materiais para obter informações relacionadas a hardware e software.
    NOTA: Os dados podem ser coletados em qualquer formato, mas devem ser convertidos para um formato legível pelo DLC antes da análise. Os formatos mais comuns são AVI e MP4.
  2. Configure pelo menos uma câmera para que um olho de um animal possa ser detectado. Se ambos os olhos estiverem visíveis, execute uma filtragem adicional, pois isso pode causar interferência no rastreamento. Consulte a seção 10 para obter um exemplo dessa filtragem para os dados fornecidos aqui.
  3. Instale o DLC usando o pacote encontrado em Deeplabcut.github.io/DeepLabCut/docs/installation.
  4. Na configuração da câmera, inclua uma única câmera em um ângulo lateral (~90°) em relação ao mouse. Para seguir este exemplo, faça uma amostra a 10 Hz, com os camundongos contidos, mas livres para acessar toda a sua gama de movimentos da cabeça em relação ao corpo. Mantenha entre 2 e 4 polegadas da câmera para o animal.

2. Configurando o DLC

  1. Depois de instalar o DLC, crie o ambiente para trabalhar. Para fazer isso, navegue até a pasta onde o software DLC foi baixado usando o diretório de alterações com o seguinte comando.
    cd folder_name
    NOTA: Este será o local onde o arquivo DEEPLABCUT.yaml está localizado.
  2. Execute o primeiro comando para criar o ambiente e habilite-o digitando o segundo comando.
    conda env create -f DEEPLABCUT.yaml
    conda ativar o Deeplabcut
    NOTA: Certifique-se de que o ambiente esteja ativado antes de cada uso do DLC.
    Depois de ativar o ambiente, abra a interface gráfica do usuário (GUI) com o seguinte comando e comece a criar o modelo.
    python -m deeplabcut

3. Crie o modelo

  1. Depois que a GUI for aberta, comece a criar um modelo clicando em Criar novo projeto na parte inferior.
  2. Nomeie o projeto como algo significativo e exclusivo para identificá-lo mais tarde e insira um nome como experimentador. Verifique a seção Localização para ver onde o projeto será salvo.
  3. Selecione Procurar pastas e encontre os vídeos para treinar o modelo. Selecione Copiar vídeos para a pasta do projeto se os vídeos não forem movidos de seu diretório original.
  4. Selecione Criar para gerar um novo projeto no computador.
    NOTA: Os vídeos devem cobrir toda a gama do comportamento que você observará (ou seja, apertar os olhos, não apertar os olhos e todos os comportamentos intermediários). O modelo só será capaz de reconhecer um comportamento semelhante ao dos dados de treinamento e, se alguns componentes do comportamento estiverem ausentes, o modelo poderá ter problemas para reconhecê-lo.

4. Defina as configurações

NOTA: É aqui que detalhes como quais pontos rastrear, quantos quadros extrair de cada vídeo de treinamento, tamanho de ponto de rotulagem padrão e variáveis relacionadas a como o modelo será treinado podem ser definidos.

  1. Depois de criar o modelo, edite as definições de configuração selecionando Editar config.yaml. Selecione editar para abrir o arquivo de definições de configuração para especificar as principais configurações relacionadas ao modelo.
  2. Modifique as partes do corpo para incluir todas as partes do olho a serem rastreadas e, em seguida, modifique numframes2pick para o número de quadros necessários por vídeo de treinamento para obter 400 quadros no total. Por fim, altere o tamanho do ponto para seis para que o tamanho padrão ao rotular seja pequeno o suficiente para ser colocado com precisão nas bordas do olho.

5. Extraia quadros de treinamento

  1. Após a configuração, navegue até a guia Extrair quadros na parte superior da GUI e selecione Extrair quadros no canto inferior direito da página.
  2. Monitore o progresso usando a barra de carregamento na parte inferior da GUI.

6. Rotule os quadros de treinamento

  1. Navegue até a guia Quadros de rótulo na GUI e selecione Quadros de rótulo. Encontre a nova janela que mostra as pastas de cada um dos vídeos de treinamento selecionados. Selecione a primeira pasta e uma nova GUI de rotulagem será aberta.
  2. Rotule os pontos definidos durante a configuração para cada quadro do vídeo selecionado. Depois que todos os quadros forem rotulados, salve-os e repita o processo para o próximo vídeo.
  3. Para uma rotulagem adequada do estrabismo, use dois pontos o mais próximo possível do maior pico do olho (centro) e indique as posições para cima/para baixo para cada ponto. Estrabismo aproximado como a média desses dois comprimentos.
    NOTA: Ao rotular, o DLC não salva automaticamente o progresso. Recomenda-se salvar periodicamente para evitar a perda de dados rotulados.

7. Criar um conjunto de dados de treinamento

  1. Depois de rotular manualmente, navegue até a guia Treinar rede e selecione Treinar rede para solicitar que o software comece a treinar o modelo.
  2. Monitore o progresso na janela de comando.

8. Avalie a rede

  1. Após a conclusão do treinamento de rede, navegue até a guia Avaliar rede e selecione Avaliar rede. Aguarde alguns instantes até que o círculo de carregamento azul desapareça, indicando que ele terminou de se autoavaliar e o modelo está pronto para uso.

9. Analise dados/gere vídeos rotulados

  1. Para analisar vídeos, navegue até a guia Analisar vídeos . Selecione Adicionar mais vídeos e selecione os vídeos a serem analisados.
  2. Selecione Salvar resultado(s) como csv se uma saída csv dos dados for suficiente.
  3. Quando todos os vídeos tiverem sido adquiridos, selecione Analisar vídeos na parte inferior para iniciar a análise dos vídeos.
    NOTA: Esta etapa deve ser concluída antes de gerar vídeos rotulados na etapa 9.5
  4. Depois que os vídeos forem analisados, navegue até a guia Criar vídeos e selecione os vídeos analisados.
  5. Selecione Criar vídeos e o software começará a gerar vídeos rotulados que representam os dados mostrados no .csv correspondente.

10. Processar dados finais

  1. Aplique as macros encontradas em https://research-git.uiowa.edu/rainbo-hultman/facial-grimace-dlc para converter dados brutos no formato usado para esta análise (ou seja, distância euclidiana).
  2. Importe e aplique macros rotuladas como Etapa 1 e Etapa 2 ao csv para filtrar todos os pontos de dados abaixo do ideal e converter os dados em uma distância euclidiana média para os pontos mais centrais na parte superior e inferior do olho.
  3. Execute a macro chamada Step3 para marcar cada ponto como 0 sem estrabismo e 1 estrabismo com base no valor limite no script, que é definido em 75 pixels.
    NOTA: Os parâmetros para essas macros podem exigir ajustes dependendo da configuração experimental (consulte a discussão). O limite para estrabismo e o filtro automático para o valor máximo do olho são parâmetros que podem ser alterados dependendo do tamanho do animal e da distância da câmera. Você também pode ajustar os valores usados para remover pontos abaixo do ideal, dependendo de quão seletivamente os dados devem ser filtrados.

Resultados

Aqui, fornecemos um método para a detecção confiável de estrabismo em alta resolução temporal usando o DeepLabCut. Otimizamos os parâmetros de treinamento e fornecemos uma avaliação dos pontos fortes e fracos desse método (Figura 1).

Após o treinamento de nossos modelos, verificamos que eles foram capazes de estimar corretamente os pontos superior e inferior da pálpebra (Figura 2), que ser...

Discussão

Este protocolo fornece um método aprofundado e facilmente acessível para o uso de ferramentas baseadas em aprendizado de máquina que podem diferenciar o estrabismo com precisão quase humana, mantendo a mesma (ou melhor) resolução temporal das abordagens anteriores. Principalmente, torna a avaliação do estrabismo automatizado mais prontamente disponível para um público mais amplo. Nosso novo método para avaliar o estrabismo automatizado tem várias melhorias em comparação com...

Divulgações

Não temos conflitos de interesse a divulgar. As opiniões neste artigo não são representativas do VA ou do governo dos Estados Unidos.

Agradecimentos

Obrigado a Rajyashree Sen por conversas perspicazes. Graças ao Prêmio de Neurobiologia da Doença da Fundação McKnight (RH), NIH 1DP2MH126377-01 (RH), Roy J. Carver Charitable Trust (RH), NINDS T32NS007124 (MJ), Ramon D. Buckley Graduate Student Award (MJ) e VA-ORD (RR&D) MERIT 1 I01 RX003523-0 (LS).

Materiais

NameCompanyCatalog NumberComments
CUDA toolkit 11.8
cuDNN SDK 8.6.0
Intel computers with Windows 11, 13th gen 
LabFaceX 2D Eyelid Tracker Add-on Module for a Free Roaming Mouse:FaceX LLCNAAny camera that can record an animal's eye is sufficient, but this is our eye tracking hardware.
NVIDIA GPU driver that is version 450.80.02 or higher
NVIDIA RTX A5500, 24 GB DDR6NVIDIA[490-BHXV]Any GPU that meets the minimum requirements specified for your version of DLC, currently 8 GB, is sufficient. We used NVIDIA GeForce RTX 3080 Ti GPU
Python 3.9-3.11
TensorFlow version 2.10

Referências

  1. Disease, G. B. D., Injury, I., Prevalence, C. Global, regional, and national incidence, prevalence, and years lived with disability for 354 diseases and injuries for 195 countries and territories, 1990-2017: A systematic analysis for the global burden of disease study 2017. Lancet. 392 (10159), 1789-1858 (2018).
  2. Russo, A. F. Cgrp as a neuropeptide in migraine: Lessons from mice. Br J Clin Pharmacol. 80 (3), 403-414 (2015).
  3. Wattiez, A. S., Wang, M., Russo, A. F. Cgrp in animal models of migraine. Handb Exp Pharmacol. 255, 85-107 (2019).
  4. Hansen, J. M., Hauge, A. W., Olesen, J., Ashina, M. Calcitonin gene-related peptide triggers migraine-like attacks in patients with migraine with aura. Cephalalgia. 30 (10), 1179-1186 (2010).
  5. Mason, B. N., et al. Induction of migraine-like photophobic behavior in mice by both peripheral and central cgrp mechanisms. J Neurosci. 37 (1), 204-216 (2017).
  6. Rea, B. J., et al. Peripherally administered cgrp induces spontaneous pain in mice: Implications for migraine. Pain. 159 (11), 2306-2317 (2018).
  7. Kopruszinski, C. M., et al. Prevention of stress- or nitric oxide donor-induced medication overuse headache by a calcitonin gene-related peptide antibody in rodents. Cephalalgia. 37 (6), 560-570 (2017).
  8. Juhasz, G., et al. No-induced migraine attack: Strong increase in plasma calcitonin gene-related peptide (cgrp) concentration and negative correlation with platelet serotonin release. Pain. 106 (3), 461-470 (2003).
  9. Aditya, S., Rattan, A. Advances in cgrp monoclonal antibodies as migraine therapy: A narrative review. Saudi J Med Med Sci. 11 (1), 11-18 (2023).
  10. Goadsby, P. J., et al. A controlled trial of erenumab for episodic migraine. N Engl J Med. 377 (22), 2123-2132 (2017).
  11. Mogil, J. S., Pang, D. S. J., Silva Dutra, G. G., Chambers, C. T. The development and use of facial grimace scales for pain measurement in animals. Neurosci Biobehav Rev. 116, 480-493 (2020).
  12. Whittaker, A. L., Liu, Y., Barker, T. H. Methods used and application of the mouse grimace scale in biomedical research 10 years on: A scoping review. Animals (Basel). 11 (3), 673 (2021).
  13. Langford, D. J., et al. Coding of facial expressions of pain in the laboratory mouse. Nat Methods. 7 (6), 447-449 (2010).
  14. Rea, B. J., et al. Automated detection of squint as a sensitive assay of sex-dependent calcitonin gene-related peptide and amylin-induced pain in mice. Pain. 163 (8), 1511-1519 (2022).
  15. Tuttle, A. H., et al. A deep neural network to assess spontaneous pain from mouse facial expressions. Mol Pain. 14, 1744806918763658 (2018).
  16. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  17. Wattiez, A. S., et al. Different forms of traumatic brain injuries cause different tactile hypersensitivity profiles. Pain. 162 (4), 1163-1175 (2021).

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

MedicinaEdi o 213Comportamento automatizadocareta facialestrabismodorenxaquecacomportamento do rato

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados