Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

Descrevemos aqui o PyOKR, um método de análise quantitativa semiautomatizado que mede diretamente os movimentos oculares resultantes de respostas visuais ao movimento bidimensional da imagem. Uma interface de usuário baseada em Python e um algoritmo de análise permitem maior rendimento e medições quantitativas mais precisas dos parâmetros de rastreamento ocular do que os métodos anteriores.

Resumo

O estudo das respostas comportamentais aos estímulos visuais é um componente chave para a compreensão da função do sistema visual. Uma resposta notável é o reflexo optocinético (OKR), um comportamento inato altamente conservado necessário para a estabilização da imagem na retina. O OKR fornece uma leitura robusta da capacidade de rastreamento de imagens e tem sido extensivamente estudado para entender os circuitos e a função do sistema visual em animais de diferentes origens genéticas. O OKR consiste em duas fases: uma fase de rastreamento lento, pois o olho segue um estímulo até a borda do plano visual e uma sacada de fase rápida compensatória que redefine a posição do olho na órbita. Os métodos anteriores de quantificação de ganho de rastreamento, embora confiáveis, são trabalhosos e podem ser subjetivos ou derivados arbitrariamente. Para obter uma quantificação mais rápida e reprodutível da capacidade de rastreamento ocular, desenvolvemos um novo programa de análise semi-automatizado, o PyOKR, que permite a quantificação do movimento de rastreamento ocular bidimensional em resposta a qualquer estímulo direcional, além de ser adaptável a qualquer tipo de equipamento de vídeo-oculografia. Este método fornece filtragem automatizada, seleção de fases de rastreamento lento, modelagem de vetores oculares verticais e horizontais, quantificação dos ganhos de movimento ocular em relação à velocidade do estímulo e organização dos dados resultantes em uma planilha utilizável para comparações estatísticas e gráficas. Esse pipeline de análise quantitativa e simplificada, prontamente acessível por meio da importação do PyPI, fornece uma medição rápida e direta das respostas OKR, facilitando assim o estudo das respostas comportamentais visuais.

Introdução

A estabilização da imagem depende de respostas oculomotoras precisas para compensar o fluxo óptico global que ocorre durante o automovimento. Essa estabilização é impulsionada principalmente por duas respostas motoras: o reflexo optocinético (OKR) e o reflexo vestíbulo-ocular (RVO)1,2,3. O movimento global lento através da retina induz o OKR, que provoca a rotação reflexiva do olho na direção correspondente para estabilizar a imagem 1,2. Esse movimento, conhecido como fase lenta, é interrompido por sacadas compensatórias, conhecidas como fase rápida, nas quais o olho se reinicia rapidamente na direção oposta para permitir uma nova fase lenta. Aqui, definimos essas sacadas de fase rápida como movimentos de rastreamento ocular (ETMs). Enquanto o RVO depende do sistema vestibular para provocar movimentos oculares para compensar os movimentos da cabeça3, o OKR é iniciado na retina pelo disparo de ON e subsequente sinalização para o Sistema Óptico Acessório (AOS) no mesencéfalo 4,5. Devido à sua dependência direta dos circuitos da retina, o OKR tem sido frequentemente usado para determinar a capacidade de rastreamento visual em ambientes clínicos e de pesquisa 6,7.

O OKR tem sido estudado extensivamente como uma ferramenta para avaliar a capacidade visual básica 2,6,8, o desenvolvimento de DSGC 9,10,11,12, respostas oculomotoras13 e diferenças fisiológicas entre os antecedentes genéticos7. A OKR é avaliada em animais com cabeça fixa e com estímulo em movimento14. As respostas oculomotoras são normalmente capturadas usando uma variedade de ferramentas de vídeo, e os movimentos de rastreamento ocular são capturados como formas de onda OKR nas direções horizontal e vertical9. Para quantificar a capacidade de rastreamento, duas métricas primárias foram descritas: ganho de rastreamento (a velocidade do olho em relação à velocidade do estímulo) e frequência ETM (o número de sacadas de fase rápida em um determinado período de tempo). O cálculo do ganho tem sido usado historicamente para medir diretamente a velocidade angular do olho para estimar a capacidade de rastreamento; no entanto, esses cálculos são trabalhosos e podem ser derivados arbitrariamente com base em métodos de coleta de vídeo-oculografia e quantificação subsequente. Para uma avaliação mais rápida do OKR, a contagem da frequência do ETM tem sido usada como um método alternativo para medir a acuidade de rastreamento7. Embora isso forneça uma estimativa bastante precisa da capacidade de rastreamento, esse método depende de uma métrica indireta para quantificar a resposta de fase lenta e introduz vários vieses. Isso inclui um viés do observador na determinação da sacádica, uma dependência de respostas sacádicas temporalmente consistentes em uma época definida e uma incapacidade de avaliar a magnitude da resposta de fase lenta.

Para abordar essas preocupações com as abordagens atuais de avaliação de OKR e permitir uma quantificação aprofundada de alto rendimento dos parâmetros OKR, desenvolvemos um novo método de análise para quantificar as formas de onda OKR. Nossa abordagem usa uma plataforma de software acessível baseada em Python chamada "PyOKR". Usando este software, a modelagem e quantificação das respostas de fase lenta OKR podem ser estudadas em maior profundidade e com maior parametrização. O software fornece avaliações quantitativas acessíveis e reprodutíveis de respostas a uma miríade de estímulos visuais e também rastreamento visual bidimensional em resposta ao movimento horizontal e vertical.

Protocolo

Todos os experimentos com animais realizados na Escola de Medicina da Universidade Johns Hopkins (JHUSOM) foram aprovados pelo Comitê Institucional de Cuidados e Uso de Animais (IACUC) no JHUSOM. Todos os experimentos realizados na Universidade da Califórnia, São Francisco (UCSF) foram realizados de acordo com protocolos aprovados pelo Programa Institucional de Cuidados e Uso de Animais da UCSF.

1. Coleta de dados comportamentais

  1. Registre os movimentos oculares OKR usando o método de vídeo-oculografia de escolha para gerar dados de onda (ou seja, uma série temporal do ângulo do olhar do olho em coordenadas esféricas).
    NOTA: Os dados representativos coletados no JHUSOM foram obtidos por meio de cirurgia de implante de cabeceira e vídeo-oculografia, conforme descrito anteriormente 9,13 (Figura 1). Os dados representativos coletados da UCSF foram obtidos por meio da cirurgia de implante de cabeceira e do método de video-oculografia, conforme descrito anteriormente10 (Figura 7).
    1. Anote os parâmetros de estímulo e gravação: taxa de quadros de gravação, velocidade e direção do estímulo e períodos de tempo entre e após as épocas do estímulo. Para estímulos senoidais, observe também a amplitude e a frequência da onda de estímulo.
  2. Exporte os dados de onda coletados como um arquivo . CSV contendo dados de onda horizontal e vertical (azimute e elevação).
    1. Organize os dados da onda como um arquivo . CSV com duas colunas contendo dados horizontais (epxWave) e dados verticais (epyWave).

2. Instalação de software de análise

  1. Baixe e instale o Python.
    1. Para supervisão de gráficos, instale o Spyder via Anaconda.
    2. Para garantir que os gráficos funcionem corretamente no Spyder, vá para Ferramentas > Preferências > Console Ipython > Backend de gráficos > gráficos. Defina Inline como Automático.
  2. Crie um novo ambiente Anaconda com Python.
  3. Instale o PyOKR via PyPi com pip install PyOKR para instalar a versão mais recente junto com as dependências do pacote (Arquivo de Codificação Suplementar 1 e Arquivo de Codificação Suplementar 2)
  4. Se um computador Windows estiver sendo usado, execute a partir do OKR_win de importação PyOKR como o e, em seguida, o.run().
  5. Se um computador Mac estiver sendo usado, execute a partir do PyOKR import OKR_osx as o e, em seguida, o.run().

3. Análise de dados de ondas

  1. Inicialização de análises e importações de arquivos
    1. Execute o.run() em um script .py para abrir a interface do usuário.
    2. Em Arquivo, use a função Abrir ou o comando Ctrl+O [comando iOS] para abrir um navegador que permitirá ao usuário selecionar o arquivo de onda desejado.
    3. Em Arquivo, use o botão Exportar pasta ou o comando Ctrl+E para abrir um navegador de pastas que permitirá a seleção de uma pasta de saída para a qual as análises finais serão exportadas.
    4. Insira o nome do arquivo de análise final no arquivo de saída em um formato recomendado, como AnimalGenotype_AnimalNumber_Analysis.
    5. Defina o programa para um animal individual usando o comando Definir assunto em Arquivo ou o comando Ctrl+S para inicializar o conjunto de dados de um animal individual.
  2. Definição de parâmetros do arquivo de onda
    1. Para começar a definir os parâmetros de estímulo, defina a direcionalidade em Selecionar direção do estímulo selecionando uma das quatro direções cardeais. Para estímulos senoidais, selecione um que contenha (Horizontal) ou (Vertical) de acordo, com a direção cardinal definindo a direção inicial da onda senoidal.
    2. Defina o tipo de estímulo em Selecionar tipo de estímulo como Unidirecional, Oscilatório ou Oblíquo.
    3. Depois de definir a direcionalidade, importe o próprio conjunto de dados de posição de estímulo (Importar dados de vetor de estímulo próprio) ou gere automaticamente um vetor com base em parâmetros (Gerar vetor de estímulo a partir de parâmetros). Se estiver importando um vetor de estímulo, prossiga com 3.2.3.1 e pule para a etapa 3.3. Se estiver gerando um vetor de estímulo, prossiga com as próximas etapas.
      1. Se estiver importando seus próprios dados vetoriais, importe os valores de distância do estímulo (ou seja, uma série temporal que descreve a distância que o estímulo se move entre cada quadro de aquisição adjacente) no mesmo formato descrito na etapa 3.2.1. Além disso, analise todo o conjunto de dados como uma época em vez de dividi-lo em épocas individuais, pois a funcionalidade para subconjunto de valores de estímulo importados não foi adicionada a partir do PyOKR v1.1.2.
    4. Em Parâmetros de estímulo, defina os parâmetros do estímulo usado para coleta de dados.
      1. Defina o período de tempo sem estímulo no início (cabeça) e no final (cauda) de uma determinada tentativa com Cabeça e Cauda.
      2. Defina a quantidade de tempo que um estímulo é mostrado, a quantidade de tempo sem estímulo após e o número de épocas totais em uma determinada tentativa com Duração da época, Duração do pós-estímulo e Número de épocas, respectivamente.
      3. Para estímulos unidirecionais e oblíquos, defina a velocidade do estímulo em graus por segundo com Velocidade horizontal e Velocidade vertical.
      4. Defina a taxa de captura da câmera de coleta com Taxa de quadros de captura.
      5. Para estímulos senoidais, gere a onda senoidal para modelar estímulos oscilatórios com Frequência e Amplitude.
    5. Após a parametrização, faça o modelo apropriado a partir das informações de estímulo inseridas acima com Gerar vetor de estímulo a partir de parâmetros.
    6. Selecione uma determinada época para o estímulo inserido usando Selecionar época para percorrer o arquivo de onda total.
  3. Seleção supervisionada de fases de rastreamento
    1. Para identificar regiões de rastreamento lento, selecione automaticamente sacadas de fase rápida com ajuste preliminar clicando em Dados não filtrados ou Dados filtrados, que rotularão sacádicos potenciais com base nas mudanças de velocidade máxima.
    2. Em Dados não filtrados, confirme se as sacádicos são selecionadas com precisão com um ponto azul. Se a seleção automática não for precisa, remova manualmente os pontos com o botão esquerdo do mouse (LMB) ou adicione pontos com o botão direito do mouse (RMB). Quando as sacadas de fase rápida forem selecionadas adequadamente, salve os pontos com o botão do meio do mouse (MMB) e feche o gráfico.
    3. Se a filtragem automática for desejada, defina um Limite de pontuação Z e clique em Dados filtrados para filtrar sacada automaticamente. Se necessário, use a mesma supervisão manual descrita na etapa 3.3.2 para remover qualquer ruído.
    4. Após a seleção adequada da sacada, pressione Ajuste de ponto para selecionar a região a ser removida. Altere os pontos superior e inferior por meio de um esquema de controle semelhante, conforme descrito anteriormente na etapa 3.3.2. Edite os pontos superiores (verdes) com o LMB ou o RMB e edite os pontos inferiores (vermelhos) com Shift+LMB ou Shift+RMB. Quando os pontos estiverem posicionados corretamente, use o MMB para salvá-los.
      NOTA: se estiver usando um Mac, o ajuste do ponto inferior e superior está em dois botões separados e segue o mesmo esquema de controle descrito na etapa 3.3.2.
  4. Análise de fases de rastreamento lento
    1. Defina a ordem do modelo polinomial usando Definir ordem polinomial para definir o modelo polinomial que será ajustado a fases lentas individuais.
      NOTA: Para estímulos unidirecionais ou oblíquos, o valor padrão é 1, pois a linearidade é necessária para calcular o ganho de rastreamento. Para estímulos senoidais, uma ordem superior é necessária para modelar a curva da onda, com um padrão de 15.
    2. Para analisar o traço, selecione Análise Final para gerar os modelos de fase lenta (Figura 2) para as fases lentas selecionadas (consulte a Figura 2A-D) e calcule as distâncias, velocidades e ganhos de rastreamento médios ao longo da época (Figura 2E).
    3. Para exibir o gráfico bidimensional (2D) ou tridimensional (3D) das regiões selecionadas, selecione Exibir gráfico 2D ou Exibir gráfico 3D , respectivamente.
    4. Selecione Adicionar época para salvar os valores coletados gerados na etapa 3.4.2. Para exibir todos os valores adicionados para um determinado animal, bem como as médias dos ensaios coletados, selecione Exibir conjunto de dados atual.
    5. Depois que uma época for adicionada, percorra o restante do arquivo com Selecionar época, seguindo as etapas 3.3.1 a 3.4.4.
    6. Depois que um arquivo de onda for totalmente analisado, repita esse processo para todos os outros arquivos de um determinado animal, abrindo novos arquivos, definindo os parâmetros apropriados e analisando-os de acordo. Repetindo as etapas 3.2.1-3.4.5 para cada arquivo, gere um conjunto de dados final contendo todos os dados de onda de um determinado animal.
  5. Exportação final de dados
    1. Após a conclusão da análise de dados para um determinado animal, com todas as direções ou estímulos analisados, exporte o conjunto de dados por meio de Exportar dados.
      NOTA: O conjunto de dados bruto será exportado com base no nome do arquivo de saída e salvo ao longo do caminho definido pela pasta de saída como um CSV contendo dados de época individuais com a média total de cada parâmetro de estímulo.
    2. Depois de exportar um animal individual, reinicialize o conjunto de dados com Ctrl+S e repita todas as etapas anteriores para analisar um novo animal.
    3. Se necessário, reorganize todos os dados de saída coletados para vários animais para facilitar a análise usando o comando Classificar dados na guia Análise .
      NOTA: Esta função compilará e classificará todos os valores médios de todos os arquivos de animais analisados armazenados na pasta de saída para permitir a geração mais fácil de gráficos e comparações estatísticas. A classificação depende da nomenclatura dos arquivos a partir da v1.1.2. Use o esquema de nomenclatura recomendado conforme descrito na etapa 3.1.4 para cada arquivo (por exemplo, WT_123_Analysis).

Resultados

Para validar o método de análise descrito acima, quantificamos o ganho de rastreamento OKR em traços de onda coletados de camundongos do tipo selvagem e um mutante nocaute condicional com um déficit de rastreamento conhecido. Além disso, para testar a aplicabilidade mais ampla de nosso método de análise, analisamos traços derivados de uma coorte separada de camundongos do tipo selvagem adquiridos usando um método diferente de coleta de video-oculografia. A filtragem automática de sacádicos facilita o processam...

Discussão

O PyOKR oferece várias vantagens para estudar as respostas visuais refletidas nos movimentos oculares. Isso inclui opções de precisão, acessibilidade e coleta de dados, além da capacidade de incorporar parametrização e velocidades de estímulo variáveis.

A avaliação direta do ganho de rastreamento ocular fornece uma caracterização precisa do movimento ocular que é uma métrica quantitativa mais direta do que a contagem manual tradicional de sacadas de fase rápida (ETMs). Embora ?...

Divulgações

Os autores não têm conflitos de interesse.

Agradecimentos

Este trabalho foi apoiado por R01 EY032095 (ALK), bolsa de pré-doutorado VSTP 5T32 EY7143-27 (JK), F31 EY-033225 (SCH), R01 EY035028 (FAD e ALK) e R01 EY-029772 (FAD).

Materiais

NameCompanyCatalog NumberComments
C57BL/6J  miceJackson Labs664
Igor ProWaveMetricsRRID: SCR_000325
MATLABMathWorksRRID: SCR_001622
Optokinetic reflex recording chamber - JHUSOMCustom-builtN/AAs described in Al-Khindi et al.(2022)9 and Kodama et al. (2016)13 
Optokinetic reflex recording chamber - UCSFCustom-builtN/AAs described in Harris and Dunn, 201510
PythonPython Software FoundationRRID: SCR_008394
Tbx5 flox/+ miceGift from B. BruneauN/AAs described in Al-Khindi et al.(2022)9 
Tg(Pcdh9-cre)NP276Gsat/MmucdMMRRCMMRRC Stock # 036084-UCD; RRID: MMRRC_036084-UCD

Referências

  1. Stahl, J. S. Using eye movements to assess brain function in mice. Vision Res. 44 (28), 3401-3410 (2004).
  2. Kretschmer, F., Tariq, M., Chatila, W., Wu, B., Badea, T. C. Comparison of optomotor and optokinetic reflexes in mice. J Neurophysiol. 118, 300-316 (2017).
  3. Bronstein, A. M., Patel, M., Arshad, Q. A brief review of the clinical anatomy of the vestibular-ocular connections - How much do we know. Eye. 29 (2), 163-170 (2015).
  4. Simpson, J. I. The accessory optic system. Ann Rev Neurosci. 7, 13-41 (1984).
  5. Hamilton, N. R., Scasny, A. J., Kolodkin, A. L. Development of the vertebrate retinal direction-selective circuit. Dev Biol. 477, 273-283 (2021).
  6. Dobson, V., Teller, D. Y. Visual acuity in human infants: a review and comparison of behavioral and electrophysiological studies. Vision Res. 18 (11), 1469-1483 (1978).
  7. Cahill, H., Nathans, J. The optokinetic reflex as a tool for quantitative analyses of nervous system function in mice: Application to genetic and drug-induced variation. PLoS One. 3 (4), e2055 (2008).
  8. Cameron, D. J., et al. The optokinetic response as a quantitative measure of visual acuity in zebrafish. J Vis Exp. (80), e50832 (2013).
  9. Al-Khindi, T., et al. The transcription factor Tbx5 regulates direction-selective retinal ganglion cell development and image stabilization. Curr Biol. 32 (19), 4286-4298 (2022).
  10. Harris, S. C., Dunn, F. A. Asymmetric retinal direction tuning predicts optokinetic eye movements across stimulus conditions. eLife. 12, 81780 (2015).
  11. Sun, L. O., et al. Functional assembly of accessory optic system circuitry critical for compensatory eye movements. Neuron. 86 (4), 971-984 (2015).
  12. Yonehara, K., et al. Congenital Nystagmus gene FRMD7 is necessary for establishing a neuronal circuit asymmetry for direction selectivity. Neuron. 89 (1), 177-193 (2016).
  13. Kodama, T., Du Lac, S. Adaptive acceleration of visually evoked smooth eye movements in mice. J Neurosci. 36 (25), 6836-6849 (2016).
  14. Stahl, J. S., Van Alphen, A. M., De Zeeuw, C. I. A comparison of video and magnetic search coil recordings of mouse eye movements. J Neurosci Methods. 99 (1-2), 101-110 (2000).

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

Reflexo optocin ticoOKREye TrackingSistema visualEstabiliza o de imagemPyOKRAn lise semiautomatizadaVideo oculografiaFase de rastreamento lentoSacadada de fase r pidaGanho de movimento ocular

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados