JoVE Logo

Entrar

É necessária uma assinatura da JoVE para visualizar este conteúdo. Faça login ou comece sua avaliação gratuita.

Neste Artigo

  • Resumo
  • Resumo
  • Introdução
  • Protocolo
  • Resultados
  • Discussão
  • Divulgações
  • Agradecimentos
  • Materiais
  • Referências
  • Reimpressões e Permissões

Resumo

Aqui, apresentamos uma configuração simplificada de hardware e software de código aberto para investigar o aprendizado espacial de mouse usando realidade virtual (RV). Este sistema exibe uma trilha linear virtual para um mouse com restrição de cabeça rodando em uma roda utilizando uma rede de microcontroladores e um computador de placa única executando um pacote de software gráfico Python fácil de usar.

Resumo

Experimentos comportamentais contidos na cabeça em camundongos permitem que os neurocientistas observem a atividade do circuito neural com ferramentas de imagem eletrofisiológica e óptica de alta resolução, ao mesmo tempo em que fornecem estímulos sensoriais precisos a um animal que se comporta. Recentemente, estudos em humanos e roedores utilizando ambientes de realidade virtual (RV) têm mostrado que a RV é uma importante ferramenta para descobrir os mecanismos neurais subjacentes ao aprendizado espacial no hipocampo e córtex, devido ao controle extremamente preciso sobre parâmetros como pistas espaciais e contextuais. A configuração de ambientes virtuais para comportamentos espaciais de roedores pode, no entanto, ser cara e exigir uma extensa formação em engenharia e programação de computadores. Aqui, apresentamos um sistema simples, mas poderoso, baseado em hardware e software baratos, modulares e de código aberto que permite aos pesquisadores estudar o aprendizado espacial em camundongos com restrição de cabeça usando um ambiente de RV. Este sistema usa microcontroladores acoplados para medir a locomoção e fornecer estímulos comportamentais enquanto ratos com a cabeça contida correm em uma roda em conjunto com um ambiente de trilha linear virtual renderizado por um pacote de software gráfico executado em um computador de placa única. A ênfase no processamento distribuído permite que os pesquisadores projetem sistemas flexíveis e modulares para eliciar e medir comportamentos espaciais complexos em camundongos, a fim de determinar a conexão entre a atividade do circuito neural e o aprendizado espacial no cérebro de mamíferos.

Introdução

A navegação espacial é um comportamento etologicamente importante pelo qual os animais codificam as características de novos locais em um mapa cognitivo, que é usado para encontrar áreas de possível recompensa e evitar áreas de perigo potencial. Inextricavelmente ligados à memória, os processos cognitivos subjacentes à navegação espacial compartilham um substrato neural no hipocampo1 e córtex, onde circuitos neurais nessas áreas integram informações recebidas e formam mapas cognitivos de ambientes e eventos para posterior recordação2. Embora a descoberta de células de lugar no hipocampo3,4 e células de grade no córtex entorrinal5 tenha lançado luz sobre como o mapa cognitivo dentro do hipocampo é formado, muitas questões permanecem sobre como subtipos neurais específicos, microcircuitos e sub-regiões individuais do hipocampo (o giro denteado e áreas de cornu amonis, CA3-1) interagem e participam da formação e evocação da memória espacial.

A imagem in vivo de dois fótons tem sido uma ferramenta útil na descoberta da dinâmica celular e populacional em neurofisiologia sensorial 6,7; no entanto, a necessidade típica de apoio de cabeça limita a utilidade deste método para examinar o comportamento espacial de mamíferos. O advento da realidade virtual (RV)8 abordou essa lacuna ao apresentar ambientes visuoespaciais imersivos e realistas enquanto camundongos com restrição da cabeça correm em uma bola ou esteira para estudar a codificação espacial e contextual no hipocampo 8,9,10 e córtex 11. Além disso, o uso de ambientes de RV com camundongos que se comportam permitiu que os pesquisadores da neurociência dissecassem os componentes do comportamento espacial controlando precisamente os elementos do ambiente de RV12 (por exemplo, fluxo visual, modulação contextual) de maneiras não possíveis em experimentos do mundo real de aprendizagem espacial, como o labirinto aquático de Morris, labirinto de Barnes ou tarefas de hole board.

Ambientes de RV visual são normalmente renderizados na unidade de processamento gráfico (GPU) de um computador, que lida com a carga de computação rápida dos milhares de polígonos necessários para modelar um ambiente 3D em movimento em uma tela em tempo real. Os grandes requisitos de processamento geralmente exigem o uso de um PC separado com uma GPU que renderiza o ambiente visual para um monitor, várias telas13 ou um projetor14 , pois o movimento é gravado de uma esteira, roda ou bola de espuma sob o animal. O aparato resultante para controlar, renderizar e projetar o ambiente de RV é, portanto, relativamente caro, volumoso e pesado. Além disso, muitos desses ambientes na literatura foram implementados usando software proprietário que é caro e só pode ser executado em um PC dedicado.

Por essas razões, projetamos um sistema de RV de código aberto para estudar comportamentos de aprendizagem espacial em camundongos com restrição de cabeça usando um computador de placa única Raspberry Pi. Este computador Linux é pequeno e barato, mas contém um chip GPU para renderização 3D, permitindo a integração de ambientes VR com o display ou aparato comportamental em configurações individuais variadas. Além disso, desenvolvemos um pacote gráfico escrito em Python, "HallPassVR", que utiliza o computador de placa única para renderizar um ambiente visuoespacial simples, uma trilha linear virtual ou corredor, recombinando recursos visuais personalizados selecionados usando uma interface gráfica do usuário (GUI). Isso é combinado com subsistemas de microcontroladores (por exemplo, ESP32 ou Arduino) para medir a locomoção e coordenar o comportamento, como a entrega de outras modalidades de estímulos sensoriais ou recompensas para facilitar o aprendizado por reforço. Este sistema fornece um método alternativo barato, flexível e fácil de usar para fornecer ambientes de RV visuoespaciais para camundongos com restrição de cabeça durante imagens de dois fótons (ou outras técnicas que exigem fixação da cabeça) para estudar os circuitos neurais subjacentes ao comportamento de aprendizagem espacial.

Protocolo

Todos os procedimentos deste protocolo foram aprovados pelo Comitê Institucional de Cuidados e Uso de Animais do New York State Psychiatric Institute.

NOTA: Um computador de placa única é usado para exibir um ambiente visual de RV coordenado com a execução de um mouse com restrição de cabeça em uma roda. As informações de movimento são recebidas como entrada serial de um microcontrolador ESP32 lendo um encoder rotativo acoplado ao eixo da roda. O ambiente VR é renderizado usando aceleração de hardware OpenGL na GPU Raspberry Pi, que utiliza o pacote pi3d Python 3D para Raspberry Pi. O ambiente renderizado é então produzido através de um projetor em uma tela parabólica compacta centrada no campo visual do mouse com contenção da cabeça15,16, enquanto o comportamento (por exemplo, lamber em resposta a recompensas espaciais) é medido por um segundo microcontrolador ESP32 de comportamento. O pacote de software gráfico permite a criação de ambientes de trilha linear virtual consistindo de padrões repetidos de estímulos visuais ao longo de um corredor ou corredor virtual com uma interface gráfica do usuário (GUI). Este desenho é facilmente parametrizado, permitindo assim a criação de experiências complexas destinadas a compreender como o cérebro codifica lugares e pistas visuais durante a aprendizagem espacial (ver secção 4). Os projetos para os componentes de hardware personalizados necessários para este sistema (ou seja, a roda de corrida, a tela de projeção e o dispositivo de apoio de cabeça) são depositados em um repositório público do GitHub (https://github.com/GergelyTuri/HallPassVR). Recomenda-se a leitura da documentação desse repositório juntamente com este protocolo, pois o site será atualizado com futuras melhorias do sistema.

1. Configuração do hardware: Construção da roda de corrida, tela de projeção, e aparelho de fixação da cabeça

NOTA: Os componentes personalizados para essas configurações podem ser facilmente fabricados se o usuário tiver acesso a equipamentos de impressão 3D e corte a laser ou podem ser terceirizados para fabricação profissional ou serviços de prototipagem 3D (por exemplo, eMachinehop). Todos os arquivos de design são fornecidos como . Arquivos STL 3D ou . Arquivos DXF AutoCAD.

  1. Roda de corrida e configuração comportamental (Figura 1)
    NOTA: A roda consiste em um cilindro de acrílico transparente (6 de diâmetro, 3 de largura, 1/8 de espessura) centrado em um eixo suspenso de suportes de acrílico cortados a laser através de rolamentos de esferas. O conjunto da roda é então montado em uma estrutura de alumínio leve (com fenda em t) e fixado firmemente a uma protoboard óptica (Figura 1C-E).
    1. Corte a laser as laterais da roda e os suportes do eixo a partir de uma folha de acrílico de 1/4 e prenda as laterais da roda ao cilindro de acrílico com cimento acrílico. Rosqueie a flange do eixo no centro da peça lateral da roda.
    2. Insira o eixo na flange central da roda, encaixe os rolamentos de esferas nos suportes do eixo e fixe-os à barra de apoio vertical de alumínio.
    3. Insira o eixo da roda nos rolamentos de esferas montados, deixando 0,5-1 polegada do eixo além dos rolamentos para a fixação do codificador rotativo.
    4. Fixe o suporte do encoder rotativo na extremidade do eixo oposto à roda e insira o encoder rotativo; Em seguida, use o acoplador de eixo para acoplar o eixo da roda ao eixo do codificador rotativo.
    5. Fixe a porta de lambida ao braço flexível e, em seguida, fixe na estrutura da roda de alumínio com porcas t-slot. Use tubulação de 1/16 polegada para conectar a porta de lambida à válvula solenoide e a válvula ao reservatório de água.
      NOTA: A porta de lambida deve ser feita de metal com um fio soldado para prendê-la aos pinos de detecção de toque capacitivo do comportamento ESP32.
  2. Tela de projeção
    NOTA: A tela de RV é uma pequena tela parabólica de projeção traseira (tamanho da tela: 54 cm x 21,5 cm) baseada em um projeto desenvolvido no laboratório de Christopher Harvey15,16. O ângulo de projeção (keystone) do projetor LED utilizado é diferente daquele do projetor a laser utilizado anteriormente; assim, o projeto original é ligeiramente modificado pela montagem da unidade sob a tela e simplificando o sistema de espelhos (Figura 1A, B). A leitura da documentação do laboratório Harvey juntamente com a nossa é altamente recomendada para adaptar o ambiente de RV às necessidades do usuário15.
    1. Corte a laser as laterais da tela de projeção de 1/4 em folhas de acrílico fosco preto. Corte a laser o espelho de projeção traseiro de 1/4 em acrílico espelhado.
    2. Monte a moldura da tela de projeção com as barras de alumínio e corte a laser os painéis de acrílico.
    3. Insira o material da tela de projeção translúcida no slot parabólico no quadro. Insira o espelho retrovisor de projeção no slot na parte de trás do quadro da tela de projeção.
    4. Coloque um projetor LED na placa de montagem inferior dentro da moldura da tela de projeção. Alinhe o projetor com parafusos de montagem para otimizar o posicionamento da imagem projetada na tela de projeção traseira parabólica.
    5. Sele a unidade da caixa do projetor para evitar a contaminação luminosa dos sensores ópticos, se necessário.
  3. Aparelhos de apoio de cabeça
    NOTA: Este projeto de dispositivo de apoio de cabeça consiste em dois coletores impressos em 3D interligados para fixar um poste de cabeça de metal (Figura 1E, F).
    1. Usando uma impressora 3D SLM de alta resolução, imprima em 3D o poste da cabeça segurando os braços.
      NOTA: O plástico impresso com resina é capaz de fornecer fixação estável da cabeça para experimentos comportamentais; no entanto, para obter a máxima estabilidade para aplicações sensíveis, como gravação de célula única ou imagem de dois fótons, recomenda-se o uso de peças de metal usinadas (por exemplo, eMachineShop).
    2. Instale o suporte do poste da cabeça impresso em 3D em um goniômetro de eixo duplo com postes de montagem ópticos para que a cabeça do animal possa ser inclinada para nivelar a preparação.
      NOTA: Esse recurso é indispensável para experimentos de imagem in vivo de longo prazo quando é necessário encontrar a mesma população celular em sessões de imagem subsequentes. Caso contrário, esse recurso pode ser omitido para reduzir o custo da instalação.
    3. Fabricar os postes de cabeça.
      NOTA: Dois tipos de postes de cabeça com complexidade (e preço) diferentes são depositados no link fornecido na Tabela de Materiais juntamente com estas instruções.
      1. Dependendo do tipo de experimento, decida qual poste de cabeça implementar. As barras principais são feitas de aço inoxidável e geralmente são terceirizadas para qualquer oficina mecânica local ou serviço on-line (por exemplo, eMachineShop) para fabricação.

2. Configuração do hardware/software eletrônico (computador de placa única, microcontroladores ESP32, Figura 2)

  1. Configure o computador de placa única.
    NOTA: O computador de placa única incluído na Tabela de Materiais (Raspberry Pi 4B) é ideal para essa configuração porque tem uma GPU integrada para facilitar a renderização do ambiente VR e duas portas HDMI para controle/monitoramento de experimentos e projeção VR. Outros computadores de placa única com essas características podem ser potencialmente substituídos, mas algumas das instruções a seguir podem ser específicas do Raspberry Pi.
    1. Baixe o aplicativo imageador de computador de placa única para o PC e instale o sistema operacional (atualmente Raspberry Pi OS r.2021-05-07) no cartão microSD (16+ GB). Insira a placa e inicialize o computador de placa única.
    2. Configure o computador de placa única para a biblioteca pi3d Python 3D: (barra de menus) Preferências > Configuração do Raspberry Pi.
      1. Clique em Exibir > tela em branco > Desativar.
      2. Clique em Interfaces > porta serial > Ativar.
      3. Clique em Performance > GPU Memory > 256 (MB).
    3. Atualize o pacote da biblioteca de imagens Python para pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Instale o pacote pi3d Python 3D para o computador de placa única: (terminal)> sudo pip3 instale o pi3d.
    5. Aumente o nível de saída HDMI para o projetor: (terminal)> sudo nano /boot/config.txt, remova o comentário config_hdmi_boost=4, salve e reinicie.
    6. Baixe e instale o ambiente de desenvolvimento integrado (IDE) a partir do arduino.cc/en/software (por exemplo, arduino-1.8.19-linuxarm.tar.gz), que é necessário para carregar o código no codificador rotativo e nos microcontroladores ESP32 de comportamento.
    7. Instale o suporte ao microcontrolador ESP32 no IDE:
      1. Clique em Preferências de > de Arquivos > URLs adicionais do Board Manager = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Clique em Tools > Boards > Boards Manager > ESP32 (by Espressif). Instale a v.2.0.0 (o carregamento atualmente falha na v2.0.4).
    8. Baixe e instale o IDE de processamento a partir do https://github.com/processing/processing4/releases (por exemplo, processing-4.0.1-linux-arm32.tgz), que é necessário para a gravação e plotagem on-line do comportamento do mouse durante a RV.
      NOTA: Os ambientes Arduino e Processing podem ser executados em um PC separado do computador de placa única VR, se desejado.
  2. Configure as conexões ESP32 do codificador rotativo.
    NOTA: O codificador rotativo acoplado ao eixo da roda mede a rotação da roda com a locomoção do mouse, que é contada com um microcontrolador ESP32. As mudanças de posição são então enviadas para a porta serial GPIO do computador de placa única para controlar o movimento através do ambiente virtual usando o pacote gráfico de software, bem como para o comportamento ESP32 para controlar as zonas de recompensa (Figura 2).
    1. Conecte os fios entre o componente codificador rotativo e o ESP32 rotativo. Os encoders rotativos geralmente têm quatro fios: +, GND, A e B (duas linhas digitais para encoders de quadratura). Conecte-os através de fios de jumper ao ESP32 3.3 V, GND, 25, 26 (no caso do código anexado).
    2. Conecte os fios RX/TX seriais entre o ESP32 rotativo e o comportamento ESP32. Faça uma conexão simples de dois fios entre o rotativo ESP32 Serial0 RX/TX (receive/transmit) e a porta Serial2 do comportamento ESP32 (TX/RX, pinos 17, 16; veja Porta Serial2 à direita do OMwSmall PCB). Isso transportará informações de movimento do codificador rotativo para a configuração de comportamento para zonas espaciais, como zonas de recompensa.
    3. Conecte os fios RX/TX seriais entre o ESP32 rotativo e o GPIO (ou conexão USB direta) do computador de placa única. Faça uma conexão de dois fios entre os pinos GPIO 14, 15 (RX/TX) do computador de placa única e o ESP32 Serial2 rotativo (TX/RX, pinos 17, 16). Isso transportará informações de movimento do codificador rotativo para o pacote de software gráfico em execução no computador de placa única.
      NOTA: Esta etapa só é necessária se o ESP32 rotativo não estiver conectado via USB (ou seja, é uma conexão serial GPIO em "/dev/ttyS0"), mas o código HallPassVR_wired.py deve ser modificado para usar "/dev/ttyUSB0". Esta conexão com fio será substituída por uma conexão Bluetooth sem fio em versões futuras.
    4. Conecte o USB rotativo ESP32 ao USB do computador de placa única (ou outro PC que execute o IDE) para carregar o código do codificador rotativo inicial.
  3. Configure as conexões ESP32 de comportamento com o hardware comportamental (via OpenMaze PCB).
    NOTA: O microcontrolador ESP32 de comportamento controlará todas as interações animais não-VR (entregando estímulos e recompensas não-VR, detectando lambidas do mouse), que são conectadas através de uma "placa de breakout" geral PCB para o ESP32, "OMwSmall", cujos projetos estão disponíveis através do site OpenMaze (www.openmaze.org). A PCB contém os componentes eletrônicos necessários para acionar os componentes eletromecânicos, como as válvulas solenoides usadas para entregar recompensas líquidas.
    1. Conecte a válvula solenoide líquida de 12 V à saída ULN2803 IC na extremidade esquerda da PCB OMwSmall (pino 12 na configuração e código de exemplo). Este CI transporta alimentação de 12 V para a válvula solenoide de recompensa, controlada por uma saída GPIO no microcontrolador ESP32 de comportamento.
    2. Conecte a porta lick à entrada de toque ESP32 (por exemplo, T0, GPIO4 no código de exemplo). O ESP32 tem sensor de toque capacitivo embutido em pinos específicos, que o código ESP32 de comportamento usa para detectar a lambida do mouse da porta de lambida de metal conectada durante o comportamento VR.
    3. Conecte os fios RX/TX seriais entre o comportamento ESP32 Serial2 (pinos 16, 17) e o codificador rotativo ESP32 Serial0 (veja a etapa 2.2.2).
    4. Conecte o USB à porta USB do computador de placa única (ou outro PC) para carregar novos programas para o comportamento ESP32 para diferentes paradigmas experimentais (por exemplo, número/localização de zonas de recompensa) e para capturar dados de comportamento usando o esboço de processamento incluído.
    5. Conecte o adaptador de parede DC de 12 V ao conector de conector de barril de 2,1 mm na PCB ESP32 OMwSmall para fornecer a energia para a válvula solenoide de recompensa.
    6. Conecte a saída HDMI #2 do computador de placa única à porta HDMI do projetor; isso levará o ambiente VR renderizado pela GPU do computador de placa única para a tela de projeção.
    7. (opcional) Conecte o fio de sincronização (pino 26) a uma configuração de imagem neural ou gravação eletrofisiológica. Um sinal de 3,3 V transistor-transistor-logic (TTL) será enviado a cada 5 s para alinhar os sistemas com precisão de quase milissegundos.
  4. Configure o software: Carregue o firmware/software no codificador rotativo ESP32 (Figura 2B) e no comportamento ESP32 (Figura 2E) usando o IDE e baixe o software VR Python no computador de placa única. Veja https://github.com/GergelyTuri/HallPassVR/software.
    1. Conecte o codificador rotativo ESP32 à porta USB do computador de placa única primeiro - isso será automaticamente nomeado "/dev/ttyUSB0 " pelo sistema operacional.
    2. Carregue o código do codificador rotativo: abra o arquivo RotaryEncoder_Esp32_VR.ino no IDE e selecione o ESP32 em Ferramentas > Placas > Módulo de Desenvolvimento do ESP32. Selecione a porta ESP32 clicando em Ferramentas > Porta > /dev/ttyUSB0 e, em seguida, clique em Carregar.
    3. Conecte o comportamento ESP32 à porta USB do computador de placa única em seguida - isso será chamado de "/dev/ttyUSB1" pelo sistema operacional.
    4. Carregue o código de sequência de comportamento no comportamento ESP32 (IDE, ESP32 Dev Module já selecionado), clique em Tools > Port > /dev/ttyUSB1 e clique em Upload: wheel_VR_behavior.ino.
    5. Teste as conexões seriais selecionando a porta serial para cada ESP32 no IDE (Tools > Port > /dev/ttyUSB0 ou /dev/ttyUSB1) e clicando em Tools > Serial Monitor (baud rate: 115.200) para observar a saída serial da placa rotativa (USB0) ou da placa de comportamento (USB1). Gire a roda para ver uma saída de movimento bruto do ESP32 rotativo em USB0 ou saída de movimento formatada do comportamento ESP32 em USB1.
    6. Faça o download do pacote gráfico de software Python do código https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (para /home/pi/Documents). Esta pasta contém todos os arquivos necessários para executar o pacote de software gráfico se o pacote pi3d Python3 foi instalado corretamente anteriormente (etapa 2.1).

3. Executando e testando o pacote de software gráfico

NOTA: Execute a GUI do pacote de software gráfico para iniciar um ambiente de trilha linear de RV, calibrar as distâncias no software de RV e no código ESP32 de comportamento e testar a aquisição e a plotagem on-line do comportamento de corrida e lambida do mouse com o esboço de linguagem de processamento incluído.

  1. Abra a janela do terminal no computador de placa única e navegue até a pasta HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Execute a GUI VR: (terminal)> python3 HallPassVR_GUI.py (a janela GUI será aberta, Figura 3A).
  3. GUI gráfica do software
    1. Selecione e adicione quatro elementos (imagens) da caixa de listagem (ou selecione o padrão pré-armazenado abaixo e, em seguida, clique em Carregar) para cada um dos três padrões ao longo da faixa e, em seguida, clique em Gerar.
      Observação : novos arquivos de imagem (.jpeg) podem ser colocados na pasta HallPassVR/HallPassVR_wired/images/ELEMENTS antes que a GUI seja executada.
    2. Selecione imagens de piso e teto nos menus suspensos e defina o comprimento da faixa como 2 m para este código de exemplo (ele deve ser igual ao trackLength em milímetros [mm] no código ESP32 de comportamento e no código de processamento).
    3. Nomeie este padrão se desejado (ele será armazenado em HallPassVR_wired/images/PATH_HIST).
    4. Clique no botão Iniciar (aguarde até que a janela VR seja iniciada antes de clicar em outro lugar). O ambiente de RV aparecerá na Tela #2 (tela de projeção, Figura 3B, C).
  4. Execute o esboço de processamento para adquirir e plotar os dados/movimento comportamental.
    1. Abra VRwheel_RecGraphSerialTxt.pde no IDE de processamento.
    2. Mude o animal = "yourMouseNumber"; variável e defina sessionMinutes igual à duração da sessão comportamental em minutos.
    3. Clique no botão Executar no IDE de processamento.
    4. Verifique a janela Gráfico de processamento, que deve mostrar a posição atual do mouse na pista linear virtual à medida que a roda gira, juntamente com as zonas de recompensa e histogramas de execução das lambidas, voltas e recompensas atualizadas a cada 30 s (Figura 3D). Avançar o volante manualmente para simular o mouse em execução para teste ou use um mouse de teste para a configuração inicial.
    5. Clique na janela de plotagem e pressione a tecla q no teclado para parar de adquirir dados comportamentais. Um arquivo de texto dos eventos e horários comportamentais (geralmente <2 MB de tamanho por sessão) e uma imagem da janela de plotagem final (.png) são salvos quando sessionMinutes se esgota ou o usuário pressiona a tecla q para sair.
      NOTA: Devido ao pequeno tamanho dos arquivos de .txt de saída, estima-se que pelo menos vários milhares de gravações de comportamento podem ser armazenadas no cartão SD do computador de placa única. Os arquivos de dados podem ser salvos em um pen drive para análise subsequente ou, se conectados a uma rede local, os dados podem ser gerenciados remotamente.
  5. Calibre o comprimento da faixa de comportamento com o comprimento da trilha VR.
    1. Avançar a roda manualmente enquanto observa o corredor de RV e a posição do mouse (no gráfico Processamento). Se o corredor de RV terminar antes/depois que o mouse atingir o final do gráfico de comportamento, aumente/diminua o comprimento da trilha de RV incrementalmente (HallPassVR_wired.py, corridor_length_default, em centímetros [cm]) até que a trilha seja redefinida simultaneamente nos dois sistemas.
      NOTA: O código está atualmente calibrado para uma roda de corrida de 6 polegadas de diâmetro usando um codificador rotativo de quadratura de 256 posições, de modo que o usuário pode ter que alterar o VR (HallPassVR_wired.py, corridor_length_default, em centímetros [cm]) e o código de comportamento (wheel_VR_behavior.ino, trackLength, em milímetros [mm]) para levar em conta outras configurações. A posição comportamental é, no entanto, redefinida a cada volta de RV para manter a correspondência entre os sistemas.

4. Treinamento de camundongos e comportamento de aprendizagem espacial

NOTA: Os ratos são implantados para fixação da cabeça, habituados ao apoio de cabeça e, em seguida, treinados para correr na roda e lamber consistentemente para obter recompensas líquidas progressivamente ("forrageamento aleatório"). Os ratos que conseguem correr e lamber consistentemente são então treinados em uma tarefa de recompensa espacial oculta usando o ambiente VR, no qual uma única zona de recompensa é apresentada seguindo uma pista visual na trilha linear virtual. O aprendizado espacial é então medido como o aumento da seletividade de lambedura para posições imediatamente anteriores à zona de recompensa.

  1. Cirurgia pós-implante de cabeça: Este procedimento é descrito em detalhes em outras publicações deste periódico e em outros, portanto, consulte esta literatura para instruções específicas 7,17,18,19,20,21.
  2. Programação hídrica
    1. Realizar restrição hídrica 24 horas antes da primeira manipulação (veja abaixo) e permitir o consumo de água ad libitum após cada sessão de habituação ou comportamento de contenção da cabeça. Diminua o tempo de disponibilidade de água gradualmente ao longo de três dias durante a habituação para cerca de 5 minutos e ajuste a quantidade para camundongos individuais de modo que seu peso corporal não caia abaixo de 80% de seu peso pré-restrição. Monitorar o peso de cada animal diariamente e também observar a condição de cada camundongo em busca de sinais de desidratação22. Camundongos que não são capazes de manter 80% de seu peso corporal pré-restrição ou parecem desidratados devem ser removidos do estudo e receber disponibilidade de água livre.
      NOTA: A restrição hídrica é necessária para motivar os ratos a correrem na roda usando recompensas líquidas, bem como para usar a lambida espacial como uma indicação de locais aprendidos ao longo da pista. As diretrizes institucionais podem diferir sobre instruções específicas para este procedimento, portanto, o usuário deve consultar seus comitês institucionais de cuidados com animais individuais para garantir a saúde e o bem-estar animal durante a restrição hídrica.
  3. Manuseio: Manipular os camundongos implantados diariamente para habituá-los ao contato humano, após o que água ad libitum limitada pode ser administrada como reforço (1-5 min/dia, 2 dias a 1 semana).
  4. Habituação ao apoio de cabeça
    1. Habitue os ratos ao apoio de cabeça por quantidades crescentes de tempo, colocando-os no aparelho de apoio de cabeça enquanto os recompensa com gotas ocasionais de água para reduzir o estresse da fixação da cabeça.
    2. Iniciar com 5 min de fixação da cabeça e aumentar a duração em incrementos de 5 min diariamente até que os camundongos sejam capazes de tolerar a fixação por até 30 min. Remova os ratos do aparelho de fixação se eles parecerem estar lutando ou se movendo muito pouco. No entanto, os ratos geralmente começam a correr na roda espontaneamente dentro de várias sessões, o que significa que eles estão prontos para a próxima etapa do treinamento.
      NOTA: Os ratos que lutam repetidamente sob apoio de cabeça ou não correm e lambem para obter recompensas devem regredir para estágios anteriores de treinamento e removidos do estudo se não progredirem por três desses ciclos de correção (ver Tabela 1).
  5. Treinamento de corrida/lambida (forrageamento aleatório)
    NOTA: Para executar a tarefa de aprendizagem espacial no ambiente de RV, os ratos devem primeiro aprender a correr na roda e lamber consistentemente para recompensas ocasionais. A progressão nos parâmetros comportamentais operante é controlada através do microcontrolador de comportamento ESP32.
    1. Forrageamento aleatório com recompensas não operantes
      1. Execute o programa GUI do software gráfico com um caminho de elementos visuais arbitrários (escolha do usuário, consulte a etapa 3.3).
      2. Carregue o programa de comportamento para o comportamento ESP32 com várias recompensas não operantes (variáveis de código: isOperant=0, numRew=4, isRandRew=1) para condicionar os ratos a correr e lamber. Execute os ratos em sessões de 20-30 minutos até que os ratos corram por pelo menos 20 voltas por sessão e lambam as recompensas apresentadas em locais aleatórios (uma a quatro sessões).
    2. Forrageamento aleatório com recompensas operantes em voltas alternadas
      1. Carregue o programa de comportamento com altOpt=1 (alternando voltas operantes/não operantes) e treine os ratos até que eles lambam para zonas de recompensa não operantes e operantes (uma a quatro sessões).
    3. Forrageamento aleatório totalmente operante
      1. Carregue o programa de comportamento com quatro zonas de recompensa aleatórias operantes (variáveis de código ESP32 de comportamento: isOperant=1, numRew=4, isRandRew=1). Ao final dessa etapa de treinamento, os camundongos devem estar correndo consistentemente e realizando lambe-lambes de teste em toda a extensão da pista (uma a quatro sessões; Figura 4A).
  6. Aprendizagem espacial
    NOTA: Realizar um experimento de aprendizagem espacial com uma única zona de recompensa oculta a alguma distância de uma única pista visual, selecionando um corredor de 2 m de comprimento com painéis escuros ao longo da pista e um único painel de estímulo visual de alto contraste no meio como uma pista visual (posição de 0,9-1,1 m), análogo a experimentos recentes com pistas olfativas espaciais20 . Os ratos são obrigados a lamber em uma zona de recompensa (em uma posição de 1,5-1,8 m) localizada a uma distância da pista visual no ambiente de pista linear virtual.
    1. Execute o programa de software gráfico com um caminho de um corredor escuro com uma única pista visual no centro (por exemplo, tabuleiro de xadrez, veja a etapa 3.3, Figura 3A).
    2. Carregue o programa de comportamento com uma única zona de recompensa oculta para o comportamento ESP32 (variáveis de código ESP32 de comportamento: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Coloque suavemente o mouse no aparelho de fixação da cabeça, ajuste o bico de lambida para um local imediatamente anterior à boca do mouse e posicione a roda do mouse no centro da zona da tela de projeção. Certifique-se de que a cabeça do mouse esteja a ~12-15 cm de distância da tela após os ajustes finais.
    4. Defina o nome do animal no esboço de processamento e, em seguida, pressione executar no IDE de processamento para começar a adquirir e plotar os dados comportamentais (consulte a etapa 3.4).
    5. Execute o mouse por sessões de 30 minutos com uma única zona de recompensa oculta e um único corredor de RV visual.
    6. Offline: baixe o arquivo de dados .txt da pasta Processing sketch e analise o comportamento de lambida espacial (por exemplo, no Matlab com os arquivos incluídos procVRbehav.m e vrLickByLap.m).
      NOTA: Os ratos devem inicialmente realizar lambidas de teste em toda a pista virtual ("forrageamento aleatório") e, em seguida, começar a lamber seletivamente apenas perto do local da recompensa seguindo a pista visual da RV (Figura 4).

Resultados

Essa configuração comportamental de realidade virtual de código aberto nos permitiu quantificar o comportamento de lamber como uma leitura do aprendizado espacial enquanto camundongos com a cabeça contida navegavam em um ambiente de trilha linear virtual. Sete camundongos C57BL/6 de ambos os sexos aos 4 meses de idade foram colocados em um esquema de água restrita e primeiro treinados para lamber continuamente em níveis baixos enquanto corriam na roda para recompensas espaciais aleatórias ("forrageamento aleatóri...

Discussão

Este sistema VR de código aberto para ratos só funcionará se as conexões seriais forem feitas corretamente entre os microcontroladores ESP32 rotativos e comportamentais e o computador de placa única (etapa 2), o que pode ser confirmado usando o monitor serial IDE (etapa 2.4.5). Para obter resultados comportamentais bem-sucedidos deste protocolo (passo 4), os camundongos devem estar habituados ao aparelho e estar confortáveis correndo na roda para obter recompensas líquidas (passos 4.3-4.5). Isso requer restrição...

Divulgações

Clay Lacefield é o fundador e mantenedor do OpenMaze.org, que fornece projetos para o OMwSmall PCB usado neste protocolo gratuitamente para download.

Agradecimentos

Gostaríamos de agradecer a Noah Pettit do laboratório Harvey pela discussão e sugestões durante o desenvolvimento do protocolo neste manuscrito. Este trabalho foi apoiado por um BBRF Young Investigator Award e NIMH 1R21MH122965 (G.F.T.), além de NINDS R56NS128177 (R.H., C.L.) e NIMH R01MH068542 (R.H.).

Materiais

NameCompanyCatalog NumberComments
1/4 " diam aluminum rodMcMaster-Carr9062K263" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2)Amazon.comB09ZNMR41Vfor affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2)8020.net1020wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick)Canal Plastics33210090702Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screwsMcMaster-Carr92196A194fastening head post holder to optical post 
Adjustable arm (14")Amazon.comB087BZGKSLto hold/adjust lick spout
Analysis code (MATLAB)custom writtenfile at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" IDPololu1993for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2)McMaster-Carr57155K324for mounting wheel axle to frame
Behavior ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick)Canal Plastics32918353422laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick)Canal Plastics32920770574laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2)Amazon.comB086YS4Z3Fmicrocontroller for behavior and rotary encoder
ESP32 shieldOpenMaze.orgOMwSmalldescription at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets 8020.net4138, 3382,3280for wheel frame mounts
goniometersEdmund Optics66-526, 66-527optional for behavior. Fine tuning head for imaging
HallPassVR python codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holdercustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projectorTexas InstrumentsDLPDLCR230NPEVMor other small LED projector
Lick spoutVWR20068-638(or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screwsMcMaster-Carr92015A097securing head post 
Matte white diffusion paperAmazon.comscreen material
Metal headpostscustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID)for constructing the water line
Optical breadboardThorlabsas per user's requirements
Optical posts, 1/2" diam (2x)ThorlabsTR4for head fixation setup
Processing codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4Braspberry.com, adafruit.comSingle-board computer for rendering of HallPassVR envir.
Right angle clampThorlabsRA90for head fixation setup
Rotary encoder (quadrature, 256 step)DigiKeyENS1J-B28-L00256Lto measure wheel rotation
Rotary encoder ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cementAmazon.com
Shaft couplerMcMaster-Carr9861T426to couple rotary encoder shaft with axle
Silver mirror acrylic sheetsCanal Plastics32913817934laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valveParker003-0137-900to administer water rewards

Referências

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Reimpressões e Permissões

Solicitar permissão para reutilizar o texto ou figuras deste artigo JoVE

Solicitar Permissão

Explore Mais Artigos

Neuroci nciaEdi o 193

This article has been published

Video Coming Soon

JoVE Logo

Privacidade

Termos de uso

Políticas

Pesquisa

Educação

SOBRE A JoVE

Copyright © 2025 MyJoVE Corporation. Todos os direitos reservados