JoVE Logo

Войдите в систему

Для просмотра этого контента требуется подписка на Jove Войдите в систему или начните бесплатную пробную версию.

В этой статье

  • Резюме
  • Аннотация
  • Введение
  • протокол
  • Результаты
  • Обсуждение
  • Раскрытие информации
  • Благодарности
  • Материалы
  • Ссылки
  • Перепечатки и разрешения

Резюме

Здесь мы представляем упрощенную аппаратную и программную установку с открытым исходным кодом для исследования пространственного обучения мыши с использованием виртуальной реальности (VR). Эта система отображает виртуальную линейную дорожку для мыши с головой, работающей на колесе, используя сеть микроконтроллеров и одноплатный компьютер, на котором работает простой в использовании графический программный пакет Python.

Аннотация

Поведенческие эксперименты с головой на мышах позволяют нейробиологам наблюдать активность нейронных цепей с помощью электрофизиологических и оптических инструментов визуализации с высоким разрешением, доставляя точные сенсорные стимулы ведущему себя животному. Недавние исследования на людях и грызунах с использованием сред виртуальной реальности (VR) показали, что VR является важным инструментом для раскрытия нейронных механизмов, лежащих в основе пространственного обучения в гиппокампе и коре, благодаря чрезвычайно точному контролю над такими параметрами, как пространственные и контекстуальные сигналы. Однако создание виртуальных сред для пространственного поведения грызунов может быть дорогостоящим и требует обширного опыта в области инженерии и компьютерного программирования. Здесь мы представляем простую, но мощную систему, основанную на недорогом модульном аппаратном и программном обеспечении с открытым исходным кодом, которая позволяет исследователям изучать пространственное обучение у мышей с ограниченной головой с использованием среды виртуальной реальности. Эта система использует связанные микроконтроллеры для измерения локомоции и доставки поведенческих стимулов, в то время как мыши с головой работают на колесе в сочетании с виртуальной линейной средой трека, визуализируемой графическим программным пакетом, работающим на одноплатном компьютере. Акцент на распределенной обработке позволяет исследователям разрабатывать гибкие модульные системы для выявления и измерения сложного пространственного поведения у мышей, чтобы определить связь между активностью нейронных цепей и пространственным обучением в мозге млекопитающих.

Введение

Пространственная навигация — это этологически важное поведение, с помощью которого животные кодируют особенности новых мест в когнитивную карту, которая используется для поиска областей возможного вознаграждения и избегания областей потенциальной опасности. Неразрывно связанные с памятью когнитивные процессы, лежащие в основе пространственной навигации, имеют общий нейронный субстрат в гиппокампе1 и коре головного мозга, где нейронные цепи в этих областях интегрируют поступающую информацию и формируют когнитивные карты окружающей среды и событий для последующего вспоминания2. В то время как открытие клеток места в гиппокампе3,4 и клеток сетки в энторинальной коре5 пролило свет на то, как формируется когнитивная карта в гиппокампе, остается много вопросов о том, как конкретные нейронные подтипы, микросхемы и отдельные субрегионы гиппокампа (зубчатая извилина и области рогового аммониса, CA3-1) взаимодействуют и участвуют в формировании пространственной памяти и воспоминании.

Двухфотонная визуализация in vivo была полезным инструментом для выявления клеточной и популяционной динамики в сенсорной нейрофизиологии 6,7; Однако типичная необходимость в подголовниках ограничивает полезность этого метода для изучения пространственного поведения млекопитающих. Появление виртуальной реальности (VR)8 устранило этот недостаток, представив иммерсивные и реалистичные зрительно-пространственные среды, в то время как мыши с головой бегают по мячу или беговой дорожке для изучения пространственного и контекстуального кодирования в гиппокампе 8,9,10 и коре11. Кроме того, использование сред виртуальной реальности с ведущими себя мышами позволило исследователям в области нейробиологии анализировать компоненты пространственного поведения, точно контролируя элементы средывиртуальной реальности 12 (например, визуальный поток, контекстуальную модуляцию) способами, невозможными в реальных экспериментах по пространственному обучению, таких как водный лабиринт Морриса, лабиринт Барнса или задачи на доске с отверстиями.

Визуальные среды виртуальной реальности обычно визуализируются на графическом процессоре (GPU) компьютера, который обрабатывает нагрузку быстрого вычисления тысяч полигонов, необходимых для моделирования движущейся 3D-среды на экране в режиме реального времени. Большие требования к обработке, как правило, требуют использования отдельного ПК с графическим процессором, который отображает визуальную среду на мониторе, нескольких экранах13 или проекторе14 , поскольку движение записывается с беговой дорожки, колеса или пенопластового мяча под животным. Таким образом, полученное устройство для управления, рендеринга и проецирования среды виртуальной реальности является относительно дорогим, громоздким и громоздким. Кроме того, многие такие среды в литературе были реализованы с использованием проприетарного программного обеспечения, которое является дорогостоящим и может быть запущено только на выделенном ПК.

По этим причинам мы разработали систему виртуальной реальности с открытым исходным кодом для изучения поведения пространственного обучения у мышей с ограниченной головой с использованием одноплатного компьютера Raspberry Pi. Этот компьютер с Linux маленький и недорогой, но содержит чип графического процессора для 3D-рендеринга, что позволяет интегрировать среды виртуальной реальности с дисплеем или поведенческим устройством в различных индивидуальных настройках. Кроме того, мы разработали графический программный пакет, написанный на Python, «HallPassVR», который использует одноплатный компьютер для рендеринга простой визуально-пространственной среды, виртуальной линейной дорожки или коридора, путем рекомбинации пользовательских визуальных функций, выбранных с помощью графического пользовательского интерфейса (GUI). Это сочетается с микроконтроллерными подсистемами (например, ESP32 или Arduino) для измерения локомоции и координации поведения, например, путем доставки других модальностей сенсорных стимулов или вознаграждений для облегчения обучения с подкреплением. Эта система предоставляет недорогой, гибкий и простой в использовании альтернативный метод доставки зрительно-пространственных сред виртуальной реальности мышам с ограниченной головой во время двухфотонной визуализации (или других методов, требующих фиксации головы) для изучения нейронных цепей, лежащих в основе поведения пространственного обучения.

протокол

Все процедуры в этом протоколе были одобрены Комитетом по уходу за животными и их использованию Психиатрического института штата Нью-Йорк.

ПРИМЕЧАНИЕ: Одноплатный компьютер используется для отображения визуальной среды виртуальной реальности, согласованной с бегом мыши с головой на колесе. Информация о движении поступает в виде последовательного ввода от микроконтроллера ESP32, считывающего поворотный энкодер, соединенный с осью колеса. Среда VR визуализируется с использованием аппаратного ускорения OpenGL на графическом процессоре Raspberry Pi, который использует пакет pi3d Python 3D для Raspberry Pi. Затем визуализированная среда выводится через проектор на компактный закругленный параболический экран, центрированный на поле зрениямыши 15,16, в то время как поведение (например, облизывание в ответ на пространственное вознаграждение) измеряется вторым микроконтроллером поведения ESP32. Графический программный пакет позволяет создавать виртуальные линейные дорожные среды, состоящие из повторяющихся шаблонов визуальных стимулов вдоль виртуального коридора или коридора с графическим пользовательским интерфейсом (GUI). Эта конструкция легко параметризуется, что позволяет проводить сложные эксперименты, направленные на понимание того, как мозг кодирует места и визуальные сигналы во время пространственного обучения (см. раздел 4). Проекты пользовательских аппаратных компонентов, необходимых для этой системы (т. е. ходового колеса, проекционного экрана и подголовника), хранятся в общедоступном репозитории GitHub (https://github.com/GergelyTuri/HallPassVR). Рекомендуется ознакомиться с документацией этого репозитория вместе с этим протоколом, так как сайт будет обновляться с учетом будущих улучшений системы.

1. Аппаратная настройка: конструкция ходового колеса, проекционного экрана и аппарата для фиксации головы

ПРИМЕЧАНИЕ: Пользовательские компоненты для этих установок могут быть легко изготовлены, если пользователь имеет доступ к оборудованию для 3D-печати и лазерной резки, или могут быть переданы на аутсорсинг профессиональному производству или услугам 3D-прототипирования (например, eMachinehop). Все файлы дизайна предоставляются в формате . Файлы STL 3D или . DXF файлы AutoCAD.

  1. Беговое колесо и поведенческая установка (рис. 1)
    ПРИМЕЧАНИЕ: Колесо состоит из прозрачного акрилового цилиндра (6 в диаметре, 3 в ширину, 1/8 в толщину), центрированного на оси, подвешенной к акриловым креплениям, вырезанным лазером с помощью шарикоподшипников. Затем колесо в сборе крепится к легкой алюминиевой раме (с Т-образными пазами) и надежно закрепляется на оптической макетной плате (рис. 1C-E).
    1. Вырежьте лазером боковые стороны колеса и крепления оси из акрилового листа толщиной 1/4 дюйма и прикрепите боковые стороны колеса к акриловому цилиндру с помощью акрилового цемента. Вкрутите фланец оси в центр боковой части колеса.
    2. Вставьте ось в центральный фланец колеса, вставьте шарикоподшипники в опоры оси и прикрепите их к вертикальной алюминиевой опорной планке.
    3. Вставьте ось колеса в установленные шарикоподшипники, оставив 0.5-1 дюйм оси за подшипниками для крепления поворотного энкодера.
    4. Прикрепите крепление поворотного энкодера к концу оси напротив колеса и вставьте поворотный энкодер; Затем с помощью муфты вала соедините ось колеса с валом поворотного энкодера.
    5. Прикрепите отверстие для лизания к гибкому рычагу, а затем прикрепите к алюминиевой раме колеса с помощью гаек с Т-образным пазом. Используйте трубку 1/16 дюйма для подключения отверстия к электромагнитному клапану и клапана к резервуару для воды.
      ПРИМЕЧАНИЕ: Порт облизывания должен быть изготовлен из металла с припаянным проводом, чтобы прикрепить его к емкостным контактным контактам поведения ESP32.
  2. Проекционный экран
    ПРИМЕЧАНИЕ: Экран VR представляет собой небольшой параболический экран обратной проекции (размер холста: 54 см x 21,5 см), основанный на дизайне, разработанном в лаборатории КристофераХарви 15,16. Угол проецирования (трапецеидальное искажение) используемого светодиодного проектора отличается от угла лазерного проектора, используемого ранее; таким образом, первоначальная конструкция немного изменена за счет монтажа блока под экраном и упрощения зеркальной системы (рис. 1А, Б). Настоятельно рекомендуется прочитать документацию лаборатории Харви вместе с нашей, чтобы адаптировать среду виртуальной реальности к потребностям пользователя15.
    1. Лазерная резка сторон проекционного экрана из 1/4 черных матовых акриловых листов. Вырежьте лазером зеркало обратной проекции из 1/4 зеркального акрила.
    2. Соберите раму проекционного экрана с алюминиевыми стержнями и вырежьте акриловые панели лазером.
    3. Вставьте полупрозрачный материал проекционного экрана в параболический паз в раме. Вставьте зеркало обратной проекции в прорезь в задней части рамы проекционного экрана.
    4. Поместите светодиодный проектор на нижнюю монтажную пластину внутри рамы проекционного экрана. Совместите проектор с помощью крепежных болтов, чтобы оптимизировать позиционирование проецируемого изображения на параболический экран обратной проекции.
    5. При необходимости запечатайте блок проектора, чтобы предотвратить световое загрязнение оптических датчиков.
  3. Устройство подголовника
    ПРИМЕЧАНИЕ: Данная конструкция подголовника состоит из двух взаимосвязанных коллекторов, напечатанных на 3D-принтере, для крепления металлической стойки головы (рис. 1E, F).
    1. Используя 3D-принтер SLM с высоким разрешением, напечатайте на 3D-принтере головную стойку, держащую руки.
      ПРИМЕЧАНИЕ: Пластик, напечатанный смолой, способен обеспечить стабильную фиксацию головы для поведенческих экспериментов; однако для достижения максимальной стабильности для чувствительных приложений, таких как одноклеточная запись или двухфотонная визуализация, рекомендуется использовать обработанные металлические детали (например, eMachineShop).
    2. Установите держатель головного столба, напечатанный на 3D-принтере, на двухосевой гониометр с оптическими крепежными стойками, чтобы голову животного можно было наклонить, чтобы выровнять препарат.
      ПРИМЕЧАНИЕ: Эта функция незаменима для длительных экспериментов по визуализации in vivo, когда требуется найти ту же популяцию клеток в последующих сеансах визуализации. В противном случае эта функция может быть опущена, чтобы снизить стоимость настройки.
    3. Изготовьте головные стойки.
      ПРИМЕЧАНИЕ: Два типа головных постов разной сложности (и цены) указаны по ссылке, приведенной в Таблице материалов вместе с этой инструкцией.
      1. В зависимости от типа эксперимента решите, какой головной пост реализовать. Головные стержни изготовлены из нержавеющей стали и, как правило, передаются на аутсорсинг в любую местную механическую мастерскую или онлайн-сервис (например, eMachineShop) для производства.

2. Настройка аппаратного/программного обеспечения электроники (одноплатный компьютер, микроконтроллеры ESP32, рис. 2)

  1. Настройте одноплатный компьютер.
    ПРИМЕЧАНИЕ: Одноплатный компьютер, включенный в таблицу материалов (Raspberry Pi 4B), оптимален для этой установки, поскольку он имеет встроенный графический процессор для облегчения рендеринга среды VR и два порта HDMI для управления / мониторинга эксперимента и проецирования VR. Другие одноплатные компьютеры с такими характеристиками потенциально могут быть заменены, но некоторые из следующих инструкций могут быть специфичны для Raspberry Pi.
    1. Загрузите приложение одноплатного компьютерного имиджера на ПК и установите ОС (в настоящее время Raspberry Pi OS r.2021-05-07) на карту microSD (16+ ГБ). Вставьте плату и загрузите одноплатный компьютер.
    2. Настройте одноплатный компьютер для библиотеки pi3d Python 3D: (строка меню) Настройки > Конфигурация Raspberry Pi.
      1. Нажмите « Дисплей» > «Гашение экрана» > «Отключить».
      2. Нажмите « Интерфейсы» > «Последовательный порт» > «Включить».
      3. Нажмите « Производительность > памяти графического процессора > 256 (МБ).
    3. Обновите пакет библиотеки изображений Python для pi3d: (terminal)> sudo pip3 install pillow --upgrade.
    4. Установите пакет pi3d Python 3D для одноплатного компьютера: (терминал)> sudo pip3 install pi3d.
    5. Увеличьте уровень выходного сигнала HDMI для проектора: (терминал)> sudo nano /boot/config.txt, раскомментировать config_hdmi_boost=4, сохранить и перезагрузить.
    6. Скачайте и установите интегрированную среду разработки (IDE) с arduino.cc/en/software (например, arduino-1.8.19-linuxarm.tar.gz), которая необходима для загрузки кода на поворотный энкодер и поведенческие микроконтроллеры ESP32.
    7. Установите поддержку микроконтроллера ESP32 в среде IDE:
      1. Нажмите « Настройки > файла» > дополнительные URL-адреса Board Manager = https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. Нажмите « Инструменты > платы» > «Диспетчер досок» > ESP32 (от Espressif). Установите v.2.0.0 (загрузка в настоящее время не удалась в v2.0.4).
    8. Загрузите и установите интегрированную среду разработки обработки из https://github.com/processing/processing4/releases (например, processing-4.0.1-linux-arm32.tgz), которая необходима для записи и онлайн-построения графика поведения мыши во время виртуальной реальности.
      ПРИМЕЧАНИЕ: При желании среды Arduino и Processing могут быть запущены на отдельном ПК от одноплатного компьютера VR.
  2. Настройте соединения энкодера поворота ESP32.
    ПРИМЕЧАНИЕ: Энкодер поворота, соединенный с осью колеса, измеряет вращение колеса с помощью передвижения мыши, которое подсчитывается с помощью микроконтроллера ESP32. Затем изменения положения отправляются на последовательный порт GPIO одноплатного компьютера для управления движением через виртуальную среду с помощью графического программного пакета, а также на поведение ESP32 для управления зонами вознаграждения (рис. 2).
    1. Подсоедините провода между компонентом поворотного энкодера и поворотным ESP32. Поворотные энкодеры обычно имеют четыре провода: +, GND, A и B (две цифровые линии для квадратурных энкодеров). Подключите их через перемычки к ESP32 3,3 В, GND, 25, 26 (в случае прилагаемого кода).
    2. Подключите последовательные провода RX/TX между поворотным ESP32 и поведением ESP32. Выполните простое двухпроводное соединение между поворотным портом ESP32 Serial0 RX/TX (прием/передача) и портом Serial2 поведения ESP32 (TX/RX, контакты 17, 16; см. порт Serial2 справа от печатной платы OMwSmall). Это будет передавать информацию о движении от поворотного энкодера к настройке поведения для пространственных зон, таких как зоны вознаграждения.
    3. Подключите последовательные провода RX/TX между поворотным ESP32 и GPIO одноплатного компьютера (или прямое USB-соединение). Установите двухпроводное соединение между контактами GPIO 14, 15 (RX/TX) одноплатного компьютера и поворотным ESP32 Serial2 (TX/RX, контакты 17, 16). Это будет передавать информацию о движении от поворотного энкодера к графическому пакету программного обеспечения, работающему на одноплатном компьютере.
      ПРИМЕЧАНИЕ: Этот шаг необходим только в том случае, если поворотный ESP32 не подключен через USB (т.е. это последовательное соединение GPIO в «/dev/ttyS0»), но в противном случае код HallPassVR_wired.py должен быть изменен для использования «/dev/ttyUSB0». Это проводное соединение будет заменено беспроводным соединением Bluetooth в будущих версиях.
    4. Подключите поворотный USB-накопитель ESP32 к USB-порту одноплатного компьютера (или другому компьютеру, на котором запущена среда IDE), чтобы загрузить исходный код поворотного энкодера.
  3. Настройте поведение ESP32 соединений с поведенческим оборудованием (через печатную плату OpenMaze).
    ПРИМЕЧАНИЕ: Поведенческий микроконтроллер ESP32 будет управлять всеми взаимодействиями животных, не относящимися к виртуальной реальности (доставка стимулов и вознаграждений, отличных от виртуальной реальности, обнаружение облизывания мыши), которые подключаются через общую «коммутационную плату» печатной платы для ESP32, «OMwSmall», конструкции которой доступны на веб-сайте OpenMaze (www.openmaze.org). Печатная плата содержит электронные компоненты, необходимые для управления электромеханическими компонентами, такими как электромагнитные клапаны, используемые для подачи жидких вознаграждений.
    1. Подключите жидкостный электромагнитный клапан 12 В к выходу микросхемы ULN2803 в крайнем левом углу печатной платы OMwSmall (контакт 12 в примере настройки и кода). Эта микросхема затворяет питание 12 В на электромагнитном клапане вознаграждения, управляемом выходом GPIO на поведенческом микроконтроллере ESP32.
    2. Подключите порт lick к сенсорному вводу ESP32 (например, T0, GPIO4 в примере кода). ESP32 имеет встроенное емкостное сенсорное распознавание на определенных контактах, которое код поведения ESP32 использует для обнаружения облизывания мышью прикрепленного металлического порта лизания во время поведения VR.
    3. Подключите последовательные провода RX/TX между поведением ESP32 Serial2 (контакты 16, 17) и поворотным энкодером ESP32 Serial0 (см. этап 2.2.2).
    4. Подключите USB к USB-порту одноплатного компьютера (или другого ПК), чтобы загрузить новые программы в поведение ESP32 для различных экспериментальных парадигм (например, количество/расположение зон вознаграждения) и захватить данные о поведении с помощью прилагаемого эскиза обработки.
    5. Подключите настенный адаптер постоянного тока 12 В к разъему 2.1 мм на печатной плате ESP32 OMwSmall, чтобы обеспечить питание электромагнитного клапана вознаграждения.
    6. Подключите выход HDMI #2 одноплатного компьютера к порту HDMI проектора; это перенесет среду виртуальной реальности, визуализированную графическим процессором одноплатного компьютера, на проекционный экран.
    7. (необязательно) Подключите провод синхронизации (контакт 26) к установке нейронной визуализации или электрофизиологической записи. Транзисторно-транзисторно-логический (TTL) сигнал 3,3 В будет отправляться каждые 5 с для выравнивания систем с точностью до миллисекунды.
  4. Настройка программного обеспечения: Загрузите прошивку/программное обеспечение на поворотный энкодер ESP32 (рис. 2B) и поведение ESP32 (рис. 2E) с помощью среды IDE и загрузите программное обеспечение VR Python на одноплатный компьютер. См. https://github.com/GergelyTuri/HallPassVR/software.
    1. Сначала подключите поворотный энкодер ESP32 к USB-порту одноплатного компьютера - ОС автоматически назовет его «/dev/ttyUSB0».
    2. Загрузите код кодировщика поворота: откройте файл RotaryEncoder_Esp32_VR.ino в среде IDE, а затем выберите ESP32 в разделе " Сервис > платы" > модуле разработки ESP32. Выберите порт ESP32, щелкнув « Инструменты» > «Порт» > /dev/ttyUSB0, а затем нажмите « Загрузить».
    3. Затем подключите поведение ESP32 к USB-порту одноплатного компьютера - это будет называться «/dev/ttyUSB1» в ОС.
    4. Загрузите код последовательности поведения в поведение ESP32 (IDE, ESP32 Dev Module уже выбран), затем нажмите «Инструменты» > «Порт» > /dev/ttyUSB1 и нажмите «Загрузить»: wheel_VR_behavior.ino.
    5. Проверьте последовательные соединения, выбрав последовательный порт для каждого ESP32 в среде IDE (Tools > Port > /dev/ttyUSB0 или /dev/ttyUSB1), а затем щелкнув Tools > Serial Monitor (скорость передачи данных: 115 200), чтобы увидеть последовательный выход с поворотной платы (USB0) или платы поведения (USB1). Поверните колесо, чтобы увидеть необработанный выходной сигнал движения от поворотного ESP32 на USB0 или отформатированный выходной сигнал движения от поведения ESP32 на USB1.
    6. Загрузите графический программный пакет Python code из https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR (в /home/pi/Documents). Эта папка содержит все файлы, необходимые для запуска графического пакета программного обеспечения, если пакет pi3d Python3 был правильно установлен ранее (этап 2.1).

3. Запуск и тестирование графического программного пакета

ПРИМЕЧАНИЕ: Запустите графический программный пакет GUI, чтобы инициировать среду линейного трека VR, откалибровать расстояния в программном обеспечении VR и коде поведения ESP32, а также протестировать получение и онлайн-построение графика поведения мыши при беге и облизывании с помощью прилагаемого эскиза языка обработки.

  1. Откройте окно терминала на одноплатном компьютере и перейдите в папку HallPassVR (terminal:> cd /home/pi/Documents/HallPassVR/HallPassVR_Wired)
  2. Запустите VR GUI: (terminal)> python3 HallPassVR_GUI.py (откроется окно GUI, рисунок 3A).
  3. Графический интерфейс программного обеспечения
    1. Выберите и добавьте четыре элемента (изображения) из списка (или выберите предварительно сохраненный шаблон ниже, а затем нажмите « Загрузить») для каждого из трех шаблонов вдоль дорожки, а затем нажмите « Создать».
      ПРИМЕЧАНИЕ: Новые файлы изображений (.jpeg) могут быть помещены в папку HallPassVR/HallPassVR_wired/images/ELEMENTS перед запуском графического интерфейса.
    2. Выберите изображения пола и потолка из выпадающих меню и задайте длину дорожки равной 2 м для этого примера кода (она должна равняться trackLength в миллиметрах [мм] в коде поведения ESP32 и коде обработки).
    3. При желании назовите этот шаблон (он будет храниться в HallPassVR_wired/images/PATH_HIST).
    4. Нажмите кнопку « Пуск » (подождите, пока не запустится окно VR, прежде чем нажимать в другом месте). Среда VR появится на экране #2 (проекционный экран, рисунок 3B, C).
  4. Запустите скетч «Обработка», чтобы получить и отобразить поведенческие данные/движение.
    1. Откройте файл VRwheel_RecGraphSerialTxt.pde в интегрированной среде разработки.
    2. Измените animal = "yourMouseNumber"; и установите sessionMinutes равным продолжительности поведенческого сеанса в минутах.
    3. Нажмите кнопку "Выполнить" в интегрированной среде разработки.
    4. Проверьте окно графика обработки, в котором должно отображаться текущее положение мыши на виртуальной линейной трассе при вращении колеса, а также зоны вознаграждений и беговые гистограммы облизывания, кругов и наград, обновляемые каждые 30 секунд (рис. 3D). Переместите беговое колесо вручную, чтобы имитировать работу мыши для тестирования, или используйте тестовую мышь для первоначальной настройки.
    5. Нажмите на окно графика и нажмите клавишу q на клавиатуре, чтобы остановить получение поведенческих данных. Текстовый файл поведенческих событий и времени (обычно размером <2 МБ за сеанс) и изображение конечного окна графика (.png) сохраняются, когда sessionMinutes истекает или пользователь нажимает клавишу q для выхода.
      ПРИМЕЧАНИЕ: Из-за небольшого размера выходных файлов .txt подсчитано, что на SD-карте одноплатного компьютера может храниться не менее нескольких тысяч записей поведения. Файлы данных могут быть сохранены на флэш-накопителе для последующего анализа или, если они подключены к локальной сети, данными можно управлять удаленно.
  5. Откалибруйте длину дорожки поведения с помощью длины дорожки VR.
    1. Продвигайте колесо вручную, наблюдая за коридором VR и положением мыши (на графике обработки). Если коридор VR заканчивается до/после того, как мышь достигнет конца графика поведения, увеличивайте/уменьшайте длину дорожки VR постепенно ( HallPassVR_wired.py, corridor_length_default, в сантиметрах [см]) до тех пор, пока дорожка не будет сброшена одновременно в двух системах.
      ПРИМЕЧАНИЕ: Код в настоящее время откалиброван для ходового колеса диаметром 6 дюймов с использованием 256-позиционного квадратурного поворотного энкодера, поэтому пользователю, возможно, придется изменить код VR (HallPassVR_wired.py, corridor_length_default, в сантиметрах [см]) и код поведения (wheel_VR_behavior.ino, trackLength, в миллиметрах [мм]), чтобы учесть другие конфигурации. Поведенческая позиция, однако, сбрасывается на каждом круге VR, чтобы поддерживать соответствие между системами.

4. Дрессировка мышей и поведение при пространственном обучении

ПРИМЕЧАНИЕ: Мышей имплантируют для фиксации головы, приучают к подголовнику, а затем обучают бегать по колесу и последовательно облизываться для получения жидкого вознаграждения постепенно («случайное кормление»). Мыши, которые достигают последовательного бега и облизывания, затем обучаются на пространственной скрытой задаче вознаграждения с использованием среды виртуальной реальности, в которой одна зона вознаграждения представлена после визуальной подсказки на виртуальной линейной дорожке. Затем пространственное обучение измеряется как повышенная избирательность облизывания позиций непосредственно перед зоной вознаграждения.

  1. Постимплантационная операция на голове: Эта процедура подробно описана в других разделах этого журнала и в других журналах, поэтому обратитесь к этой литературе для получения конкретных инструкций 7,17,18,19,20,21.
  2. Водный график
    1. Выполняйте ограничение воды за 24 часа до первой обработки (см. Ниже) и разрешайте потребление воды ad libitum после каждого сеанса привыкания или сдержанного поведения головы. Постепенно уменьшайте время доступности воды в течение трех дней во время привыкания примерно до 5 минут и корректируйте количество для отдельных мышей таким образом, чтобы их масса тела не опускалась ниже 80% от их веса до ограничения. Ежедневно следите за весом каждого животного, а также наблюдайте за состоянием каждой мыши на наличие признаков обезвоживания22. Мыши, которые не могут поддерживать 80% своей массы тела до ограничения или выглядят обезвоженными, должны быть исключены из исследования и им должна быть предоставлена свободная вода.
      ПРИМЕЧАНИЕ: Ограничение воды необходимо, чтобы мотивировать мышей бегать на колесе, используя жидкие награды, а также использовать пространственное облизывание в качестве указания изученных мест вдоль трассы. Институциональные руководящие принципы могут отличаться в отношении конкретных инструкций для этой процедуры, поэтому пользователь должен проконсультироваться со своими отдельными институциональными комитетами по уходу за животными, чтобы обеспечить здоровье и благополучие животных во время ограничения воды.
  3. Обращение: Ежедневно обрабатывайте имплантированных мышей, чтобы приучить их к контакту с человеком, после чего в качестве подкрепления можно вводить ограниченную воду ad libitum (от 1 до 5 минут / день, от 2 дней до 1 недели).
  4. Привыкание к подголовнику
    1. Приучайте мышей к подголовнику в течение большего количества времени, помещая их в подголовник, вознаграждая их случайными каплями воды, чтобы уменьшить напряжение, связанное с фиксацией головы.
    2. Начните с 5-минутной фиксации головы и увеличивайте продолжительность с шагом в 5 минут ежедневно, пока мыши не смогут переносить фиксацию до 30 минут. Удалите мышей из фиксирующего аппарата, если кажется, что они борются или двигаются очень мало. Тем не менее, мыши, как правило, начинают бегать по колесу спонтанно в течение нескольких сеансов, что означает, что они готовы к следующему этапу обучения.
      ПРИМЕЧАНИЕ: Мыши, которые постоянно борются под подголовником или не бегают и не облизываются, чтобы получить вознаграждение, должны быть регрессированы на более ранние стадии обучения и исключены из исследования, если они не прогрессируют в течение трех таких корректирующих циклов (см. Таблицу 1).
  5. Дрессировка бега/облизывания (случайное кормление)
    ПРИМЕЧАНИЕ: Чтобы выполнить задачу пространственного обучения в среде виртуальной реальности, мыши должны сначала научиться бегать по колесу и постоянно лизать, чтобы время от времени получать награды. Прогрессирование оперантных поведенческих параметров контролируется с помощью поведенческого микроконтроллера ESP32.
    1. Случайное кормление с неоперантными наградами
      1. Запустите графическое программное обеспечение с графическим интерфейсом программы с путем произвольных визуальных элементов (выбор пользователя, см. шаг 3.3).
      2. Загрузите программу поведения в поведение ESP32 с несколькими неоперантными наградами (кодовые переменные: isOperant = 0, numRew = 4, isRandRew = 1), чтобы заставить мышей бегать и лизать. Запускайте мышей в течение 20-30 минут, пока мыши не пробегут не менее 20 кругов за сеанс, и облизывайте награды, представленные в случайных местах (от одного до четырех сеансов).
    2. Случайное кормление с оперантными наградами на чередующихся кругах
      1. Загрузите программу поведения с altOpt=1 (чередование оперантных/неоперационных кругов) и обучите мышей до тех пор, пока они не начнут лизать как неоперантные, так и оперантные зоны вознаграждения (от одного до четырех сеансов).
    3. Полностью оперантная случайная фуражировка
      1. Загрузите поведенческую программу с четырьмя оперантными зонами случайного вознаграждения (переменные кода поведения ESP32: isOperant=1, numRew=4, isRandRew=1). К концу этого этапа обучения мыши должны постоянно бегать и выполнять тестовые облизывания по всей длине дорожки (от одного до четырех сеансов; Рисунок 4А).
  6. Пространственное обучение
    ПРИМЕЧАНИЕ: Проведите эксперимент по пространственному обучению с одной скрытой зоной вознаграждения на некотором расстоянии от одной визуальной подсказки, выбрав коридор длиной 2 м с темными панелями вдоль дорожки и одной высококонтрастной панелью визуальных стимулов посередине в качестве визуальной подсказки (положение 0,9-1,1 м), аналогично недавним экспериментам с пространственными обонятельными сигналами20 . Мыши должны облизывать зону вознаграждения (в положении 1,5-1,8 м), расположенную на расстоянии от визуальной подсказки в виртуальной линейной среде трека.
    1. Запустите графическую программу с контуром темного коридора с одной визуальной подсказкой в центре (например, шахматная доска, см. шаг 3.3, рисунок 3A).
    2. Загрузите программу поведения с одной скрытой зоной вознаграждения в поведение ESP32 (переменные кода поведения ESP32: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500}).
    3. Аккуратно поместите мышь в аппарат для фиксации головы, отрегулируйте носик облизывания в месте, расположенном непосредственно перед ртом мыши, и поместите колесико мыши в центр зоны проекционного экрана. Убедитесь, что головка мыши находится на расстоянии ~12-15 см от экрана после окончательной настройки.
    4. Задайте имя животного в эскизе "Обработка", а затем нажмите кнопку " Выполнить" в интегрированной среде разработки "Обработка ", чтобы начать получение и построение данных о поведении (см. шаг 3.4).
    5. Запускайте мышь в течение 30-минутных сеансов с одной скрытой зоной вознаграждения и одним визуальным подсказом VR-коридора.
    6. В автономном режиме: загрузите файл данных .txt из папки Processing sketch и проанализируйте поведение пространственного облизывания (например, в Matlab с включенными файлами procVRbehav.m и vrLickByLap.m).
      ПРИМЕЧАНИЕ: Мыши должны сначала выполнить тестовые облизывания по всему виртуальному треку («случайное кормление»), а затем начать выборочно лизать только вблизи места получения награды, следуя визуальной подсказке VR (рис. 4).

Результаты

Эта поведенческая установка виртуальной реальности с открытым исходным кодом позволила нам количественно оценить поведение при облизывании как считывание пространственного обучения, когда мыши с головой перемещались по виртуальной линейной среде трека. Семь мышей C57BL / 6 обоих полов ...

Обсуждение

Эта VR-система с открытым исходным кодом для мышей будет функционировать только в том случае, если последовательные соединения между поворотным и поведенческим микроконтроллерами ESP32 и одноплатным компьютером будут выполнены должным образом (шаг 2), что может быть подтверждено с помощь...

Раскрытие информации

Клэй Лейсфилд является основателем и сопровождающим компании OpenMaze.org, которая предоставляет проекты для печатной платы OMwSmall, используемой в этом протоколе, бесплатно для скачивания.

Благодарности

Мы хотели бы поблагодарить Ноа Петтита из лаборатории Харви за обсуждение и предложения при разработке протокола в этой рукописи. Эта работа была поддержана премией BBRF Young Investigator Award и NIMH 1R21MH122965 (G.F.T.), в дополнение к NINDS R56NS128177 (R.H., C.L.) и NIMH R01MH068542 (R.H.).

Материалы

NameCompanyCatalog NumberComments
1/4 " diam aluminum rodMcMaster-Carr9062K263" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2)Amazon.comB09ZNMR41Vfor affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2)8020.net1020wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick)Canal Plastics33210090702Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screwsMcMaster-Carr92196A194fastening head post holder to optical post 
Adjustable arm (14")Amazon.comB087BZGKSLto hold/adjust lick spout
Analysis code (MATLAB)custom writtenfile at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" IDPololu1993for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2)McMaster-Carr57155K324for mounting wheel axle to frame
Behavior ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick)Canal Plastics32918353422laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick)Canal Plastics32920770574laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2)Amazon.comB086YS4Z3Fmicrocontroller for behavior and rotary encoder
ESP32 shieldOpenMaze.orgOMwSmalldescription at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets 8020.net4138, 3382,3280for wheel frame mounts
goniometersEdmund Optics66-526, 66-527optional for behavior. Fine tuning head for imaging
HallPassVR python codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holdercustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projectorTexas InstrumentsDLPDLCR230NPEVMor other small LED projector
Lick spoutVWR20068-638(or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screwsMcMaster-Carr92015A097securing head post 
Matte white diffusion paperAmazon.comscreen material
Metal headpostscustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID)for constructing the water line
Optical breadboardThorlabsas per user's requirements
Optical posts, 1/2" diam (2x)ThorlabsTR4for head fixation setup
Processing codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4Braspberry.com, adafruit.comSingle-board computer for rendering of HallPassVR envir.
Right angle clampThorlabsRA90for head fixation setup
Rotary encoder (quadrature, 256 step)DigiKeyENS1J-B28-L00256Lto measure wheel rotation
Rotary encoder ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cementAmazon.com
Shaft couplerMcMaster-Carr9861T426to couple rotary encoder shaft with axle
Silver mirror acrylic sheetsCanal Plastics32913817934laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valveParker003-0137-900to administer water rewards

Ссылки

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Перепечатки и разрешения

Запросить разрешение на использование текста или рисунков этого JoVE статьи

Запросить разрешение

Смотреть дополнительные статьи

193

This article has been published

Video Coming Soon

JoVE Logo

Исследования

Образование

О JoVE

Авторские права © 2025 MyJoVE Corporation. Все права защищены