JoVE Logo

サインイン

このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。

この記事について

  • 要約
  • 要約
  • 概要
  • プロトコル
  • 結果
  • ディスカッション
  • 開示事項
  • 謝辞
  • 資料
  • 参考文献
  • 転載および許可

要約

ここでは、仮想現実(VR)を使用してマウス空間学習を調査するための簡略化されたオープンソースのハードウェアとソフトウェアのセットアップを紹介します。このシステムは、マイクロコントローラのネットワークと使いやすいPythonグラフィカルソフトウェアパッケージを実行するシングルボードコンピュータを利用して、車輪の上で動作するヘッド拘束マウスに仮想リニアトラックを表示します。

要約

マウスでの頭部拘束行動実験により、神経科学者は、行動する動物に正確な感覚刺激を与えながら、高解像度の電気生理学的および光学イメージングツールを使用して神経回路の活動を観察できます。近年、バーチャルリアリティ(VR)環境を用いたヒトやげっ歯類の研究により、VRは、空間的・文脈的手がかりなどのパラメータを極めて精密に制御できるため、海馬や皮質の空間学習の根底にある神経メカニズムを明らかにするための重要なツールであることが示されています。ただし、げっ歯類の空間行動のための仮想環境のセットアップにはコストがかかり、エンジニアリングとコンピュータープログラミングの幅広いバックグラウンドが必要になる場合があります。ここでは、研究者がVR環境を使用して頭部拘束マウスの空間学習を研究できるようにする、安価でモジュール化されたオープンソースのハードウェアとソフトウェアに基づくシンプルで強力なシステムを紹介します。このシステムは、結合マイクロコントローラを使用して移動を測定し、行動刺激を提供し、頭拘束マウスは、シングルボードコンピュータ上で動作するグラフィカルソフトウェアパッケージによってレンダリングされる仮想リニアトラック環境と連携して車輪上を走ります。分散処理に重点を置くことで、研究者は、哺乳類の脳における神経回路活動と空間学習との関係を決定するために、マウスの複雑な空間行動を引き出し、測定するための柔軟なモジュラーシステムを設計することができます。

概要

空間ナビゲーションは、動物が新しい場所の特徴を認知マップにエンコードする倫理学的に重要な行動であり、報酬の可能性のある領域を見つけ、潜在的な危険の領域を回避するために使用されます。記憶と密接に関連している空間ナビゲーションの基礎となる認知プロセスは、海馬1と皮質の神経基盤を共有しており、これらの領域の神経回路は入ってくる情報を統合し、後で思い出すために環境とイベントの認知マップを形成します2。海馬3,4の場所細胞と嗅内皮質5のグリッド細胞の発見は、海馬内の認知地図がどのように形成されるかを明らかにしましたが、特定の神経サブタイプ、マイクロ回路、および海馬の個々のサブ領域(歯状回、および角膜アンモニス領域、CA3-1)がどのように相互作用し、空間記憶の形成と想起に関与するかについては多くの疑問が残っています。

in vivo二光子イメージングは、感覚神経生理学における細胞および集団動態を明らかにする上で有用なツールとなっています6,7。しかし、頭部拘束の典型的な必要性は、哺乳類の空間行動を調べるためのこの方法の有用性を制限する。バーチャルリアリティ(VR)8の出現により、没入型でリアルな視空間環境を提示し、頭部拘束マウスがボールまたはトレッドミルで走り、海馬8910および皮質11の空間的および文脈的エンコーディングを研究することでこの欠点に対処しました。さらに、行動するマウスによるVR環境の使用により、神経科学研究者は、モリス水迷路、バーンズ迷路、またはホールボードタスクなどの空間学習の現実世界の実験では不可能な方法で、VR環境12の要素(例えば、視覚の流れ、文脈変調)を正確に制御することによって空間行動の構成要素を分析することができた。

ビジュアルVR環境は通常、コンピューターのグラフィックプロセッシングユニット(GPU)にレンダリングされ、画面上の移動する3D環境をリアルタイムでモデル化するために必要な数千のポリゴンを迅速に計算する負荷を処理します。大規模な処理要件は、一般に、動物の下のトレッドミル、ホイール、またはフォームボールから動きが記録されるときに、視覚環境をモニタ、複数のスクリーン13、またはプロジェクタ14 にレンダリングするGPUを備えた別個のPCの使用を必要とする。したがって、VR環境を制御、レンダリング、および投影するための結果として得られる装置は、比較的高価で、かさばり、そして煩雑である。さらに、文献中のそのような環境の多くは、コストがかかり、専用のPC上でしか実行できないプロプライエタリソフトウェアを使用して実装されている。

これらの理由から、Raspberry Piシングルボードコンピュータを使用して、頭部拘束マウスの空間学習行動を研究するためのオープンソースVRシステムを設計しました。このLinuxコンピューターは小型で安価でありながら、3Dレンダリング用のGPUチップを搭載しているため、さまざまな個別セットアップでVR環境をディスプレイまたは動作装置と統合できます。さらに、Pythonで記述されたグラフィカルソフトウェアパッケージ「HallPassVR」を開発し、シングルボードコンピュータを利用して、グラフィカルユーザーインターフェイス(GUI)を使用して選択したカスタム視覚機能を再結合することにより、単純な視空間環境、仮想線形トラックまたは廊下をレンダリングします。これは、マイクロコントローラサブシステム(ESP32やArduinoなど)と組み合わせて、強化学習を促進するための感覚刺激または報酬の他のモダリティの送達などによって、移動を測定し、行動を調整します。このシステムは、空間学習行動の根底にある神経回路を研究するための2光子イメージング(または頭部固定を必要とする他の技術)中に、頭部拘束マウスに視空間VR環境を提供するための安価で柔軟で使いやすい代替方法を提供します。

プロトコル

このプロトコルのすべての手順は、ニューヨーク州精神医学研究所の施設動物管理および使用委員会によって承認されました。

注:シングルボードコンピュータは、車輪の上で頭を拘束するマウスの実行と調整されたVR視覚環境を表示するために使用されます。動き情報は、ホイールアクスルに結合されたロータリーエンコーダを読み取るESP32マイクロコントローラからシリアル入力として受信されます。VR環境は、ラズベリーパイ用のpi3d Python 3Dパッケージを利用するラズベリーパイGPUのOpenGLハードウェアアクセラレーションを使用してレンダリングされます。次いで、レンダリングされた環境は、プロジェクタを介して、頭部拘束マウスの視野15,16を中心としたコンパクトなラップアラウンド放物線スクリーンに出力され、一方、挙動(例えば、空間報酬に応答して舐める)は、第2の挙動ESP32マイクロコントローラによって測定される。グラフィカルソフトウェアパッケージを使用すると、グラフィカルユーザーインターフェイス(GUI)を使用して、仮想廊下または廊下に沿って視覚刺激の繰り返しパターンで構成される仮想リニアトラック環境を作成できます。この設計は簡単にパラメータ化できるため、空間学習中に脳が場所と視覚的手がかりをどのようにエンコードするかを理解することを目的とした複雑な実験を作成できます(セクション4を参照)。このシステムに必要なカスタムハードウェアコンポーネント(ランニングホイール、プロジェクションスクリーン、ヘッドレスト装置など)の設計は、パブリックGitHubリポジトリ(https://github.com/GergelyTuri/HallPassVR)に寄託されます。サイトはシステムの将来の機能強化で更新されるため、このプロトコルとともにそのリポジトリのドキュメントを読むことをお勧めします。

1.ハードウェアのセットアップ:ランニングホイール、プロジェクションスクリーン、ヘッド固定装置の構築

注意: これらのセットアップのカスタムコンポーネントは、ユーザーが3D印刷およびレーザー切断装置にアクセスできる場合、または専門の製造または3Dプロトタイピングサービス(eMachinehopなど)にアウトソーシングできる場合、簡単に製造できます。すべての設計ファイルは として提供されます。STL 3D ファイルまたは .DXF AutoCAD ファイルにエクスポートします。

  1. ランニングホイールと動作のセットアップ(図1)
    注:ホイールは、ボールベアリングを介してレーザーカットされたアクリルマウントから吊り下げられた車軸を中心とした透明なアクリルシリンダー(直径6、幅3、厚さ1/8)で構成されています。次に、ホイールアセンブリを軽量アルミニウムフレーム(tスロット)に取り付け、光学ブレッドボードにしっかりと固定します(図1C-E)。
    1. ホイールとアクスルマウントの側面を1/4インチのアクリルシートからレーザーカットし、ホイールの側面をアクリルセメントでアクリルシリンダーに取り付けます。アクスルフランジをホイールサイドピースの中央にねじ込みます。
    2. 車軸をホイールセンターフランジに挿入し、ボールベアリングを車軸マウントにはめ込み、垂直アルミニウムサポートバーに取り付けます。
    3. ホイールアクスルを取り付けられたボールベアリングに挿入し、ロータリーエンコーダを取り付けるためにアクスルの0.5〜1インチをベアリングから外します。
    4. ロータリーエンコーダマウントをホイールの反対側の車軸の端に取り付け、ロータリーエンコーダを挿入します。次に、シャフトカプラーを使用して、ホイールアクスルをロータリーエンコーダシャフトに結合します。
    5. リックポートをフレックスアームに取り付け、Tスロットナットでアルミホイールフレームに取り付けます。1/16インチのチューブを使用して、リックポートを電磁弁に接続し、バルブを貯水池に接続します。
      注意: リックポートは、動作ESP32の静電容量式タッチセンシングピンに取り付けるにはんだ付けされたワイヤーを備えた金属製である必要があります。
  2. プロジェクションスクリーン
    注:VRスクリーンは、クリストファーハーベイの研究室15,16で開発されたデザインに基づいた小さな放物線状のリアプロジェクションスクリーン(キャンバスサイズ:54 cm x 21.5 cm)です。使用されるLEDプロジェクターの投影角度(キーストーン)は、以前に使用されたレーザープロジェクターの投影角度とは異なります。したがって、ユニットを画面の下に取り付け、ミラーシステムを簡素化することにより、元の設計がわずかに変更されます(図1A、B)。ユーザーのニーズに合わせてVR環境を調整するために、Harveyラボのドキュメントを読むことを強くお勧めします15
    1. 投影スクリーンの側面を黒いマットアクリルシートで1/4からレーザーカットします。背面投影ミラーをミラーアクリルの1/4からレーザーカットします。
    2. 投影スクリーンフレームをアルミバーで組み立て、アクリルパネルをレーザーカットします。
    3. 半透明の投影スクリーン素材をフレームの放物線スロットに挿入します。リアプロジェクションミラーをプロジェクションスクリーンフレームの背面にあるスロットに挿入します。
    4. 投影スクリーンフレーム内の下部取り付けプレートにLEDプロジェクターを置きます。プロジェクターを取り付けボルトに合わせ、放物線状のリアプロジェクションスクリーンに投影された画像の位置を最適化します。
    5. 必要に応じて、光学センサーの光による汚染を防ぐために、プロジェクターボックスユニットを密閉してください。
  3. ヘッドレスト装置
    注意: このヘッドレスト装置の設計は、金属製のヘッドポストを固定するための2つのインターロック3Dプリントマニホールドで構成されています(図1E、F)。
    1. 高解像度SLM 3Dプリンターを使用して、ヘッドポスト保持アームを3Dプリントします。
      注:樹脂印刷されたプラスチックは、行動実験に安定したヘッド固定を提供することができます。ただし、シングルセル記録や2光子イメージングなどの高感度アプリケーションで最大の安定性を実現するには、機械加工された金属部品(eMachineShopなど)を使用することをお勧めします。
    2. 3Dプリントされたヘッドポストホルダーを光学取り付けポスト付きの2軸ゴニオメーターに取り付けて、動物の頭を傾けて準備を水平にできるようにします。
      注:この機能は、後続のイメージングセッションで同じ細胞集団を見つける必要がある場合の長期 のin vivo イメージング実験に不可欠です。それ以外の場合は、セットアップのコストを削減するためにこの機能を省略できます。
    3. ヘッドポストを製作します。
      注:複雑さ(および価格)が異なる2種類のヘッドポストは、これらの手順とともに、材料表に記載されているリンクに記載されています。
      1. 実験の種類に応じて、実装するヘッド ポストを決定します。ヘッドバーはステンレス鋼でできており、通常、製造のために地元の機械工場またはオンラインサービス(eMachineShopなど)にアウトソーシングされます。

2.電子機器のハードウェア/ソフトウェアのセットアップ(シングルボードコンピューター、ESP32マイクロコントローラー、図2)

  1. シングルボードコンピュータを設定します。
    注: 材料表 (Raspberry Pi 4B)に含まれているシングルボードコンピューターは、VR環境のレンダリングを容易にするオンボードGPUと、実験制御/監視およびVRプロジェクション用の2つのHDMIポートを備えているため、このセットアップに最適です。これらの特性を持つ他のシングルボードコンピューターは代替される可能性がありますが、次の手順の一部はRaspberryPiに固有のものである場合があります。
    1. シングルボードコンピュータイメージャアプリケーションをPCにダウンロードし、microSDカード(16+ GB)にOS(現在はラズベリーパイOS r.2021-05-07)をインストールします。カードを挿入し、シングルボードコンピュータを起動します。
    2. pi3d Python 3Dライブラリ用にシングルボードコンピュータを設定します:(メニューバー) 環境設定>ラズベリーパイ設定
      1. [ ディスプレイ>画面のブランキング]をクリックして>無効にします
      2. インターフェイス > シリアルポート をクリックして>有効にします。
      3. [ GPUメモリ>パフォーマンス>256 (MB)]をクリックします。
    3. pi3d用のPythonイメージライブラリパッケージをアップグレードします:(ターミナル)> sudo pip3インストール枕--upgrade。
    4. シングルボードコンピュータ用のpi3d Python 3Dパッケージをインストールします: (ターミナル)> sudo pip3 は pi3d をインストールします。
    5. プロジェクターのHDMI出力レベルを上げます:(ターミナル)> sudo nano /boot/config.txtconfig_hdmi_boost = 4のコメントを外し、保存して再起動します。
    6. ロータリーエンコーダーと動作ESP32マイクロコントローラーにコードをロードするために必要な統合開発環境(IDE)を arduino.cc/en/software(arduino-1.8.19-linuxarm.tar.gzなど)からダウンロードしてインストールします。
    7. ESP32マイクロコントローラのサポートをIDEにインストールします。
      1. [ファイル>設定]>[追加のボードマネージャーURL]をクリックします=https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. クリック ツール>ボード > ボードマネージャー > ESP32 (エスプレッシフによる)。v.2.0.0をインストールします(現在、v2.0.4ではアップロードに失敗します)。
    8. VR中のマウスの動作の記録とオンラインプロットに必要なプロセッシングIDEを https://github.com/processing/processing4/releases からダウンロードしてインストールします(例:processing-4.0.1-linux-arm32.tgz)。
      注:Arduinoおよび処理環境は、必要に応じてVRシングルボードコンピューターとは別のPCで実行できます。
  2. ロータリーエンコーダESP32接続を設定します。
    注意: ホイールアクスルに結合されたロータリーエンコーダは、ESP32マイクロコントローラーでカウントされるマウスの移動でホイールの回転を測定します。次に、位置の変更はシングルボードコンピュータのGPIOシリアルポートに送信され、グラフィカルソフトウェアパッケージを使用して仮想環境を通る動きを制御し、動作ESP32に送信されて報酬ゾーンを制御します(図2)。
    1. ロータリーエンコーダーコンポーネントとロータリーESP32の間のワイヤーを接続します。ロータリーエンコーダは通常、+、GND、A、B(クワドラチャエンコーダ用の2つのデジタルライン)の4本のワイヤを備えています。これらをジャンパー線 を介して ESP32 3.3 V、GND、25、26に接続します(添付コードの場合)。
    2. シリアルRX / TXワイヤをロータリーESP32とビヘイビアESP32の間に接続します。ロータリーESP32 Serial0 RX / TX(受信/送信)と動作ESP32のシリアル2ポート(TX / RX、ピン17、16、OMwSmall PCBの右側にあるシリアル2ポートを参照)の間に単純な2線式接続を行います。これにより、ロータリーエンコーダーから報酬ゾーンなどの空間ゾーンの動作設定に移動情報が伝達されます。
    3. ロータリーESP32とシングルボードコンピューターのGPIO(または直接USB接続)の間にシリアルRX / TXワイヤーを接続します。シングルボードコンピュータのGPIOピン14、15(RX / TX)とロータリーESP32シリアル2(TX / RX、ピン17、16)の間に2線式接続を行います。これにより、ロータリーエンコーダからシングルボードコンピュータ上で動作するグラフィカルソフトウェアパッケージに移動情報が伝達されます。
      注:この手順は、ロータリーESP32がUSB 経由で 接続されていない場合(つまり、 "/dev/ttyS0"のGPIOシリアル接続である)にのみ必要ですが、それ以外の場合は「/ dev / ttyUSB0」を使用するようにHallPassVR_wired.pyコードを変更する必要があります。このハードワイヤード接続は、将来のバージョンでワイヤレスBluetooth接続に置き換えられる予定です。
    4. ロータリーESP32 USBをシングルボードコンピューターのUSB(またはIDEを実行している他のPC)に接続して、最初のロータリーエンコーダコードをアップロードします。
  3. ビヘイビアハードウェアとのビヘイビアESP32接続を設定します(OpenMaze PCB経由 )。
    注:動作ESP32マイクロコントローラは、ESP32用の一般的なPCB「ブレークアウトボード」を介して接続されているすべての非VR動物の相互作用(非VR刺激と報酬の提供、マウスの舐めの検出)を制御します www.openmaze.org。PCBには、液体報酬を提供するために使用されるソレノイドバルブなど、電気機械部品を駆動するために必要な電子部品が含まれています。
    1. 12 V 液体ソレノイド バルブを OMwSmall PCB の左端にある ULN2803 IC 出力に接続します (セットアップ例とコードのピン 12)。このICは、挙動ESP32マイクロコントローラのGPIO出力によって制御される報酬ソレノイドバルブに12Vの電力を供給します。
    2. リックポートをESP32タッチ入力(例のコードのT0、GPIO4)に接続します。ESP32には、特定のピンに静電容量式タッチセンシングが組み込まれており、ESP32コードは、VR動作中にマウスが接続された金属リックポートをなめていることを検出するために使用します。
    3. 動作ESP32シリアル2(ピン16、17)とロータリーエンコーダESP32シリアル0の間にシリアルRX / TXワイヤを接続します(手順2.2.2を参照)。
    4. USBをシングルボードコンピューターのUSBポート(または他のPC)に接続して、さまざまな実験パラダイム(報酬ゾーンの数/場所など)の新しいプログラムを動作ESP32にアップロードし、付属の処理スケッチを使用して動作データをキャプチャします。
    5. 12 V DCACアダプタを動作ESP2.1 OMwSmall PCBの32 mmバレルジャックコネクタに差し込み、報酬ソレノイドバルブに電力を供給します。
    6. シングルボードコンピューターのHDMI#2出力をプロジェクターのHDMIポートに接続します。これにより、シングルボードコンピューターのGPUによってレンダリングされたVR環境がプロジェクションスクリーンに運ばれます。
    7. (オプション)同期ワイヤ(ピン26)をニューラルイメージングまたは電気生理学的記録セットアップに接続します。3.3Vのトランジスタ-トランジスタ-ロジック(TTL)信号が5秒ごとに送信され、システムをほぼミリ秒の精度でアライメントします。
  4. ソフトウェアのセットアップ:IDEを使用してファームウェア/ソフトウェアをロータリーエンコーダESP32(図2B)および動作ESP32(図2E)にロードし、VR Pythonソフトウェアをシングルボードコンピューターにダウンロードします。https://github.com/GergelyTuri/HallPassVR/software を参照してください。
    1. ロータリーエンコーダーESP32を最初にシングルボードコンピューターのUSBポートに接続します-これはOSによって自動的に / dev / ttyUSB0」という名前が付けられます。
    2. ロータリーエンコーダコードを読み込む: IDE でファイル RotaryEncoder_Esp32_VR.ino を開き、[ツール] > [ボード] > ESP32 開発モジュール] で ESP32 を選択します。[ ツール] > [ポート] > /dev/ttyUSB0 をクリックして ESP32 ポートを選択し、[ アップロード] をクリックします。
    3. 次に、動作ESP32をシングルボードコンピューターのUSBポートに接続します-これはOSによって「/ dev / ttyUSB1」という名前になります。
    4. 動作シーケンスコードを動作 ESP32 (IDE、 ESP32 開発モジュール が既に選択されています) に読み込み、[ ツール] > ポート > /dev/ttyUSB1 をクリックし、[ アップロード: wheel_VR_behavior.ino] をクリックします。
    5. IDE で各 ESP32 のシリアル ポート (ツール > ポート > /dev/ttyUSB0 または /dev/ttyUSB1) を選択し、[ツール] > [シリアル モニター] (ボー レート: 115,200) をクリックして、ロータリー ボード (USB0) またはビヘイビア ボード (USB1) からのシリアル出力を確認します。ホイールを回転させて、USB0のロータリーESP32からの生の動きの出力、またはUSB1のビヘイビアESP32からのフォーマットされた動きの出力を確認します。
    6. グラフィカルソフトウェアパッケージのPythonコードを https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR からダウンロードします(/ home/pi / Documentsへ)。このフォルダには、pi3d Python3 パッケージが以前に正しくインストールされていた場合 (ステップ 2.1)、グラフィカルソフトウェアパッケージを実行するために必要なすべてのファイルが含まれています。

3. グラフィカルソフトウェアパッケージの実行とテスト

注:グラフィカルソフトウェアパッケージGUIを実行して、VRリニアトラック環境を開始し、VRソフトウェアと動作ESP32コードの距離を調整し、付属の処理言語スケッチを使用してマウスの実行および舐め動作の取得とオンラインプロットをテストします。

  1. シングルボードコンピュータでターミナルウィンドウを開き、HallPassVRフォルダ(ターミナル:> cd /home/pi/ドキュメント/HallPassVR/HallPassVR_Wired) に移動します。
  2. VR GUI:(ターミナル)> python3 HallPassVR_GUI.py を実行します(GUIウィンドウが開きます、 図3A)。
  3. グラフィカルソフトウェアGUI
    1. トラックに沿った3つのパターンのそれぞれについて、リストボックスから4つの要素(画像)を選択して追加し(または、以下の事前に保存されたパターンを選択して[ アップロード]をクリックします)、 生成をクリックします。
      注:GUIを実行する前に、新しいイメージファイル(.jpeg)をHallPassVR / HallPassVR_wired /images/ELEMENTSフォルダに配置できます。
    2. ドロップダウンメニューから床と天井の画像を選択し、このサンプルコードではトラックの長さを2 mに設定します(動作ESP32コードと処理コードでミリメートル[mm]単位の trackLength と等しくなければなりません)。
    3. 必要に応じて、このパターンに名前を付けます (HallPassVR_wired/images/PATH_HIST に保存されます)。
    4. [スタート]ボタンをクリックします(VRウィンドウが起動するまで待ってから、他の場所をクリックします)。VR環境が画面#2(投影画面、図3B、C)に表示されます。
  4. 処理スケッチを実行して、動作データ/動きを取得してプロットします。
    1. 処理 IDEVRwheel_RecGraphSerialTxt.pde を開きます。
    2. 動物を変更する = "あなたのマウス番号"; 変数を設定し、 sessionMinutes を動作セッションの長さ (分単位) と等しく設定します。
    3. 処理IDEの[実行]ボタンをクリックします。
    4. プロセッシングプロットウィンドウをチェックすると、ホイールが回転するにつれて仮想リニアトラック上の現在のマウス位置と、30秒ごとに更新されるリック、ラップ、リワードの報酬ゾーンとランニングヒストグラムが表示されます(図3D)。ランニングホイールを手で進めて、テスト用のマウスの実行をシミュレートするか、テストマウスを使用して初期設定を行います。
    5. プロットウィンドウをクリックし、キーボードの q キーを押して行動データの取得を停止します。動作イベントと時間のテキストファイル(通常、セッションあたり<2 MBのサイズ)と最終的なプロットウィンドウの画像(.png)は、 sessionMinutes が経過するか、ユーザーが q キーを押して終了したときに保存されます。
      注:出力.txtファイルのサイズが小さいため、シングルボードコンピュータのSDカードには少なくとも数千の動作記録を保存できると推定されています。データファイルは、後で分析するためにサムドライブに保存することも、ローカルネットワークに接続している場合は、データをリモートで管理することもできます。
  5. ビヘイビアトラックの長さをVRトラックの長さで調整します。
    1. VRコリドーとマウスの位置(処理プロット上)を観察しながら、手でホイールを進めます。マウスが動作プロットの終点に達する前/後に VR コリドーが終了する場合は、2 つのシステムでトラックが同時にリセットされるまで、VR トラックの長さを段階的に増減します (HallPassVR_wired.py、 corridor_length_default、センチメートル [cm])。
      注:このコードは現在、256ポジションの直交ロータリーエンコーダを使用して直径6インチのランニングホイール用に校正されているため、ユーザーはVR(HallPassVR_wired.py、 corridor_length_default、センチメートル[cm])と動作コード(wheel_VR_behavior.ino、 trackLength、ミリメートル[mm])を変更して、他の構成を考慮する必要があります。ただし、動作位置は、システム間の対応を維持するために、VRラップごとにリセットされます。

4. マウストレーニングと空間学習行動

注:マウスは頭固定のために移植され、頭の拘束に慣れ、次に車輪の上を走り、液体の報酬のために一貫して舐めるように訓練されます(「ランダム採餌」)。次に、一貫したランニングと舐めを達成したマウスは、VR環境を使用して空間的な隠れた報酬タスクでトレーニングされ、仮想リニアトラックの視覚的な手がかりに従って単一の報酬ゾーンが提示されます。空間学習は、報酬ゾーンの直前の位置に対する舐め選択性の増加として測定されます。

  1. 頭部移植後手術:この手順は、このジャーナルの他の場所や他の場所で詳細に説明されているため、具体的な手順については、この文献を参照してください7、17、18192021
  2. 水のスケジュール
    1. 最初の取り扱いの24時間前に水分制限を行い(以下を参照)、慣れまたは頭を拘束する行動の各セッションの後に 自由 摂取を許可します。馴化中の3日間かけて徐々に水の利用時間を5分程度に減らし、マウスの体重が制限前の体重の80%を下回らないように個々のマウスの量を調整します。各動物の体重を毎日監視し、脱水の兆候がないか各マウスの状態を観察します22。制限前の体重の80%を維持できない、または脱水症状のように見えるマウスは、研究から除外し、無料の水の利用可能性を与える必要があります。
      注:水の制限は、液体の報酬を使用してマウスがホイール上を走るように動機付けたり、トラックに沿って学習した場所の指標として空間的な舐めを使用したりするために必要です。施設のガイドラインは、この手順の具体的な指示によって異なる場合があるため、ユーザーは、水制限中の動物の健康と福祉を確保するために、個々の施設の動物管理委員会に相談する必要があります。
  3. 取り扱い:移植されたマウスを毎日取り扱い、ヒトとの接触に慣れさせ、その後、限られた 自由 摂取水を補強として投与することができます(1〜5分/日、2日から1週間)。
  4. ヘッドレストへの慣れ
    1. マウスをヘッドレスト装置に入れて、ヘッドレストに長時間慣れさせ、時折水滴で報酬を与えて、ヘッド固定のストレスを軽減します。
    2. 5分間の頭部固定から始めて、マウスが最大30分間の固定に耐えられるようになるまで、毎日5分ずつ持続時間を増やします。マウスが苦労している、またはほとんど動いていないように見える場合は、固定装置からマウスを取り外します。ただし、マウスは通常、数回のセッションで自発的にホイール上を走り始めるため、トレーニングの次の段階の準備が整います。
      注:頭の拘束下で繰り返し苦労したり、報酬を求めて走ったり舐めたりしないマウスは、トレーニングの初期段階に退行し、そのような3つの治療サイクルで進行しない場合は研究から削除する必要があります( 表1を参照)。
  5. ラン/リックトレーニング(ランダム採餌)
    注:VR環境で空間学習タスクを実行するには、マウスは最初にホイールで走り、時折報酬を得るために一貫してなめることを学ぶ必要があります。オペラント挙動パラメータの進行は、挙動ESP32マイクロコントローラ を介して 制御される。
    1. 非オペラント報酬によるランダム採餌
      1. 任意の視覚要素のパスを使用してグラフィカルソフトウェアGUIプログラムを実行します(ユーザーの選択、手順3.3を参照)。
      2. 複数の非オペラント報酬(コード変数: isOperant=0、numRew=4isRandRew=1)を使用してビヘイビアESP32にビヘイビアプログラムをアップロードし、マウスを走らせて舐めるように条件付けます。マウスがセッションごとに少なくとも20周走るまで、20〜30分のセッションでマウスを実行し、ランダムな場所(1〜4セッション)で提示された報酬をなめます。
    2. 交互のラップでのオペラント報酬によるランダムな採餌
      1. altOpt=1(オペラント/非オペラントラップを交互に)で行動プログラムをアップロードし、非オペラント報酬ゾーンとオペラント報酬ゾーンの両方をなめるまでマウスを訓練します(1〜4セッション)。
    3. 完全にオペラントランダム採餌
      1. 4つのオペラントランダム報酬ゾーン(動作ESP32コード変数:isOperant=1、numRew=4、isRandRew=1)を含むビヘイビアプログラムをアップロードします。このトレーニングステップの終わりまでに、マウスは一貫して走り、トラックの長さ全体にわたってテストリックを実行しているはずです(1〜4セッション;図4A)。
  6. 空間学習
    注:空間的嗅覚手がかりを使用した最近の実験と同様に、トラックに沿って暗いパネルがあり、中央に1つの高コントラスト視覚刺激パネルがある長さ2 mの廊下を選択して、単一の視覚的手がかりから少し離れた単一の隠された報酬ゾーンを使用して空間学習実験を実行します(0.9〜1.1 mの位置)、空間嗅覚手がかりを使用した最近の実験と同様に20.マウスは、仮想リニアトラック環境の視覚的手がかりから離れた場所にある報酬ゾーン(1.5〜1.8 mの位置)で舐める必要があります。
    1. 中央に単一の視覚的な手がかりがある暗い廊下の経路でグラフィカルソフトウェアプログラムを実行します(たとえば、チェス盤、ステップ3.3、 図3Aを参照)。
    2. 単一の非表示報酬ゾーンを持つ動作プログラムを動作 ESP32 にアップロードします (動作 ESP32 コード変数: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500})。
    3. マウスをヘッド固定装置にそっと置き、舐め口をマウスの口のすぐ前の位置に調整し、マウスホイールを投影スクリーンゾーンの中央に配置します。最終調整後、マウスの頭が画面から~12〜15 cm離れていることを確認してください。
    4. プロセッシングスケッチで動物の名前を設定し、 プロセッシングIDE で[実行]を押して、ビヘイビアデータの取得とプロットを開始します(ステップ3.4を参照)。
    5. 単一の隠された報酬ゾーンと単一の視覚的な手がかりVR廊下で30分間のセッションのためにマウスを実行します。
    6. オフライン: [処理スケッチ]フォルダから.txtデータファイルをダウンロードし、空間的な舐め動作を分析します(たとえば、Matlabで含まれているファイルprocVRbehav.mおよびvrLickByLap.m)。
      注:マウスは、最初に仮想トラック全体に対してテストリックを実行し(「ランダム採餌」)、次にVRビジュアルキューに続いて報酬位置の近くでのみ選択的にリックを開始します(図4)。

結果

このオープンソースのバーチャルリアリティ行動設定により、頭を拘束されたマウスが仮想リニアトラック環境をナビゲートする際の空間学習の読み取り値として舐め行動を定量化することができました。生後4か月の男女7匹のC57BL/6マウスを制限された水のスケジュールに置き、VRなしでランダムな空間報酬(「ランダムな採餌」)のために車輪の上を走りながら低レベルで継続的に舐めるよう...

ディスカッション

このマウス用のオープンソースVRシステムは、IDEシリアルモニターを使用して確認できる、ロータリーおよびビヘイビアESP32マイクロコントローラーとシングルボードコンピューター(手順2)の間でシリアル接続が適切に行われている場合にのみ機能します(手順2.4.5)。このプロトコルから成功した行動結果を得るために(ステップ4)、マウスは装置に慣れ、液体報酬のために車輪の上を快適に走?...

開示事項

クレイ・レースフィールドは OpenMaze.org の創設者兼メンテナであり、このプロトコルで使用されるOMwSmall PCBの設計を無料でダウンロードできます。

謝辞

この原稿のプロトコルを開発する際の議論と提案について、HarveyラボのNoah Pettitに感謝します。この研究は、NINDS R56NS128177(R.H.、C.L.)およびNIMH R01MH068542(RH)に加えて、BBRF若手研究者賞およびNIMH 1R21MH122965(G.F.T.)によってサポートされました。

資料

NameCompanyCatalog NumberComments
1/4 " diam aluminum rodMcMaster-Carr9062K263" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2)Amazon.comB09ZNMR41Vfor affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2)8020.net1020wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick)Canal Plastics33210090702Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screwsMcMaster-Carr92196A194fastening head post holder to optical post 
Adjustable arm (14")Amazon.comB087BZGKSLto hold/adjust lick spout
Analysis code (MATLAB)custom writtenfile at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" IDPololu1993for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2)McMaster-Carr57155K324for mounting wheel axle to frame
Behavior ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick)Canal Plastics32918353422laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick)Canal Plastics32920770574laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2)Amazon.comB086YS4Z3Fmicrocontroller for behavior and rotary encoder
ESP32 shieldOpenMaze.orgOMwSmalldescription at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets 8020.net4138, 3382,3280for wheel frame mounts
goniometersEdmund Optics66-526, 66-527optional for behavior. Fine tuning head for imaging
HallPassVR python codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holdercustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projectorTexas InstrumentsDLPDLCR230NPEVMor other small LED projector
Lick spoutVWR20068-638(or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screwsMcMaster-Carr92015A097securing head post 
Matte white diffusion paperAmazon.comscreen material
Metal headpostscustom design3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID)for constructing the water line
Optical breadboardThorlabsas per user's requirements
Optical posts, 1/2" diam (2x)ThorlabsTR4for head fixation setup
Processing codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4Braspberry.com, adafruit.comSingle-board computer for rendering of HallPassVR envir.
Right angle clampThorlabsRA90for head fixation setup
Rotary encoder (quadrature, 256 step)DigiKeyENS1J-B28-L00256Lto measure wheel rotation
Rotary encoder ESP32 codecustom writtenfile at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cementAmazon.com
Shaft couplerMcMaster-Carr9861T426to couple rotary encoder shaft with axle
Silver mirror acrylic sheetsCanal Plastics32913817934laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valveParker003-0137-900to administer water rewards

参考文献

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. . Harvey Lab Mouse VR Available from: https://github.com/Harvey/Lab/mouseVR (2021)
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

転載および許可

このJoVE論文のテキスト又は図を再利用するための許可を申請します

許可を申請

さらに記事を探す

193

This article has been published

Video Coming Soon

JoVE Logo

個人情報保護方針

利用規約

一般データ保護規則

研究

教育

JoVEについて

Copyright © 2023 MyJoVE Corporation. All rights reserved