JoVE Logo

サインイン

このコンテンツを視聴するには、JoVE 購読が必要です。 サインイン又は無料トライアルを申し込む。

この記事について

  • 要約
  • 要約
  • 概要
  • プロトコル
  • 結果
  • ディスカッション
  • 開示事項
  • 謝辞
  • 資料
  • 参考文献
  • 転載および許可

要約

私たちは、2つの登山繊維依存連想学習タスク中の動物の行動を追跡するための単一のプラットフォームを開発しました。低コストの設計により、繊維関連小脳活動の登山に向けられた光遺伝学的またはイメージング実験との統合が可能になります。

要約

プルキンエ細胞への上昇線維入力は、小脳依存性連想学習に不可欠な有益なシグナルを提供する。頭部固定マウスでこれらのシグナルを研究することは、イメージング、電気生理学的、および光遺伝学的方法の使用を容易にする。ここでは、ランニングホイール上で自由に位置決めする頭部固定マウスの連想学習を追跡できる低コストの行動プラットフォーム(〜$ 1000)が開発されました。このプラットフォームには、まばたきコンディショニングと遅延触覚驚愕条件付けの2つの一般的な連想学習パラダイムが組み込まれています。動作はカメラと検出器によるホイールの動きを使用して追跡されます。コンポーネントとセットアップについて説明し、トレーニングとデータ分析のための詳細なプロトコルを提供します。このプラットフォームは、光遺伝学的刺激および蛍光イメージングの組み込みを可能にする。この設計により、単一のホストコンピュータが複数のプラットフォームを制御して、複数の動物を同時に訓練することができます。

概要

パブロフ的条件付けは、条件付け応答を惹起する刺激間の1秒未満の関連を、小脳依存性学習をプローブするために長い間使用されてきた。例えば、古典的な遅延アイブリンクコンディショニング(DEC)では、動物は、常に反射的なまばたきを誘発する無条件刺激(米国;例えば、角膜に適用される空気のパフ)と繰り返し対になったときに、中立的な条件刺激(CS;例えば、光の閃光または聴覚的トーン)に応答して、タイミングよく保護点滅することを学び、 CSの終わりまたはその近くに来る。学習された応答は条件付き応答 (CR) と呼ばれ、反射応答は無条件応答 (UR) と呼ばれます。ウサギでは、小脳特異的病変がこの形態の学習を混乱させる1,2,3,4。さらに、Purkinje細胞複合体スパイクは、それらのクライミングファイバー入力5によって駆動され、適切なタイミングのCRの獲得に必要な6,7および十分な8,9信号を提供する。

より最近では、登山繊維依存性連想学習パラダイムが頭部固定マウスのために開発されている。DECは、この構成10,11に適合した最初の連想学習パラダイムであった。頭部固定マウスにおけるDECは、小脳領域11、12、13、14、15、16、17および回路素子11、12、13、14151819を同定するために用いられてきた タスクの獲得と消滅に必要です。このアプローチはまた、タスクパラメータの細胞レベルの生理学的表現が学習とともにどのように進化するかを実証するためにも使用されている13,15,16

まばたきに加えて、遅延驚愕触覚条件付け(DTSC)パラダイムは、頭部固定マウス20のための新規連想学習タスクとして最近開発された。概念的にはDECと同様に、DTSCは、米国、URとして驚愕反射21,22に従事するのに十分な強度で顔へのタップを伴う中立的なCSの提示を含む。DTSCパラダイムでは、URとCRの両方が車輪上の後方移動として読み取られます。DTSCは現在、連想学習が小脳活動と遺伝子発現のパターンをどのように変えるかを明らかにするために使用されています20

本研究では、DECやDTSCを1つのプラットフォームで柔軟に適用する手法を開発した。刺激属性とプラットフォーム属性を図 1に図式化します。この設計には、カメラで動物の行動を追跡する機能と、ホイール上のマウスの動きを追跡するロータリーエンコーダーが組み込まれています。データロギングとトライアル構造のすべての側面は、ペアのマイクロコントローラ(Arduino)とシングルボードコンピュータ(SBC;ラズベリーパイ)。これらのデバイスは、提供されたグラフィカルユーザーインターフェイスを介してアクセスできます。ここでは、セットアップ、実験の準備と実行のためのワークフローと、データ視覚化のためのカスタマイズされた分析パイプラインを紹介します。

プロトコル

ここで説明する動物のプロトコルは、プリンストン大学の動物ケアおよび使用委員会によって承認されています。

1. SBC のセットアップ

  1. カメラシリアルインターフェイス(CSI)ケーブルをラズベリーNoIR V2カメラとSBCのカメラポートに接続します。
  2. SBC のオペレーティング システムをホスト コンピューターにダウンロードします。オペレーティングシステムイメージをマイクロセキュアデジタル(microSD)カードに書き込みます。
    注:ラズベリーパイSBCのこれらの手順の詳細な手順は、他の場所23で見つけることができます。このシステムは、ストレッチ、バスター、ブルズアイのオペレーティングシステムを使用してテストされています。
  3. セキュアシェル通信を有効にするには、microSDカードのブートパーティションに「ssh」という拡張子のないファイルを作成します。これが完了したら、ホストマシンからmicroSDカードを取り出し、SBC microSDカードスロットに挿入します。SBC の電源プラグを差し込んで、SBC に電力を供給します。
  4. ホストへの有線接続を受け入れるように SBC を準備します。
    1. 適切なケーブルでモニターを SBC に接続します。端末を開き、 コマンドifconfig を入力し、SBC のイーサネット IP アドレスを記録します。
      メモ:ラズベリーパイモデル3B +にはHDMIディスプレイポートがあり、モデル4BにはマイクロHDMIポートがあります。
    2. Raspberry Pi 構成設定の [ インターフェイス ] タブに移動し、カメラ、セキュア シェル ネットワーク プロトコル (SSH)、および仮想ネットワーク コンピューティング (VNC) のオプションを有効にします。
  5. ホスト コンピューターと SBC の間に有線接続を確立します。
    1. イーサネットケーブルを SBC とホストコンピューターのイーサネットポートに接続します。これらのケーブルのもう一方の端をイーサネットスイッチに接続します。
    2. VNCビューア24 などの仮想ネットワークコンピューティングクライアントを使用し、SBC IPアドレスとデフォルトの認証(ユーザー= "pi"、パスワード= "ラズベリー")を使用してデスクトップにアクセスします。
  6. プロトコル手順に含まれる必要なソフトウェアをダウンロードします。
    注意: SBC への不正アクセスを防ぐために、デフォルトのユーザー名とパスワードを変更します。
    1. SBC 端末で次のコマンドを入力して、リグソフトウェアをダウンロードします。
      git クローン --depth=1 https://github.com/gerardjb/assocLearnRig
    2. 次のコマンドを入力して、必要な Python ライブラリをダウンロードします。
      cd assocLearnRig
      python3 setup.py
    3. マイクロコントローラを直接制御できるようにするには、SBCに接続し、1.6.4~1.6.7の手順に従ってマイクロコントローラ統合開発環境(IDE)をダウンロードします。
    4. SBC デスクトップで Web ブラウザーを開き、https://arduino.cc/en/software に移動します。最新の Linux ARM 32 ビット版の IDE をダウンロードします。
    5. SBC デスクトップでターミナルウィンドウを開き、cd Downloads/ と入力してダウンロードディレクトリに移動します。
    6. IDE をインストールするには、ターミナルで次のコマンドを入力します。
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (ここ<バージョン>はダウンロードしたIDEのバージョンです)
    7. SBCデスクトップでマイクロコントローラIDEのインスタンスを開きます。メニュー オプション「ライブラリの管理>ツール」を選択します。Paul Stoffregen の "Encoder" ライブラリをインストールします。
  7. USB サムドライブで SBC オンボードメモリを展開します。
    1. サムドライブを SBC の USB ポートに挿入します。使用可能な場合は、USB 3.0 ポートを使用します。
    2. 端末 ls -l /dev/disk/by-uuid/ と入力して、サムドライブとその固有の参照 (UUID) を見つけます。UUID を記録します。
    3. pi ユーザーが USB デバイスに書き込めるようにするには、次のコマンドを端末に 1 つずつ入力します。
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      メモ: サムドライブは、SBC の再起動時に自動マウントされるデバイスとして、fstab ファイルの末尾の /etc/fstab に次の行を追加することで追加できます。
      UUID=<ステップ1.7.2からのUUID> /media/usb vfat自動,失敗なし,ノアタイム,ユーザー,rw,uid=pi,gid=pi 0 0

2. 刺激金具の配線と組立ステージ

  1. マイクロコントローラを接続して準備します。
    1. SBCをUSB2タイプAからUSB2マイクロケーブルでマイクロコントローラ(Arduino Due)のプログラミングポートに接続します。
      メモ: 適切な動作を保証するために、 材料表の 製品などの高品質のケーブルを使用してください。
    2. ダウンロードしたプロジェクトリポジトリで "dueAssocLearn.ino" を見つけます。マイクロコントローラIDEでスケッチを開き、SBCに接続されているマイクロコントローラにアップロードします。
    3. 適切なバージョンのArduinoIDEをホストコンピューターにダウンロードしてインストールします。
    4. USB2タイプBからUSB2タイプAケーブルでホストコンピュータをマイクロコントローラ(Arduino宇野)に接続します。
    5. GitHubリポジトリ(https://github.com/gerardjb/assocLearnRig)に移動し、「DTSC_US.ino」スケッチをホストコンピュータにダウンロードします。
    6. ホストコンピュータでマイクロコントローラIDEを実行し、「DTSC_US.ino」スケッチを開き、マイクロコントローラにアップロードします。
  2. 図2のフリッツ に示すように、マイクロコントローラ、ブレッドボード、LED、ロータリーエンコーダ、ドライバ付きステッピングモータ、ドライバ付きソレノイドバルブにワイヤを接続します。
  3. ステッピングモーターとソレノイドバルブに電力を供給します。
    1. 電源の1チャンネルをステッピングモータドライバの+VピンとGNDピンに正しく配線します。
    2. 電源装置の電源を入れ、接続されているチャネル電圧を 25 V に設定します。
      メモ: ステッピングモーター、ドライバ、および電源装置間の接続が正しく設定されている場合、ステッピングモータードライバーの緑色のインジケータ LED が点灯します。
    3. 電源装置の正リード線をソレノイドバルブドライバホールド電圧ピンに、もう一方の正リード線をスパイク電圧ピンに正しく配線します。
    4. 負のリード線を制御信号と共有されるグランドに接続します。
    5. 電源をオンにし、ホールド電圧に接続されたチャネルを約2.5V、スパイク電圧に接続されたチャネルを約12Vに設定します。
  4. ルアーアダプターを使用して、約20 PSIの圧力に調整された空気源をソレノイドバルブに接続します。
  5. すべての刺激成分とカメラが正しく機能していることをテストします。
    1. SBC でターミナルを開き、「 cd ~/assocLearnRig」 と入力して、複製された GitHub リポジトリに移動します。
    2. ターミナルで python3 assocLearnRig_app.py と入力して、コントロールのグラフィカルユーザーインターフェイスを起動します。
    3. [ストリーム] ボタンを押してカメラ ストリーム を開始します。
    4. DECラジオボタンを選択し、マイクロコントローラにアップロードし、[セッションの開始]ボタンを押してデフォルトパラメータでセッションを開始します
      メモ:この手順の後、データログの印刷が端末に表示され、カメラストリームのメッセージが消え、LED CSとソレノイドバルブUSが各試行中に適切なタイミングでオン/オフされます。
    5. セッションが終了したら、[ DTSC] ラジオ ボタンを選択して前の手順を繰り返します。
      注: GitHub リポジトリ内のスケッチ ("testStepper.ino"、"testRotary.ino"、および "testSolenoid.ino") は、上記の手順で満足のいく結果が得られない場合、個々のコンポーネントをテストするために使用できます。
  6. ランニングホイールを作ります。
    1. フォームローラーから3インチホイールを切り取ります。マウスの移動によって回転したときにホイールがぐらつかないように、正確なホイール中央に1/4インチの穴を開けます。
    2. ホイールに1/4インチシャフトを挿入し、ホイールの両側に配置されたクランプハブを使用して所定の位置に固定します。
  7. ロータリーエンコーダをM3ボルトを使用して4.5インチのアルミニウムチャンネルに貼り付けます。図に示すように、1/4インチボルト、ナット、およびワッシャーを備えた直角括弧を使用して、アルミニウムブレッドボード上のアルミニウムチャネルを安定させます。
  8. ホイールとロータリーエンコーダは、シャフトカップリングスリーブを使用して取り付けます。
  9. ブレッドボードに取り付けられた光学ポストに取り付けられた直角エンドクランプにベアリングを挿入して、ホイールシャフトの自由側を安定させます。
    メモ: 手で回転させたときにホイールがぐらつかずに自由に回転するようにしてください。
  10. 刺激ハードウェア、ヘッドレスト、赤外光アレイ、およびピカメラを組み立てたホイールの周りに配置します。
    1. 光学式支柱と直角支柱クランプを使用して、ヘッドポストが車軸の前方 1.5 cm、車輪表面から 2 cm 上になるようにヘッドレストを配置します。(値は 20 g マウスの場合です)。
    2. DEC USに使用したCS LEDと電磁弁出口を、DECに使用する目から1cm以内に配置します。
    3. DTSC USに使用されているステッピングモーターを取り付けます
    4. 動物がいる場所から約10cmの光学ポストにピカメラを取り付けます。
      メモ: picamera マウントの設計は、GitHub リポジトリの "RaspPiCamMount1_1.stl" のファイルから 3D プリンタで作成できます。
    5. 赤外光アレイをピカメラと同じ側の面の位置の少し上に置き、直接向きます。
    6. クランプハブを使用して1/4インチシャフトに取り付けられたアクリルの端にフォームをテーピングすることにより、DTSCの触覚刺激を行います。触覚刺激をステッピングモーターシャフトに取り付けます。
      注: アクリル片のデザインは、GitHub リポジトリの "TactileStimDesign.pdf" のパターンに従ってレーザーカットできます。

3. 動作実験の準備と実行

  1. マウスヘッドプレートの移植。
    1. 2%イソフルランを使用してマウスを麻酔し、定位フレームで頭部を固定する。
    2. 眼科用軟膏を眼に塗布する。
    3. 石鹸水と滅菌メスを使って頭皮を剃ります。切開部位の皮膚の真下にリドカインを注入し、ポビドンで手術部位をきれいにする。
    4. 頭蓋骨を強く押しすぎないように注意しながら、頭皮の正中線に沿って目の後ろの端から頭蓋骨の後ろの端までメスで切開します。
    5. 切開部を開き、滅菌止血剤で両側をクランプして開いたままにします。エタノールに浸した綿棒を使用して骨膜を静かに取り除き、露出した頭蓋骨の表面を乾燥させます。
    6. ヘッドプレートを頭蓋骨に水平に置き、ヘッドプレートの前面を目より後方に配置するようにします。シアノアクリレート接着剤を使用してヘッドプレートを頭蓋骨に取り付け、接着剤を完全に乾燥させます。
    7. 歯科用セメント粉末(1スクープ)、溶剤(2滴)、触媒(1滴)を混合皿に混ぜ合わせ、露出した骨のすべての領域に塗布する。表面がヘッドプレートの上端と同一平面になるまでレイヤーを追加し、ヘッドプレートが頭蓋骨にしっかりと取り付けられていることを確認します。
    8. 必要に応じてヘッドプレートの後ろと前に閉じた皮膚を縫合する。
    9. カルプロフェンなどの術後鎮痛薬を施設のガイドラインに従って注射し、動物が少なくとも5日間回復できるようにします。
  2. ビヘイビアセッションの準備。
    1. 実験前の5日間、ヘッドレストに装着して、実験動物をプラットフォームに慣れさせる。
      注:慣れセッションの終わりまでに、動物は車輪の上を快適に走るべきです。
    2. (12 月のみ)セッションの前に、ソレノイドバルブ出口が>1cm離れたターゲットアイの中央にあることを確認してください。
    3. (12 月のみ)プッシュボタンを使用してエアパフを手動で作動させます。マウスが、直感した姿勢をとったり、罹患した眼周囲領域を同側前足でつかんだりするなど、ストレスの明白な兆候を示さずに、すぐにまばたきをすることを確認します。
    4. (DTSC のみ)セッションの前に、触覚刺激が動物の鼻の中央にあることを確認してください。
      メモ: DTSC 動作セッションが実行されていない場合、ステッピングモータは自動的に非アクティブ化され、手動で再配置できます。
    5. (DTSC のみ)SBC ターミナルで、 python3 assocLearnRig_app.py と入力して GUI を起動します。
    6. (DTSC のみ)GUIの [セッションの開始] ボタンを押して、デフォルトのパラメータを使用して3回の試行のテストセッションを実行します。
    7. (DTSC のみ)端末に印刷されるログに記録されたデータが、各試行で米国に続いてロータリーエンコーダーに記録された20ステップ以上100ステップ未満の偏向を示していることを確認します。
      注意: 危害を避け、動物へのストレスを軽減するために、刺激を動物から遠ざけ、必要な条件が満たされるまで刺激を近づけてください。
  3. データロギングによるビヘイビアセッションの実行。
    1. マウスをヘッドレストに取り付けます。
    2. SBC の端末で、 python3 assocLearnRig_app.pyを入力して GUI を起動します。
    3. 行動試行中にカメラの録画を許可するには、[ ストリーム] ボタンを押します。
      メモ: セッションはカメラなしで実行できます。この場合、ロータリーエンコーダからのデータと刺激表示タイムスタンプのみがログに記録されます。
    4. 動物の識別情報を 動物ID フィールドに入力し、[ 設定] ボタンを押します。
    5. 望ましい動作パラダイムに応じて、「セッション・タイプ」見出しの下のラジオ・ボタンから DEC または DTSC のいずれかを選択します。
    6. [ 動物ID ]フィールドの下のフィールドに目的の実験パラメータを入力し、[ Arduinoにアップロード] ボタンを押します。
      注: 実験パラメータの詳細については、GitHub リポジトリの README セクションを参照してください。
    7. [ セッションの開始]ボタンをクリックしてセッション を開始します。
    8. セッションが初期化されると、SBC サムドライブのマウントポイントの "/media/usb" に作成された新しいディレクトリにデータのログ記録が開始されます。

4. データのエクスポートと分析

  1. 記録されたすべてのセッションをホスト コンピューターにエクスポートするには、コマンド プロンプトを開き、コマンド pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination を入力し、SBC パスワードで認証します。
    注:上記のコマンドは、Windowsマシン用です。MacおよびLinuxマシンでは、ターミナルを使用し、 "pscp"を "scp"に置き換えてください。
  2. Anaconda25 または別の python パッケージマネージャ (PPM) をホストコンピュータにインストールします。
  3. GitHub リポジトリに移動し、"analyzeSession.py"、"summarizeSessions.py"、"session2mp4s.py"、および "requirementsHost.txt" をダウンロードします。
  4. PPM プロンプトを開き、 conda install --file directory_containing_requirementsHostrequirements Host.txt と入力して、Python パッケージのインストールに必要な Python ライブラリがあることを確認します。
  5. プロンプトで cd directory_containing_analyzeData と入力して、「analyzeData.py」と「session2mp4s.py」を含むディレクトリに移動します。python analyzeSession.py を入力して分析プログラムを実行
    注: Python 2 バージョンを Python として使用している場合は、エラー メッセージが生成されます。バージョンを確認するには、プロンプトに 「python -V 」と入力します。
  6. プロンプトが表示されたら、データを含むディレクトリを選択します。複数のサブディレクトリを持つディレクトリは、順番に分析されます。
  7. DECセッションの場合、分析されたセッションディレクトリごとに、試行平均画像からマウスの目を含む関心領域(ROI)を選択します。
    メモ: 最終解析データファイルとサマリーグラフは、解析された各セッションディレクトリのサブディレクトリに入力されます。
  8. python summarizeSessions.py と入力すると、複数のセッションにまたがるサマリー データが生成されます。
  9. プロンプト python session2mp4s.py を入力して、イメージングデータファイルを表示可能な.mp4ファイルに変換します。

結果

DEC実験・解析のワークフロー
適切な実験パラメータ選択は、遅延アイブリンクコンディショニング(DEC)トレーニングを成功させるために重要です。ここで示すデータでは、GUI を使用して 350 ミリ秒の CS 期間と 50 ミリ秒の US 期間を選択しました。このペアリングは、300msの刺激間間隔をもたらす:低振幅CR産生10 を防止するのに十分な長さと、不十分な学習また...

ディスカッション

ここで概説する関連プロトコルを備えたプラットフォームは、2つの感覚連想学習タスクにおける動物の行動を確実に追跡するために使用することができる。各タスクは、クライミングファイバー経路を通る無傷の通信に依存します。ここで説明する設計では、小脳応答の学習と記録/摂動を容易にする要素を組み込んでいます。これらには、自由な移動11

開示事項

著者らは、開示する利益相反はありません。

謝辞

この研究は、国立精神衛生研究所NRSA F32 MH120887-03(G.J.B.へ)およびR01 NS045193およびR01 MH115750(S.S-H.W.へ)からの助成金によって支援されています。DECセットアップの最適化に役立つ議論をしてくれたBas Koekkoek博士とHenk-Jan Boele博士、DTSCセットアップの最適化に役立つ議論をしてくれたYue Wang博士とXiaoying Chen博士に感謝します。

資料

NameCompanyCatalog NumberComments
"B" Quick Base For C&B METABOND - 10 mL bottleParkellS398Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mLParkellS371Catalyst
#8 WashersThorlabsW8S038Washers
0.250" (1/4") x 8.00" Stainless Steel Precision ShaftingServocity6341721/4" shaft
0.250” (0.770") Clamping HubServocity545588Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 packActobotics625106Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" LongThorlabsSH25S0751/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs ResistorsEDGELEC‎ED_YT05_U_100PcsCS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 VideoStar-tech‎HDDDVIMM2MRaspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash DriveSanDisk‎SDCZ430-256G-G46USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter ModuleAmazonB00ZC6B8VMLogic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory CardSamsung‎MB-ME32GA/AMmicroSD card
4.50" Aluminum ChannelServocity5854444.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision IlluminatorTowallmarkSODIALInfrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting BlocksREXQualisB07DL13RZHBreadboard
5 Port Gigabit Unmanaged Ethernet Network SwitchTP-Link‎TL-SG105Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/AdapterCanakit‎DCAR-RSP-2A5Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3Ethicon668GSutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc SupplyCalt B01EWER68IRotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 PackThorlabsTR1-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 PackThorlabsTR2-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 PackThorlabsTR4-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 PackThorlabsTR6-P5Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2"ThorlabsPH2Optical post holder
Adapter-062-M X LUER LOCK-FThe Lee Co.TMRA3201950ZSolenoid valve luer adapter
Aeromat Foam Roller Size: 36" LengthAeromatB002H3CMUEFoam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 TapsThorlabsMB1012Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-PackAmazonHL-007347Raspberry Pi3B+ to monitor cable
Arduino  Uno R3ArduinoA000066Arduino Uno (microcontroller board)
Arduino DueArduino‎A000062Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 ATenma72-8335APower supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8"McMaster Carr8560K257Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper MotorStepper OnlineB06Y5VPSFNStepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPTMcMaster Carr6763K13Air source regulator
Cotton SwabPuritan806-WCCotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPCDell1908FPCComputer monitor
Flex Cable for Raspberry Pi CameraAdafruit2144camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder MotorStepper Online17HS24-2104SStepper motor
IsofluraneHenry Schein66794001725Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz.Krazy GlueKG483Cyanoacrylate glue
Lidocaine HClVetOne510212Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread SizeMcMaster Carr90473A029Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcsUxcellA16040100ux1380M3 bolt
NEMA 17 Stepper Motor MountACTOBOTICS555152Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m longAdafruit4298Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tubeOptixcare142422Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum SpeedMcMaster-Carr3759T57Bearing
Premium Female/Female Jumper Wires - 40 x 6"Adafruit266Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm)Adafruit826Wires
Premium Male/Male Jumper Wires - 40 x 6"Adafruit758Wires
Radiopaque L-Powder for C&B METABOND - 5 gParkellS396Dental cement powder
Raspberry Pi (3B+ or 4B)Adafruit3775 or 4295Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30Raspberry Pi FoundationRPI3-NOIR-V2Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 TapsThorlabsAB90ERight-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" HexThorlabsRA90Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" HexThorlabsRA180Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet CableAmazon‎CAT6-7FT-5P-BLUEEthernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" HexThorlabsSWCRotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MSThe Lee Co.IECX0501350ASolenoid valve driver
Swivel Base AdapterThorlabsUPHAPost holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feetAmazon‎7T9MV4USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m)AmazonB072L34SZSUSB2 type B to USB2 type A cable
VHS-M/SP-12 VThe Lee Co.INKX0514900ASolenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000"McMaster Carr91090A108Washers

参考文献

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. . Raspberry Pi Operating system images Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021)
  24. . VNC Server. VNC® Connect Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021)
  25. . Anaconda: The world's most popular data science platform Available from: https://xddebuganaconda.xdlab.co/ (2021)
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -. J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

転載および許可

このJoVE論文のテキスト又は図を再利用するための許可を申請します

許可を申請

さらに記事を探す

179

This article has been published

Video Coming Soon

JoVE Logo

個人情報保護方針

利用規約

一般データ保護規則

研究

教育

JoVEについて

Copyright © 2023 MyJoVE Corporation. All rights reserved