JoVE Logo

Iniciar sesión

Se requiere una suscripción a JoVE para ver este contenido. Inicie sesión o comience su prueba gratuita.

En este artículo

  • Resumen
  • Resumen
  • Introducción
  • Protocolo
  • Resultados
  • Discusión
  • Divulgaciones
  • Agradecimientos
  • Materiales
  • Referencias
  • Reimpresiones y Permisos

Resumen

Hemos desarrollado una plataforma única para rastrear el comportamiento animal durante dos tareas de aprendizaje asociativo dependientes de la fibra de escalada. El diseño de bajo costo permite la integración con experimentos optogenéticos o de imágenes dirigidos a la actividad cerebelosa asociada a la fibra de escalada.

Resumen

La escalada de entradas de fibra a las células de Purkinje proporciona señales instructivas críticas para el aprendizaje asociativo dependiente del cerebelo. El estudio de estas señales en ratones con cabeza fija facilita el uso de métodos de imagen, electrofisiológicos y optogenéticos. Aquí, se desarrolló una plataforma de comportamiento de bajo costo (~ $ 1000) que permite el seguimiento del aprendizaje asociativo en ratones con cabeza fija que se vuelven libremente en una rueda de carrera. La plataforma incorpora dos paradigmas comunes de aprendizaje asociativo: el acondicionamiento del parpadeo ocular y el acondicionamiento de sobresalto táctil retardado. El comportamiento se rastrea utilizando una cámara y el movimiento de la rueda por un detector. Describimos los componentes y la configuración y proporcionamos un protocolo detallado para la capacitación y el análisis de datos. Esta plataforma permite la incorporación de estimulación optogenética e imagen de fluorescencia. El diseño permite que una sola computadora host controle múltiples plataformas para entrenar a múltiples animales simultáneamente.

Introducción

El condicionamiento pavloviano de la asociación subsegundo entre estímulos para provocar una respuesta condicionada se ha utilizado durante mucho tiempo para sondear el aprendizaje dependiente del cerebelo. Por ejemplo, en el acondicionamiento clásico de retardo del parpadeo ocular (DEC), los animales aprenden a hacer un parpadeo protector bien oportuno en respuesta a un estímulo condicional neutro (CS; por ejemplo, un destello de luz o tono auditivo) cuando se combina repetidamente con un estímulo incondicional (US; por ejemplo, una bocanada de aire aplicada a la córnea) que siempre provoca un parpadeo reflejo, y que llega al final o cerca del final del CS. La respuesta aprendida se conoce como respuesta condicionada (RC), mientras que la respuesta refleja se conoce como respuesta incondicionada (UR). En conejos, las lesiones específicas del cerebelo interrumpen esta forma de aprendizaje 1,2,3,4. Además, los picos complejos celulares de Purkinje, impulsados por sus entradas de fibra ascendente5, proporcionan una señal necesaria de 6,7 y 8,9 suficiente para la adquisición de CR correctamente sincronizados.

Más recientemente, se han desarrollado paradigmas de aprendizaje asociativo dependientes de la fibra para ratones con cabeza fija. DEC fue el primer paradigma de aprendizaje asociativo que se adaptó a esta configuración10,11. El DEC en ratones fijos de cabeza se ha utilizado para identificar regiones cerebelosas 11,12,13,14,15,16,17 y elementos de circuito 11,1 2,13,14,15,18,19 que son necesarios para la adquisición y extinción de tareas. Este enfoque también se ha utilizado para demostrar cómo evoluciona la representación fisiológica a nivel celular de los parámetros de la tarea con el aprendizaje 13,15,16.

Además del parpadeo ocular, el paradigma del acondicionamiento táctil de sobresalto retardado (DTSC) se desarrolló recientemente como una novedosa tarea de aprendizaje asociativo para ratones con cabeza fija20. Conceptualmente similar al DEC, DTSC implica la presentación de un CS neutro con un US, un toque en la cara suficiente en intensidad para activar un reflejo de sobresalto21,22 como el UR. En el paradigma DTSC, tanto el UR como el CR se leen como locomoción hacia atrás en una rueda. DTSC ahora se ha utilizado para descubrir cómo el aprendizaje asociativo altera la actividad cerebelosa y los patrones de expresión génica20.

En este trabajo, se desarrolló un método para aplicar de manera flexible DEC o DTSC en una sola plataforma. Los atributos de estímulo y plataforma se esquematizan en la Figura 1. El diseño incorpora la capacidad de rastrear el comportamiento de los animales con una cámara, así como un codificador giratorio para rastrear la locomoción del mouse en una rueda. Todos los aspectos del registro de datos y la estructura de prueba están controlados por microcontroladores emparejados (Arduino) y una computadora de placa única (SBC; Raspberry Pi). Se puede acceder a estos dispositivos a través de una interfaz gráfica de usuario proporcionada. Aquí, presentamos un flujo de trabajo para la configuración, preparación y ejecución de experimentos, y una canalización de análisis personalizada para la visualización de datos.

Protocolo

Los protocolos de animales descritos aquí han sido aprobados por los Comités de Cuidado y Uso de Animales de la Universidad de Princeton.

1. Configuración del SBC

  1. Conecte el cable de interfaz serie de la cámara (CSI) a la cámara Raspberry NoIR V2 y al puerto de la cámara en el SBC.
  2. Descargue el sistema operativo del SBC en el equipo host. Escriba la imagen del sistema operativo en una tarjeta digital micro segura (microSD).
    NOTA: Las instrucciones detalladas para estos procedimientos para un SBC de Raspberry Pi se pueden encontrar en otra parte23. El sistema ha sido probado utilizando los siguientes sistemas operativos: Stretch, Buster, Bullseye.
  3. Para habilitar la comunicación segura del shell, cree un archivo sin extensión llamado "ssh" en la partición de arranque de la tarjeta microSD. Una vez hecho esto, expulse la tarjeta microSD de la máquina host e insértela en la ranura para tarjetas microSD SBC. Alimente el SBC enchufando su fuente de alimentación.
  4. Prepare el SBC para aceptar una conexión por cable al host.
    1. Conecte un monitor con un cable apropiado al SBC. Abra un terminal, escriba el comando ifconfig y registre la dirección IP Ethernet del SBC.
      NOTA: Raspberry Pi modelo 3B + tiene un puerto de pantalla HDMI, mientras que el modelo 4B tiene un puerto micro-HDMI.
    2. Vaya a la pestaña Interfaz de la configuración de Raspberry Pi y habilite las opciones de Cámara, Protocolo de red de shell seguro (SSH) y Computación de red virtual (VNC).
  5. Establezca una conexión por cable entre el equipo host y el SBC.
    1. Conecte un cable Ethernet al puerto Ethernet del SBC y a un ordenador host. Conecte el otro extremo de estos cables a un conmutador Ethernet.
    2. Utilice un cliente informático de red virtual como VNC viewer24 y acceda al escritorio utilizando la dirección IP SBC y la autenticación predeterminada (usuario = "pi", contraseña = "raspberry").
  6. Descargue el software requerido incluido en los pasos del protocolo.
    PRECAUCIÓN: Cambie el nombre de usuario y la contraseña predeterminados para evitar el acceso no autorizado al SBC.
    1. Introduzca el siguiente comando en el terminal SBC para descargar el software de la plataforma:
      git clon --depth=1 https://github.com/gerardjb/assocLearnRig
    2. Ingrese los siguientes comandos para descargar las bibliotecas de Python necesarias.
      cd assocLearnRig
      python3 setup.py
    3. Para permitir el control directo sobre el microcontrolador, conéctese al SBC y descargue el entorno de desarrollo integrado (IDE) del microcontrolador siguiendo los pasos 1.6.4-1.6.7.
    4. Abra el navegador web en el escritorio SBC y navegue hasta https://arduino.cc/en/software. Descargue la última versión de Linux ARM de 32 bits del IDE.
    5. Abra una ventana de terminal en el escritorio SBC y navegue hasta el directorio de descargas escribiendo cd Downloads/
    6. Para instalar el IDE, escriba los siguientes comandos en el terminal:
      tar -xf arduino--linuxarm.tar.xz
      sudo mv arduino- /opt
      sudo /opt/arduino-/install.sh

      (aquí es la versión del IDE descargado)
    7. Abra una instancia del IDE del microcontrolador en el escritorio SBC. Seleccione la opción de menú Herramientas > Administrar bibliotecas. Instale la biblioteca "Encoder" de Paul Stoffregen.
  7. Expanda la memoria integrada SBC con una unidad USB.
    1. Inserte una unidad USB en un puerto USB del SBC. Utilice un puerto USB 3.0 si está disponible.
    2. Escriba en el terminal ls -l /dev/disk/by-uuid/ para encontrar la unidad USB y su referencia única (UUID). Registre el UUID.
    3. Para permitir que el usuario pi escriba en el dispositivo USB, escriba los siguientes comandos uno por uno en el terminal:
      sudo mkdir /media/usb
      sudo chown -R pi:pi /media/usb
      sudo mount /dev/sda1 /media/usb -o uid=pi,gid=pi
      NOTA: La unidad USB se puede agregar como un dispositivo que se montará automáticamente cuando se reinicie el SBC agregando la siguiente línea al final del archivo fstab en /etc/fstab:
      UUID= /media/usb vfat auto,nofail,noatime,users,rw,uid=pi,gid=pi 0 0

2. Cableado de hardware de estímulo y etapa de ensamblaje

  1. Conecte y prepare microcontroladores.
    1. Conecte el SBC al puerto de programación del microcontrolador (Arduino Due) con un micro cable USB2 tipo A a USB2.
      NOTA: Utilice un cable de alta calidad como el producto en la Tabla de Materiales para garantizar un funcionamiento adecuado.
    2. Busque "dueAssocLearn.ino" en el repositorio de proyectos descargado. Abra el boceto con el IDE del microcontrolador y cárguelo en el microcontrolador conectado al SBC.
    3. Descargue e instale la versión adecuada del IDE de Arduino en el equipo host.
    4. Conecte el ordenador host al microcontrolador (Arduino Uno) con un cable USB2 tipo B a USB2 tipo A.
    5. Vaya al repositorio de GitHub (https://github.com/gerardjb/assocLearnRig) y descargue el boceto "DTSC_US.ino" en la computadora host.
    6. En el equipo host, ejecute el IDE del microcontrolador y abra el boceto "DTSC_US.ino", luego cárguelo en el microcontrolador.
  2. Conecte cables a los microcontroladores, placa de pruebas, LED, codificador rotativo, motor paso a paso con controlador y válvula solenoide con controlador como se indica en el diagrama de Fritzing en la Figura 2.
  3. Encienda el motor paso a paso y la válvula solenoide.
    1. Conecte correctamente un canal de una fuente de alimentación a los pines +V y GND del controlador del motor paso a paso.
    2. Encienda la fuente de alimentación y ajuste el voltaje del canal conectado a 25 V.
      NOTA: Si las conexiones entre el motor paso a paso, el controlador y la fuente de alimentación están configuradas correctamente, se encenderá un LED indicador verde en el controlador del motor paso a paso.
    3. Conecte correctamente el cable positivo de una fuente de alimentación al pin de voltaje de retención del controlador de la válvula solenoide y el otro cable positivo al pin de voltaje de pico.
    4. Conecte los cables negativos a un suelo compartido con la señal de control.
    5. Encienda la fuente de alimentación y ajuste el canal conectado al voltaje de retención a aproximadamente 2.5 V y el canal conectado al voltaje de pico a aproximadamente 12 V.
  4. Conecte una fuente de aire regulada a una presión de ~20 PSI a la válvula solenoide utilizando el adaptador luer.
  5. Pruebe que todos los componentes del estímulo y la cámara funcionan correctamente.
    1. Abra un terminal en el SBC y escriba cd ~/assocLearnRig para navegar al repositorio clonado de GitHub.
    2. En el terminal, escriba python3 assocLearnRig_app.py para iniciar la interfaz gráfica de usuario de control.
    3. Inicie la transmisión de la cámara presionando el botón Transmitir .
    4. Seleccione el botón de opción DEC , cárguelo en el microcontrolador e inicie una sesión con los parámetros predeterminados pulsando el botón Iniciar sesión .
      NOTA: Después de este paso, debe aparecer una impresión del registro de datos en el terminal, el mensaje en el flujo de la cámara debe desaparecer y el LED CS y la válvula solenoide US deben encenderse y apagarse en los momentos apropiados durante cada prueba.
    5. Una vez finalizada la sesión, repita los pasos anteriores con el botón de opción DTSC seleccionado.
      NOTA: Los bocetos en el repositorio de GitHub ("testStepper.ino", "testRotary.ino" y "testSolenoid.ino") se pueden usar para probar componentes individuales si los pasos anteriores no proporcionan resultados satisfactorios.
  6. Hacer la rueda de carrera.
    1. Cortar una rueda de 3" de un rodillo de espuma. Perfore un orificio de 1/4 "en el centro exacto de la rueda para que la rueda no se tambalee cuando sea girada por la locomoción del mouse.
    2. Inserte un eje de 1/4" en la rueda y fíjelo en su lugar utilizando bujes de sujeción colocados a cada lado de la rueda.
  7. Coloque el codificador rotativo en un canal de aluminio de 4,5" con un perno M3. Estabilice el canal de aluminio en la placa de pruebas de aluminio utilizando un soporte de ángulo recto con un perno, tuerca y arandela de 1/4 "como se muestra.
  8. Conecte la rueda y el codificador giratorio mediante un manguito de acoplamiento de eje.
  9. Estabilice el lado libre del eje de la rueda con un rodamiento insertado en una abrazadera de extremo de ángulo recto instalada en un poste óptico montado en la placa de pruebas.
    NOTA: Asegúrese de que la rueda gire libremente sin tambalearse cuando se gira a mano.
  10. Coloque el hardware de estímulo, el reposacabezas, la matriz de luz infrarroja y la picamera alrededor de la rueda ensamblada.
    1. Coloque los reposacabezas con postes ópticos y abrazaderas de poste de ángulo recto de modo que los reposacabezas estén a 1,5 cm por delante del eje de la rueda y a 2 cm por encima de la superficie de la rueda. (Los valores son para un ratón de 20 g).
    2. Coloque el LED CS y la salida de la válvula solenoide utilizada para el DEC US a menos de 1 cm del ojo utilizado para el DEC.
    3. Monte el motor paso a paso utilizado para el DTSC US
    4. Monte la picamera en un poste óptico a ~ 10 cm de donde estará el animal.
      NOTA: El diseño para el montaje picamera se puede realizar en una impresora 3D desde el archivo en "RaspPiCamMount1_1.stl" en el repositorio de GitHub.
    5. Coloque la matriz de luz infrarroja ligeramente por encima y directamente frente a la posición de la cara en el mismo lado que la picamera.
    6. Haga un estímulo táctil para DTSC pegando espuma en el borde de una pieza de acrílico montada en un eje de 1/4 "usando un cubo de sujeción. Conecte el estímulo táctil al eje del motor paso a paso.
      NOTA: El diseño de la pieza acrílica se puede cortar con láser siguiendo el patrón en "TactileStimDesign.pdf" en el repositorio de GitHub.

3. Preparación y ejecución de experimentos de comportamiento

  1. Implantación de la placa frontal del ratón.
    1. Anestesiar un ratón con 2% de isoflurano y fijación de la cabeza en un marco estereotáctico.
    2. Aplique un ungüento oftálmico en los ojos.
    3. Afeitar el cuero cabelludo con agua jabonosa y un bisturí estéril. Inyecte lidocaína directamente debajo de la piel del sitio de la incisión y limpie el sitio quirúrgico con povidona.
    4. Haga una incisión con un bisturí a lo largo de la línea media del cuero cabelludo desde el borde posterior de los ojos hasta el borde posterior del cráneo, teniendo cuidado de no presionar demasiado fuerte el cráneo.
    5. Abra la incisión y pince ambos lados con hemostáticos estériles para mantenerla abierta. Retire suavemente el periostio con un hisopo de algodón sumergido con etanol y deje que la superficie del cráneo expuesto se seque.
    6. Coloque el nivel de la placa de la cabeza en el cráneo, asegurándose de colocar la parte frontal de la placa de la cabeza posterior a los ojos. Use pegamento de cianoacrilato para unir la placa de la cabeza al cráneo y permita que el pegamento se seque por completo.
    7. Mezcle el polvo de cemento dental (1 cucharada), el disolvente (2 gotas) y el catalizador (1 gota) en una fuente de mezcla y aplíquelo a todas las áreas del hueso expuesto. Agregue capas hasta que la superficie esté al ras con el borde superior de la placa frontal, asegurándose de que la placa frontal esté firmemente unida al cráneo.
    8. Sutura la piel cerrada detrás y delante de la placa de la cabeza si es necesario.
    9. Inyecte analgesia postoperatoria como carprofeno según las pautas institucionales mientras permite que el animal se recupere durante al menos 5 días.
  2. Preparación para las sesiones de comportamiento.
    1. Permita que los animales de prueba se habitúen a la plataforma montándolos en el reposacabezas durante sesiones de 30 minutos durante 5 días antes de los experimentos.
      NOTA: Al final de las sesiones de habituación, los animales deben correr cómodamente sobre la rueda.
    2. (Solo DEC) Antes de las sesiones, asegúrese de que la salida de la válvula solenoide esté centrada en el ojo objetivo colocado a >1 cm de distancia.
    3. (Solo DEC) Acciona manualmente una bocanada de aire con el botón pulsador. Asegúrese de que el ratón produzca rápidamente un parpadeo sin mostrar signos manifiestos de estrés, como adoptar una postura encorvada o agarrar la región periocular afectada con la pata anterior ipsilateral.
    4. (Solo DTSC) Antes de las sesiones, asegúrese de que el estímulo táctil esté centrado en la nariz del animal colocada a ~ 1,5 cm de distancia.
      NOTA: Cuando una sesión de comportamiento DTSC no se está ejecutando, el motor paso a paso se desactiva automáticamente para permitir el reposicionamiento manual.
    5. (Solo DTSC) En el terminal SBC, escriba python3 assocLearnRig_app.py para iniciar la GUI.
    6. (Solo DTSC) Ejecute una sesión de prueba de tres pruebas con los parámetros predeterminados presionando el botón Iniciar sesión en la GUI.
    7. (Solo DTSC) Asegúrese de que los datos registrados que se imprimen en el terminal muestran una desviación de más de 20 pero menos de 100 pasos registrados en el codificador giratorio después de los EE. UU. en cada prueba.
      PRECAUCIÓN: Para evitar daños y reducir el estrés al animal, comience el estímulo más lejos del animal y acérquelo más cerca hasta que se cumplan las condiciones requeridas.
  3. Ejecución de sesiones de comportamiento con registro de datos.
    1. Monte un ratón en el reposacabezas.
    2. En el terminal del SBC, escriba python3 assocLearnRig_app.py para iniciar la GUI.
    3. Para permitir grabaciones de cámara durante las pruebas de comportamiento, presione el botón Transmitir .
      NOTA: Las sesiones se pueden ejecutar sin una cámara. En este caso, solo se registran los datos del codificador rotativo y las marcas de tiempo de presentación de estímulos.
    4. Ingrese la información de identificación del animal en el campo Identificación de animal y presione el botón Establecer .
    5. Seleccione el DEC o el DTSC en el botón de opción situado debajo del encabezado Tipo de sesión en función del paradigma de comportamiento que se desee.
    6. Ingrese los parámetros de experimento deseados en los campos debajo del campo Animal ID y presione el botón Cargar en Arduino .
      NOTA: Los detalles de los parámetros del experimento se pueden encontrar en la sección README del repositorio de GitHub.
    7. Presione el botón Iniciar sesión para comenzar la sesión.
    8. Cuando se inicializa una sesión, los datos comenzarán a registrarse en un nuevo directorio creado en "/media/usb" en el punto de montaje de la unidad USB SBC.

4. Exportación y análisis de datos

  1. Para exportar todas las sesiones grabadas al equipo host, abra un símbolo del sistema e introduzca el comando pscp -r pi@Pi_IP_address:/media/usb* host_computer_destination y, a continuación, autentique con la contraseña SBC.
    NOTA: El comando anterior es para una máquina con Windows. En máquinas Mac y Linux, use terminal y reemplace "pscp" por "scp".
  2. Instale Anaconda25 u otro administrador de paquetes de Python (PPM) en el equipo host.
  3. Vaya al repositorio de GitHub y descargue "analyzeSession.py", "summarizeSessions.py", "session2mp4s.py" y "requirementsHost.txt".
  4. Abra un mensaje PPM y escriba conda install --file directory_containing_requirementsHostrequirements Host.txt para asegurarse de que la instalación del paquete Python tenga las bibliotecas de Python necesarias.
  5. En el símbolo del sistema, escriba cd directory_containing_analyzeData para navegar al directorio que contiene "analyzeData.py" y "session2mp4s.py". Ejecute el programa de análisis escribiendo python analyzeSession.py
    NOTA: Se generará un mensaje de error si se utiliza una versión de Python 2 como python. Para comprobar la versión, escriba python -V en el símbolo del sistema.
  6. Seleccione el directorio que contiene los datos cuando se le solicite. Los directorios con múltiples subdirectorios se analizarán secuencialmente.
  7. Para las sesiones DEC, para cada directorio de sesión analizado, seleccione una región de interés (ROI) que contenga el ojo del ratón de una imagen promedio de prueba.
    NOTA: Los archivos de datos de análisis final y los gráficos de resumen se rellenarán en un subdirectorio de cada directorio de sesión analizado.
  8. Escriba python summarizeSessions.py para generar datos de resumen en varias sesiones.
  9. Escriba el mensaje de python session2mp4s.py para convertir archivos de datos de imágenes en archivos de .mp4 visibles.

Resultados

Flujo de trabajo para experimentos y análisis DEC
La selección adecuada de parámetros experimentales es importante para el entrenamiento exitoso de acondicionamiento de parpadeo ocular retardado (DEC). Para los datos presentados aquí, se utilizó la GUI para elegir una duración de CS de 350 ms y una duración de US de 50 ms. Este emparejamiento da como resultado un intervalo entre estímulos de 300 ms: lo suficientemente largo como para evitar la producción de RC de baja amplitud

Discusión

La plataforma con protocolos asociados descritos aquí se puede utilizar para rastrear de manera confiable el comportamiento animal en dos tareas de aprendizaje asociativo sensorial. Cada tarea depende de la comunicación intacta a través de la vía de la fibra de escalada. En el diseño descrito aquí, incorporamos elementos para facilitar el aprendizaje y el registro / perturbación de la respuesta cerebelosa. Estos incluyen una rueda para permitir la locomoción libre11,18

Divulgaciones

Los autores no tienen conflictos de intereses que revelar.

Agradecimientos

Este trabajo está respaldado por subvenciones de los Institutos Nacionales de Salud Mental NRSA F32 MH120887-03 (a G.J.B.) y R01 NS045193 y R01 MH115750 (a S.S-H.W.). Agradecemos a los Dres. Bas Koekkoek y Henk-Jan Boele por las útiles discusiones para optimizar la configuración de DEC y a los Dres. Yue Wang y Xiaoying Chen por las útiles discusiones para optimizar la configuración de DTSC.

Materiales

NameCompanyCatalog NumberComments
"B" Quick Base For C&B METABOND - 10 mL bottleParkellS398Dental cement solvent
"C" Universal TBB Catalyst - 0.7 mLParkellS371Catalyst
#8 WashersThorlabsW8S038Washers
0.250" (1/4") x 8.00" Stainless Steel Precision ShaftingServocity6341721/4" shaft
0.250” (0.770") Clamping HubServocity545588Clamping hub
1/4" to 6 mm Set Screw Shaft Coupler- 5 packActobotics625106Shaft-coupling sleeve
1/4"-20 Cap Screws, 3/4" LongThorlabsSH25S0751/4" bolt
100 pcs 5 mm 395–400 nm UV Ultraviolet LED Light Emitting Diode Clear Round Lens 29 mm Long Lead (DC 3V) LEDs Lights +100 pcs ResistorsEDGELEC‎ED_YT05_U_100PcsCS LEDs
2 m Micro HDMI to DVI-D Cable - M/M - 2 m Micro HDMI to DVI Cable - 19 pin HDMI (D) Male to DVI-D Male - 1920 x 1200 VideoStar-tech‎HDDDVIMM2MRaspberry Pi4B to monitor cable
256 GB Ultra Fit USB 3.1 Flash DriveSanDisk‎SDCZ430-256G-G46USB thumb drive
3.3 V–5 V 4 Channels Logic Level Converter Bi-Directional Shifter ModuleAmazonB00ZC6B8VMLogic level shifter
32 GB 95 MB/s (U1) microSDHC EVO Select Memory CardSamsung‎MB-ME32GA/AMmicroSD card
4.50" Aluminum ChannelServocity5854444.5" aluminum channel
48-LED CCTV Ir Infrared Night Vision IlluminatorTowallmarkSODIALInfrared light array
4PCS Breadboards Kit Include 2PCS 830 Point 2PCS 400 Point Solderless Breadboards for Proto Shield Distribution Connecting BlocksREXQualisB07DL13RZHBreadboard
5 Port Gigabit Unmanaged Ethernet Network SwitchTP-Link‎TL-SG105Ethernet switch
5 V 2.5 A Raspberry Pi 3 B+ Power Supply/AdapterCanakit‎DCAR-RSP-2A5Power supply for Raspberry Pi 3B+
5-0 ETHILON BLACK 1 x 18" C-3Ethicon668GSutures
6 mm Shaft Encoder 2000 PPR Pushpull Line Driver Universal Output Line Driver Output 5-26 V dc SupplyCalt B01EWER68IRotary encoder
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 1", 5 PackThorlabsTR1-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 2", 5 PackThorlabsTR2-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 4", 5 PackThorlabsTR4-P5Optical posts
Ø1/2" Optical Post, SS, 8-32 Setscrew, 1/4"-20 Tap, L = 6", 5 PackThorlabsTR6-P5Optical posts
Ø1/2" Post Holder, Spring-Loaded Hex-Locking Thumbscrew, L = 2"ThorlabsPH2Optical post holder
Adapter-062-M X LUER LOCK-FThe Lee Co.TMRA3201950ZSolenoid valve luer adapter
Aeromat Foam Roller Size: 36" LengthAeromatB002H3CMUEFoam roller
Aluminum Breadboard 10" x 12" x 1/2", 1/4"-20 TapsThorlabsMB1012Aluminum breadboard
Amazon Basics HDMI to DVI Adapter Cable, Black, 6 Feet, 1-PackAmazonHL-007347Raspberry Pi3B+ to monitor cable
Arduino  Uno R3ArduinoA000066Arduino Uno (microcontroller board)
Arduino DueArduino‎A000062Arduino Due (microcontroller board)
Bench Power Supply, Single, Adjustable, 3 Output, 0 V, 24 V, 0 A, 2 ATenma72-8335APower supply
Clear Scratch- and UV-Resistant Cast Acrylic Sheet, 12" x 24" x 1/8"McMaster Carr8560K257Acrylic sheet
CNC Stepper Motor Driver 1.0–4.2 A 20–50 V DC 1/128 Micro-Step Resolutions for Nema 17 and 23 Stepper MotorStepper OnlineB06Y5VPSFNStepper motor driver
Compact Compressed Air Regulator, Inline Relieving, Brass Housing, 1/4 NPTMcMaster Carr6763K13Air source regulator
Cotton SwabPuritan806-WCCotton swab
Dell 1908FP 19" Flat Panel Monitor - 1908FPCDell1908FPCComputer monitor
Flex Cable for Raspberry Pi CameraAdafruit2144camera serial interface cable
High Torque Nema 17 Bipolar Stepper Motor 92 oz·in/65 N·cm 2.1 A Extruder MotorStepper Online17HS24-2104SStepper motor
IsofluraneHenry Schein66794001725Isoflurane
Krazy Maximum Bond Permanent Glue, 0.18 oz.Krazy GlueKG483Cyanoacrylate glue
Lidocaine HClVetOne510212Lidocaine
Low-Strength Steel Hex Nut, Grade 2, Zinc-Plated, 1/4"-20 Thread SizeMcMaster Carr90473A029Nuts
M3 x 50 mm Partially Threaded Hex Key Socket Cap Head Screws 10 pcsUxcellA16040100ux1380M3 bolt
NEMA 17 Stepper Motor MountACTOBOTICS555152Stepper motor mount
Official Raspberry Pi Power Supply 5.1 V 3 A with USB C - 1.5 m longAdafruit4298Power supply for Raspberry Pi 4B
Optixcare Dog & Cat Eye Lube Lubricating Gel, 0.70-oz tubeOptixcare142422Opthalimic ointment
Precision Stainless Steel Ball Bearing, Shielded, Trade No. R188-2Z, 13000 rpm Maximum SpeedMcMaster-Carr3759T57Bearing
Premium Female/Female Jumper Wires - 40 x 6"Adafruit266Wires
Premium Female/Male 'Extension' Jumper Wires - 40 x 6" (150 mm)Adafruit826Wires
Premium Male/Male Jumper Wires - 40 x 6"Adafruit758Wires
Radiopaque L-Powder for C&B METABOND - 5 gParkellS396Dental cement powder
Raspberry Pi (3B+ or 4B)Adafruit3775 or 4295Raspberry Pi
Raspberry Pi NoIR Camera Module V2 - 8MP 1080P30Raspberry Pi FoundationRPI3-NOIR-V2Raspberry NoIR V2 camera
Right-Angle Bracket, 1/4" (M6) Counterbored Slot, 8-32 TapsThorlabsAB90ERight-angle bracket
Right-Angle Clamp for Ø1/2" Posts, 3/16" HexThorlabsRA90Right-angle optical post clamp
Right-Angle End Clamp for Ø1/2" Posts, 1/4"-20 Stud and 3/16" HexThorlabsRA180Right-angle end clamp
RJ45 Cat-6 Ethernet Patch Internet CableAmazon‎CAT6-7FT-5P-BLUEEthernet cable
Rotating Clamp for Ø1/2" Posts, 360° Continuously Adjustable, 3/16" HexThorlabsSWCRotating optical post clamps
Spike & Hold Driver-0.1 TO 5 MSThe Lee Co.IECX0501350ASolenoid valve driver
Swivel Base AdapterThorlabsUPHAPost holder adapter
USB 2.0 A-Male to Micro B Cable, 6 feetAmazon‎7T9MV4USB2 type A to USB2 micro cable
USB 2.0 Printer Cable - A-Male to B-Male, 6 Feet (1.8 m)AmazonB072L34SZSUSB2 type B to USB2 type A cable
VHS-M/SP-12 VThe Lee Co.INKX0514900ASolenoid valve
Zinc-Plated Steel 1/4" washer, OD 1.000"McMaster Carr91090A108Washers

Referencias

  1. McCormick, D. A., Lavond, D. G., Clark, G. A., Kettner, R. E., Rising, C. E., Thompson, R. F. The engram found? Role of the cerebellum in classical conditioning of nictitating membrane and eyelid responses. Bulletin of the Psychonomic Society. 18 (3), 103-105 (1981).
  2. McCormick, D. A., Clark, G. A., Lavond, D. G., Thompson, R. F. Initial localization of the memory trace for a basic form of learning. Proceedings of the National Academy of Sciences of the United States of America. 79 (8), 2731-2735 (1982).
  3. McCormick, D. A., Thompson, R. F. Cerebellum: essential involvement in the classically conditioned eyelid response. Science. 223 (4633), 296-299 (1984).
  4. Krupa, D. J., Thompson, J. K., Thompson, R. F. Localization of a memory trace in the mammalian brain. Science. 260 (5110), 989-991 (1993).
  5. Llinás, R., Sugimori, M. Electrophysiological properties of in vitro Purkinje cell dendrites in mammalian cerebellar slices. The Journal of Physiology. 305, 197-213 (1980).
  6. Mintz, M., Lavond, D. G., Zhang, A. A., Yun, Y., Thompson, R. F. Unilateral inferior olive NMDA lesion leads to unilateral deficit in acquisition and retention of eyelid classical conditioning. Behavioral and Neural Biology. 61 (3), 218-224 (1994).
  7. Welsh, J. P., Harvey, J. A. Cerebellar lesions and the nictitating membrane reflex: performance deficits of the conditioned and unconditioned response. The Journal of Neuroscience: The Official Journal of the Society for Neuroscience. 9 (1), 299-311 (1989).
  8. Mauk, M. D., Steinmetz, J. E., Thompson, R. F. Classical conditioning using stimulation of the inferior olive as the unconditioned stimulus. Proceedings of the National Academy of Sciences of the United States of America. 83 (14), 5349-5353 (1986).
  9. Steinmetz, J. E., Lavond, D. G., Thompson, R. F. Classical conditioning in rabbits using pontine nucleus stimulation as a conditioned stimulus and inferior olive stimulation as an unconditioned stimulus. Synapse. 3 (3), 225-233 (1989).
  10. Chettih, S. N., McDougle, S. D., Ruffolo, L. I., Medina, J. F. Adaptive timing of motor output in the mouse: The role of movement oscillations in eyelid conditioning. Frontiers in Integrative Neuroscience. 5, 72 (2011).
  11. Heiney, S. A., Wohl, M. P., Chettih, S. N., Ruffolo, L. I., Medina, J. F. Cerebellar-dependent expression of motor learning during eyeblink conditioning in head-fixed mice. The Journal of Neuroscience. 34 (45), 14845-14853 (2014).
  12. Heiney, S. A., Kim, J., Augustine, G. J., Medina, J. F. Precise control of movement kinematics by optogenetic inhibition of purkinje cell activity. Journal of Neuroscience. 34 (6), 2321-2330 (2014).
  13. Ten Brinke, M. M., et al. Evolving models of pavlovian conditioning: Cerebellar cortical dynamics in awake behaving mice. Cell Reports. 13 (9), 1977-1988 (2015).
  14. Gao, Z., et al. Excitatory cerebellar nucleocortical circuit provides internal amplification during associative conditioning. Neuron. 89 (3), 645-657 (2016).
  15. Giovannucci, A., et al. Cerebellar granule cells acquire a widespread predictive feedback signal during motor learning. Nature Neuroscience. 20 (5), 727-734 (2017).
  16. Ten Brinke, M. M., et al. Dynamic modulation of activity in cerebellar nuclei neurons during pavlovian eyeblink conditioning in mice. eLife. 6, 28132 (2017).
  17. Wang, X., Yu, S., Ren, Z., De Zeeuw, C. I., Gao, Z. A FN-MdV pathway and its role in cerebellar multimodular control of sensorimotor behavior. Nature Communications. 11 (1), 6050 (2020).
  18. Albergaria, C., Silva, N. T., Pritchett, D. L., Carey, M. R. Locomotor activity modulates associative learning in mouse cerebellum. Nature Neuroscience. 21 (5), 725-735 (2018).
  19. Kim, O. A., Ohmae, S., Medina, J. F. A cerebello-olivary signal for negative prediction error is sufficient to cause extinction of associative motor learning. Nature Neuroscience. 23 (12), 1550-1554 (2020).
  20. Yamada, T., et al. Sensory experience remodels genome architecture in neural circuit to drive motor learning. Nature. 569 (7758), 708-713 (2019).
  21. Horlington, M. Startle response circadian rhythm in rats: lack of correlation with motor activity. Physiology & Behavior. 5 (1), 49-53 (1970).
  22. Yeomans, J. S., Li, L., Scott, B. W., Frankland, P. W. Tactile, acoustic and vestibular systems sum to elicit the startle reflex. Neuroscience and Biobehavioral Reviews. 26 (1), 1-11 (2002).
  23. . Raspberry Pi Operating system images Available from: https://www.raspberrypi.com/software/operationg-systems/ (2021)
  24. . VNC Server. VNC® Connect Available from: https://www.realvnc.com/en/connect/download/vnc/ (2021)
  25. . Anaconda: The world's most popular data science platform Available from: https://xddebuganaconda.xdlab.co/ (2021)
  26. De Zeeuw, C. I., Ten Brinke, M. M. Motor learning and the cerebellum. Cold Spring Harbor Perspectives in Biology. 7 (9), 021683 (2015).
  27. Badura, A., et al. Normal cognitive and social development require posterior cerebellar activity. eLife. 7, 36401 (2018).
  28. Koekkoek, S. K. E., Den Ouden, W. L., Perry, G., Highstein, S. M., De Zeeuw, C. I. Monitoring kinetic and frequency-domain properties of eyelid responses in mice with magnetic distance measurement technique. Journal of Neurophysiology. 88 (4), 2124-2133 (2002).
  29. Kloth, A. D., et al. Cerebellar associative sensory learning defects in five mouse autism models. eLife. 4, 06085 (2015).
  30. Boele, H. -. J., Koekkoek, S. K. E., De Zeeuw, C. I. Cerebellar and extracerebellar involvement in mouse eyeblink conditioning: the ACDC model. Frontiers in Cellular Neuroscience. 3, (2010).
  31. Lin, C., Disterhoft, J., Weiss, C. Whisker-signaled eyeblink classical conditioning in head-fixed Mice. Journal of Visualized Experiments: JoVE. (109), e53310 (2016).
  32. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  33. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 21 (9), 1281-1289 (2018).

Reimpresiones y Permisos

Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos

Solicitar permiso

Explorar más artículos

NeurocienciaN mero 179cerebeloaprendizaje motor asociativoretraso del condicionamiento del parpadeo ocularretraso del condicionamiento del est mulo t ctil

This article has been published

Video Coming Soon

JoVE Logo

Privacidad

Condiciones de uso

Políticas

Investigación

Educación

ACERCA DE JoVE

Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados