JoVE Logo

Iniciar sesión

Se requiere una suscripción a JoVE para ver este contenido. Inicie sesión o comience su prueba gratuita.

En este artículo

  • Resumen
  • Resumen
  • Introducción
  • Protocolo
  • Resultados
  • Discusión
  • Divulgaciones
  • Agradecimientos
  • Materiales
  • Referencias
  • Reimpresiones y Permisos

Resumen

Se presenta un protocolo detallado para analizar selectividad objeto de parieto-frontal las neuronas implicadas en las transformaciones visuomotor.

Resumen

Estudios previos han demostrado que las neuronas en las áreas parieto-frontal del cerebro de macacos pueden ser altamente selectivas para los objetos del mundo real, definido por la disparidad de superficies curvas e imágenes de objetos del mundo real (con y sin disparidad) de una manera similar como se describe en la corriente visual ventral. Además, las áreas parieto-frontal se creen que convertir la información del objeto visual en salidas motor apropiados, como la pre-formación de la mano durante el agarre. Para caracterizar mejor selectividad de objeto en la red cortical involucrada en las transformaciones visuomotor, ofrecemos una batería de pruebas destinada a analizar la selectividad del objeto visual de neuronas en las regiones parieto-frontal.

Introducción

Primates no humanos y comparten la capacidad de realizar acciones complejas de motor incluyendo aferramiento al objeto. Para realizar con éxito estas tareas, nuestro cerebro necesita completar la transformación de propiedades de objetos intrínsecos en comandos de motor. Esta transformación se basa en una sofisticada red de áreas corticales dorsales situados en la corteza premotora ventral y parietal1,2,3 (figura 1).

De los estudios de lesión en los monos y los humanos4,5, sabemos que la corriente visual dorsal - origina en la corteza visual primaria y dirigida hacia la corteza parietal posterior - participa en la visión espacial y la planificación del motor acciones. Sin embargo, la mayoría de las áreas de la corriente dorsal no se dedica a un tipo único de tratamiento. Por ejemplo, el área intraparietal anterior (AIP), una de las zonas de etapa final de la secuencia visual dorsal, contiene una gran variedad de neuronas que el fuego no sólo durante agarrar6,7,8, sino también en lo visual inspección del objeto7,8,9,10.

Similares a la AIP, las neuronas en el área F5, situado en la corteza premotora ventral (PMv), también responden durante la fijación visual y objeto agarrar, que es probable que sea importante para la transformación de la información visual en acciones motor11. La porción anterior de esta región (subsector F5a) contiene las neuronas responden selectivamente a tridimensional (3D, definida por disparidad) imágenes de12,13, mientras que el subsector localizado en la convexidad (F5c) contiene las neuronas caracteriza por espejo propiedades1,3, disparar tanto cuando un animal realiza u observa una acción. Finalmente, la región posterior del F5 (F5p) es un campo relacionado con la mano, con una alta proporción de visuomotor neuronas sensibles a la observación tanto y agarre de objetos 3D14,15. Junto a F5, zona 45B, situado en la rama inferior del surco arqueado, también pueden participar en forma procesamiento16,17 y18de agarre.

Pruebas de selectividad de objeto en la corteza parietal y frontal es un reto, porque es difícil determinar que características de estas neuronas responden a y cuáles son los campos receptivos de las neuronas. ¿Por ejemplo, si una neurona responde a un plato pero no a un cono, que característica de estos objetos está impulsando esta selectividad: el contorno 2D, la estructura 3D, la orientación en profundidad o una combinación de muchas características diferentes? Para determinar las características del objeto crítico de neuronas que responden durante la fijación del objeto y el aferramiento, es necesario emplear varias pruebas visuales con imágenes de objetos y versiones reducidas de las mismas imágenes.

Una fracción considerable de las neuronas en AIP y F5 no sólo se responde a la presentación visual de un objeto, sino también cuando el animal agarra este objeto en la oscuridad (es decir, en ausencia de información visual). Estas neuronas no pueden responder a una imagen de un objeto que no puede ser comprendido. Por lo tanto, componentes de la respuesta visuales y motor están íntimamente conectados, lo que hace difícil investigar la representación del objeto neuronal en estas regiones. Ya visuomotor neuronas sólo pueden ser probadas con objetos del mundo real, necesitamos un sistema flexible para la presentación de diferentes objetos en diferentes posiciones en el campo visual y en diferentes orientaciones si queremos determinar qué características son importantes para estos neuronas. Este último sólo se logra por medio de un robot capaz de presentar diferentes objetos en diversas localizaciones en espacio visual.

Este artículo pretende proporcionar a una guía experimental para los investigadores interesados en el estudio de las neuronas parieto-frontal. En las secciones siguientes, daremos el protocolo general utilizado en nuestro laboratorio para el análisis de las respuestas de objeto agarrar y visual en monos del macaque despierto (Macaca mulatta).

Access restricted. Please log in or start a trial to view this content.

Protocolo

Todos los procedimientos técnicos se realizaron según guía del Instituto Nacional de salud para el cuidado y uso de animales de laboratorio y la Directiva 2010/63/UE y fueron aprobados por el Comité ético de KU Leuven.

1. general métodos para grabaciones extracelulares en despierto comportándose monos

  1. Tren de los animales para realizar las tareas visuales y motoras necesarias para afrontar su pregunta de investigación específica. Asegúrese de que el animal es capaz de cambiar con flexibilidad entre las tareas durante la misma sesión de grabación con el fin de probar la neurona extensivamente y obtener una mejor comprensión de las características de conducción de la respuesta neural (figura 2-3).
    1. Tren animal Visually-Guided entender (VGG; apego 'en la luz") para evaluar los componentes de la respuesta de visuomotor. Nota: independientemente de la tarea elegida, gradualmente restringir la ingesta de líquidos por lo menos tres días antes del inicio de la fase de entrenamiento.
      1. Contener la cabeza de mono para toda la duración de la sesión experimental.
      2. En las primeras sesiones, mantenga la mano contralateral a la cámara de grabación en la posición de reposo y ayudar al animal a alcanzar y agarrar el objeto, dando recompensa manual después de cada intento.
      3. Poner nuevamente mano de mono en la posición de reposo al final de cada ensayo.
      4. Cada pocos ensayos, soltar la mano del mono y esperar unos segundos para observar si el animal inicia espontáneamente el movimiento.
      5. Aplicar manual recompensa cada vez que el mono llegue hacia el objeto.
      6. Cuando la fase alcance es adquirida correctamente, ayudar manualmente el animal para levantar (o tirar) el objeto y la recompensa.
      7. 1.1.1.4 y 1.1.1.5, soltar la mano del mono y esperar unos segundos para observar si el animal inicia espontáneamente el movimiento. Dar recompensa cada vez que el movimiento se realiza correctamente.
      8. Alcanzar una correcta, mano posición y orientación de la muñeca tantas veces como sea necesario durante el procedimiento.
      9. Repita los pasos anteriores hasta que el animal realiza la secuencia automáticamente.
      10. La tarea automática de carga. El animal es recompensado automáticamente cuando realiza los movimientos de alcance y agarre durante un tiempo predeterminado.
      11. Aumentar gradualmente el tiempo de mantenimiento del objeto.
      12. Introducir el láser que se proyecta el punto de fijación en la base del objeto. Añadir a continuación el perseguidor del ojo para controlar la posición del ojo en el objeto-a-ser-entendido.
    2. Tren animal en Memory-Guided agarrando (MGG) para investigar el componente motor de la respuesta, no afectado por el componente visual del estímulo.
      1. Contener la cabeza de mono.
      2. Siga los mismos pasos descritos para la VGG asegurándose de que el animal mantiene la fijación en el laser durante la tarea dentro de una ventana definida electrónicamente. Para esta versión de la tarea, se apaga la luz al final del período de fijación.
    3. Tren el mono fijación pasiva receptividad visual y selectividad de forma.
      1. Contener la cabeza de mono.
      2. Presentar los estímulos visuales para el mono usando una CRT (fijación pasiva de estímulos 3D) o un monitor de LCD (fijación pasiva de estímulos 2D).
      3. Presentar un punto de fijación en el centro de la pantalla, superpuesta a los estímulos visuales.
      4. Recompensar al animal después de cada presentación del estímulo y aumente gradualmente el tiempo de fijación hasta llegar a los estándares de la tarea.
  2. Realizar la cirugía, usando herramientas estériles, cortinas y vestidos.
    1. Anestesiar los animales con ketamina (15 mg/kg, por vía intramuscular) y clorhidrato de medetomidina (0.01-0.04 mL/kg por vía intramuscular) y confirmar la anestesia regularmente comprobando la respuesta del animal a los estímulos, frecuencia cardíaca, ritmo respiratorio y la sangre presión.
    2. Mantener anestesia (propofol 10 mg/kg/h por vía intravenosa) y administrar oxígeno con un tubo traqueal. Use una pomada de lanolim para evitar la sequedad del ojo bajo anestesia.
    3. Proporcionar analgesia con 0.5 cc de buprenorfina (0,3 mg/ml por vía intravenosa). En caso de aumento de la frecuencia cardíaca durante la cirugía, puede administrarse una dosis adicional.
    4. Implante un post cabeza compatible con MRI con tornillos cerámica y acrílico dental. Realizar todas las cirugías de sobrevivencia bajo condiciones asépticas estrictas. Para un mantenimiento adecuado del campo estéril, usar guantes estériles desechables, máscaras e instrumentos estériles.
    5. Guiado por resonancia magnética anatómica (IRM; Coordenadas de Horsley-Clark), hacer una craneotomía por encima del área de interés y la cámara de grabación en el cráneo del mono del implante. Utilizar una cámara de grabación estándar para grabaciones extracelular sola unidad o un microdrive micropozo-microcanal, para la grabación simultánea de varias neuronas.
    6. Después de la cirugía, suspender la administración intravenosa de propofol hasta que se reanuda la respiración espontánea. No deje el animal hasta que ha recuperado la conciencia e introducir el animal en el grupo social solamente después de una recuperación completa.
    7. Proporcionar analgesia postoperatoria según lo recomendado por el veterinario institucional; por ejemplo usar Meloxicam (5mg/ml por vía intramuscular).
    8. Esperar 6 semanas después de la cirugía antes de comenzar el experimento. Esto permite un mejor anclaje del post principal a la calavera y garantiza que el animal ha recuperado de la intervención.
  3. Localizar el área de grabación mediante resonancia magnética (para grabaciones extracelular de unidad) y la tomografía computada (CT, para grabaciones micropozo-microcanal).
    1. Capillares de vidrio se llenan de una solución de sulfato de cobre 2% e insertarlos en una red de grabación.
    2. Realizar MRI estructural (corte grueso: 0.6m m).
  4. Seguimiento de actividad de los nervios.
    1. Uso de microelectrodos de tungsteno con una impedancia de 0.8 – 1 MΩ.
    2. Introducir el electrodo a través de la duramadre mediante un tubo de guía de acero inoxidable de 23G y un microdrive hidráulico.
    3. Para la discriminación de la espiga, amplificar y filtrar la actividad neuronal entre 300 y 5.000 Hz.
    4. Para las grabaciones de (LFP) potenciales de campo local, amplificar y filtrar la señal entre 1 y 170 Hz.
  5. Monitorizar la señal de ojo
    1. Ajustar una cámara de infrarrojos frente a ojos del animal para obtener una imagen adecuada de la pupila y del reflejo corneal.
    2. Utilizar una cámara de infrarrojo que muestra la posición de la pupila a 500 Hz.

2. investigar el objeto selectividad en áreas dorsales

  1. Realizar el agarre guiados visualmente (VGG).
    1. Elegir el derecho sujetando la configuración según el objetivo de la investigación: carrusel setup o setup de robot (figura 3).
    2. Para la configuración del carrusel, ejecutar la tarea VGG:
      1. Que el mono Coloque la mano contralateral al hemisferio grabado en la posición de reposo en la oscuridad completa para iniciar la secuencia.
      2. Después de un tiempo variable (intervalo de diferenciarlo: ms de 2.000-3.000), aplicar un láser rojo (punto de fijación) en la base del objeto (distancia: 28 cm de los ojos de los monos). Si el animal mantiene a la mirada dentro de una ventana de fijación definidos electrónicamente (+/-2,5 °) de 500 ms, se ilumina el objeto desde arriba con una fuente de luz.
      3. Después de un retardo variable (300-1500 ms), programa de regulación del laser (visual ir cue) instruir al mono para levantar la mano desde la posición de reposo y el alcance, sujete y sostenga el objeto durante un tiempo variable (tiempo de retención: 300-900 ms).
      4. Cuando el animal realiza toda la secuencia correctamente, recompense con una gota de jugo.
    3. Utilice una secuencia de tareas similares para la configuración del robot.
      1. En cuanto a la configuración del carrusel, dejar que el mono Coloque la mano contralateral al hemisferio grabado en la posición de reposo en la oscuridad completa para iniciar la secuencia.
      2. Después de un tiempo variable (intervalo de diferenciarlo: ms de 2.000-3.000), iluminar el LED (punto de fijación) en el objeto (desde dentro; distancia: 28 cm de los ojos de los monos). Otra vez, si el animal mantiene a la mirada dentro de una ventana de fijación definidos electrónicamente (+/-2,5 °) de 500 ms, iluminar el objeto de dentro con una fuente de luz blanca.
      3. Después de un retardo variable (300-1500 ms), apagar el LED (visual ir cue), mandando al mono para levantar la mano desde la posición de reposo y el alcance, sujete y sostenga el objeto durante un tiempo variable (tiempo de retención: 300-900 ms).
      4. Cuando el animal realiza toda la secuencia correctamente, recompense con una gota de jugo.
    4. Durante la tarea, cuantificar el desempeño del mono, prestando especial atención a la sincronización. Medir que el tiempo transcurrido entre la señal de ir y el inicio del movimiento de la mano (tiempo de reacción) y entre el inicio del movimiento y la elevación del objeto (agarrando el tiempo).
  2. Realizar agarre memoria-dirigida (MGG; 'Agarrar en la oscuridad'). Utilice la tarea MGG para determinar si las neuronas están visuomotor o motor dominante.
    Nota: La secuencia es similar a la descrita para la VGG, pero el objeto es captado en la oscuridad total.
    1. Idéntica a la tarea VGG, dejó el mono Coloque la mano contralateral al hemisferio grabado en la posición de reposo en la oscuridad completa para iniciar la secuencia.
    2. Después de un tiempo variable (intervalo de diferenciarlo: ms de 2.000-3.000), aplicar un láser/LED rojo (punto de fijación) para indicar el punto de fijación (en la base del objeto para la configuración del carrusel, en el centro del objeto para la configuración del robot; distancia: 28 cm de los ojos de los monos) . Si el animal mantiene a la mirada dentro de una ventana de fijación definidos electrónicamente (+/-2,5 °) de 500 ms, se ilumina el objeto.
    3. Después de un tiempo fijo (400 ms), apagar la luz.
    4. Después de un retardo variable período (300-1500 ms) después de luz offset, dim/apague el punto de fijación (ir CUE) para instruir al mono para levantar la mano y alcance, agarre y mantener el objeto (tiempo de retención: 300-900 ms).
    5. Cuando el animal realiza toda la secuencia correctamente, dan una gota de zumo como recompensa.
  3. Realizar fijación pasiva. En cuanto a la tarea VGG, elegir la más adecuada configuración (carrusel o robot) dependiendo de la meta de la investigación.
    Nota: Se pueden realizar dos tareas diferentes de fijación pasiva: pasiva fijación de objetos del mundo real (usando los objetos-a-ser-entendido en las configuraciones de carrusel y robot) y la fijación pasiva de imágenes 3D/2D de objetos.
    1. Realizar la fijación pasiva de objetos del mundo real.
      1. Presentar el punto de fijación (láser rojo para la configuración del carrusel en la base del objeto y el LED rojo en la configuración del robot).
      2. Si el animal mantiene a la mirada dentro de una ventana de fijación definidos electrónicamente (+/-2,5 °) de 500 ms, iluminar el objeto de ms de 2.000.
      3. Si el animal mantiene a su mirada en la ventana de ms de 1.000, premiar con una gota de jugo.
    2. Realizar fijación pasiva de imágenes 3D/2D de objetos.
      1. Presentar todos los estímulos visuales sobre un fondo negro (luminancia de 8 cd/m2) utilizando un monitor (resolución de 1.280 x 1.024 píxeles) equipado con un rápido decaimiento P46-fósforo y funcionado en 120 Hz (distancia de visión: 86 cm).
      2. En las pruebas 3D, presentar los estímulos estereoscópicamente alternando las imágenes del ojo izquierdo y derecho en una pantalla (monitor CRT), en combinación con dos obturadores de cristal líquido ferroeléctrico. Localizar estas persianas frente a ojos de mono, operan a 60 Hz y sincronizar con el retrace vertical del monitor.
      3. Iniciar el juicio mediante la presentación de una pequeña plaza en el centro de la pantalla (punto de fijación; 0,2 × 0,2 º). Si la posición del ojo permanece dentro de una ventana cuadrada electrónicamente definido 1° (mucho menor que para los objetos del mundo real) para por lo menos 500 ms, presente el estímulo visual en la pantalla, para un tiempo total de ms de 500.
      4. Cuando el mono mantiene una fijación estable hasta el desplazamiento del estímulo, recompensa con una gota de jugo.
      5. Para un adecuado estudio de la selectividad de forma, ejecutar una batería completa de pruebas con imágenes 2D durante tarea de fijación pasiva, en la siguiente secuencia.
      6. Ejecute una prueba de búsqueda. Prueba de la selectividad visual de la celda utilizando un amplio conjunto de imágenes (imágenes de la superficie; Figura 4A), incluyendo las imágenes del objeto que es captado en la VGG. Por esta y todas las tareas visuales posteriores, comparar la imagen que evoca la respuesta más fuerte (llamada 'imagen preferida') a una segunda imagen al que la neurona responde débilmente (llamado ' preferidos '). Si la neurona en estudio responde también a las imágenes de objetos, búsqueda de componentes de estímulo específico conduce la sensibilidad de la célula (prueba de contorno, prueba de campo receptivo y la prueba de reducción).
      7. Ejecutar una prueba de contorno. A partir de las imágenes originales de la superficie de objetos reales (imágenes 2D o 3D con perspectiva, sombra y textura), obtener versiones progresivamente simplificadas de la misma forma del estímulo (siluetas y contornos; Figura 4B). Recoger al menos 10 ensayos por condición para determinar si la neurona prefiere la superficie original, la silueta o el contorno de la forma original.
      8. Ejecutar una prueba de campo receptivo (RF). Para asignar el RF de una neurona, presentamos las imágenes de objetos en diversas posiciones en una pantalla (en este experimento, 35 posiciones; tamaño estímulo de 3°), que abarca el campo visual central19,20. Para recolectar suficientes repeticiones del estímulo en todas las posiciones posibles en un tiempo razonable, reducir la duración del estímulo (estímulos flasheados; duración del estímulo: 300 ms, intervalo de diferenciarlo: 300 ms).
      9. Ejecutar una prueba de reducción. Ejecutar una prueba de reducción con contornos fragmentos presentados en el centro de la RF para identificar la función de forma eficaz mínimo (MESF). Generar el conjunto de estímulos en Photoshop por recortar el contorno de cada una de las formas originales de contorno a lo largo de los ejes principales (figura 3B). Diseñar el MESF como el fragmento más pequeño de forma que evocan una respuesta que al menos el 70% de la respuesta de contorno intacto y no significativamente menor que el de respuesta8.
      10. Para una mejor estimación de la dependencia de la posición (el efecto de la posición del estímulo en selectividad de fragmento), ejecutar dos pruebas diferentes. Ejecutar una prueba de reducción con los fragmentos situados en la posición ocupada en la forma de contorno original. Ejecutar una prueba de reducción con los fragmentos en el centro de la masa de la forma.
      11. En esta etapa, se ejecute una nueva asignación de RF usando el MESF.

Access restricted. Please log in or start a trial to view this content.

Resultados

Figura 5 parcelas las respuestas de una neurona ejemplo registrado de zona F5p probado con cuatro objetos: dos diversas formas - una esfera y una placa de-mostrado en dos diferentes tamaños (6 y 3 cm). Esta neurona particular respondió no sólo a la esfera grande (estímulo óptimo; panel izquierdo superior), sino también a la placa grande (panel inferior izquierdo). En comparación, era más débil la respuesta a los objetos más pequeños (superior e inf...

Access restricted. Please log in or start a trial to view this content.

Discusión

Un enfoque integral al estudio de la corriente dorsal requiere una cuidadosa selección de las tareas conductuales y análisis visual: visuales y agarrar paradigmas pueden emplearse combinados o por separado dependiendo de las características de la región.

En este artículo, proporcionan los ejemplos de la actividad neuronal registrado en AIP y F5p en respuesta a un subconjunto de tareas visuales y motoras, pero respuestas muy similares pueden observarse en otras áreas frontales como zona 4...

Access restricted. Please log in or start a trial to view this content.

Divulgaciones

Los autores no tienen nada que revelar.

Agradecimientos

Agradecemos a Inez Puttemans, Marc De Paep, Sara De Pril, Wouter Depuydt, Astrid Hermans, Piet Kayenbergh, Gerrit Meulemans, Christophe Ulens y Stijn Verstraeten para asistencia técnica y administrativa.

Access restricted. Please log in or start a trial to view this content.

Materiales

NameCompanyCatalog NumberComments
Grasping robotGIBAS Universal RobotsUR-6-85-5-ARobot arm equipped with a gripper
Carousel motorSiboniRD066/†20 MV6, 35x23 F02Motor to be implemented in a custom-made vertical carousel. It allows the rotation of the carousel.
Eye trackerSR ResearchEyeLink IIInfrared camera system sampling at 500 Hz
FilterWavetek Rockland852Electronic filters perform a variety of signal-processing functions with the purpose of removing a signal's unwanted frequency components.
PreamplifierBAK ELECTRONICS, INC.A-1The Model A-1 allows to reduce input capacity and noise pickup and allows to test impedance for metal micro-electrodes
ElectrodesFHCUEWLEESE*N4GMetal microelectrodes (* = Impedance, to be chosen by the researcher)
CRT monitorVision Research GraphicsM21L-67S01The CRT monitor is equipped with a fast-decay P46-phosphor operating at 120 Hz
Ferroelectric liquid crystal shuttersDisplay TechFLC Shutter Panel; LV2500P-OEMThe shutters operate at 60 Hz in front of the monkeys and are synchronized to the vertical retrace of the monitor

Referencias

  1. Gallese, V., Fadiga, L., Fogassi, L., Rizzolatti, G. Action recognition in the premotor cortex. Brain. 119 (2), 593-609 (1996).
  2. Fogassi, L., Gallese, V., Buccino, G., Craighero, L., Fadiga, L., Rizzolatti, G. Cortical mechanism for the visual guidance of hand grasping movements in the monkey: a reversible inactivation study. Brain. 124 (3), 571-586 (2001).
  3. Rizzolatti, G., Camarda, R., Fogassi, L., Gentilucci, M., Luppino, G., Matelli, M. Functional organization of inferior area 6 in the macaque monkey. II. Area F5 and the control of distal movements. Exp. Brain Res. 71 (3), 491-507 (1988).
  4. Mishkin, M., Ungerleider, L. G. Contribution of striate inputs to the visuospatial functions of parieto-preoccipital cortex in monkeys. Behav. Brain Res. 6 (1), 57-77 (1982).
  5. Goodale, M. A., Milner, A. D. Separate visual pathways for perception and action. Trends Neurosci. 15 (1), 20-25 (1992).
  6. Baumann, M. A., Fluet, M. C., Scherberger, H. Context-specific grasp movement representation in the macaque anterior intraparietal area. J. Neurosci. 29 (20), 6436-6438 (2009).
  7. Murata, A., Gallese, V., Luppino, G., Kaseda, M., Sakata, H. Selectivity for the shape, size, and orientation of objects for grasping neurons of monkey parietal area AIP. J. Neurophysiol. 83 (5), 2580-2601 (2000).
  8. Romero, M. C., Pani, P., Janssen, P. Coding of shape features in the macaque anterior intraparietal area. J. Neurosci. 34 (11), 4006-4021 (2014).
  9. Sakata, H., Taira, M., Kusonoki, M., Murata, A., Tanaka, Y., Tsutsui, K. Neural coding of 3D features of objects for hand action in the parietal cortex of the monkey. Philos. Trans. R. Soc. Lond. B. Biol. Sci. 353 (1373), 1363-1373 (1998).
  10. Taira, M., Mine, S., Georgopoulos, A. P., Murata, A., Sakata, H. Parietal cortex neurons of the monkey related to the visual guidance of the hand movement. Exp Brain Res. 83 (1), 29-36 (1990).
  11. Janssen, P., Scherberger, H. Visual guidance in control of grasping. Annu. Rev. Neurosci. 8 (38), 69-86 (2015).
  12. Theys, T., Pani, P., van Loon, J., Goffin, J., Janssen, P. Selectivity for three-dimensional contours and surfaces in the anterior intraparietal area. J. Neurophysiol. 107 (3), 995-1008 (2012).
  13. Goffin, J., Janssen, P. Three-dimensional shape coding in grasping circuits: a comparison between the anterior intraparietal area and ventral premotor area F5a. J. Cogn. Neurosci. 25 (3), 352-364 (2013).
  14. Raos, V., Umiltá, M. A., Murata, A., Fogassi, L., Gallese, V. Functional properties of grasping-related neurons in the ventral premotor area F5 of the macaque monkey. J. Neurophysiol. 95 (2), 709-729 (2006).
  15. Umilta, M. A., Brochier, T., Spinks, R. L., Lemon, R. N. Simultaneous recording of macaque premotor and primary motor cortex neuronal populations reveals different functional contributions to visuomotor grasp. J. Neurophysiol. 98 (1), 488-501 (2007).
  16. Denys, K., et al. The processing of visual shape in the cerebral cortex of human and nonhuman primates: a functional magnetic resonance imaging study. J. Neurosci. 24 (10), 2551-2565 (2004).
  17. Theys, T., Pani, P., van Loon, J., Goffin, J., Janssen, P. Selectivity for three-dimensional shape and grasping-related activity in the macaque ventral premotor cortex. J.Neurosci. 32 (35), 12038-12050 (2012).
  18. Nelissen, K., Luppino, G., Vanduffel, W., Rizzolatti, G., Orban, G. A. Observing others: multiple action representation in the frontal lobe. Science. 310 (5746), 332-336 (2005).
  19. Janssen, P., Srivastava, S., Ombelet, S., Orban, G. A. Coding of shape and position in macaque lateral intraparietal area. J. Neurosci. 28 (26), 6679-6690 (2008).
  20. Romero, M. C., Janssen, P. Receptive field properties of neurons in the macaque anterior intraparietal area. J. Neurophysiol. 115 (3), 1542-1555 (2016).
  21. Decramer, T., Premereur, E., Theys, T., Janssen, P. Multi-electrode recordings in the macaque frontal cortex reveal common processing of eye-, arm- and hand movements. Program No. 495.15/GG14. Neuroscience Meeting Planner. , Washington DC: Society for Neuroscience. Online (2017).
  22. Pani, P., Theys, T., Romero, M. C., Janssen, P. Grasping execution and grasping observation activity of single neurons in macaque anterior intraparietal area. J. Cogn. Neurosci. 26 (10), 2342-2355 (2014).
  23. Turriziani, P., Smirni, D., Oliveri, M., Semenza, C., Cipolotti, L. The role of the prefrontal cortex in familiarity and recollection processes during verbal and non-verbal recognition memory. Neuroimage. 52 (1), 469-480 (2008).
  24. Tsao, D. Y., Schweers, N., Moeller, S., Freiwald, W. A. Patches of faces-selective cortex in the macaque frontal lobe. Nat. Neurosci. 11 (8), 877-879 (2008).

Access restricted. Please log in or start a trial to view this content.

Reimpresiones y Permisos

Solicitar permiso para reutilizar el texto o las figuras de este JoVE artículos

Solicitar permiso

Explorar más artículos

Neurociencian mero 138formasecuencia visual dorsalMacacoagarrandofijaci ncampo receptivograbaci n unicelular

This article has been published

Video Coming Soon

JoVE Logo

Privacidad

Condiciones de uso

Políticas

Investigación

Educación

ACERCA DE JoVE

Copyright © 2025 MyJoVE Corporation. Todos los derechos reservados