Está en la página 1de 17

Nat Rev Neurosci. 2010 mayo; 11 (5): 351-60. doi: 10.1038 / nrn2811. Epub 2010 9 de abril.

Percepción activa: circuitos sensoriomotores como


base cortical del lenguaje.
Pulvermüller F 1 , Fadiga L .
Información del autor
Resumen
La acción y la percepción están vinculadas funcionalmente en el cerebro, pero una cuestión muy
debatida es si la percepción y la comprensión de los estímulos dependen de los circuitos
motores. Los mecanismos del lenguaje cerebral son ideales para abordar esta cuestión. Las
investigaciones de neuroimagen han encontrado activaciones motoras específicas cuando los
sujetos entienden los sonidos del habla, los significados de las palabras y las estructuras de las
oraciones. Además, los estudios que involucran estimulación magnética transcraneal y pacientes
con lesiones que afectan las regiones frontales inferiores del cerebro han mostrado
contribuciones de los circuitos motores a la comprensión de los fonemas, categorías semánticas
y gramática. Estos datos muestran que la comprensión del lenguaje se beneficia de los sistemas
de acción frontocentral, lo que indica que los circuitos de acción y percepción son
interdependientes.

Proc Natl Acad Sci USA . 2006 16 de mayo; 103 (20): 7865-7870.

Publicado en Internet el 8 de mayo de 2006. Doi: 10.1073 / pnas.0509989103


PMCID: PMC1472536
PMID: 16682637
Neurociencia

La corteza motora mapea las características articulatorias de los


sonidos del habla
Friedemann Pulvermüller ,* Martina Huss ,† Ferath Kherif ,‡Fermín Moscoso Del Prado Martín , Olaf
Hauk ,y Yury Shtyrov

Información del autor Notas del artículo Información de derechos de autor y de licencia Exención de
responsabilidad

Este artículo ha sido citado por otros artículos en PMC.

RESUMEN
Las teorías neurológicas del lenguaje tienen una larga tradición de distinguir los centros
modulares especializados para la percepción del habla y la producción del habla en los
lóbulos frontales superiores temporales e izquierdos, respectivamente ( 1- 3 ). Estos módulos
separados de producción y percepción del habla son consistentes con una serie de estudios de
neuroimagen, especialmente las observaciones de que los circuitos frontales se vuelven más
intensamente activos durante la producción del habla y que la entrada del habla activa
principalmente el giro temporal superior izquierdo y el surco ( 4- 6 ). Los mecanismos
temporales superiores de percepción del habla en humanos pueden estar situados en áreas
homólogas al cinturón auditivo y áreas parabelt en monos ( 5 , 7 , 8 ). En macaca, esta región
incluye neuronas especializadas para llamadas de especies específicas ( 9 , 10 ). Por lo tanto,
parece razonable postular un módulo de percepción del habla confinado a la corteza temporal
que procesa específicamente la información acústica que es inmanente al habla.
En contraste con esta visión, los modelos neurobiológicos han afirmado durante mucho
tiempo que la percepción del habla está conectada a los mecanismos de producción
( 11).- 16 ). Similares puntos de vista han sido propuestos en psicolingüística. Por ejemplo, la
teoría realista directa de la percepción del habla ( 17 , 18 ) postula un vínculo entre las
representaciones motrices y perceptivas del habla. Según la teoría del motor de Liberman et
al. ( 19 , 20 ), la percepción del habla requiere acceso a representaciones de fonemas que se
conceptualizan como específicas del habla e innatas.
En contraste, los modelos neurobiológicos señalan que los vínculos entre los mecanismos
articulatorios y perceptivos no son necesariamente específicos del habla, sino que pueden
parecerse a los vínculos de acción-percepción que están documentados para una serie de
acciones no lingüísticas ( 21).- 23 ).
Estos vínculos pueden ser explicados por los principios de la neurociencia. Debido a que
hablar implica actividad motora y también estimulación auditiva por los sonidos de
producción propia, existe una actividad neuronal correlacionada en los sistemas motores
auditivo y articulatorio, que predice el fortalecimiento sináptico y la formación de vínculos
articulatorio-auditivos específicos ( 24 , 25 ).
Las teorías de acción de la percepción del habla predicen la activación de los circuitos
motores durante el procesamiento del habla, que es una idea que se apoya, en cierta medida,
en trabajos recientes de imágenes. Durante la presentación de sílabas y palabras, las áreas en
la parte frontal inferior izquierda y la corteza premotora se activan junto con las áreas
temporales superiores ( 26- 30 ). Además, los experimentos de estimulación magnética
sugieren una facilitación motora durante la percepción del habla ( 31- 33 ), y la
magnetoencefalografía reveló activación paralela casi simultánea de áreas temporales
superiores y circuitos relacionados con la acción frontal ( 34 ).
Este último hallazgo apoya un enlace rápido desde los circuitos de percepción del habla en el
lóbulo temporal superior al premotor frontal inferior y la maquinaria motora para el habla.
El enlace inverso también parece ser efectivo, porque durante el habla, la corteza temporal
superior se activó junto con las áreas del motor inferior izquierdo, premotor y corteza
prefrontal, aunque se aseguró que los sonidos producidos por sí mismos no pudieran
percibirse a través del auditorio canal ( 35).
Esta evidencia de activación mutua del córtex frontal superior y temporal inferior izquierdo
tanto en la producción como en la percepción del habla sugiere el acceso a programas motores
y el conocimiento de la acción en la comprensión del habla ( 23 ).
Sin embargo, a nuestro entender, la predicción crítica de una teoría de la acción de la
percepción del habla no se ha abordado. Si la información del motor es crucial para reconocer
el habla, la información sobre las características distintivas críticas de los sonidos del habla
debe reflejarse en el sistema motor. Debido a que el sistema motor cortical está organizado de
manera somatotópica, las características de las actividades articulatorias se controlan en
diferentes partes de la corteza motora y premotora. El córtex de los labios es superior al córtex
de la lengua ( 36- 39 ). Por lo tanto, la pregunta crítica es si estas estructuras motoras
específicas también son activadas diferencialmente por las señales de voz entrantes. De
acuerdo con la teoría y los datos recientes, los circuitos de percepción auditiva-acción con
diferentes topografías corticales tienen un papel importante en la comprensión del lenguaje,
especialmente en el nivel de significado de palabras y oraciones ( 22 , 23 , 30 , 40).).
Sin embargo, queda por determinar si dichos vínculos específicos de percepción-acción se
pueden demostrar a nivel de los sonidos del habla, en el dominio fonológico y fonético, como
predeciría un modelo de percepción-acción de la percepción del habla. En el conjunto de
experimentos de MRI funcional (fMRI) presentados aquí, investigamos esta predicción crítica
y tratamos de determinar si la información sobre las características distintivas de los sonidos
del habla está presente en la corteza sensoriomotora del hemisferio izquierdo dominante del
lenguaje durante el procesamiento del habla.
A medida que se producen sonidos del lenguaje por diferentes articuladores, que se mapean
somatotópicamente en diferentes áreas de la corteza motora y premotora, la percepción de los
sonidos del habla producidos por un movimiento específico del articulador puede activar su
representación motora en el giro precentral ( 13 , 15 , 24).).
Para mapear la somatotopía de los movimientos del articulador y las articulaciones, las tareas
de localizador se administraron mediante el uso de fMRI. Los sujetos tenían que mover sus
labios o lengua (experimento motor) y producir silenciosamente sílabas de consonante-vocal
(CV), comenzando con los fonemas relacionados con los labios (bilabial) y relacionados con
la lengua (aquí, aleveolar) [p] y [t] ( experimento de articulación).
Estas tareas fueron realizadas por los mismos sujetos que, en un experimento diferente,
escucharon una serie de sílabas CV que también comenzaron con [p] y [t] entremezcladas con
patrones emparejados de ruido correlacionado con la señal, mientras que la exploración por
resonancia magnética por resonancia magnética fue escasa. administrado (experimento de
percepción del habla). Comparación de la actividad hemodinámica evocada entre motor,
articulación,
RESULTADOS
Los movimientos motores activaron fuertemente la corteza sensoriomotora bilateral, la
articulación silenciosa condujo a una amplia activación sensoriomotora que se extendió a las
áreas frontales inferiores y la percepción del habla produjo la activación más fuerte en la
corteza temporal superior de manera bilateral ( Fig. 1).
Un conjunto inicial de análisis examinó la lateralidad de la activación cortical en los
experimentos de motricidad, articulación y percepción del habla en regiones de interés (ROI)
ubicadas en estas áreas más activas.
En la tarea motora, la activación máxima en la corteza sensoriomotora no reveló ninguna
lateralidad. Los picos de activación se observaron en las coordenadas estándar del Instituto
Neurológico de Montreal (MNI) (−56, −6, 26 y 62, 0, 28) en los hemisferios izquierdo y
derecho, respectivamente, y la comparación estadística no reveló diferencias significativas (
ROIs: ± 59, −3, 27; P> 0.2, sin diferencia significativa).
En la tarea de articulación silenciosa, la activación del hemisferio izquierdo parecía más
extendida que la actividad en el hemisferio no dominante derecho. Sin embargo, la
comparación estadística entre las regiones de activación de pico en cada hemisferio, que
estaban ubicadas en giros precentral cerca de las activaciones motoras máximas, no reveló
una diferencia significativa entre los hemisferios (ROI: ± 59, −3, 27; P > 0.2, no significativo
diferencia).
Críticamente, la comparación de un área frontal inferior superpuesta con el área de Broca y el
área homotópica de la derecha, donde se encuentra comúnmente la lateralidad del lenguaje,
reveló una activación más fuerte en la izquierda que en la derecha durante la articulación
silenciosa [ROIs: ± 50, 15, 20; F (1,11) = 6,3, P<0,03].
Los máximos de activación durante el experimento de percepción del habla se observaron en
las coordenadas MNI (−38, −34, 12) y (42, −24, 10) y fueron mayores en la corteza temporal
superior izquierda que en la derecha [ROIs: ± 40, −29, 11; F (1,11) = 7,72, P <0,01].
Debido a que la activación relacionada con el lenguaje estaba lateralizada a la izquierda
y las predicciones a priori sobre la especificidad del fonema se referían a la
activación diferencial del hemisferio izquierdo, los análisis estadísticos detallados de la
especificidad del fonema se centraron en el hemisferio dominante del idioma izquierdo.

Figura 1.
Activación provocada por acciones y
percepciones relacionadas con los
labios y la lengua.
( Arriba ) Movimientos repetitivos de
los labios (rojo) y movimientos de la
lengua (verde) probados contra el
reposo como una línea de base
( P <0.05, corrección de errores
familiares).
( Medio ) Articulación silenciosa
repetitiva de sílabas, incluido el
fonema relacionado con el labio [p]
(rojo) y el fonema relacionado con la
lengua [t] (verde) probado contra el
reposo ( P <0.05, corrección de la tasa
de descubrimiento falso).
( Abajo ) Escuchando sílabas
habladas, incluido el fonema
relacionado con los labios [p] (rojo) y
el fonema relacionado con la lengua [t]
(verde), que se comparó con la escucha
de ruido con características
espectrotemporales que coincidían con
las de las sílabas ( P<0.05, corregido
por error familiar).
En el experimento motor-localizador, se obtuvieron distintos patrones de activación cortical
en las condiciones de movimiento de los labios y la lengua ( Fig. 1 arriba ).
En los giros precentral y postcentral inferior izquierdo y derecho, la activación relacionada
con los movimientos de los labios (que se muestra en rojo) fue dorsal a la de los movimientos
de la lengua (que se muestra en verde).
Este hallazgo apoya la organización somatotópica de cortezas motoras responsables de los
movimientos del articulador y está en buen acuerdo con las referencias. 36 y 39. También
hubo una activación específica del pie del giro precentral izquierdo (donde toca el pars
opercularis) a los movimientos de los labios, y hubo algo de activación prefrontal dorsolateral
izquierda en la proximidad del campo frontal del ojo a los movimientos de la lengua.
Los máximos de activación del hemisferio izquierdo para movimientos de labios estaban
presentes en las coordenadas estándar de MNI (−48, −10, 36) y (−50, −10, 46) y para los
movimientos de la lengua en (−56, −8, 28) y (- 56, 0, 26). Tenga en cuenta que estos máximos
de activación se encontraban en la corteza sensorimotora pre y postcentral izquierda. Todas
las activaciones se extendieron en el giro precentral.
La tarea articulación suscitó patrones de activación generalizadas en la corteza frontocentral,
especialmente en el hemisferio izquierdo, que difería entre gestos articulatorios ( Fig.
1 Medio). De acuerdo con los resultados de la tarea motora, las articulaciones que afectan a la
lengua (t fonema) activaron un área precentral inferior (se muestra en verde), mientras que las
articulaciones que afectan a los labios (fonema p) activaron el córtex premotor y dorsal y
ventral a esta lengua. -Punto relacionado (mostrado en rojo). Además, hubo activación en la
corteza dorsolateral prefrontal y temporo-parietal y en el cerebelo. En la circunvolución
precentral, los parches de activación para las acciones relacionadas con la lengua se parecían
y se superponían entre las tareas articulatoria y motora y una superposición similar también se
encontró entre las acciones motoras y articulatorias relacionadas con los labios (vea las
flechas en la Fig. 1 y la ref. 38 ).
Las ROI para comparar la actividad relacionada con diferentes estímulos del habla se
seleccionaron sobre la base de los estudios de localizadores, los experimentos motores y los
articuladores. Dentro de las áreas que se activaron en los experimentos motores, los vóxeles
en el surco central, que fueron activados más fuertemente por los movimientos de los labios y
la lengua, respectivamente, fueron seleccionados como los centros de ROI de radio de 8 mm
(ROI del centro de los labios: −56 , −8, 46; retorno de la inversión de la lengua central: −60,
−10, 25). Antes de estas ROI postcentrales, se seleccionaron un par de ROI en la corteza
precentral (ROI precentral del labio: −54, −3, 46; ROI premotor de la lengua: −60, 2, 25).
Las ROI precentral también se activaron diferencialmente mediante la articulación del fonema
relacionado con los labios [p] y el fonema relacionado con la lengua [t] en el experimento de
articulación (flechas en la Fig. 1). Esta disociación fue confirmada por ANOVA, revelando
una interacción significativa del lugar de articulación y los factores regionales para los ROI
precentral [ F (1,11) = 6.03, P <0.03].
El experimento de percepción de ruido y habla produjo una fuerte activación en la corteza
temporal superior. Consistente con las refs. 41 y 42 , el ruido provocó la activación en el giro
de Heschl y la corteza temporal superior que lo rodea.
Se encontró una activación adicional relacionada con el ruido en la corteza parietotemporal,
especialmente en el giro supramarginal. Los estímulos del habla activaron un área mayor en la
corteza temporal superior, que incluye grandes partes de la circunvolución temporal superior
y se extiende hacia el surco temporal superior ( Fig. 1, parteinferior), que probablemente
representa el homólogo humano de la región auditiva parabelt ( 5 , 9 ).
La percepción de sílabas, incluido el fonema relacionado con los labios [p], produjo la
activación más fuerte en la coordenada MNI (−60, −12, 0), mientras que la del fonema
relacionado con la lengua [t] fue máxima en la coordenada (−60, −20 , 2), que es 8 mm
posterior-superior a la activación máxima provocada por [p].
Este hallazgo es consistente con distintos procesos corticales locales para las características
de los sonidos del habla en la corteza temporal superior ( 43 , 44 ).
Para probar si las áreas motoras de los labios y la lengua que están implicadas en el
procesamiento motor y articulatorio se activaron diferencialmente mediante la percepción de
los fonemas relacionados con los labios y la lengua, se investigó la activación provocada por
el habla en las ROI postcentral y precentral. En las ROI postcentrales, la interacción de los
factores lugar de articulación y ROI no alcanzó significación ( F<1, P > 0.2, sin diferencia
significativa).
En contraste, las ROI precentral revelaron una interacción significativa de estos factores
[ F (1,11) = 7.25, P <0.021] debido a una actividad más inducida por [t] que por [p] en el ROI
ventral y el patrón opuesto, más fuerte [p] - que el flujo sanguíneo relacionado con [t] en la
región dorsal precentral ( Figs. 2 yAND33 ).

Figura 2.
Activación específica del fonema en la corteza precentral durante la percepción del habla.
( A ) Rebanadas frontales y sagitales del cerebro MNI estándar que muestran activación durante el
movimiento de los labios (rojo) y la lengua (verde) junto con las ROI centradas en el giro precentral.
( B ) Activación (unidades arbitrarias) durante la escucha de sílabas que incluyen [p] y [t] en ROI
precentral donde se encontró una activación pronunciada para movimientos de labios (rojo) y lengua
(verde). La interacción significativa demuestra la activación diferencial de estas áreas motoras
relacionadas con la percepción de [p] y [t].
Fig. 3.
Los cortes frontales que muestran la activación diferencial provocada durante los movimientos de los
labios y la lengua ( izquierda ), la articulación de sílabas incluyen [p] y [t] ( centro ), y escuchan
sílabas que incluyen [p] y [t] ( derecha ).
Observe las activaciones superiores centrales para las acciones y percepciones relacionadas con los
labios (rojo) y las activaciones inferiores centrales para las relacionadas con la lengua (verde). Los
umbrales de significancia son P <0.05, corregidos por error en cuanto a la familia para los
movimientos, falsos a la tasa de descubrimiento corregidos para las articulaciones y no corregidos para
la percepción del habla.

Estos resultados, obtenidos de un solo par de regiones definidas a priori , se complementaron


con un análisis más amplio de la activación en una parte más grande de la banda motora, que,
para este fin, se dividió en regiones más pequeñas.
Una cadena de siete regiones de este tipo [esferas con un radio de 5 mm y una distancia de
centro a centro de 5 mm en la dirección vertical ( z )] se alinearon a lo largo del surco central
del cerebro MNI estándar entre las verticales ( z) coordenadas 20 y 50. Anteriormente, a una
distancia de 5 mm, se definió una línea adicional de regiones en la corteza precentral.
Esta subdivisión de la corteza central y precentral dio como resultado un conjunto de 2 × 7 =
14 regiones, para cada una de las cuales se obtuvieron valores de activación para cada
experimento (motor, articulación y percepción del habla), condición (relacionada con los
labios y la lengua) , y sujeto.
Como se hizo anteriormente, la actividad motora y de articulación se calcularon en relación
con la línea de base de reposo y para la condición de percepción del habla, la activación se
calculó en relación con la actividad evocada por ruido promediada. Los ANOVA de tres vías
se ejecutaron con el articulador de diseño (lengua / labios) x frontalidad (precentral / central)
x dorsalidad (siete regiones, inferior a superior). Para los tres experimentos,F (6,66) =
8,13, P <0,0001; articulación: F (6,66) = 8.43, P <0.0001; Percepción del habla: F (6,66) =
3.18, P <0.008], lo que demuestra la activación diferencial de la corteza frontocentral por las
acciones, articulaciones y percepciones del habla relacionadas con los labios y la lengua.
Al contrastar la actividad en las tres regiones superior e inferior ( coordenada y , 20-30 frente
a 40-50) en la corteza central y central entre los movimientos motores de la lengua y los
labios, una diferencia significativa emergió nuevamente [ F (1,11) = 6.97 , P<0.02] debido a
la activación relativamente más fuerte para los movimientos de los labios en las regiones
superiores y la activación más fuerte del movimiento de la lengua en las regiones precentral
inferiores. La misma diferencia también estuvo presente para la tarea de articulación, donde
las sílabas que incluyen el fonema relacionado con los labios [p] llevaron a una activación
superior más fuerte, mientras que las articulaciones relacionadas con la lengua [t] provocaron
respuestas hemodinámicas relativamente más fuertes en las regiones inferiores [ F (1, 11) =
8.43, P <0.001]. De manera crucial, también la tarea de escucha mostró la misma activación
diferencial con una activación dorsal relativamente más fuerte en el fonema del labio [p] y
una activación inferior relativamente más fuerte en el fonema de la lengua [t] [ F (1,11) =
4.84, P<0,05]. Tenga en cuenta que la activación diferencial más clara se determinó en la
corteza precentral tanto para la articulación como para la percepción del habla, mientras que
para la tarea motora no verbal, la activación diferencial fue más pronunciada en los sitios
centrales. Debido a que las interacciones del factor de vocal con el factor articulador o las
variables topográficas no alcanzaron significación, no hubo un fuerte apoyo para la activación
motora diferencial específica de vocal local o un cambio de la activación diferencial regional
específica para [p] y [t] entre Los contextos vocales de este conjunto de análisis.
El análisis de los datos del electromiograma (EMG) no reveló diferencias significativas en la
actividad neurofisiológica de los músculos de los labios cuando los sujetos escucharon sílabas
que comienzan con [p] y [t]. La EMG después de la presentación de la sílaba no indicó
distinciones neurofisiológicas entre los diferentes tipos de estímulos (rms de actividad en un
intervalo de tiempo de 200 a 400 ms: 0.54 vs. 0.46 mV; F <2, P> 0.2, sin diferencia
significativa). El análisis de intervalos de tiempo más largos y posteriores tampoco sugirió la
activación diferencial de los músculos articuladores durante la percepción de la sílaba en un
contexto de imagen escasa. Este resultado no respalda la posibilidad de que la activación
diferencial en la corteza precentral observada durante el estudio fMRI esté relacionada con la
actividad motora manifiesta o subliminal en el sistema motor periférico provocada por la
percepción de sílaba.
Ir:

DISCUSIÓN
La activación diferencial del sistema motor cortical, en las áreas central y precentral, se
observó durante la escucha pasiva de los fonemas producidos por diferentes articuladores
(labios y lengua) en diferentes lugares de articulación.
Los experimentos localizadores con movimientos motores no verbales y movimientos
articulatorios silenciosos que involucran los labios y la lengua demostraron que la activación
diferencial en la corteza precentral a los sonidos del habla era consistente con la
representación somatotópica en la corteza motora y premotora de los movimientos
articulatorios relevantes y los movimientos no verbales de los articuladores.
Las regiones precentral activadas consistentemente por movimientos no verbales, articulación
de sílabas y percepción del habla demuestran un sustrato neuronal compartido de sonidos y
sonidos de estos procesos sensoriales y motores.
Este conjunto de hallazgos es una evidencia de que se accede a la información sobre las
características articulares y motoras específicas de los sonidos del habla en la percepción del
habla.
Debido a que definimos las áreas de activación diferencial en la articulación y las tareas
motoras que involucraban la lengua y los labios, respectivamente, podemos afirmar que la
activación diferencial de estas mismas áreas en el experimento de percepción del habla
incluye información sobre las características articulatorias de los estímulos del sonido del
habla.
Este hallazgo apoya los modelos neurobiológicos del lenguaje que postulan enlaces
funcionales específicos en la corteza perisilviana entre circuitos auditivos y articuladores que
procesan características distintivas del habla ( 11 , 13 , 15 , 24 , 45).). Los datos también
proporcionan soporte para los modelos cognitivos que postulan los vínculos de percepción-
acción en el procesamiento fonológico (por ejemplo, la teoría realista directa) ( 17 , 18).
La teoría motora de la percepción del habla (MTSP; refs. 19 y 20 ) también postuló una
referencia a la información gestual motora en el procesamiento del habla. Por lo tanto, los
datos presentados aquí son compatibles con este postulado inmanente a esta teoría. Sin
embargo, es a priori que la evidencia de neuroimagen no puede, per se, demostrar la
necesidad de acceso a la información motora para el proceso cognitivo bajo investigación. Por
lo tanto, el conjunto de datos presentado aquí no puede probar que el acceso a la
representación motora sea necesario para la percepción del habla, como afirma el MTSP. Sin
embargo, es crucial que estos datos sugieran un sustrato neuronal compartido (en la corteza
precentral) de los procesos fonológicos de articulación y percepción específicos de las
características y de los procesos motores no lingüísticos específicos de las partes del
cuerpo. Este hallazgo se puede interpretar como una evidencia contra una de las principales
afirmaciones del MTSP (a saber, la idea de que "el habla es especial", que se procesa en un
módulo específico del habla al que no se accede cuando se realizan acciones no
lingüísticas). Más generalmente,46 ) y en animales ( 47 , 48 ).
Los resultados indican que la corteza precentral es el sitio donde la activación somatotópica
diferencial más clara y consistente fue producida por los movimientos motores de los
articuladores, por movimientos articulatorios realizados con estos mismos articuladores y, por
último, por la percepción de los sonidos del habla provocados por Moviendo estos mismos
articuladores. Debido a que el giro precentral incluye tanto el motor primario como la corteza
premotora, puede ser que ambas partes del sistema motor participen no solo en la
planificación y ejecución articulatoria, sino también en la percepción del habla. Debido a que
la corteza primaria y la premotora no se pueden separar con certeza sobre la base de los
métodos utilizados en este estudio, la cuestión de los roles funcionales distinguibles de estas
áreas en el proceso de percepción del habla aún no se ha determinado. Un tema interesante
relacionado aborda el papel de la atención y los contextos de tareas. Investigaciones previas
indicaron que la activación frontal-frontal y frontocentral al habla puede ocurrir en una
variedad de tareas experimentales e incluso bajo distracción de atención (29 , 34 ), pero
también hay evidencia de que la activación frontal inferior está modulada por procesos
fonológicos ( 49 , 50 ). La influencia de la atención en la dinámica de las redes específicas de
características de fonemas precentral aún está por determinarse.
Nuestros resultados pueden interpretarse en el sentido de que las representaciones perceptivas
de los fonemas, o procesos fonémicos perceptivos, se localizan en la corteza precentral. Sin
embargo, enfatizamos que esta visión que presume los fonemas como una entidad neuronal
cognitiva y concreta, que es inmanente a algunos modelos, no está respaldada por los datos
presentados aquí. En su lugar, estos datos también son compatibles con los modelos que
postulan sistemas fonológicos en los que las características distintivas fonémicas son las
unidades de representación relevantes, independientemente de la existencia de una realización
de fonemas per se ( 44 , 51 , 52).). Creemos que la interpretación lingüística menos sesgada
de nuestros resultados es la siguiente: se accede a las características fonéticas articulatorias [+
alveolar] (o, quizás más exactamente, [+ lengua-punta]) y [+ bilabial] tanto en la percepción
del habla como en la escucha , y este proceso de acceso involucra áreas regionales específicas
en el giro precentral. Cabe destacar que la activación diferencial regional específica para [p] y
[t] no cambió significativamente entre los contextos vocales de [I] o [æ] en los que se
presentaron las consonantes. Esta observación es consistente con la sugerencia de que los
diferentes patrones de percepción correspondientes al mismo fonema o característica
fonémica se asignan a la misma representación gestual y motora.
Estos resultados indican que la percepción de los sonidos del habla en una tarea de escucha
activa circuitos motores específicos en la corteza precentral, y que estos son los mismos
circuitos motores que también contribuyen a los procesos articulatorios y motores invocados
cuando se mueven los músculos que generan los sonidos del habla. Este resultado apoya una
teoría general del lenguaje y los circuitos de acción realizados por conjuntos de células
sensoriomotoras distribuidas que incluyen neuronas multimodales en la corteza motora
primaria y premotora y en otras partes de las áreas del lenguaje perisilviano ( 13 , 22- 24 ). En
general, los resultados se oponen a las teorías modulares, que establecen que el lenguaje se
almacena lejos de otros procesos perceptivos y motores en módulos encapsulados que se
dedican a la producción o la comprensión del lenguaje y el habla. Más bien, parece que la
producción y la comprensión del habla comparten una parte relevante de su sustrato neuronal,
que también se superpone con la de las actividades no lingüísticas que involucran las partes
del cuerpo que expresan el lenguaje ( 21- 23 , 53 ).
Ir:

MATERIALES Y MÉTODOS
Asignaturas.
Los participantes del estudio fueron 12 hablantes nativos monolingües diestros de inglés
monolingües diestros, sin parientes de primer orden zurdos. Tenían audición normal y no
tenían antecedentes de enfermedad neurológica o psiquiátrica o abuso de drogas. La edad
media de los voluntarios fue de 27,3 años (DE, 4,9). La aprobación ética se obtuvo del Comité
de Ética de Investigación Local de Cambridge.
Estímulos y diseño experimental.
Los voluntarios yacen en el escáner y se les instruyó para evitar cualquier movimiento (a
excepción de los movimientos sutiles requeridos en las tareas de articulación y motor). El
estudio consistió en tres experimentos que se estructuraron en cuatro bloques y se
administraron en el orden de ( i ) un experimento de percepción del habla, que se dividió en
dos bloques (24 minutos cada uno); ( ii ) un experimento de articulación-localizador (5,4
min); y ( iii) un experimento motor-localizador (3,2 min). Las tareas motoras y de articulación
se administraron mediante el uso de diseños de bloques con exploración de MRI continua,
mientras que en el experimento de percepción del habla se usaron imágenes dispersas con
presentación de sonido en espacios vacíos. Aquí, describimos estos experimentos en el orden
inverso porque los experimentos motores y articulatorios se utilizaron para localizar las áreas
críticas para el análisis del experimento de percepción del habla.
Experimento motor-localizador.
Los sujetos tenían que realizar movimientos mínimos repetitivos de los labios y la punta de la
lengua con instrucciones escritas. La palabra "labios" o "lengua" apareció en la pantalla de
una computadora durante 16 s, y los sujetos tuvieron que realizar el movimiento respectivo
durante todo el período. En una condición adicional, una cruz de fijación apareció en la
pantalla y los sujetos tuvieron que descansar. Cada tarea se realizó cuatro veces, lo que resultó
en 12 bloques, que se administraron en orden pseudoaleatorio (excluyendo la sucesión directa
de dos bloques del mismo tipo). Se practicaron brevemente movimientos alternativos hacia
arriba y hacia abajo de la punta de la lengua y los labios fuera del escáner antes del
experimento. Los sujetos fueron instruidos para minimizar los movimientos, y evitaron la
autoestimulación somatosensorial mediante el cierre de los labios o el contacto lengua-paladar
tanto como sea posible.
Experimento articulador-localizador.
Los sujetos tenían que "pronunciar en silencio, sin hacer ningún ruido" las sílabas [pI], [pæ],
[tI] y [tæ] después de recibir instrucciones por escrito. La cadena de letras "PIH", "PAH",
"TIH" o "TAH" apareció en la pantalla de una computadora durante 16 s, y los sujetos
tuvieron que realizar el movimiento articulatorio repetidamente durante todo el período. En
una condición adicional, una cruz de fijación apareció en la pantalla y los sujetos tuvieron que
descansar. Cada instrucción ocurrió cuatro veces, lo que resultó en 20 bloques, que se
administraron en orden pseudoaleatorio.
Experimento de percepción del habla.
El habla y los estímulos de ruido emparejados se presentaron a través de auriculares no
magnéticos. Se pidió a los voluntarios que "escuchen y atiendan los sonidos y eviten cualquier
movimiento o actividad motora durante el experimento". Para reducir el efecto de
interferencia del ruido del escáner, que enmascararía acústicamente los estímulos y conduciría
a la saturación de la activación del área cortical auditiva ( 54), se aplicó el llamado paradigma
de "imágenes dispersas". Los estímulos aparecieron en intervalos de 1,6 s entre las
exploraciones de resonancia magnética, cada uno de los cuales duró 1,6 s. Todos los estímulos
del habla y el ruido fueron de 200 ms; su inicio siguió la diferencia de ruido del escáner
anterior entre 0,4–1,2 s (variado aleatoriamente). Presentamos 100 estímulos de cada uno de
los ocho tipos de estímulos (ver el siguiente párrafo) y 100 eventos nulos con silencio en la
brecha entre las exploraciones en un orden pseudoaleatorio, que se creó recientemente para
cada sujeto.
Los estímulos del habla incluían diferentes tokens de los siguientes cuatro tipos de sílabas:
[pI], [pæ], [tI] y [tæ]. Una gran cantidad de sílabas de cada tipo fueron habladas por un
hablante nativo de inglés y grabadas en un disco de computadora. Se seleccionaron elementos
que eran lo más similares entre sí. Estas sílabas similares de los cuatro tipos se ajustaron para
que coincidieran exactamente con la longitud, la energía de sonido general, la frecuencia F 0 y
el tiempo de inicio de la voz. Se generaron estímulos de ruido emparejados para cada sílaba
registrada al realizar un análisis de la transformada de Fourier más rápida de los estímulos
hablados y, posteriormente, modular el ruido blanco según el perfil de frecuencia y la
envolvente de la sílaba ( 55). Estos estímulos de ruido correlacionados con la señal ajustados
espectralmente también se combinaron para la longitud, la energía de sonido global y
la frecuencia F 0 con sus sílabas correspondientes y entre sí. A partir de cada sílaba registrada
y cada patrón de ruido, se generaron cuatro variantes al aumentar y disminuir
las frecuencias F 0 en un 2% y un 4%, dando como resultado 20 sílabas diferentes y 20
patrones de ruido diferentes (5 de cada tipo; 40 estímulos diferentes).
Métodos de imagen.
Los sujetos fueron escaneados en un sistema de resonancia magnética 3-T (Bruker, Billerica,
MA) utilizando una bobina de cabeza. La imagenología eco-planar (EPI) se aplicó con un
tiempo de repetición de 3,2 s en la tarea de percepción del habla (1,6 s de exploración y 1,6 s
de separación silenciosa) y 1,6 s en las tareas motoras y localizador de articulación. El tiempo
de adquisición (TA) fue de 1,6 s, y el ángulo de giro fue de 90 °. Las imágenes funcionales
consistían en 91 cortes de 64 × 64 voxels que cubrían todo el cerebro. El tamaño del vóxel fue
de 3 × 3 × 2,25 mm, con una distancia intercalada de 0,75 mm, lo que resultó en un volumen
de escaneo isotrópico. Se aplicó el escaneo isotópico porque la principal predicción era sobre
las diferencias de activación a lo largo de la zeje. Los datos de imágenes se procesaron
utilizando el paquete de Análisis automático para neuroimagen (aa) (Unidad de Cognición y
Ciencias del Cerebro, Consejo de Investigación Médica) con el software SPM2 (Departamento
de Neurología Cognitiva de Wellcome, Londres). Las imágenes se corrigieron para el tiempo
de corte y luego se volvieron a alinear con la primera imagen mediante la interpolación
sinc. Los mapas de campo se utilizaron para corregir las distorsiones de la imagen resultantes
de inhomogeneidades en el campo magnético ( 56 , 57 ). Cualquier parte que no fuera del
cerebro se eliminó de las imágenes estructurales ponderadas en T1 mediante el uso de un
enfoque de modelo de superficie ("desgarre de cráneo", ver ref. 58 ). Las imágenes de EPI se
registraron de forma conjunta en estas imágenes estructurales T1 con desgarre de cráneo
mediante un procedimiento de registro mutuo de información ( 59). La resonancia magnética
estructural se normalizó a la plantilla T1 de 152 sujetos del MNI. Los parámetros de
transformación resultantes se aplicaron a las imágenes EPI corregidas. Durante el proceso de
normalización espacial, las imágenes se volvieron a muestrear con una resolución espacial de
2 × 2 × 2 mm. Por último, todas las imágenes normalizadas se suavizaron espacialmente con
un núcleo gaussiano de media anchura máxima de 6 mm, y los contrastes estadísticos de un
solo sujeto se calcularon utilizando el modelo lineal general ( 60). El ruido de baja frecuencia
se eliminó con un filtro de paso alto (localizador del motor: constante de tiempo, 160 s; tarea
de articulación, 224 s; tarea de escucha, 288 s). El curso del tiempo de activación previsto se
modeló como una función de carro de caja (experimentos con motor y articulación
bloqueados) y como una función de carro de caja combinada con la función de respuesta
hemodinámica canónica que se incluye en SPM2 (experimento de percepción del habla de
imagen escasa).
Los datos grupales se analizaron con un análisis de efectos aleatorios. Se consideró que un
locus cerebral se activaba en una condición particular si 27 o más voxels adyacentes pasaban
el umbral de P = 0.05 corregido. Para la corrección de comparaciones múltiples, se utilizaron
los métodos de error sabio familiar y tasa de descubrimiento falso ( 61 ). Las coordenadas
estereotáxicas para voxels con valores t máximos dentro de los grupos de activación se
informan en el espacio estándar de MNI, que se parece mucho al espacio estandarizado de
Talairach ( 62 ) ( 63 ).
Calculamos las estimaciones promedio de los parámetros sobre los vóxeles para cada sujeto
individual en la tarea de percepción del habla para las ROI esféricas en el hemisferio
izquierdo (radio, 8 mm). Las ROI se definieron sobre la base del análisis de efectos aleatorios
como activadas diferencialmente por los tipos de movimiento y articulación. Esta definición
se realizó utilizando la utilidad de software MARSBAR ( 63). Los valores para cada uno de los
cuatro tipos de sílabas que fueron sustraídos por los valores obtenidos para el promedio de
todos los estímulos de ruido se sometieron a ANOVA, incluidos los siguientes factores: ROI
(focos de actividad relacionada con el movimiento de los labios o la lengua), lugar de
articulación del habla sonido (bilabial / relacionado con el labio [p] vs. alveolar / relacionado
con la punta de la lengua [t]), y vocal incluida en el sonido del habla ([ I] vs. [æ]). Se
realizaron análisis estadísticos adicionales en las ROI alineadas a lo largo de la banda del
motor, como se describe en Resultados . Para el análisis de la lateralidad cortical, las ROI se
definieron como esferas con un radio de 1 cm alrededor de los puntos de activación máxima
en los hemisferios izquierdo y derecho (comparaciones: movimientos vs. descanso,
articulaciones vs. descanso, y percepción de habla / sonido vs. silencio). Debido a que las
coordenadas de los máximos de activación fueron similares en los dos hemisferios, se utilizó
el promedio de los máximos de activación del hemisferio izquierdo y derecho para definir los
orígenes de los pares de ROI simétricos utilizados para las pruebas estadísticas. ROIs
adicionales fueron definidos basados en refs. 30 y 64 de modo que comprendieran una gran
parte del área de Broca y su contraparte hemisférica derecha.
Experimento EMG Movimiento-Control.
Si bien los sujetos recibieron instrucciones explícitas de abstenerse de cualquier movimiento
motor durante el experimento de percepción del habla, se puede argumentar que la percepción
de sílaba puede provocar movimientos involuntarios que pueden afectar la respuesta
dependiente del nivel de oxigenación de la sangre. Debido a que la EMG proporciona
información precisa sobre la actividad muscular, incluso si no resulta en un movimiento
manifiesto, este método se aplicó en un experimento de control. Debido a que los gradientes
temporales de los fuertes campos magnéticos producen enormes artefactos eléctricos y, por lo
tanto, ruido en la grabación de EMG, este experimento se realizó fuera del escáner, en el
laboratorio de EEG de la Unidad de Cognición y Ciencias del Cerebro del Consejo de
Investigación Médica. Para evitar efectos de repetición, una población diferente de ocho
sujetos (edad media, 25.3; SD, 6.8; todos los que satisfacían los criterios de selección de
sujetos descritos anteriormente) se probaron. El experimento fue una réplica exacta del
experimento de percepción del habla por fMRI, que también incluye el ruido del escáner
producido durante la formación de imágenes dispersas. Se colocó un par de electrodos de
EMG a la izquierda y a la derecha por encima y por debajo de la boca, respectivamente (un
total de ocho electrodos) en los sitios de registro de EMG estándar dirigidos al músculo
orbicularis oris (65 ). Este músculo mostraría una fuerte actividad EMG durante la
articulación de una consonante relacionada con los labios y durante los movimientos de los
labios, pero haría mucho menos durante la producción de fonemas relacionados con la lengua
o los movimientos de la lengua. Durante las articulaciones de las sílabas que comienzan con
[p] y [t], las respuestas de EMG en estos electrodos se diferenciaron inmediatamente entre
estos fonemas, con diferencias máximas que ocurren a 200–400 ms. Las respuestas de EMG a
los estímulos del habla se evaluaron calculando los promedios de los valores rms para las
cuatro grabaciones bipolares y promediando los datos a través de los electrodos en la ventana
de tiempo de 200 a 400 ms después del inicio de la sílaba. Se analizaron intervalos de tiempo
adicionales más largos y posteriores para probar la consistencia de los resultados.
Ir:

EXPRESIONES DE GRATITUD
Agradecemos a Rhodri Cusack, Matt Davis, Ingrid Johnsrude, Christian Schwarzbauer,
William Marslen-Wilson y dos árbitros anónimos por su ayuda en las diferentes etapas de este
trabajo. Esta investigación fue apoyada por el Consejo de Investigación Médica del Reino
Unido y el Programa de Tecnologías de la Sociedad de la Información de la Comunidad
Europea IST-2001-35282.
Ir:

ABREVIATURAS
RMN resonancia magnética funcional
ROI region de interés
MNI Instituto Neurológico de Montreal
EMG electromiograma.
Ir:
NOTAS AL PIE
Declaración de conflicto de intereses: No hay conflictos declarados.

Este documento fue enviado directamente (Track II) a la oficina de PNAS.

Ir:

REFERENCIAS
1. Wernicke C. Der Aphasische Symptomencomplex. Eine Psychologische Studie auf
Anatomischer Basis. Breslau, Alemania: Kohn und Weigert; 1874. [ Google Scholar ]
2. Lichtheim L. Cerebro. 1885; 7 : 433–484. [ Google Scholar ]
3. Damasio AR, Geschwind N. Annu. Rev. Neurosci. 1984; 7 : 127–147. [ PubMed ] [ Google
Scholar ]
4. Precio CJ J. Anat. 2000; 197 : 335–359. [ Artículo libre de PMC ] [ PubMed ] [ Google
Scholar ]
5. Scott SK, Johnsrude IS Trends Neurosci. 2003; 26 : 100-107. [ PubMed] [ Google Scholar ]
6. Zatorre RJ, Belin P., Penhune VB Trends Cognit. Sci. 2002; 6 : 37–
46. [ PubMed ] [ Google Scholar ]
7. Patterson RD, Uppenkamp S., Norris D., Marslen-Wilson W., Johnsrude I., Williams E.
Actas de la 6ta Conferencia Internacional de Procesamiento de Lenguaje Hablado; Beijing:
ICSLP; 2000. pp. 1–4. [ Google Scholar ]
8. Davis MH, Johnsrude ES J. Neurosci. 2003; 23 : 3423–3431. [ PubMed] [ Google Scholar ]
9. Rauschecker JP, Tian B. Proc. Natl Acad Sci. ESTADOS UNIDOS. 2000; 97 : 11800–
11806. [ Artículo libre de PMC ] [ PubMed ] [ Google Scholar ]
10. Tian B., Reser D., Durham A., Kustov A., Rauschecker JP Science. 2001; 292 : 290–
293. [ PubMed ] [ Google Scholar ]
11. Fry DB In: La génesis del lenguaje. Smith F., Miller GA, editores. Cambridge, MA: MIT
Press; 1966. pp. 187–206. [ Google Scholar ]
12. Braitenberg V. En: L'Accostamento Interdisciplinare allo Studio del Linguaggio. Braga
G., Braitenberg V., Cipolli C., Coseriu E., Crespi-Reghizzi S., Mehler J., Titone R.,
editores. Milán: Franco Angeli; 1980. pp. 96-108. [ Google Scholar ]
13. Braitenberg V., Schüz A. En: Origen del idioma: un enfoque multidisciplinario. Viento J.,
Chiarelli B., Bichakjian BH, Nocentini A., Jonker A., editores. Dordrecht, Países Bajos:
Kluwer; 1992. pp. 89-102. [ Google Scholar ]
14. Fuster JM Neuron. 1998; 21 : 1223–1224. [ PubMed ] [ Google Scholar ]
15. Pulvermüller F. Behav. Cerebro sci. 1999; 22 : 253–336. [ PubMed ] [ Google Scholar ]
16. Fuster JM Cortex and Mind: Unifying Cognition. Oxford: Oxford
Univ. Prensa; 2003. [ Google Scholar ]
17. Fowler CA J. Fonética. 1986; 14 : 3–28. [ Google Scholar ]
18. Fowler CA, Brown JM, Sabadini L., Weihing J. J. Mem. Lang. 2003; 49 : 396–
413. [ Artículo libre de PMC ] [ PubMed ] [ Google Scholar ]
19. Liberman AM, Cooper FS, Shankweiler DP, Studdert-Kennedy
M. Psychol. Rev. 1967; 74 : 431–461. [ PubMed ] [ Google Scholar ]
20. Liberman AM, Whalen DH Trends Cognit. Sci. 2000; 4 : 187–196. [ PubMed ] [ Google
Scholar ]
21. Jeannerod M., Arbib MA, Rizzolatti G., Sakata H. Trends Neurosci. 1995; 18 : 314–
320. [ PubMed ] [ Google Scholar ]
22. Rizzolatti G., Fogassi L., Gallese V. Nat. Rev. Neurosci. 2001; 2 : 661–
670. [ PubMed ] [ Google Scholar ]
23. Pulvermüller F. Nat. Rev. Neurosci. 2005; 6 : 576–582. [ PubMed ] [ Google Scholar ]
24. Braitenberg V., Pulvermüller F. Naturwissenschaften. 1992; 79 : 103-
117. [ PubMed ] [ Google Scholar ]
25. Pulvermüller F., Preissl H. Network Comput. Sistema neural 1991; 2 : 455–468. [ Google
Scholar ]
26. Zatorre RJ, Evans AC, Meyer E., Gjedde A. Science. 1992; 256 : 846–
849. [ PubMed ] [ Google Scholar ]
27. Siok WT, Jin Z., Fletcher P., Tan LH Hum. Cerebro Mapp. 2003; 18 : 201-
207. [ PubMed ] [ Google Scholar ]
28. Joanisse MF, Gati JS NeuroImage. 2003; 19 : 64–79. [ PubMed ] [ Google Scholar ]
29. Wilson SM, Saygin AP, Sereno MI, Iacoboni M. Nat. Neurosci. 2004; 7 : 701–
702. [ PubMed ] [ Google Scholar ]
30. Hauk O., Johnsrude I., Pulvermüller F. Neuron. 2004; 41 : 301–307. [ PubMed ] [ Google
Scholar ]
31. Fadiga L., Craighero L., Buccino G., Rizzolatti G. Eur. J. Neurosci. 2002; 15 : 399–
402. [ PubMed ] [ Google Scholar ]
32. Watkins KE, Strafella AP, Paus T. Neuropsychologia. 2003; 41 : 989–
994. [ PubMed ] [ Google Scholar ]
33. Watkins K., Paus T. J. Cognit. Neurosci. 2004; 16 : 978–987. [ PubMed ] [ Google
Scholar ]
34. Pulvermüller F., Shtyrov Y., Ilmoniemi RJ NeuroImage. 2003; 20 : 1020-
1025. [ PubMed ] [ Google Scholar ]
35. Paus T., Perry DW, Zatorre RJ, Worsley KJ, Evans AC Eur. J. Neurosci. 1996; 8 : 2236–
2246. [ PubMed ] [ Google Scholar ]
36. Penfield W., Boldrey E. Brain. 1937; 60 : 389–443. [ Google Scholar ]
37. McCarthy G., Allison T., Spencer DD J. Neurosurg. 1993; 79 : 874–
884. [ PubMed ] [ Google Scholar ]
38. Lotze M., Seggewies G., Erb M., Grodd W., Birbaumer N. NeuroReport. 2000; 11 : 2985–
2989. [ PubMed ] [ Google Scholar ]
39. Hesselmann V., Sorger B., Lasek K., Guntinas-Lichius O., Krug B., Sturm V., Goebel R.,
Lackner K. Brain Topogr. 2004; 16 : 159–167. [ PubMed ] [ Google Scholar ]
40. Tettamanti M., Buccino G., Saccuman MC, Gallese V., Danna M., Scifo P., Fazio F.,
Rizzolatti G., Cappa SF, Perani D. J. Cognit. Neurosci. 2005; 17 : 273–
281. [ PubMed ] [ Google Scholar ]
41. Krumbholz K., Patterson RD, Seither-Preisler A., Lammertmann C., Lutkenhoner
B. Cereb. Corteza. 2003; 13 : 765–772. [ PubMed ] [ Google Scholar ]
42. Patterson RD, Uppenkamp S., Johnsrude IS, Griffiths TD Neuron. 2002; 36 : 767–
776. [ PubMed ] [ Google Scholar ]
43. Obleser J., Lahiri A., Eulitz C. NeuroImage. 2003; 20 : 1839-1847. [ PubMed ] [ Google
Scholar ]
44. Obleser J., Lahiri A., Eulitz C. J. Cognit. Neurosci. 2004; 16 : 31–
39. [ PubMed ] [ Google Scholar ]
45. Pulvermüller F. Conceptos Neurosci. 1992; 3 : 157–200. [ Google Scholar ]
46. Eimas PD, Siqueland ER, Jusczyk PW, Vigorito J. Science. 1971; 171: 303–
306. [ PubMed ] [ Google Scholar ]
47. Kuhl PK, Miller JD J. Acoust. Soc. A.m. 1978; 63 : 905–917. [ PubMed ] [ Google
Scholar ]
48. Kluender KR, Diehl RL, Killeen PR Science. 1987; 237 : 1195-
1197. [ PubMed ] [ Google Scholar ]
49. Burton MW, Small SL, Blumstein SE J. Cognit. Neurosci. 2000; 12 : 679–
90. [ PubMed ] [ Google Scholar ]
50. Zatorre RJ, Meyer E., Gjedde A., Evans AC Cereb. Corteza. 1996; 6 : 21–
30. [ PubMed ] [ Google Scholar ]
51. Lahiri A., Marslen-Wilson W. Cognition. 1991; 38 : 245–294. [ PubMed ] [ Google
Scholar ]
52. Marslen-Wilson W., Warren P. Psychol. Rev. 1994; 101 : 653–675. [ PubMed ] [ Google
Scholar ]
53. Hauk O., Shtyrov Y., Pulvermuller F. Eur. J. Neurosci. 2006; 23 : 811–
821. [ PubMed ] [ Google Scholar ]
54. Hall DA, Haggard MP, Akeroyd MA, Palmer AR, Summerfield AQ, Elliott MR, Gurney
EM, Bowtell RW Hum. Cerebro Mapp. 1999; 7 : 213–23. [ PubMed ] [ Google Scholar ]
55. Shtyrov Y., Pihko E., Pulvermüller F. NeuroImage. 2005; 27 : 37–
47. [ PubMed ] [ Google Scholar ]
56. Jezzard P., Balaban RS Magn. Reson. Medicina. 1995; 34 : 65–73. [ PubMed ] [ Google
Scholar ]
57. Cusack R., Brett M., Osswald K. NeuroImage. 2003; 18 : 127–142. [ PubMed ] [ Google
Scholar ]
58. Smith SM, Zhang Y., Jenkinson M., Chen J., Matthews PM, Federico A., De Stefano
N. NeuroImage. 2002; 17 : 479–489. [ PubMed ] [ Google Scholar ]
59. Maes F., Collignon A., Vandermeulen D., Marchal G., Suetens P. IEEE
Trans. Medicina. Imaging 1997; 16 : 187–198. [ PubMed ] [ Google Scholar ]
60. Friston KJ, Fletcher P., Josephs O., Holmes A., Rugg MD, Turner
R. NeuroImage. 1998; 7 : 30–40. [ PubMed ] [ Google Scholar ]
61. Genovese CR, Lazar NA, Nichols T. NeuroImage. 2002; 15 : 870–
878. [ PubMed ] [ Google Scholar ]
62. Talairach J., Tournoux P. Coplanar Atlas estereotáxico del cerebro humano. Nueva York:
Thieme; 1988. [ Google Scholar ]
63. Brett M., Johnsrude IS, Owen AM Nat. Rev. Neurosci. 2002; 3 : 243–
249. [ PubMed ] [ Google Scholar ]
64. Bookheimer S. Annu. Rev. Neurosci. 2002; 25 : 151–188. [ PubMed ] [ Google Scholar ]
65. Cacioppo JT, Tassinary LG, Berntson GG Handbook of Psychophysiology. Cambridge,
Reino Unido: Cambridge Univ. Prensa; 2000. [ Google Scholar ]

También podría gustarte