Está en la página 1de 172

-TEMA 1-

Concepto de Psicología del lenguaje.

1. Introducción.
Actualmente, Psicología del lenguaje (PL) y Psicolingüística son términos que
hoy en día se emplean como sinónimos, y hacen referencia a cómo procesamos
el lenguaje y cuáles son los mecanismos cognitivos y neuronales implicados.
Hay muchas definiciones de esta ciencia:
Recuadro 1-1. Definiciones de Psicología del lenguaje o Psicolingüística
A lo largo de los años se han propuesto muchas definiciones de PL o Psicolingüística. Sirvan algunas
de muestra:
- La Psicolingüística se ocupa del estudio de los mecanismos mentales que hacen posible a la gente
usar el lenguaje. Su objetivo es conocer la forma en que el lenguaje es entendido y producido
(Gamham, 1985).
- Nosotros queremos saber qué ocurre dentro de las cabezas de las gentes cuando hablan, escuchan,
escriben o leen (Ellis y Beattie, 1986).
- La Psicolingüística es el estudio de la conducta lingüística: cómo la gente real (por oposición a ideal)
aprende y usa el lenguaje para comunicar ideas. Intenta responder a preguntas sobre cómo se
produce, percibe, comprende y recuerda el lenguaje. Cómo se usa, cómo se adquiere y cómo está
representado en la mente (Taylor y Taylor, 1990).
- La Psicolingüística es el estudio de los procesos psicológicos implicados en el lenguaje. Los
psicolingüistas estudian la comprensión, producción y recuerdo del lenguaje (Harley, 2009).
- La Psicolingüística es un campo interdisciplinario que abarca la Psicología y disciplinas relacionadas
con el estudio de los procesos del lenguaje. Se centra en los procesos necesarios para adquirir,
producir o comprender el lenguaje (Jay, 2003).
- La Psicolingüística es el estudio de cómo los individuos comprenden, producen y adquieren el
lenguaje. Es parte del campo de la ciencia cognitiva (Carroll, 2006).

Otra forma de definir la PL sería el modo en que enviamos y recibimos implantes


mentales. Esos implantes son los pensamientos e ideas que “enviamos” a través
del lenguaje, una vez codificados, para que el receptor los descodifique y los
“reciba”.
La PL se caracteriza por:
➢ Su objeto de estudio es el lenguaje, que es un proceso psicológico básico.
➢ Tiene tres campos de estudio concretos:
✓ Comprensión del lenguaje, sea oral o escrito.
✓ Producción del lenguaje, sea oral o escrita. Es más difícil de
estudiar.
✓ Adquisición del lenguaje.
➢ Tiene relación con muchas otras disciplinas, especialmente:
✓ Lingüística: estudia el lenguaje como un producto acabado en
situaciones ideales, sus reglas y componentes, empleando el
método racional.
✓ Psicolingüística: estudia el lenguaje como un proceso, los errores
que se cometen en su comprensión o producción y los sesgos,
empleando el método científico.

Elisa Ruiz Ortega


2020-2021
Hay una jerarquía establecida entre los componentes del lenguaje, desde los
más simples hasta los más globales:
➢ Fonemas: unidades básicas del habla (en la escritura hablaríamos de
grafemas) que permiten distinguir las palabras entre sí (ej., /p/ala y /b/ala
sólo se diferencian en un fonema). En castellano hay 24 fonemas, que
hay que entender como entidades abstractas:
✓ 5 vocales.
✓ 19 consonantes.
➢ Morfemas: conjunto de fonemas que constituye la raíz de las palabras.
➢ Palabras: unidades más pequeñas con significado propio, constituidas por
un morfema al que se han añadido uno o varios afijos. En castellano hay
unas 88.000 palabras y casi 160.000 acepciones (cada significado de una
palabra).
Hay dos tipos de palabras:
✓ De contenido: tienen significado en sí mismas y se incorporan
nuevas palabras continuamente (ej., verbos o sustantivos).
✓ De función: apenas sufren cambios y no tienen significado por sí
mismas (ej., preposiciones, adverbios).
➢ Oraciones: verdaderas unidades de significado. Son actos predicativos,
esto es, decir algo sobre algo o alguien siguiendo unas reglas de
combinación de una lengua para que esta sea correcta (a esto se le
conoce como “sintaxis”).
➢ Discurso: es el nivel más alto de organización del lenguaje, y está
constituido por un conjunto de oraciones que tienen unidad de sentido y
coherencia. En este caso las inferencias que se pueden hacer sobre el
discurso influirán en su comprensión. Para que el receptor del mensaje
consiga una idea general del discurso, es necesario que su memoria de
trabajo mantenga la atención en el contenido sucesivo, y no se quede en
los detalles.

2. Desarrollo histórico.
Las primeras reuniones de científicos que querían compartir experiencias sobre
PL se desarrollaron en los años 50.
2.1. Antecedentes.
➢ Wundt: está considerado el padre de la Psicología experimental, y
defiende que el estudio del lenguaje debe centrarse en la producción
del mismo, porque de otra forma sería imposible conocer cómo lo
procesamos.
Según este autor, la producción del lenguaje consiste en transformar
(codificar) un pensamiento unitario (global) en una secuencia de
elementos a través de un análisis del mismo. En este sentido,
considera que es la oración, y no la palabra, la unidad primaria del
lenguaje.
➢ Conductismo: reduce el lenguaje a la conducta verbal, estudiando
únicamente lo referente a la conducta observable, obviando todo
aquello que no lo es. Es cierto que consolidó a la Psicología como
ciencia empírica rigurosa con el método científico, pero las nuevas
Elisa Ruiz Ortega
2020-2021
teorías ampliaron su campo de actuación más allá del margen E-R,
incorporando otros conceptos no observables.
➢ “Revolución” cognitiva: el lenguaje vuelve a estudiarse en función de
las representaciones internas y no de conductas observables. Se
introduce aquí una rigurosidad científica que no existía hasta el
conductismo.
En este sentido, la PL incorpora la teoría de la comunicación de
Shannon al estudio del lenguaje. Esta teoría es una formulación
matemática abstracta que permite estudiar la transmisión de
información a través de un canal y se puede representar con el
siguiente esquema:

No se preocupa de la parte material del lenguaje, solamente tiene en


cuenta la parte formal. Por ello, son típicas las representaciones con
diagramas de flujo en las que se intenta reflejar el razonamiento lógico,
como podría ser la “mente” de un termostato:

En la actualidad, empieza a percibirse el final del paradigma cognitivo,


y empieza ya a hablarse de un nuevo paradigma basado en la
neurociencia. Esto se debe a que la analogía ordenador-cerebro es
demasiado simplista y no abarca la propiedad del cerebro de
procesamiento en paralelo, masivo y muy distribuido. Al contrario que

Elisa Ruiz Ortega


2020-2021
un ordenador, el cerebro humano es capaz de guardar la información
y distribuirla en patrones complejos de activación.
➢ Chomsky: es un lingüista muy influyente en el campo de la PL que
desarrolló la teoría de la gramática generativa o transformacional
(basada en la capacidad infinitamente combinatoria del lenguaje).

2.2. El debate Skinner-Chomsky.


Skinner, máximo representante del conductismo, proponía que el aprendizaje
del lenguaje se lleva a cabo con un simple emparejamiento entre una palabra
y un objeto. Su intención es explicar el lenguaje como un conjunto de hábitos
que se forman a lo largo de la vida, sin tener en cuenta los mecanismos
innatos y mentales. De hecho, denominaba al lenguaje “conducta verbal”.
Chomsky desarrolló una crítica feroz a Skinner basándose en:
➢ La cantidad de estímulos asociados al lenguaje es impredecible:
cuando decimos una palabra, es difícil asociarla con un solo estímulo,
porque suele haber muchos disponibles en ese momento.
➢ El lenguaje se caracteriza por ser muy creativo y productivo, y este
hecho no se puede reducir a un emparejamiento entre palabra y objeto.
➢ Skinner nunca trabajó con humanos, lo que hizo fue generalizar el
comportamiento de los animales con los que experimentaba a la
conducta humana.

2.3. Primeros pasos de la Psicolingüística.


➢ Años 60.
✓ Los psicolingüistas se inspiraron en la teoría de la gramática
generativa de Chomsky para comprobar experimentalmente si
los hablantes se comportaban como predecía la teoría. La
oración constituye la unidad fundamental del lenguaje y la
sintaxis será la protagonista.
✓ Chomsky distingue entre:
❖ Competencia (lingüistas): reglas de un lenguaje que
cualquier hablante tiene que interiorizar y representar en
su interior.
❖ Actuación (psicólogos): manifestación específica de las
reglas cuando hablamos y escribimos.
También diferenció entre:
❖ Estructura profunda: significado que pretendemos hacer
llegar al receptor del mensaje.
❖ Estructura superficial: forma concreta en que
expresamos el mensaje. Hay muchas estructuras
superficiales para una misma profunda, y es habitual que,
una vez se descodifica y procesa el significado de las
mismas, estas se olviden y sólo perdure en el receptor la
idea que quería ser transmitida.
✓ La gramática propuesta por Chomsky presenta unas reglas que
permiten al hablante generar infinitas oraciones

Elisa Ruiz Ortega


2020-2021
gramaticalmente correctas, aunque no las hubiera escuchado
nunca. Dichas reglas son:
❖ Reglas de estructura de frase: asignan etiquetas a las
palabras y frases para poder unirlas.
❖ Reglas transformacionales: operan sobre las oraciones
ya formadas y pueden ser:
• Obligatorias: se producen las oraciones básicas, a
partir de las cuales se generarán todas las demás.
• Opcionales: se producen las oraciones complejas.
❖ Reglas morfofonémicas: transforman las cadenas
terminales en la mente del emisor en los sonidos
fonéticos que constituyen la oración hablada.
✓ Modelos de cajas y flechas de la Psicología cognitiva.
➢ Años 70 y 80.
✓ Los psicólogos se dieron cuenta de que sin un contexto
(componentes semánticos y pragmáticos de las oraciones) era
imposible estudiar el lenguaje completo.
✓ Se llevaron a cabo estudios sobre el papel del contexto en la
comprensión del lenguaje y se toma como objeto de estudio la
palabra, y no la oración.
✓ Modelos conexionistas y de PDP (procesamiento distribuido en
paralelo).
➢ Años 90 y s. XXI.
✓ Aparece la Neurociencia cognitiva, cuyo fundador es Ramón y
Cajal, que emplean modernas técnicas de neuroimagen, que
permiten hacer mediciones fisiológicas mientras se llevan a
cabo actividades lingüísticas.
✓ La pretensión actual de la PL es averiguar qué mecanismos
cerebrales son los responsables de los procesos cognitivos que
intervienen en la comprensión y producción del lenguaje.

3. Sistema de procesamiento lingüístico.


La Psicología cognitiva entiende que la mente es un sistema de procesamiento
en el que la información de entrada se transforma en distintas etapas. El sistema
completo está formado por varias estructuras o componentes estables que
operan con representaciones internas.
Todo sistema tiene que ser capaz de extraer y manejar las variaciones de la
estructura de los datos del entorno, que es continuamente cambiante. A partir de
esa extracción se podrá abstraer un “orden” en el ambiente. Un sistema
cognitivo, cuyo comportamiento se dirige a metas ambientales, debe manejar
representaciones internas del ambiente, y la Psicología cognitiva estudiará en
qué consisten esas representaciones, cuál es su formato y su naturaleza.

Cuando queremos comunicar una idea, el sistema de procesamiento parte de


esa intención y de la representación mental del significado de lo que queremos
transmitir. Llegamos a una representación fonética gracias a un conjunto de
transformaciones y procesos internos, lo que se traduce en determinados
Elisa Ruiz Ortega
2020-2021
movimientos musculares. Todo este proceso (de igual manera si hablamos de
comprensión) ocurre en décimas de segundo, y se puede esquematizar así:

4. Cuestiones centrales en PL.


➢ Procesos “abajo-arriba” y “arriba-abajo”.
✓ Procesos “abajo-arriba”, “bottom-up” o guiado por los datos: la
información del estímulo fluye desde los procesos perceptivos
hasta los semánticos y pragmáticos.
✓ Procesos “arriba-abajo”, “top-down” o guiado conceptualmente: los
procesos superiores influyen sobre los inferiores, facilitándoles la
tarea.
➢ Modularidad: Fodor propone que los procesos cognitivos perceptivos
están organizados en módulos, que son órganos mentales separados de
los demás donde se produce un procesamiento rápido y automático que
nos permite obtener información de forma muy rápida.

Elisa Ruiz Ortega


2020-2021
Aunque este autor se centra en la modularidad de la percepción, algunos
investigadores han asumido su teoría en el lenguaje.
✓ Chomsky: plantea que los seres humanos tenemos un dispositivo
de adquisición del lenguaje (DAL). Está demostrado que existe
algún tipo de mecanismo innato para el habla en humanos, pero
este autor además supone que también hay una predisposición
genética al lenguaje (entendido como el conjunto de normas, no
sólo como la capacidad del habla).
➢ Autonomía o interacción en los procesos: ¿hasta qué punto están
relacionados los subprocesos del sistema de procesamiento cognitivo
mientras ejecutan su función? Hay dos modelos contrapuestos:
✓ Modelo autónomo: considera que los componentes son autónomos
durante la ejecución interna de su tarea y que esta no se ve
alterada por influencias externas. No niega la interdependencia de
los subprocesos en cuanto al producto final.
✓ Modelo interactivo: la interactividad sí influye en el funcionamiento
interno de los componentes cognitivos.

5. Métodos de investigación.
➢ Comprensión del lenguaje: se ha utilizado sobre todo la experimentación,
porque es más fácil manipular variables de los estímulos que los sujetos
tienen que comprender.
✓ Conductual: medida del recuerdo, tiempo de reacción…
✓ Fisiológica: medida de potenciales evocados, resonancia
magnético funcional…
➢ Producción del lenguaje: se ha utilizado la observación porque es algo
espontáneo y es más fácil de estudiar de forma pasiva (es complicado
manipular los estímulos que se van a producir). En los últimos años han
empezado a desarrollarse algunas técnicas de experimentación en este
campo.

Elisa Ruiz Ortega


2020-2021
-TEMA 2-
Lenguaje humano y lenguaje animal.

1. Introducción.
El lenguaje es un hecho singular de los seres humanos, ya que no existe en
ninguna otra especie animal tal y como lo concebimos. Así, Chomsky define al
ser humano como un ser lingüístico.
¿Qué es el lenguaje? Existen muchas definiciones, siendo la más simple: un
sistema de símbolos y reglas para combinar esos símbolos. Sin embargo, las
definiciones dependen del posicionamiento teórico de cada autor.

2. Características del lenguaje humano.


➢ Es un sistema de comunicación que se realiza a través de un canal vocal
(emisor) y auditivo (receptor).
➢ Supone una transmisión generalizada, pero la recepción es direccional.
Esto significa que cuando hablamos, el mensaje se propaga en todas
direcciones, pero cuando recibimos un mensaje, generalmente podemos
determinar de qué dirección proviene.
➢ La señal se desvanece enseguida.
➢ Intercambiabilidad: el receptor puede convertirse en emisor y viceversa.
➢ Retroalimentación completa, porque el emisor es a la vez receptor,
recibiendo información sobre si el mensaje ha llegado, etc.
➢ Es un sistema especializado, dedicado exclusivamente a la comunicación.
➢ Tiene capacidad semántica, es decir, los mensajes emitidos tienen un
significado.
➢ Arbitrariedad: la relación entre significante (lo que decimos) y significado
(lo que queremos decir) es aleatoria.
➢ Tiene un carácter discreto.
➢ Desplazamiento: podemos referirnos a cosas que ya han ocurrido, que
podrían haber ocurrido (denominado pensamiento contrafactual), que
pueden ocurrir en el futuro o que nunca ocurrirán.
➢ Productividad/creatividad: capacidad del lenguaje de crear infinidad de
mensajes con pocos componentes.
➢ Transmisión tradicional: el lenguaje pasa de una generación a otra.
➢ Por un lado, hay elementos que no tienen significado per se (fonemas), y
por otro, combinando estos elementos se forman palabras, que sí tienen
significado. Existe, pues, una dualidad de patrones o doble articulación.
➢ Prevaricación: el lenguaje siempre pretende conseguir un fin, convencer
de algo… Y en ocasiones nos proporciona la capacidad de mentir.
➢ Reflexividad: el lenguaje permite hablar sobre el propio lenguaje.
➢ El lenguaje se puede aprender, a veces sin instrucción, por simple
exposición al mismo.

Elisa Ruiz Ortega


2020-2021
Tres de estas características son esenciales:
➢ Doble articulación o dualidad de estructura: se calcula que en todo el
mundo se hablan unas 6.000 lenguas, que parten de fonemas sin sentido
para formar palabras (primera articulación), y de la combinación de estas
para formar oraciones (segunda articulación). Algo común a todas ellas
es que el lenguaje es un acto predicativo mediante el cual se dice algo de
algo o de alguien.
➢ Referencia simbólica arbitraria: una de las características del lenguaje es
que la relación entre las palabras y su significado es arbitraria, con la
excepción de las onomatopeyas. Esto se debe a que el lenguaje está
constituido por símbolos abstractos. Hay autores que defienden que
algunas palabras reflejan un simbolismo fonético (ej., mini o little en
inglés), esto es, que imitan fonéticamente el significado.

➢ Productividad/creatividad: esta es la propiedad más importante y distintiva


del lenguaje humano, que determina la capacidad de recursividad (con
muy pocos elementos se pueden formar infinitas palabras y oraciones).
La productividad se debe a:
✓ Arbitrariedad del signo.
✓ Dualidad de la estructura.
Las oraciones se construyen de acuerdo con unas reglas básicas que se
pueden aplicar sobre sí mismas de forma recursiva. Una oración,
normalmente, se construye con la regla SN (sintagma nominal) + SV
(sintagma verbal); sin embargo, dentro del SV se puede volver a encontrar
la misma estructura SN+SV (en una oración compuesta), y así podría
ocurrir infinidad de veces.

3. Origen y diversidad del lenguaje.


3.1. Conjeturas tradicionales.
No se sabe con certeza cómo surgió el lenguaje, pero hay varias hipótesis:
➢ Teoría del “guau-guau”: el lenguaje proviene de las onomatopeyas, de
la imitación de los sonidos de la naturaleza. Sin embargo, esta teoría

Elisa Ruiz Ortega


2020-2021
no puede explicar todo el lenguaje, sólo las excepciones que
constituyen las onomatopeyas.
➢ Teoría del “ay-ay”: el lenguaje proviene de las interjecciones, que son
sonidos instintivos provocados por las emociones. Esta hipótesis fue
defendida por Darwin.
➢ Teoría del “ding-dong”: hay conexiones naturales que no son arbitrarias
entre objetos y palabras que los denominan. Está relacionada con la
idea de simbolismo fonético antes explicada, según la cual los objetos
pequeños se denominarían con la letra “i” y los grandes con letras
graves.
➢ Teoría del “aaah-hú”: los gruñidos emitidos por las personas que
trabajaban juntas determinaron la posterior aparición del lenguaje. Se
introduce el elemento social.
➢ Teoría del “la-la”: el lenguaje deriva de sonidos asociados al ámbito
romántico de la vida; así, los primeros sonidos serían largos y
musicales.
➢ Teoría del “heyyou”: los sonidos vocales surgen para indicar a otras
personas la propia identidad y la ubicación.
➢ Teoría del “eureka”: el lenguaje es una invención deliberada basado en
un código arbitrario.

3.2. Evidencias empíricas.


El lenguaje no deja fósiles directos (elementos físicos), pero hay dos líneas de
investigación que intentan explicar el origen del lenguaje:
➢ El tamaño de las áreas corticales responsables del lenguaje.
➢ La evolución del aparato fonoarticulador.
➢ Una de las pruebas indirectas que se estudia en este ámbito es el canal
hipogloso en algunas especies de primates para comprobar si en ellos
se había desarrollado ya algún tipo de lenguaje parecido al nuestro o
no. El canal hipogloso es la cavidad cerebral por la que pasa el nervio
hipogloso (par craneal XII, que inerva los músculos de la lengua).
Cuanto más ancho es el canal, más grueso será el nervio y, por tanto,
más sofisticado será el lenguaje que desarrolle la persona. Se ha
descubierto que el canal hipogloso de los Neandertales era similar al
nuestro.

Elisa Ruiz Ortega


2020-2021
3.3. Aparición temprana frente a tardía.
En este aspecto tampoco hay consenso. Suddendorf hizo una revisión de los
estudios llevados a cabo, estableciendo dos posiciones:
➢ Aparición temprana.
Esta hipótesis es defendida por Pinker y Corballis, y supone que el
lenguaje habría aparecido hace entre cinco y dos millones de años. Los
cráneos fósiles datados en dos millones de años encontrados por los
investigadores muestran la existencia de un área de Broca semejante
a la de la actualidad. Además, el canal hipogloso de los Neandertales
de hace unos 400.000 años se parece al actual.
Según Corballis, el lenguaje habría evolucionado desde la
comunicación gestual, en un principio nuestros ancestros habrían
usado vocalizaciones y gestos manuales, pero con el paso a la
bipedestación y el aumento del tamaño cerebral, la comunicación se
habría hecho más compleja.
El lenguaje habría surgido por selección natural darwiniana,
favoreciendo la supervivencia por aumentar la eficacia de las
actividades cooperativas y la transmisión de información.
➢ Aparición tardía.
Esta hipótesis es defendida por Bickerton y Lieberman. El lenguaje
habría aparecido abrupta y recientemente, en torno a unos 150.000
años atrás, debido a una mutación genética que habría causado la
aparición de la sintaxis. En defensa de esta hipótesis, se han
encontrado fósiles que indican que el aparato vocal necesario para
producir el lenguaje no aparece hasta que lo hace el propio Homo
Sapiens.
Por otro lado, las primeras muestras de representaciones simbólicas
del ser humano (como las pinturas rupestres) datan de unos 40.000
años; 5.500 si hablamos de escritura. En este caso se defiende un
lenguaje evolucionado gracias a la interacción social y a una teoría de
la mente que permite inferir los estados mentales de otros.
El lenguaje, en definitiva, habría sido una especie de accidente
mutacional porque, debido a su complejidad, no habría habido tiempo
para que evolucionara.
Es complicado determinar cuál de las hipótesis es correcta, porque las teorías
evolutivas son difícilmente falsables.

3.4. Lenguas en el mundo.


Aunque hay en torno a 6.000 lenguas en el mundo, cerca de la mitad están
en peligro de desaparición. Hay que tener en cuenta que la contabilización de
las lenguas no depende sólo de razones lingüísticas, a veces, por cuestiones
políticas una lengua se considera independiente de otra o simplemente un
dialecto de la misma.
La lengua con mayor número de hablantes es el chino mandarín, seguido del
español y del inglés.

Elisa Ruiz Ortega


2020-2021
¿Se puede hablar de un tronco común del lenguaje o de una “lengua madre”
de todas las demás? Cuando una comunidad se separa en dos grupos, su
lengua evoluciona de forma independiente y termina habiendo dos lenguas
diferentes, aunque emparentadas. A este hecho se le conoce como “deriva
lingüística”. En Europa hay una lengua común de la que derivan muchas otras,
pero que son diferentes e independientes: el Indoeuropeo.

4. El lenguaje de los animales.


El lenguaje, tal como lo entendemos, es exclusivo de los seres humanos; sin
embargo, en el mundo animal se pueden encontrar algunos sistemas de
comunicación, entendida esta como la transmisión de una señal portadora de
información. Esta puede ser:
➢ Informativa: da información, pero no tiene intencionalidad.
➢ Comunicativa: exige intencionalidad, pero surge un problema, y es que no
se puede asumir que en la comunicación de los animales exista
voluntariedad de la misma (podrían comunicarse por puro instinto), lo que
sí ocurre en la comunicación humana.

Elisa Ruiz Ortega


2020-2021
4.1. Modalidades sensoriales.
La comunicación animal ocurre a través de diferentes modalidades
sensoriales:
➢ Química u olfativa.
✓ Relativamente persistente.
✓ Transmisión de información más lenta que en la modalidad
visual o auditiva.
✓ Pérdida de intensidad gradual en la distancia.
✓ Distribución irregular en el espacio.
➢ Acústica.
✓ Presencia de un elemento vibratorio para poder producir el
sonido (generalmente una membrana), que comunica la energía
mecánica con las moléculas del fluido circundante (aire o agua).
✓ Chimpancés.
Es el animal más parecido a los seres humanos. Goodall llevó a
cabo una gran investigación sobre el sistema de comunicación
de estos animales en libertad, encontrando unas 20 o 30
vocalizaciones distintas, aunque todavía no se sabe demasiado
sobre sus funciones.
✓ Aves.
Tienen repertorios complejos de sonidos, que provienen, en la
gran mayoría de las especies, de la siringe, un aparato fonador
formado principalmente por:

La siringe permite a las aves emitir dos voces distintas, lo que


distingue claramente su lenguaje del humano, en el que esto no
es posible. La función del lenguaje de las aves se concentra en:
❖ Repeler a machos rivales.
❖ Atraer hembras.
❖ Estimular la función reproductora de la hembra.
No se ha encontrado nada parecido a la sintaxis humana en el
canto de las aves, sí parece poder dividirse el canto en
componentes menores, pero sin capacidad semántica
✓ Mamíferos marinos (ballenas y delfines).
Las ondas sonoras viajan cinco veces más rápido en el agua
que en el aire, se atenúan más lentamente y pueden ser
direccionales.
Elisa Ruiz Ortega
2020-2021
En general, las vocalizaciones de los cetáceos pueden
clasificarse en tres tipos:
❖ Tonos: silbidos agudos que revelan patrones
característicos de cada especie. Funcionan como
identidad o firma personal en algunas especies de
delfines, pero no son innatas, sino aprendidas.
❖ Pulsos: ruidos breves de espectro ancho que están
relacionados con la excitación o interacción social
intensa.
❖ Clics: señales acústicas muy breves que permiten
obtener información del entorno mediante
ecolocalización.

4.2. ¿Comunicación simbólica?


Los investigadores se han preguntado si en el mundo animal hay alguna otra
especie que utilice el lenguaje simbólico con señales arbitrarias. Una de estas
especies parece ser la de los monos vervet africanos o monos Tota, que
utilizan un sistema de llamadas de alarma distinguiendo varios sonidos en
función del depredador del que quieran alertar.
Emplean una especie de “protopalabras” o palabras primitivas que se asocian
con determinados depredadores, así, tanto el mensaje como la conducta
derivada por parte del receptor, son específicos de cada depredador. Este
sistema se considera simbólico porque los sonidos o alertas que se emiten no
tienen relación física con el depredador al que se refieren.

4.3. Consideraciones generales.


Las señales se han clasificado tradicionalmente en:
➢ Emocionales: sobre estados internos del emisor.
➢ Referenciales: sobre elementos del entorno, externos al emisor.
Sin embargo, esta dicotomía no se cumple, ya que a menudo se pueden
encontrar señales de ambos tipos a la vez. De esta forma, las señales se
pueden definir en función de varios valores:
➢ Predictibilidad: cuántas veces se asocia una señal a un significado y no
a otros. El valor informativo del estímulo condicionado reside en el
grado en que predice con exactitud la existencia del estímulo
incondicionado.
➢ Especificidad: cuán amplio o estrecho es el repertorio de estímulos
asociados a la señal.
➢ Intencionalidad: cuál es la intención de la comunicación, teniendo en
cuenta que dicha intención es la que los seres humanos atribuimos a
las señales comunicativas de los animales. Las vocalizaciones pueden
venir determinadas por muchos estímulos, pero hay un tipo de estímulo
que no desempeña ningún papel aparente en la comunicación animal
y que es, a su vez, el que provoca la mayor parte de las vocalizaciones

Elisa Ruiz Ortega


2020-2021
del lenguaje humano. Este estímulo comprende los estados mentales
que inferimos de los demás.
Para dos seres humanos que hablan, la percepción del estado mental
del otro es clave. El hablante asume que la información que está dando
al receptor va a alterar lo que este conoce y que eso tendrá
consecuencias sobre su conducta. A esto se le conoce como “teoría de
la mente”.

5. Enseñanza del lenguaje humano a los animales.


En humanos, el aprendizaje del lenguaje se produce de forma espontánea en
muy poco tiempo, ya que cualquier niño a los 4-5 años ya tiene establecida en
su mente la estructura básica del sistema lingüístico.
¿Es posible enseñar a los animales un lenguaje comparable al de los humanos?

5.1. Enseñanza a primates.


A) Lenguaje articulado.
El aparato bucofonador de los primates carece de las posibilidades
articulatorias humanas, por lo que todos los intentos de enseñanza del
lenguaje a estos animales han fracasado. La posición de la laringe y la
cavidad bucal son distintas en los primates y los Homo Sapiens,
concretamente, en los humanos la laringe está en una posición más baja
en la garganta con respecto a la del chimpancé, lo que impide que la
respiración y deglución ocurran a la vez.

Elisa Ruiz Ortega


2020-2021
Este descenso deja una cavidad bucal mayor, lo que permite un rango
mayor de sonidos que se pueden emitir. Este hecho, según algunos
autores, fue el determinante para la aparición y evolución del lenguaje
articulado. Los bebés humanos nacen con la laringe en una posición alta
(nivel de las vértebras C1-C3), pudiendo articular sonidos escasos y
nasalizados. Entre los tres meses y los tres años, la laringe desciende
hasta el nivel de las vértebras C3-C5 y la cavidad oral se alarga,
permitiendo ya distintas posturas de la lengua.

B) Lenguaje gestual.
En los años 70, el matrimonio Gardner entrenó a una hembra de
chimpancé de ocho meses en el lenguaje de signos para personas sordas.
A los cuatro años, la primate ya podía realizar 85 signos y comprender
muchos más, ampliando su vocabulario con el tiempo hasta llegar a
producir 150 palabras de distintas categorías sintácticas.
Según estos investigadores, cuando la chimpancé conocía unos 10
signos, formaba espontáneamente cadenas de dos o más palabras, sin
importar el orden de las mismas, y también era capaz de crear signos
nuevos. Encontraron que se daba el error de sobregeneralización del
significado, igual que ocurre en niños pequeños.

C) Símbolos gráficos.
No siempre está claro si el mono ejecuta un gesto determinado
inequívocamente, ya que lo hacen muy rápido y algunas respuestas son
ambiguas. Por ello, Premack diseñó pequeñas fichas de plástico con
distintas formas, tamaños y colores, como estas:

Elisa Ruiz Ortega


2020-2021
Este autor empleó las fichas para enseñar a una hembra de chimpancé
un lenguaje en una secuencia determinada de pasos. En sus
experimentos, esta se mantuvo confinada en una jaula de laboratorio.
Cada ficha representaba una palabra y los símbolos se podían ordenar en
una pizarra según determinadas reglas. Todo ello constituye un lenguaje
“premackense”, del que la chimpancé adquirió unas 100 palabras de
varias categorías sintácticas, consiguiendo formar “oraciones” sencillas en
el orden correcto.
Este sistema de aprendizaje conlleva menos carga memorística y el
resultado siempre es observable, ya que se trabaja con una pizarra
magnética en la que se van colocando las fichas. Mediante técnicas de
condicionamiento, Premack pudo demostrar que la chimpancé era capaz
de distinguir entre oraciones (ej., “Randy da manzana a Sara” y “Sara da
manzana a Randy”) o de hacer combinaciones complejas empleando
condicionales “si…, entonces…”.
A pesar del esfuerzo, no hay una evidencia clara de que la chimpancé
hubiera interiorizado realmente las reglas sintácticas del lenguaje, más
allá del mero condicionamiento.

Rumbaugh et al. llevaron a cabo una ambiciosa investigación en la que


crearon un lenguaje (al que denominaron “yerkish”) formado por 100
lexigramas, que son figuras abstractas colocadas en el teclado de un
ordenador. A cada lexigrama le correspondía una acción, un objeto o un
adjetivo. Así, los primates debían seleccionar sobre el teclado los
lexigramas adecuados en interacción con los experimentadores para
obtener un refuerzo.
➢ Primera fase: los chimpancés aprendieron a asociar los lexigramas
con objetos.
➢ Segunda fase: aprendieron los lexigramas que correspondían a la
categoría completa de objetos.
Los resultados más prometedores encontrados por estos autores se
produjeron con un bonobo (un tipo de chimpancé más pequeño) que
empezó a aprender los lexigramas por observación, sin requerir refuerzos
externos ni entrenamiento. Llegó a alcanzar un nivel alto en la
comprensión del inglés, entendiendo unas 400 palabras con seis años.

5.2. Enseñanza de un lenguaje a los animales: consideraciones


generales.
También se ha intentado instruir a otros animales en el aprendizaje del
lenguaje:
➢ Delfines: Hermán et al. hicieron un estudio con dos delfines hembra en
los años 80, encontrando que las capacidades de los delfines son
comparables a las de los chimpancés.
➢ Loros: estos animales y otras aves son capaces de imitar el habla
humana, y Pepperberg descubrió en sus estudios que los loros tienen
Elisa Ruiz Ortega
2020-2021
ciertas habilidades cognitivas que pueden rivalizar con primates y
delfines.
➢ Perros: el perro doméstico es un animal especial porque ha
coevolucionado con la especie humana durante generaciones. Son
capaces de aprender a responder a un gran número de palabras con
entrenamiento (pudiendo llegar a 200-300).

El lenguaje se constituye como la capacidad crucial que distingue a los seres


humanos de otros animales, existen algunos animales, como los chimpancés,
que guardan un gran paralelismo en este aspecto con nosotros, pero cuando
se realizan comparaciones entre ambas especies, la singularidad del lenguaje
humano sigue destacando.
Algunas consideraciones generales que se pueden tener en cuenta son:
➢ Manejo de símbolos y significados: algunos animales pueden aprender
a utilizar símbolos abstractos en lugar de objetos, acciones o
propiedades para comunicarse, lo que demuestra la existencia de una
capacidad representacional; sin embargo, el ámbito de la producción
del lenguaje se antoja mucho más complicado que el de la
comprensión.
➢ Sintaxis: parece ser el principal problema que se presenta en las
posibilidades de aprendizaje del lenguaje por parte de otras especies
de animales. De todas las investigaciones llevadas a cabo se
desprende que las palabras que más les cuesta aprender a los
animales son las de función, que no tienen un significado pleno per se.
➢ Capacidad de hacer planes: según Calvin, esta capacidad habría
influido mucho en el desarrollo del lenguaje humano, y la
interdependencia entre lenguaje y capacidad de planificar se da en un
doble sentido:
✓ Para idear soluciones ante una situación hay que imaginarse
múltiples planteamientos.
✓ La capacidad de hacer planes puede derivar del uso del
lenguaje.

Elisa Ruiz Ortega


2020-2021
-TEMA 3-
Lenguaje, Biología y cerebro.

1. Introducción.
La hipótesis de que el lenguaje tiene un origen innato o biológico, defendida por
Pinker, está apoyada por varios hechos:
➢ Adquisición temprana del lenguaje.
➢ Posible existencia de un período crítico de desarrollo.
Se considera que el lenguaje es un producto del cerebro, hecho sobre el que la
neurociencia ha aportado numerosas pruebas. Sin embargo, esto no siempre fue
así, por ejemplo, Aristóteles creía que el cerebro era un órgano más, y atribuía
las funciones más importantes al corazón.
En este sentido, la Neuropsicología ofrece mucha información sobre las bases
neurológicas del lenguaje a partir de estudios realizados con pacientes que han
perdido parte de sus funciones cognitivas a causa de una lesión cerebral.

2. Naturaleza biológica del lenguaje humano.


2.1. Argumentos favorables.
Los argumentos que son favorables a la hipótesis biologicista son:
➢ Adquisición espontáneo y temprano.
Para aprender a hablar sólo es necesaria una exposición al lenguaje
que se dé a una edad temprana, es decir, se adquiere
espontáneamente y en poco tiempo. Cuando una función cognitiva
surge de forma temprana de acuerdo con una secuencia de desarrollo
uniforme a todas las culturas, es probable que se trate de una
capacidad innata.
Algunos niños aprenden el lenguaje antes que otros, pero las pautas y
etapas de adquisición son muy similares. A los 4-5 años, los niños ya
han desarrollado el núcleo de la competencia lingüística, disponiendo
así de la capacidad para comprender y generar miles de oraciones
según un sistema gramatical complejo.
➢ Pobreza del estímulo.
Teniendo en cuenta que la formación sobre el lenguaje es
prácticamente nula hacia los niños que aprenden a hablar, esta
pobreza se emplea como uno de los argumentos más potentes para
defender el origen biológico del lenguaje, ya que los niños aprenden
mucho más y más deprisa de lo que cabría esperar, teniendo en cuenta
los estímulos del entorno referentes al lenguaje.
Los padres tienen un papel activo en la interacción con el bebé,
empleando una forma de lenguaje particular, caracterizada por frases
cortas, habla lenta o prosodia exagerada. Sin embargo, esto no explica
la temprana adquisición del lenguaje de los niños porque esta
interacción se centra en corregir errores superficiales que estos

Elisa Ruiz Ortega


2020-2021
cometen al hablar, y no en enseñarles los aspectos nucleares de la
estructura del lenguaje.

➢ Existencia del lenguaje en todas las comunidades.


Nunca se ha encontrado una comunidad humana que no tenga
lenguaje.
➢ Principios universales de todas las lenguas.
Chomsky defiende que en el cerebro humano hay un dispositivo innato
para adquirir el lenguaje, separado de otras capacidades cognitivas,
que estaría equipado con un conjunto de principios universales o reglas
básicas;
✓ Tienen una doble articulación fonema-palabra y palabra-oración.
✓ Comparten la estructura básica de las oraciones: sujeto +
predicado.
✓ El signo lingüístico es simbólico y arbitrario.
✓ Tienen una capacidad creadora extraordinaria (productividad).
✓ La construcción de las preguntas se hace siguiendo las mismas
reglas.
➢ Lenguas criollas.
Han surgido especialmente en situaciones de grandes plantaciones de
monocultivo, en las que se congregaba a muchos esclavos o
trabajadores de distintos orígenes y se les forzaba a convivir durante
años. En un primer momento se crea una jerga rudimentaria que
permite a las personas comunicar mensajes elementales; sin embargo,
en la siguiente generación se observa una nueva lengua (criolla) con el
mismo grado de complejidad que cualquier otra.
El fenómeno se ha repetido en los últimos siglos, siendo el ejemplo más
conocido el de las plantaciones de azúcar de Hawai, en el que
Bickerton descubrió cómo primero surgía un lenguaje macarrónico o
pidgin entre los trabajadores recién llegados y poco a poco este fue
adquiriendo una base de inglés. El pidgin es un medio de comunicación
muy rudimentario, formado apenas por cadenas de palabras inconexas
con pocas flexiones gramaticales y muy variable (por la influencia de la
lengua nativa de cada hablante).
En la siguiente generación, en cambio, Bickerton encontró que los
niños criados en el ambiente del pidgin desarrollaron espontáneamente
un idioma nuevo gracias a la exposición al mismo en la edad en la que
cualquier niño aprende su lengua materna.

2.2. Bases genéticas del lenguaje.


La demostración definitiva de que el lenguaje tiene una base genética
conllevaría encontrar sus mecanismos genéticos. Hoy en día, no cabe duda
de que el lenguaje es resultado de la combinación de factores genéticos y
aprendidos, aunque no parece claro el peso que tiene cada uno de los
factores.

Elisa Ruiz Ortega


2020-2021
Lo que sí es conocido es que tanto unos como otros deben funcionar
correctamente:
➢ Papel de los genes.
✓ Formación de las áreas cerebrales implicadas en el lenguaje.
✓ Genotipo: determinará el potencial lingüístico del individuo.
✓ Alteración: puede acarrear trastornos lingüísticos.
➢ Papel del ambiente.
✓ Hacer que las áreas lleguen a realizar su función.
✓ Fenotipo: definirá las capacidades lingüísticas reales del
individuo.
✓ Alteración: puede impedir el desarrollo normal del lenguaje.

La mayoría de los investigadores coinciden en que debe haber varios genes


implicados en el lenguaje, pero el que más se ha relacionado con él ha sido
el gen FOXP2. A pesar de dicha relación, este gen no es específico del
lenguaje, sino que se encarga de regular la expresión de diversos genes en
el desarrollo embrionario.
Una forma de estudiar la base genética del lenguaje es comparar la dotación
genética de individuos sanos con otros que presentan alguna anomalía
lingüística heredable. En este sentido, es paradigmático el caso de la familia
KE, en la que la mitad de sus miembros, a lo largo de tres generaciones,
sufrían un trastorno hereditario (dispraxia verbal) que afectaba al lenguaje de
forma selectiva. Este trastorno se transmitía de modo autosómico dominante,
esto es, bastaba con que uno de los progenitores estuviera afectado para que
se transmitiera a los hijos.
Hay que tener cuidado a la hora de interpretar los resultados de los estudios
de este tipo porque puede ocurrir que un niño que convive con un progenitor
o un hermano con el lenguaje deteriorado desarrolle él mismo ese trastorno
debido a la influencia ambiental, y no a una predisposición genética. A esto se
le conoce como hipótesis del entorno lingüístico desviado, y ha planteado
hipótesis que aún no han podido ser demostradas.

En los estudios llevados a cabo con la familia KE se evaluó la pronunciación,


uso de la gramática, manejo de significados y el CI. Se encontró:
➢ En todos los ámbitos estudiados, la puntuación de los afectados por el
trastorno fue menor que la de los sanos.
➢ Las tareas de producción les resultaron más difíciles de realizar que las
de comprensión.
➢ Pruebas de mayor discriminación entre afectados y sanos: tareas de
repetición y praxias orofaciales (imitar gestos con la cara).
➢ La tarea más difícil para los afectados era la repetición de
pseudopalabras multisilábicas (palabras que no existen, pero son
pronunciables).
➢ Los afectados por este trastorno presentaban un tamaño muy reducido
del núcleo caudado de cada hemisferio.

Elisa Ruiz Ortega


2020-2021
Los investigadores se centraron en comparar las secuencias de ADN de los
individuos sanos de la familia con las de los afectados, para encontrar las
diferencias que explicarían el trastorno. Se identificó el cromosoma 7 del gen
FOXP2 como el patrón alterado en todos los afectados, y aunque la alteración
era mínima, tenía consecuencias incalculables.

El papel exacto de este gen en el lenguaje todavía no está claro y se ha tenido


en cuenta de varias formas:
➢ Al principio: implicación en un déficit lingüístico que afecta a la
adquisición de las reglas morfosintácticas.
➢ Posteriormente: implicación en la secuenciación compleja de patrones
motores articulatorios, sobre todo en la repetición de pseudopalabras.
Se desconoce si la anomalía presentada por la familia KE es específicamente
lingüística o de tipo motor más amplio. Para comprobarlo serían necesarias
tareas manuales equiparables en complejidad a las del habla. Además, hay
que tener en cuenta que la comprensión y la escritura también se ven
afectadas.
Por último, en el caso de haberlos, no se sabe cuántos genes son necesarios
para construir la capacidad lingüística o cómo interaccionan estos entre sí.

2.3. ¿Existe un período crítico para el lenguaje?


Hay una relación entre la maduración biológica y el desarrollo lingüístico, lo
que significa que hay ciertas etapas que no se pueden alcanzar antes de una
edad determinada.
Lenneberg es el principal defensor de la existencia de un período de especial
predisposición al desarrollo del lenguaje, determinando que este se
desarrollaría entre los dos años y el comienzo de la adolescencia, ya que en
este último momento el cerebro parece haber entrado en una fase de
estabilidad en la que las habilidades primarias que no hayan sido adquiridas
generalmente permanecerán defectuosas toda la vida.
Los argumentos de este autor para defender su posición son:
➢ El desarrollo del lenguaje en los niños con graves retrasos en su
capacidad mental: estos niños siguen el mismo patrón de desarrollo
que el resto, pero a un ritmo más lento. Su competencia lingüística
nunca será completamente normal porque esta deja de desarrollarse
en la pubertad, aunque en teoría a estos niños aún les quedaría una
parte del desarrollo por completar.
➢ Los niños pequeños que sufran una lesión cerebral tienen más
posibilidades de recuperarse que los adultos: si en un niño menor de
dos años se lesiona el hemisferio cerebral encargado del lenguaje, este
apenas se verá alterado porque el otro hemisferio retomaría su función.
Esta “recuperación” se debe a que el período crítico, según este autor,
aún no ha comenzado.
➢ La adquisición de una segunda lengua: el acento que se adquiere con
el aprendizaje de la lengua matera es prácticamente inmutable
Elisa Ruiz Ortega
2020-2021
después de la pubertad. Un adulto que aprende un nuevo idioma va a
seguir teniendo su antiguo acento, de forma que será muy complicado
confundir su habla con la de un nativo; sin embargo, un niño puede
aprender una lengua nueva sin tener un acento diferente.
➢ El período crítico coincide con el de lateralización del lenguaje: según
Lenneberg, el proceso de especialización de la función lingüística se
desarrolla entre los 2-14 años, igual que el desarrollo pleno del
lenguaje. De esta forma, ambos procesos estarían relacionados.
➢ Los individuos expuestos al lenguaje de forma tardía: los casos más
llamativos son los de los llamados “niños salvajes”, que se han visto
privados de la presencia humana y aislados de cualquier forma de
estimulación lingüística.

Desde los años 80 hasta la actualidad el consenso que generaban los


argumentos de Lenneberg ha ido disminuyendo, matizando algunos puntos:
➢ El estancamiento del lenguaje en la pubertad de los niños que
presentan discapacidades psíquicas se debe más a la falta de
estimulación que a haber sobrepasado el período crítico. También se
ha propuesto que estos niños presentan un techo preestablecido en el
desarrollo y que pueden alcanzarlo a cualquier edad.
➢ Sí se ha confirmado la mejor recuperación del lenguaje en niños con
lesiones cerebrales que en adultos, no así que el período crítico
empiece y termine abruptamente en los momentos establecidos por
Lenneberg.
➢ En cuanto al aprendizaje de una segunda lengua, no parece haber una
superioridad de los niños en la adquisición de la gramática de una
lengua extranjera, aunque sí parece demostrarse en el aprendizaje de
los rasgos fonéticos y prosódicos.
➢ Existe acuerdo entre los investigadores en el establecimiento de un
subperíodo crítico en torno a los 10-12 años en los que hay ciertos
rasgos fonéticos de la lengua materna que pueden “contaminar” el
aprendizaje de la segunda lengua y que harán que se pueda notar el
acento del hablante.
➢ Actualmente, parece que la especialización cerebral ocurre antes de lo
establecido por Lenneberg, lo que pone en duda la relación de este
hecho con el período crítico para la adquisición del lenguaje.
➢ Existen casos de niños abandonados o perdidos que han sido criados
en estado salvaje por animales, e incluso otros que se han criado con
sus padres en absoluto aislamiento. El estudio de estos niños ha sido
muy escaso, pero las investigaciones coinciden en sus hallazgos:
ausencia de habla e incapacidad para entenderla.
✓ Víctor, el niño salvaje de Aveyron.
Este niño fue encontrado en el año 1800 en un bosque del
distrito francés de Aveyron, con unos 11-12 años, sin proferir
ningún sonido, salvo ruidos guturales de tipo animal. Un médico
se hizo cargo de su educación, diseñando una gran variedad de
juegos y actividades para ayudar a su socialización y al
desarrollo de alguna forma de lenguaje.

Elisa Ruiz Ortega


2020-2021
Víctor sí consiguió avances en la lectura y la escritura, pero en
modo alguno fue capaz de desarrollar un lenguaje oral.
✓ Helen Keller.
Esta chica era ciega y sordomuda debido a una enfermedad que
contrajo siendo un bebé. Con siete años empezó a aprender a
hablar tocando directamente los órganos articuladores, y a leer
y escribir con el alfabeto Braille, consiguiendo graduarse en la
Universidad. Llegó a ser escritora y profesora de personas
discapacitadas.
✓ Isabelle (pseudónimo).
Esta niña vivió encerrada con su madre muda y no empezó a
aprender el lenguaje hasta los seis años. En sólo una semana
consiguió sus primeros intentos de vocalización y en menos de
tres meses ya podía formular oraciones simples completas. Al
cabo de un año y medio, podía formular preguntas con
estructuras complejas.
✓ Genie de Los Ángeles.
En 1970 se encontró a esta niña en el desván de su casa con
13 años y medio. Su padre la encerró en esa habitación con sólo
20 meses, castigándola si emitía algún sonido y obligándola a
sobrevivir totalmente aislada.
Durante las primeras semanas en libertad, Genie era capaz de
comprender e imitar algunas palabras aisladas, pero no
entendía oraciones simples, sólo respondía a gestos y a la
entonación de las palabras. Los test psicológicos indicaban que
su edad mental era de unos dos años y su lenguaje presentaba
muchas características propias de esa edad.

Con el tiempo, aprendió cientos de palabras y empezó a


entender parte de lo que se hablaba en su presencia. Al cabo de
un año, ya podía comprender muchas estructuras sintácticas,
adjetivos simples, pronombres, tiempos verbales y superlativos,
así como preguntas. También podía colocar objetos en el
espacio en relación con otros a través de preposiciones y era
capaz de distinguir entre singular y plural y entre conjunciones.
En cuanto a la comprensión, sus dificultades se centraban en las
disyunciones, ciertos tiempos verbales y los pronombres de
sujeto y objeto. Por otra parte, la evolución de su lenguaje
habado fue mucho más lenta, tardando varios años en alcanzar
la fase de lenguaje telegráfico.

En general, Genie hizo grandes progresos en el desarrollo del


lenguaje, pero sus avances se estancaron después de cinco
años de trabajo. No fue capaz de adquirir un lenguaje gramatical
ni aspectos dominados por niños antes de los cuatro años.
Finalmente, en uno de los hogares adoptivos en los que estuvo
se produjo un episodio que provocó que no volviera a hablar
nunca.
En este sentido, una hipótesis más laxa del período crítico de
adquisición del lenguaje puede convertirse en cierta, según esta,
Elisa Ruiz Ortega
2020-2021
el lenguaje resultaría más difícil e incompleto después de la
pubertad, pero no sería algo imposible (tal como sucedió con
Genie).
✓ Diferencias entre los casos de Víctor y Genie en comparación
con los de Helen e Isabelle.
❖ La edad de inicio de la privación lingüística.
❖ La duración de la privación.
❖ La posibilidad de que existiera una incapacidad o trauma
físico o psíquico inicial en los casos de Víctor y Genie.

3. Áreas cerebrales implicadas en el lenguaje.


En el s. XIX, Broca concluyó que la lesión frontal izquierda, en la zona de la
tercera circunvolución, era el origen de la pérdida de la capacidad de hablar, y
que es en esta área donde reside la facultar de producir el lenguaje. Otros
autores ya habían dado cuenta de que el centro del lenguaje se encuentra en el
hemisferio izquierdo y de la lateralización cerebral de esta conducta; sin
embargo, Broca fue el primero en describir la localización concreta de la
capacidad articulatoria (no de la lingüística en general). La lesión de la zona
determinada por el autor produce la llamada afasia motora o afasia de Broca.
Posteriormente, Wernicke describió un nuevo trastorno del lenguaje, producido
por la lesión del lóbulo temporal izquierdo, en una zona próxima al área auditiva,
conocido como afasia sensorial o afasia de Wernicke. Esta lesión provoca que
los pacientes tengan dificultades para manejar los significados de las palabras;
son capaces de hablar de forma rápida y fluida, pero sin contenido semántico.
El área de Broca y el de Wernicke están conectadas por millones de axones que
forman el fascículo arqueado:

Elisa Ruiz Ortega


2020-2021
Por otro lado, las principales diferencias entre la afasia de Broca y la de Wernicke
son:
Tabla 3-2. Resumen de los principales rasgos de los dos cuadros afásicos
característicos.
Afasia de Broca (motora).
- Expresión no fluida (<50 palabras/min.) con considerable esfuerzo, articulada pobremente y corta
longitud de frase (a menudo una única palabra). Palabras con sentido.
- Aframatismo: lenguaje telegráfico (omisión de palabras de función). Uso preferente de sustantivos.
Dificultad de comprensión gramatical.
- Notable disprosodia (ritmo y entonación anormales).
Afasia de Wernicke (fluida o sensorial).
- Grave defecto de comprensión (del lenguaje ajeno y propio).
- Expresión fluida: muchas palabras bien articuladas, longitud normal de la frase, prosodia normal.
Habla vacía: omisión de palabras de contenido.
- Parafasias (alteración de palabras y fonemas). Neologismos. Repetición recurrente de ciertas
expresiones.

3.1. El modelo Wernicke-Geschwind.


Inicialmente, Lichtheim y Wernicke plantearon algunos principios sobre la
organización del lenguaje en el cerebro:
➢ El área de Broca se encuentra cerca de la corteza motora, que controla
los movimientos de los órganos que intervienen en la producción del
habla.
➢ El área de Wernicke está cerca de la corteza auditiva, que recibe
información acústica del entorno y es clave en la comprensión de las
palabras.
Más recientemente, Geschwind se basó en las aportaciones de Wernicke para
elaborar un modelo que describe cómo fluye la información entre ambas
zonas al usar el lenguaje.

En cuanto a la comprensión del lenguaje, cuando escuchamos una palabra,


la información procedente del oído se proyecta en la corteza auditiva primaria
del lóbulo temporal (A1) y pasa al área de Wernicke, donde se procesa y se
comprende. Para la pronunciación, la información se transmite al área de
Broca a través del fascículo arqueado. Allí se activa la información
Elisa Ruiz Ortega
2020-2021
articulatoria, pasa a la corteza motora y desde ahí se envían las órdenes para
el movimiento de los órganos articulatorios.
Cuando leemos una palabra, la información se proyecta desde la retina a la
corteza visual primaria del lóbulo occipital (V1) y de ahí pasa al área de
Wernicke a través de la circunvolución angular (estructura puente). Allí se
activa la representación auditiva de la palabra y la información se transmite al
área de Broca a través del fascículo arqueado, donde se inicia el proceso de
pronunciación. Así, una lesión en el fascículo arqueado provocaría un déficit
en la repetición del lenguaje, pero no en su comprensión ni producción. A esto
se le conoce como síndrome de desconexión.
El modelo de Geschwind sigue siendo válido en la actualidad, pero es
demasiado simple, pues no recoge todas las funciones lingüísticas ni todas
las áreas cerebrales implicadas en el lenguaje.

Lo normal es que comprendamos el significado de las palabras que leemos o


escuchamos, y que suelen formar parte de alguna oración. A su vez, estas
forman parte de un discurso más amplio que está insertado en un contexto
determinado y cuya comprensión requiere de la participación de muchas
zonas cerebrales, incluyendo el hemisferio derecho.
Con técnicas de neuroimagen se ha podido comprobar que hay un gran
número de áreas que se activan durante la actividad lingüística, y que estas
cambian según la tarea o los estímulos presentes.
Las áreas concretas que intervienen en el procesamiento del lenguaje son:
➢ Hemisferio izquierdo.
✓ Área prefrontal dorsolateral.
✓ Área motora suplementaria.
✓ Área temporal superior, media e inferior.
✓ Zona parietal inferior.
✓ Circunvolución angular.
✓ Circunvolución supramarginal.
➢ Hemisferio derecho: procesamiento semántico y del discurso.
➢ Estructuras subcorticales.
✓ Núcleos grises.
❖ Tálamo.
❖ Ganglios basales.
✓ Sustancia blanca.
❖ Conexiones entre las zonas corticales implicadas en el
lenguaje.
❖ Conexiones entre los dos hemisferios.
✓ Cerebelo.

Por otra parte, el modelo de Geschwind no es tan preciso en cuanto a los


síndromes clínicos y las zonas cerebrales afectadas. Cabría suponer, según
este autor, que las personas con una lesión en el área de Broca tendrían
intacta la capacidad de representación mental del lenguaje. Sin embargo, las
personas con afasia de Broca tienen problemas en la producción y en la
Elisa Ruiz Ortega
2020-2021
comprensión de muchas estructuras gramaticales. Esto no encajaría en el
modelo.
Dronkers et al. estudiaron una muestra de más de 100 pacientes utilizando
evaluaciones neuropsicológicas y técnicas de neuroimagen, y encontraron
muchas discrepancias entre los resultados de uno y otro método. En resumen,
el modelo de Geschwind no puede representar totalmente los sistemas
implicados en el lenguaje.

3.2. Estructuras subcorticales.


Las funciones lingüísticas están asociadas principalmente a la corteza
cerebral, pero en los últimos años se ha evidenciado la importancia de algunas
estructuras subcorticales en el procesamiento del lenguaje. Así, la mayoría de
los cuadros afásicos se deben a lesiones cerebrales tanto en la corteza como
en estructuras subyacentes.
Los ganglios basales forman parte de circuitos neurales clave para
operaciones de secuenciación de conductas motoras y de naturaleza
sintáctica. Por ello, las personas que padecen Parkinson presentan déficits
específicos en el procesamiento sintáctico y gramatical, además de los
problemas motores inherentes a la enfermedad. Estas personas producen
frases cortas y con una sintaxis simplificada.

Lieberman encontró consecuencias similares a las del Parkinson en


condiciones de falta de oxígeno. La memoria y las capacidades léxicas se
mantienen en los enfermos de Parkinson sin demencia, pero la comprensión
sintáctica y el habla sí se ven afectados.
La acción de los ganglios basales no se limita a la construcción de secuencias
motoras (“sintaxis motoras”), sino que es probable que sean decisivos en la
secuenciación de elementos del lenguaje durante el procesamiento sintáctico.
En este sentido, no es casual que el gen FOXP2 relacionado con un trastorno
específico del lenguaje interfiera en el correcto desarrollo de los ganglios
basales.

Elisa Ruiz Ortega


2020-2021
4. Asimetría hemisférica del lenguaje.
El cuerpo humano es simétrico bilateralmente, y eso incluye el cerebro, cuyos
hemisferios están unidos por el cuerpo calloso. En los animales, parece que
ambos hemisferios cerebrales realizan las mismas funciones, al menos en
cuanto a memoria y almacenamiento de información. Sin embargo, los seres
humanos no podemos permitirnos esta redundancia, porque supondría la
utilización de una ingente cantidad de recursos.
En la mayoría de las personas, el hemisferio especializado en el procesamiento
de los signos lingüísticos es el izquierdo.
➢ En diestros: en el 98% domina el hemisferio izquierdo.
➢ En zurdos: en el 70% domina el hemisferio izquierdo.
Recientemente, Leask y Crow han encontrado cierta asociación entre
lateralización manual y habilidad verbal.

4.1. Lesiones.
Dependiendo de si una lesión cerebral se produce en el hemisferio izquierdo
o derecho, el lenguaje se verá más o menos afectado, respectivamente. Luria
lo comprobó en sus estudios con soldados rusos de la Segunda Guerra
Mundial.
Si una arteria cerebral se obstruye por un coágulo o émbolo sanguíneo, se
produce un infarto cerebral al interrumpirse la circulación en toda la zona
irrigada (bañada) por esa arteria, y las neuronas mueren por anoxia (falta de
oxígeno). Por otro lado, la rotura de un vaso sanguíneo que ocasiona un
derrame cerebral provocará que la sangre comprima y destruya tejidos
cerebrales. Cuando cualquiera de estas lesiones se produce y causa
anomalías en el lenguaje, la mayoría se localizarán en el hemisferio izquierdo.

4.2. Test de Wada.


Cuando un neurocirujano tiene que hacer una intervención en el cerebro, es
muy importante que conozca de antemano qué hemisferio del individuo se
encarga del lenguaje, pues la actuación es mucho más delicada en el caso de
tratarse del hemisferio que lleva a cabo esta función.
Para saberlo se emplea el test de Wada, que consiste en la introducción en la
arteria carótida derecha o izquierda de una sustancia anestésica que inhabilita
durante unos minutos el hemisferio cerebral correspondiente. Durante ese
tiempo, se administran pruebas de lenguaje para comprobar si este se ha visto
afectado. Cada hemisferio se debe someter a esta prueba con, al menos,
media hora de separación.
Cuando las tareas lingüísticas se vean entorpecidas, se sabrá cuál de los dos
hemisferios es el responsable del lenguaje. Al tratarse de una técnica tan
invasiva, en los últimos años se tiende al uso de técnicas de neuroimagen
funcional en detrimento de este test.

Elisa Ruiz Ortega


2020-2021
4.3. Cerebro dividido.
La sección del cuerpo calloso (unión entre hemisferios cerebrales) puede
ayudar en casos extremos de epilepsia, mitigando sus efectos más extremos.
En este mismo sentido, hay personas que nacen sin esta estructura y viven
muchos años sin problemas con los hemisferios desconectados entre sí.
Sperry diseñó pruebas en las que los estímulos se presentan sólo a un
hemisferio. Observó que si un paciente toca un objeto con la mano derecha y
los ojos cerrados puede nombrar el objeto sin problema; sin embargo, si lo
toca con la mano izquierda, no puede nombrarlo, porque la información se
proyecta en el hemisferio derecho y no puede cruzar al izquierdo para su
identificación léxica. A pesar de ello, sí es capaz de reconocerlo de forma
táctil, si se le pide localizarlo con la misma mano izquierda entre otros objetos.
Con la información visual ocurre algo similar. Si se presenta un objeto en el
hemicampo visual derecho mientras se mantiene la mirada en un punto
central, el paciente puede indicar el nombre del objeto. Por el contrario, si la
presentación es en el hemicampo visual izquierdo, no podrá nombrarlo.

4.4. Experimentos conductuales.


Los experimentos realizados con personas sanas demuestran la asimetría
hemisférica funcional, concretamente en la modalidad auditiva y visual.

A) Experimentos auditivos.
El paradigma auditivo fue propuesto por Broadbent y es la escucha
dicótica, consistente en la presentación simultánea de información distinta
a cada oído. Kimura empleó esta tarea para estudiar las diferencias entre
hemisferios en el procesamiento de múltiples tipos de estímulos.

Elisa Ruiz Ortega


2020-2021
La mayoría de los experimentos que utilizan material lingüístico muestran
una ventaja del oído derecho, pequeña, pero sistemática. Cada oído envía
aproximadamente 2/3 de la información que recibe al otro hemisferio y 1/3
se queda en el mismo. La ventaja del oído derecho se explica, pues,
porque la información estimular viaja en mayor medida al hemisferio
izquierdo, responsable del lenguaje.
➢ Ventaja del oído derecho (hemisferio izquierdo): escucha dicótica
de vocales, consonantes, sílabas, palabras y dígitos.
➢ Ventaja del oído izquierdo (hemisferio derecho).
✓ Reconocimiento de melodías musicales y timbres acústicos.
✓ Identificación de emociones.
✓ Discriminación de intensidades.
✓ Procesamiento de la prosodia.

Teniendo en cuenta los resultados de la tarea de escucha dicótica se


puede calcular un índice de asimetría:
Í𝑛𝑑𝑖𝑐𝑒 𝑑𝑒 𝑎𝑠𝑖𝑚𝑒𝑡𝑟í𝑎 = [(𝐷 − 𝐼)/(𝐷 + 𝐼)] × 100
Donde “D” es la información presentada al oído derecho correctamente
identificada, “I” es la información presentada al oído izquierdo
correctamente identificada.
Este índice oscila entre -100 (ventaja absoluta del oído izquierdo) y +100
(ventaja absoluta del oído derecho). El valor 0 representa la igualdad entre
ambos oídos, pero la mayoría de las personas presentan asimetría.

B) Experimentos visuales.
El paradigma para el estudio del dominio visual está compuesto por los
experimentos basados en la presentación de estímulos en los
hemicampos visuales. Cualquier estímulo que se presente en el
hemicampo visual izquierdo se proyectará en el hemisferio derecho y lo
contrario ocurre con el hemicampo derecho. Para que esto suceda, es
necesario que el sujeto mantenga la mirada en un punto central de fijación.
Los estudios en este ámbito han demostrado que todo el material verbal
que se presenta al hemicampo visual derecho (hemisferio izquierdo) se
procesa mejor. Por su parte, el reconocimiento de formas, localización de
puntos y otras tareas no verbales se llevan a cabo mejor si se presentan
al hemicampo visual izquierdo (hemisferio derecho).
El hemisferio derecho también reconoce mejor los rostros humanos, lo
que concuerda con el hecho de que la prosopagnosia (trastorno de
identificación de caras familiares) ocurra como consecuencia del daño en
zonas del hemisferio derecho.

4.5. Activación del cerebro observada con técnicas de neuroimagen.


Gracias a las técnicas de neuroimagen se puede comprobar qué áreas
cerebrales se activan mientras se realiza una tarea. Si esta tarea es
Elisa Ruiz Ortega
2020-2021
lingüística, la mayoría de las personas presentarán mayor activación del
hemisferio izquierdo.
¿Por qué es el hemisferio izquierdo el encargado del lenguaje en casi todos
los seres humanos? Algunos autores creen que existe una pequeña ventaja
en el desarrollo de este sobre el derecho en casi todas las personas. Por ello,
cuando el habla aparece en el desarrollo infantil, el hemisferio izquierdo estará
“mejor preparado” para asumir su control. Sin embargo, sigue surgiendo la
pregunta: ¿por qué es precisamente la parte izquierda la que tiene esta
ventaja?
Entre el resto de animales, en general, no hay individuos diestros y zurdos,
aunque algunos sí presentan preferencias motrices de una parte del cuerpo
para ciertas tareas. En líneas generales, parece que esas preferencias
dependen de factores ambientales y no son iguales para todos los individuos
de una especie. Un ejemplo con paralelismos al caso de los humanos es el
del canto de las aves, que también está lateralizado y depende de centros
neurales que están localizados en alguno de los dos hemisferios.
En cuanto a los seres humanos, se han propuesto muchas teorías sobre la
especialización hemisférica del lenguaje, pero todavía ninguna ha podido
responder completamente a la cuestión.

5. Metodologías de investigación.
Los estudios basados en lesiones son valiosos, pero tienen importantes
limitaciones, porque las causas del daño cerebral son incontroladas y
accidentales y con frecuencia afectan a muchas estructuras adyacentes o
superpuestas. Así, cada lesión es un caso en sí misma.
Los efectos de esas lesiones se suelen atribuir a una zona local dañada, pero
también destruyen sustancia blanca o vías de conexión que no se tienen en
cuenta. Parte de la sintomatología puede deberse a la desconexión de
estructuras cerebrales distantes del lugar de la lesión.
En la actualidad, los neurocientíficos disponen de medios para estudiar las
estructuras cerebrales en individuos que no tienen lesiones.
➢ Rayos X: imagen bidimensional del cerebro.
➢ Tomografía computarizada: modelo tridimensional.
➢ Técnicas de electrofisiología.
✓ Técnica de los potenciales evocados o potenciales relacionados
con eventos: detectan cambios rápidos de actividad bioeléctrica.
✓ Magnetoencefalografía: detectan cambios rápidos de actividad
magnética.
➢ Técnicas de neuroimagen: detectan cambios en el flujo sanguíneo
asociados a las zonas cerebrales más activas durante un proceso mental.
✓ Tomografía por emisión de positrones.
✓ Resonancia magnética funcional.

Elisa Ruiz Ortega


2020-2021
5.1. Potenciales evocados (ERP).
Esta técnica consiste en colocar pequeños electrodos sobre el cuero
cabelludo para detectar la actividad bioeléctrica del cerebro. La señal que se
registra es la del electroencefalograma clásico (EEG), pero se trata mediante
procedimientos informáticos para extraer el potencial relacionado con la
presentación de un estímulo (ERP). La onda resultante es un reflejo
imperfecto de los procesos cerebrales que causa un determinado estímulo.
Para el registro de EEG y su posterior análisis de ERP se utilizan electrodos
que registran la actividad bioeléctrica y el cráneo, al interponerse entre estos
y el cerebro, actúa como difusor de la actividad eléctrica. Esto implica:
➢ Imagen global de los potenciales evocados muy difuminada.
➢ Imagen con poca resolución espacial.
➢ Sin detalles topográficos.
➢ Imagen con resolución temporal excelente.
Así, los potenciales evocados no son una técnica de imagen del cerebro, sino
una medida fisiológica de su actividad bioeléctrica.

Una de las respuestas evocadas más potente es el que se conoce como


componente P300, que es un pico positivo que aparece a los 300
milisegundos de la presentación de un estímulo cualquiera y que representa
el procesamiento consciente del mismo. Cuanto más impredecible es el
estímulo, más intenso será el potencial P300.
En cuanto al lenguaje, el componente N400 se ha estudiado por su relación
con el procesamiento semántico. Constituye una deflexión negativa de la onda
cerebral que surge a los 400 ms de la presentación del estímulo. Este
componente refleja procesos centrales de comprensión y es independiente de
la modalidad sensorial del estímulo, estando presente incluso ante el lenguaje
de signos.

Elisa Ruiz Ortega


2020-2021
5.2. Magnetoencefalografía (MEG).
Con esta técnica se registran los campos magnéticos producidos por la
actividad cerebral a través de dispositivos muy sensibles. En el cerebro, las
descargas eléctricas de las neuronas registradas mediante EEG generan
campos magnéticos perpendiculares a esa corriente, y así, el EEG y la MEG
pueden dar información sobre la actividad de grupos de neuronas diferentes.
Se caracteriza por:
➢ Buena resolución temporal.
➢ Buena medida del curso temporal de determinados procesos mentales.
➢ Precisión espacial mejor que la de los potenciales evocados.
Sin embargo, aún presenta dificultades técnicas y tiene un coste muy elevado.

5.3. Tomografía por emisión de positrones (PET).


Esta técnica de neuroimagen ofrece una imagen de la actividad cerebral
aprovechando el flujo sanguíneo en un momento determinado. Antes de su
realización, se inyecta un marcador radiactivo en la sangre que se mezcla con
la glucosa de la misma. De esta forma, el marcador radiactivo emite positrones
que pueden ser detectados y la mayor densidad de radiación muestra las
zonas cerebrales más activas (consumen más glucosa durante un proceso
mental determinado).
Un ordenador codifica en colores los distintos grados de actividad, ofreciendo
una imagen bastante detallada de la actividad de cada parte del cerebro. Esta
técnica requiere un equipo muy voluminoso y costoso.

5.4. Resonancia magnética funcional (RMf).


La PET es una técnica invasiva que conlleva la administración de una
sustancia radiactiva, aunque es una dosis baja, las críticas hacia su uso en
los últimos años han aumentado. Así, se ha popularizado el uso de la RMf,
que se basa en la resonancia magnética convencional, pero que además
proporciona información sobre la actividad cerebral que acompaña a las
funciones psíquicas.
Se basa en las propiedades magnéticas de la hemoglobina, que es el
componente de la sangre que transporta el oxígeno. Así, si durante una
operación mental la afluencia de sangre hacia una región cerebral es mayor,
en ella aumentará la proporción de moléculas de hemoglobina cargadas de
oxígeno.
El estudio de una función específica requiere la comparación entre las
imágenes obtenidas mientras se realiza la función y aquellas obtenidas en
ausencia de la misma (línea base). La diferencia entre ambas indicará las
áreas cerebrales que han intervenido en el proceso mental estudiado. En esta
técnica, lo más importante es conseguir que la tarea que se tomará como línea
base sea exactamente igual que la experimental, con la excepción del
subproceso que se quiere estudiar.

Elisa Ruiz Ortega


2020-2021
Esta técnica no es invasiva, pero también presenta limitaciones:
➢ La señal debe registrarse en condiciones de inmovilidad casi absoluta
de la cabeza, lo que dificulta el estudio de tareas que requieran una
respuesta vocal.
➢ La resolución temporal es baja y no permite el seguimiento exacto del
curso temporal de los procesos.
➢ La relación señal-ruido en una imagen individual es pobre, lo que obliga
a promediar muchas imágenes tomadas en las mismas condiciones.
➢ El equipo produce un ruido muy intenso que dificulta la realización de
experimentos con estímulos sonoros.
➢ Sería muy peligroso realizar la prueba en personas con marcapasos o
prótesis metálicas.
Sus ventajas son:
➢ Buena resolución espacial.
➢ Técnica de neuroimagen funcional preferida.

Elisa Ruiz Ortega


2020-2021
-TEMA 4-
Lenguaje y pensamiento.

1. Introducción.
Hay dos aspectos que nos definen como especie:
➢ Lenguaje.
➢ Pensamiento.
¿Cómo se relacionan ambas características? Hay dos posturas diferenciadas:
➢ El lenguaje es necesario, al menos en cierta medida, para el pensamiento:
en este sentido, la idea más radical es que lenguaje y pensamiento son
equivalentes.
Esta idea fue defendida por:
✓ Platón.
✓ Von Humboldt.
✓ Conductismo de Watson.
➢ El pensamiento es independiente del lenguaje: el pensamiento sería
prioritario y el lenguaje derivaría de aquel. Actualmente se puede afirmar
que el pensamiento sí puede existir sin el lenguaje, porque:
✓ Se puede pensar sólo con imágenes.
✓ Se puede pensar con los músculos asociados a los órganos del
habla paralizados.
✓ Las personas con graves trastornos del lenguaje pueden pensar,
aunque no puedan hablar.
✓ La comprensión precede a la producción en el desarrollo del
lenguaje: un niño puede entender una oración, aunque no sea
capaz de producir más que palabras aisladas.
✓ Es posible pensar una cosa y hablar sobre otra, lo que no sería
posible si el habla tuviera que ser la base del pensamiento.

2. Lenguaje y pensamiento en el niño: Piaget frente a Vygotski.


Tradicionalmente, en el estudio del lenguaje y el pensamiento se alude a las
posiciones contrapuestas de Piaget y Vygotski, pero hay que tener en cuenta
que esa contraposición no se dio hasta más de dos décadas después de la
muerte de este último en 1934.
➢ Piaget: se centra en las etapas de desarrollo intelectual del niño y no
presta atención al lenguaje. Este sería un reflejo de la evolución del
pensamiento infantil, según el autor.
➢ Vygotski: considera que el pensamiento (prelingüístico) y el lenguaje
(preintelectual) son independientes y que tienen orígenes diferentes hasta
que a los 2-3 años se unen (habla egocéntrica).
La mayor diferencia entre los dos autores reside, precisamente, en el habla
egocéntrica. Piaget defiende que es una manifestación más del egocentrismo
típico de la inmadurez cognitiva de un niño y cree que, aunque los niños hablen
en voz alta, no tienen la intención de comunicarse con nadie. Vygotski asegura
Elisa Ruiz Ortega
2020-2021
que este tipo de habla constituye la génesis del pensamiento, que se irá
internalizando hasta hacerse inaudible, pero no cree que implique ausencia de
intención de comunicación.

En este sentido, las técnicas de neuroimagen cerebral nos permiten observar


que en un estado de reposo hay actividad cerebral en la corteza temporal,
medial, frontal medial, parietal inferior y cingulada posterior. A esta activación se
le conoce como “red en modo por defecto”. ¿En esta red se incluyen las áreas
relacionadas con el lenguaje? Parece que, aparentemente, no es así.
Es difícil comparar los datos y experimentos de Piaget y Vygotski, pues proceden
de ámbitos muy diferentes.

3. Prioridad del lenguaje: la relatividad lingüística.


3.1. Planteamiento de Sapir-Whorf.
Estos autores plantean la teoría de la relatividad lingüística (también
denominada hipótesis de Sapir-Whorf o hipótesis whorfiana), según la cual las
características particulares de la lengua materna determinan la estructura de
los procesos de pensamiento. Esto implicaría que nuestra lengua afecta a la
forma en que recordamos y percibimos el mundo, a cómo pensamos e
interactuamos sobre él. Según este postulado, la naturaleza humana tendría
una gran variabilidad.
Whorf no era lingüista, sino ingeniero, empezó a interesarse por este ámbito
a través de la lectura de la Biblia. Estudió de forma autodidacta las lenguas
amerindias y a raíz de ello trabó amistad con Sapir, profesor de lingüística en
la Universidad.
Nunca fue un académico profesional, pero sus conocimientos fueron muy
apreciados por sus coetáneos. Por su familiaridad con las lenguas indígenas
se empezó a plantear que las diferencias en vocabulario y sintaxis entre las
lenguas tenía que deberse a diferencias conceptuales.

3.2. Críticas iniciales a la relatividad whorfiana.


Whorf fue duramente criticado, sobre todo por parte de los teóricos
universalistas por varios motivos:
➢ Las observaciones sobre las peculiaridades lingüísticas no siempre son
precisas, sino que algunas se basan en mitos o leyendas urbanas
transmitidas sin base real alguna.
➢ La interpretación de los datos es dudosa: el hecho de que una lengua
tenga un vocabulario más rico no significa que este determine el
pensamiento de los hablantes. Ese “vacío” lingüístico se puede cubrir
combinando otras palabras, por ejemplo.
A pesar de las críticas, la relatividad lingüística es una teoría que se puede
falsar porque sus predicciones son lo suficientemente explícitas como para
ser sometidas a análisis empíricos. En este sentido, Carmichel llevó a cabo
un estudio a partir del cual daba parcialmente credibilidad a la teoría: las
Elisa Ruiz Ortega
2020-2021
etiquetas verbales modifican el recuerdo de estímulos visuales, pero esto dice
más sobre el funcionamiento de la memoria que sobre las diferencias
conceptuales determinadas por diferencias lingüísticas.

Un ámbito propicio para verificar la hipótesis whorfiana es el de la codificación


y memoria de los colores, ya que la percepción de estos es universal (salvo
en los daltónicos). Algunas lenguas sólo tienen nombres para alguno de los
colores primarios y otras tienen un repertorio muy grande de términos
cromáticos. Cabe preguntarse, pues, ¿si una lengua no tiene etiquetas
verbales para distinguir entre dos colores, pueden los hablantes percibir las
diferencias entre ellos, memorizarlos y reconocerlos igual que aquellos cuya
lengua sí los distingue?
Berlin y Kay llevaron a cabo un estudio con hablantes de casi 100 lenguas,
encontrando que:
➢ Los participantes eran bastante consistentes al clasificar los colores
básicos: la diferencia residía en el número de colores nombrados.
➢ Sólo hay 11 colores básicos.
➢ Existe una jerarquía predecible en la denominación de los colores.
✓ Si la lengua sólo tiene dos términos de color: nombrarán blanco
y negro.
✓ Si la lengua tiene tres términos de color: nombrarán blanco,
negro y rojo.
✓ Sucesivamente, se irán incluyendo el verde, amarillo, azul…

Elisa Ruiz Ortega


2020-2021
Kay y Kempton compararon hablantes del inglés, que distinguen entre el azul
y el verde, y hablantes de una lengua del norte de México, en la que no se
distingue entre esos colores. El resultado fue un fuerte efecto whorfiano, pues
los hablantes ingleses percibieron colores más distintos entre sí que los
hablantes de la otra lengua por el simple hecho de tener palabras para
denominarlos.
Por su parte, Davidoff et al. descubrieron que la forma en que cada lengua
codifica los colores influye sobre cómo son percibidos y recordados por los
hablantes.

3.3. Resurgimiento de la relatividad lingüística: propuestas neo-


whorfianas.
Desde esta perspectiva, autores como Lakoff o Bowerman defienden que los
efectos relativistas de la lingüística hay que buscarlos en las diferencias
gramaticales entre lenguas, no en las diferencias léxicas. En este sentido, hay
que tener en cuenta que los elementos gramaticales tienen una gran carga
semántica porque establecen relaciones conceptuales entre los elementos
léxicos.
Bickerton, universalista, considera que el número de conceptos incorporados
a la gramática es muy limitado y, además, es compartido por la mayoría de
las lenguas. Existe un sesgo bastante universal en cuanto a las distinciones
conceptuales incorporadas en la gramática, pero también hay algunas
excepciones (p. ej., el turco o el quechua), que incorporan en la gramática el
grado de evidencia de lo que se afirma.
Incluso las lenguas que emplean conceptos universalmente gramaticalizados
difieren mucho en el grado de articulación de estos:

Elisa Ruiz Ortega


2020-2021
Las diferencias gramaticales dentro de un dominio conceptual determinado
son importantes para los neo-whorfianos porque:
➢ El procesamiento de los términos gramaticales es automático.
➢ El procesamiento gramatical es obligatorio (p. ej., en español, los
sustantivos deben indicar número, singular o plural, o los verbos tienen
que señalar tiempo, persona…).
Así, los hablantes de lenguas que difieran en este punto tendrán que realizar
conceptualizaciones distintas cuando codifiquen verbalmente un hecho o
situación.

A) Verbos copulativos en español y en inglés.


Una peculiaridad del español es que existen dos verbos copulativos: ser
y estar, y no uno, como en la mayoría de las lenguas (en inglés “to be”).
Los hablantes de español estamos obligados a realizar ciertas
clasificaciones conceptuales que en otras lenguas no son necesarias,
como:
➢ Propiedad estado (estar) y propiedad rasgo (ser).
➢ Ubicación de objetos (estar) y ubicación de eventos (ser).
En inglés, estas discriminaciones no son necesarias y se resuelven
empleando el verbo “to be”.
Teniendo esto en cuenta, ¿los hablantes de español son más hábiles
haciendo distinciones estado/rasgo o ubicación de objeto/evento? Sera et
al. hicieron un estudio con niños hablantes de español y de inglés en el
que se demuestra que esto es así. Los niños españoles mostraron
significativamente mejor rendimiento en los juicios de realidad que los
ingleses, por lo que llegaron a la conclusión de que la doble cópula del
español facilita la conceptualización apariencia/realidad.
En otro experimento con niños bilingües, estos autores descubrieron que
los niños hicieron mejores juicios cuando se les hacían las preguntas en
español que cuando se usaba el inglés. Esto indicaría que el efecto de

Elisa Ruiz Ortega


2020-2021
filtro conceptual del idioma se limita al momento del habla (no es
permanente).

B) Verbos de movimiento en español y en inglés.


En inglés se incluye el modo del movimiento en el núcleo verbal y la
dirección que relegada a una partícula gramatical. Sin embargo, en
español, es frecuente incorporar la dirección en el núcleo verbal y que la
inclusión del modo en la oración sea algo optativo (normalmente en forma
de gerundio).
Por ejemplo:
➢ El chico cruzó la calle corriendo.
➢ “The boy run across the street” (el chico corrió a través de la calle).
Así, se puede comprobar que el español es una lengua enmarcada en el
verbo (conocido como “verb-framed”), porque el verbo es la clave del
esquema básico del evento; en cambio, el inglés es una lengua
enmarcada en el satélite (denominado “satellite-framed”) porque el
esquema básico del evento se desplaza a una partícula gramatical.

Muchos estudios han intentado descubrir si estas diferencias de énfasis


gramatical tienen consecuencias sobre la forma en que los hablantes
segmentan cognitivamente los eventos. Naigles et al. mostraron escenas
visuales a hablantes de ambos idiomas y les preguntaron sobre la acción
que realiza el personaje de las mismas. Observaron que:
➢ Hablantes ingleses: incorporan el modo de movimiento en el núcleo
verbal.
➢ Hablantes españoles: eligen por igual la expresión que incluye el
modo o la dirección en el núcleo.

Elisa Ruiz Ortega


2020-2021
Slobin estudió traducciones de novelas del español al inglés y viceversa
para comprobar el impacto de las diferencias anteriores en el modo de
pensar sobre escenas de movimiento. Encontró que las expresiones de
modo inglesas tienden a traducirse como expresiones de dirección y que
las expresiones de dirección en español se traducen como expresiones
de modo en inglés.
Esto implica que a los hablantes les cuesta mucho cambiar el foco
semántico inducido por su gramática (modo en inglés y dirección en
castellano). Este autor incluso descubrió que cuando lectores de ambos
idiomas recibían el mismo texto traducido literalmente de una lengua a
otra, se imaginaban la escena descrita de la forma congruente con su
idioma.
El efecto de filtro conceptual de la lengua sería, pues, bastante local, y
estaría circunscrito al uso momentáneo de una lengua u otra. Esto supone
que los hablantes bilingües “piensen” de modo distinto cuando usan el
inglés a cuando usan el español.

C) Términos espaciales en diferentes lenguas.


La cognición espacial es un dominio compartido por los humanos con
muchas otras especies, siendo incluso superior en muchos mamíferos,
aves o peces. Sin embargo, parece que sólo los humanos podemos
comunicarnos de forma flexible sobre la posición relativa de los objetos en
el entorno o sobre las rutas que conducen a metas.

D) Preposiciones de soporte en español y en inglés.


En todos los idiomas existen preposiciones para indicar la posición
espacial de un objeto respecto a otro, pero hay diferencias entre ellas.
Bowerman comparó las preposiciones espaciales que indican contacto
vertical o soporte entre objetos en varias lenguas, incluyendo español e
inglés, encontrando que:
➢ En inglés se usan dos: “in” y “on”.
➢ En español se usa una: “en”.
En otras lenguas, como el holandés, se incluye una tercera preposición
para referirse al contacto con una superficie vertical. Así, los hablantes de
estos tres idiomas clasifican las relaciones espaciales de forma diferente,
siguiendo una, dos o tres categorías, establecidas teóricamente por la
autora (no por los hablantes) a partir de los repertorios de preposiciones
disponibles.
En definitiva, no está claro que los procesos de categorización de las
relaciones espaciales sean diferentes en los hablantes de español, inglés
y holandés. Hay que tener en cuenta, además, que la selección de las
preposiciones del estudio es sesgada, porque en español hay otras
preposiciones que pueden expresar relaciones espaciales (como “sobre”
o “dentro”).

Elisa Ruiz Ortega


2020-2021
E) Comunicación de la posición de un objeto con gestos y con lenguaje.
Para expresar la posición relativa de un objeto respecto a un marco de
referencia, en español empleamos las palabras “delante”, “detrás”, “a la
derecha” y “a la izquierda”. En el resto de las lenguas indoeuropeas hay
términos equivalentes a estos.
Cuando alguien nos pregunta sobre la dirección de un lugar determinado
se pueden dar varias opciones:
➢ El lugar es visible desde el punto de vista de los interlocutores: lo
más probable es realizar algún gesto en la dirección del sitio, quizá
añadiendo algún término deíctico (de ubicación) como “ahí está” o
“aquel edificio”.
La comunicación mediante el señalamiento es una forma preverbal
de localización espacial que aparece en los niños en torno al año,
como un precursor del lenguaje.
➢ El lugar no es visible desde el punto de vista de los interlocutores:
lo normal es que busquemos un punto de referencia a partir del
cual establezcamos una relación direccional entre el lugar buscado
y el marco de referencia.
Una vez determinamos cuál es el marco de referencia:
✓ Segmentamos el espacio a su alrededor en regiones
topológicas (frente, detrás, derecha e izquierda).
✓ Situamos el objeto de referencia en una de las regiones.
✓ Construimos la expresión direccional.

La investigación ha demostrado que la comunicación verbal sobre la


localización espacial utiliza recursos cognitivos diferentes que la
comunicación no verbal. En un experimento, un grupo de participantes
debía localizar objetos ocultos mediante el gesto de señalamiento o
utilizando términos direccionales (frente, detrás, derecha e izquierda). En
una condición experimental, los sujetos rotaban físicamente, y en la otra,
tenían que imaginarse en otra posición (rotación imaginaria).
Elisa Ruiz Ortega
2020-2021
Los resultados mostraron que el señalamiento es muy eficiente después
de rotar físicamente, pero en la condición de rotación imaginaria
aumentaba el tiempo de respuesta y los errores. En cambio, el grupo que
usaba los términos direccionales respondió igual de bien en ambas
condiciones.
Esto se explica porque el señalamiento se basa en un mecanismo
propioceptivo (conocimiento sobre la posición del propio cuerpo y de sus
partes) muy básico, que se actualiza continua y automáticamente y nos
permite desplazarnos. En el caso de la rotación imaginaria, se está
pidiendo a los sujetos que ignoren la información propioceptiva dominante
y se basen en un marco imaginario, lo que explica los resultados
encontrados.
En la comunicación verbal con términos direccionales este conflicto no se
da, lo que significa que las representaciones espaciales derivadas del
lenguaje se producen en un plano representacional y están desligadas de
la información propioceptiva inmediata.

F) Las lenguas imponen un punto de vista.


El uso de términos direccionales implica un punto de vista egocéntrico o
relativo porque:
➢ La dirección depende de la posición de un objeto respecto a otro.
➢ La dirección tiene en cuenta la posición del hablante en la escena.

Las expresiones egocéntricas son útiles en el contexto de la comunicación


cara a cara, pero a veces generan cierta ambigüedad. No todas las
lenguas utilizan marcos de referencia egocéntricos, algunas emplean
direcciones absolutas o halocéntricas para describir las relaciones
espaciales. Estas formas de perspectiva espacial se pueden usar en
español, pero mayoritariamente se emplea el marco egocéntrico.

Elisa Ruiz Ortega


2020-2021
Levinson et al. llevaron a cabo una investigación sobre la cognición
espacial comparando la forma de expresar la relación espacial
(egocéntrica o absoluta).

Encontraron que:
➢ Lenguas “egocéntricas”: invariablemente, los sujetos señalaron la
posición o trayectoria relativa.
➢ Lenguas “halocéntricas”: eligieron mayoritariamente la posición o
trayectoria absoluta.
Estos experimentos demuestran que el tipo de marco de referencia
propiciado por la gramática determina diferentes modos de segmentar el
espacio hasta el punto de influir sobre la memoria espacial de los objetos
y las trayectorias. A pesar de que los participantes no tenían que hablar
durante los experimentos, los marcos de referencia que utilizaron fueron
inducidos por su lengua, lo que significa que los hábitos de codificación
lingüística del espacio trascienden el uso del lenguaje.
En este caso, habría que observar que estas investigaciones no están del
todo libres de lenguaje, ya que las instrucciones dadas por el
experimentador podrían influir o ser interpretadas de forma diferente por
los participantes de una y otra habla.

G) El subjuntivo y el pensamiento hipotético.


La expresión o pensamiento contrafactual (también llamado
“counterfactual thinking”) se refiere a situaciones inexistentes, contrarias
Elisa Ruiz Ortega
2020-2021
a la realidad, e invita al lector u oyente a considerar la posibilidad
alternativa a la realidad de que esa situación hubiera ocurrido. Para
expresar este tipo de pensamientos se emplea el modo subjuntivo, que
nos permite hacer conjeturas, explorar posibilidades alternativas a las
reales, etc. Este modo verbal no existe en todas las lenguas (p. ej., en
chino), en las que se usan otras expresiones o combinaciones de palabras
para intentar expresar lo mismo.
Bloom se planteó si esto implica que los hablantes chinos tienen
problemas para expresar y pensar en situaciones hipotéticas o
contrafactuales. Este autor defiende que la lengua china provoca que sus
hablantes sean incapaces de concebir mundos hipotéticos si no es con un
gran esfuerzo mental. Tal conclusión fue duramente criticada y rebatida
hasta llegar a otra mucho más moderada: la ausencia de pistas
lingüísticas obliga a un procesamiento más activo y cognitivamente más
costoso en algunos textos contrafactuales.

3.4. Conclusiones.
De las investigaciones llevadas a cabo sobre las distinciones conceptuales
incorporadas a la gramática hay que matizar los resultados e interpretaciones:
➢ La imposibilidad de traducir algunos conceptos, tal como defiende la
teoría whorfiana, probablemente no es tal. La relatividad lingüística no
implica que haya una barrera conceptual insalvable entre las lenguas.
➢ El impacto cognitivo de las diferencias gramaticales entre las lenguas
es más importante que el de las diferencias léxicas, pues estas podrían
salvarse mediante aprendizaje.
➢ Hay dos posiciones relativistas diferentes:
✓ Los efectos de la lengua sobre el pensamiento sólo ocurren en
línea, durante la producción o comprensión del habla. Slobin
denomina a esto “thinking for speaking” (pensar para hablar), lo
que se puede entender de tres formas:
❖ Un mismo individuo codifica de forma diferente un
aspecto de la situación, dependiendo de si lo comunica
verbalmente o no.
❖ Podemos elegir entre diferentes recursos gramaticales de
nuestra lengua para expresar una experiencia.
❖ Los hablantes de diferentes lenguas aplican operaciones
de codificación distintas, guiadas por su gramática, para
comunicar su experiencia en un dominio.
Autores como Pinker o Levelt aceptan los efectos en línea del
lenguaje, pero defienden que más allá del momento de
comunicación, las diferencias gramaticales no tienen
consecuencias cognitivas apreciables.
✓ Los efectos de la lengua sobre el pensamiento tienen
consecuencias más allá del acto del habla, determinando
hábitos de pensamiento y conceptualización permanentes. El
autor que ofrece más evidencias en este sentido es Levinson.

Elisa Ruiz Ortega


2020-2021
4. Prioridad del pensamiento sobre el lenguaje.
4.1. Desarrollo temprano de los conceptos.
Hay dos momentos en los que se puede estudiar la relación entre
pensamiento y lenguaje:
➢ Cuando aparece el habla egocéntrica, alrededor de los tres años.
➢ En la fase preverbal.
En este sentido, son relevantes los trabajos de Piaget sobre el desarrollo
cognitivo de los niños y el establecimiento de distintos estadios de desarrollo.
Sus observaciones sobre la inteligencia sensoriomotora del niño en etapa
preverbal se han ido confirmando y ampliando posteriormente.
La adquisición de los conceptos sensoriomotores que defiende Piaget
requiere un sistema motor bastante maduro, ya que el bebé tiene que ser
capaz de desplazarse por el entorno y manipular objetos. Sin embargo,
investigaciones recientes han determinado que el desarrollo conceptual
empieza incluso antes de que este haya desarrollado esquemas de acción.

Baillargon et al. aplicaron la técnica de la habituación al estudio del objeto


permanente, encontrando que la representación de objetos y de sus
propiedades físicas aparecen varios meses antes de lo que Piaget había
determinado. Basándose en estos estudios, los investigadores sostienen que
los bebés de 3-4 meses ya son capaces de construir conceptos
fundamentales a partir del análisis perceptivo del entorno.
Por su parte, Spelke defiende que el bebé preverbal adquiere un núcleo de
conocimientos que incluye la representación de las propiedades físicas y
mecánicas de los objetos, la cantidad y las propiedades geométricas del
espacio. Además, asegura que este núcleo no es específico del ser humano.

4.2. Consideraciones sobre las metáforas.


Según Lakoff y Johnson, las metáforas son algo conceptual, esto es, los
conceptos son metafóricos y a partir de ellos generamos y comprendemos
expresiones metafóricas.
Algunos tipos de metáfora son:
➢ La exclusión social como dolor (“me duele que me ignores”): este tipo
de metáfora no es arbitraria y es probable que tenga una motivación
biológica universal.
➢ La exclusión social como temperatura (“me trató con mucha frialdad”):
es probable que subyazca una fundamentación biológica universal.

Elisa Ruiz Ortega


2020-2021
➢ La indignación moral como asco (“mal sabor de boca”): el asco es una
reacción emocional primaria con una expresión facial característica y
un claro valor adaptativo. Así, estas metáforas parecen basarse en el
hecho de que tanto el asco como la indignación moral puedan tener el
mismo sustrato fisiológico y neurológico.
➢ La culpa como suciedad: las metáforas de culpa como suciedad y de
purificación como limpieza tienen una motivación psicológica.

Elisa Ruiz Ortega


2020-2021
-TEMA 5-
Percepción del habla.

1. Introducción.
El habla es sonido, por lo que compartirá sus propiedades, a saber:
➢ Se produce cuando un cuerpo vibra.
➢ La vibración se transmite a las moléculas del entorno (aire o agua): la
energía resultante es recibida por el oído.
➢ En el vacío no se puede escuchar el sonido: faltan las moléculas que
transportan la energía vibratoria.
Es posible representar el movimiento vibratorio mediante una onda o línea
ondulante que sube y baja formando picos (presión positiva) y valles (presión
negativa).
Los componentes básicos del sonido son las ondas puras o simples, que
comprenden sucesiones de patrones de vibración repetidos en el tiempo. Cada
patrón está formado por un pico y un valle en torno a un punto central.

Dependiendo de la velocidad de vibración, las ondas varían en el número de


ciclos que caben en un segundo, denominado “frecuencia”. Según la velocidad
de las ondas, se distinguen dos tipos de sonidos:
➢ Sonidos agudos: las ondas que nacen de vibraciones rápidas tienen una
frecuencia alta, con muchos ciclos (hercios) por segundo.
➢ Sonidos graves: las ondas que nacen de vibraciones lentas tienen una
frecuencia baja, con pocos ciclos (hercios) por segundo.
La intensidad o amplitud del desplazamiento de la onda se mida en decibelios
(dB), que es una medida relativa que abarca desde 0dB (umbral de audición)
hasta más de 140dB (umbral del dolor del sonido).
Elisa Ruiz Ortega
2020-2021
Si analizamos la onda del habla, podemos extraer el número de ciclos por
segundo, también llamado “frecuencia fundamental de la voz”. Cada persona
tiene un valor medio característico, siendo más baja la frecuencia en los hombres
que en las mujeres porque las cuerdas vocales masculinas son más largas
(vibran más despacio y generan una voz más grave).
Mientras hablamos, la frecuencia fundamental sube y baja configurando la
entonación prosódica de la frase. La entonación desempeña un papel importante
en el procesamiento sintáctico para la comprensión del lenguaje.

La suma de ondas simples forma ondas complejas, que son las que están
presentes en la naturaleza. Hay dos tipos:
➢ Periódicas: tienen patrones complejos de vibración que se repiten
periódicamente. Son percibidas como un sonido que tiene tono o
tonalidad (p. ej., las notas musicales).
➢ Aperiódicas: no se aprecian patrones repetitivos. Se perciben como ruidos
sin tono (p. ej., un golpe).
En el lenguaje también se pueden encontrar estos tipos de ondas complejas:
➢ Periódicas: corresponden a los sonidos sonoros producidos por la
vibración de las cuerdas vocales (p. ej., vocales y consonantes sonoras
como /b/, /d/, /g/…).
➢ Aperiódicas: corresponden a los ruidos o sonidos sordos producidos por
el paso del aire a través de un sitio estrecho o por una pequeña explosión
generada por la liberación brusca de una obstrucción (p. ej., consonantes
sordas como /s/, /f/, /p/…).

Elisa Ruiz Ortega


2020-2021
Las ondas lingüísticas son continuas, y sólo parecen ser interrumpidas (aunque
no se interrumpe en realidad) por las consonantes oclusivas (sonido /k/).
Además, el lenguaje humano es rítmico y está formado por una sucesión de
elementos silábicos que alternan momentos de mayor y menor energía.

Una onda acústica contiene mucha información que no se puede observar a


simple vista. Los espectrógrafos son máquinas que analizan los componentes
frecuenciales de los sonidos y los representan en los espectrogramas. Estas
máquinas están compuestas por filtros ajustados a diferentes frecuencias
específicas que se activan cuando la energía pasa a través de dicha frecuencia
o próxima a ella.
Una vez grabado el sonido que se quiere analizar, se forma el espectrograma,
en el que aparecen representadas las tres dimensiones básicas del sonido:
➢ Eje horizontal: tiempo.
➢ Eje vertical: frecuencias.
➢ Intensidad del dibujo: amplitud.

Elisa Ruiz Ortega


2020-2021
Hoy en día, los espectrogramas se obtienen a través de software especializados.

Los formantes son las franjas oscuras horizontales que se observan en la mitad
inferior del espectrograma y corresponden a las resonancias de la garganta o
frecuencias potenciadas por la forma del conducto o tracto vocal. Dependiendo
de la forma del tubo vocal durante la articulación de las palabras, los formantes
aparecerán en diferentes posiciones o frecuencias, lo que resulta clave para
identificar los fonemas y entender el lenguaje.
Podemos entender frases completas basándonos sólo en dos o tres ondas
puras, si estas siguen las trayectorias de los formantes. Remez et al. llevaron a
cabo un experimento al respecto, demostrando que con un entrenamiento
mínimo cualquiera podría entender una frase completa escuchando sólo el
estímulo artificial.

Elisa Ruiz Ortega


2020-2021
¿Es posible reconstruir artificialmente la onda completa del sonido a partir de un
espectrograma para ser escuchada? Este fenómeno se conoce como “síntesis
del habla” y es lo contrario del análisis (proceso anterior). Con el desarrollo de la
electrónica han ido surgiendo distintos sistemas de síntesis de voz.

2. Rasgos generales de la percepción del habla.


Los procesos perceptivos tienen que ser rápidos y robustos porque el lenguaje
hablado es efímero. Así, la percepción del habla se caracteriza por:
➢ Rapidez: nuestra capacidad de resolución temporal acústica es muy
limitada (7-9 unidades por segundo), más allá, la velocidad de los sonidos
se confunde y se empieza a oír una especie de zumbido indiferenciado
que termina convirtiéndose en un tono.
Cuando escuchamos hablar a alguien estamos percibiendo entre 20-30
segmentos por segundo sin ningún problema para ser identificados.

➢ Robustez: la capacidad para identificar los sonidos del habla es muy


robusta, pudiendo hacerlo en las condiciones de ruido más adversas. El
habla es sumamente resistente a la deformación, así, se puede alterar un
mensaje en gran medida, y seguiremos siendo capaces de entenderlo.

Elisa Ruiz Ortega


2020-2021
➢ Complejidad: en la actualidad, el software más complejo aún no puede
emular con fiabilidad el reconocimiento del habla. Es posible que un
ordenador, con ciertos límites, pueda reconocer el lenguaje y convertirlo
a texto, pero hay que tener en cuenta:
✓ Los sistemas que funcionan con hablantes múltiples sólo pueden
manejar un número limitado de palabras.
✓ Los sistemas que reconocen muchas palabras sólo funcionan con
un hablante, y deben haber sido entrenados previamente con esa
voz.
✓ Las palabras son confundidas con otras semejantes con
frecuencia.
✓ Ruidos externos pueden ser identificados como consonantes.
Sin embargo, nuestro sistema natural de percepción es altamente flexible
y adaptable a la gran variabilidad de la señal del habla humana.
➢ Automática: la mayor parte de los subprocesos implicados en la
percepción del habla son de naturaleza automática.
➢ Diferente: la percepción del habla difiere de la de los sonidos en general
en que:
✓ Pueden identificarse entre 20 y 30 unidades por segundo, frente a
las 7-9 de otro tipo de sonidos.
✓ En cualquier ámbito de la percepción, nuestra maquinaria cognitiva
está diseñada para que nos resulte más sencillo discriminar entre
estímulos que identificarlos. Sin embargo, en el habla ocurre lo
contrario, identificamos mejor los estímulos, lo que supone que
comparamos un único estímulo percibido con la representación
mental de nuestra memoria.
Cualquier persona puede discriminar entre unos 350.000 tonos puros
distintos, pero sólo puede identificar unos pocos. La percepción del habla
sigue la pauta contraria: hay sonidos fonéticos, como las consonantes
oclusivas, que son difíciles de discriminar cuando pertenecen a la misma
categoría (p. ej., las variaciones de /p/, /b/ o /k/). Dichas variaciones son
físicamente distintas, y si se tratase de tonos puros sí podríamos
distinguirlas, pero en un contexto de habla no.
Cuando percibimos 20-30 fonemas por segundo los comparamos con las
representaciones mentales almacenadas en nuestra memoria.
➢ Ausencia de invarianza: la percepción del habla es un proceso por el que
una señal acústica continua y muy variable activa representaciones
mentales discretas y estables de los fonemas de una lengua. Así, por
ejemplo, las ondas que suenan /a/ deben tener algo en común que no
tienen las ondas que suenan /e/, y es ese algo lo que capta nuestro
sistema perceptivo y que se ha denominado “invarianza fonética”.
¿Dónde está la invarianza físicamente? Puede estar camuflada dentro de
la información de la onda y sólo podemos acceder a ella con un análisis
más complejo que la inspección de la onda. En el caso de las vocales, los
espectrogramas muestran que la invarianza acústica puede estar en los
formantes.
En el caso de las consonantes oclusivas, la invarianza no aparece en la
señal acústica, produciéndose lo que se conoce como ausencia de
invarianza del estímulo del habla. Sin embargo, nuestro sistema

Elisa Ruiz Ortega


2020-2021
perceptivo sí la encuentra, porque si no, no podríamos identificar esos
fonemas.

¿Existe un mecanismo especial para percibir el habla? Actualmente es una


pregunta sin respuesta, para la que la investigación ha dado argumentos a favor
y en contra:
➢ A favor: debido a la evolución, el ser humano ha desarrollado un
mecanismo distinto al de la percepción general de los sonidos, que
procesa el habla humana. La formulación más radical considera que este
mecanismo actuaría como un módulo de funcionamiento rápido y blindado
a la influencia externa. En este sentido, se activaría en cuanto estuviera
expuesto a sonidos del lenguaje y se impondría sobre el mecanismo
general de la percepción auditiva.
➢ En contra: lo especial es el habla, no el mecanismo perceptivo, ya que el
lenguaje se percibe igual que cualquier otro sonido.

2.1. Percepción de las vocales.


El lenguaje humano es una sucesión de movimientos de apertura (vocales) y
cierre (consonantes) de la boca. En estas últimas se produce un
estrechamiento en la cavidad bucal que a veces es completa, mientras que en
las vocales el sonido se produce sin dificultad.
Todas las lenguas del mundo tienen ambos tipos de sonidos, siendo habitual
que haya una media de cinco vocales, que pueden ser:
➢ Anteriores: lengua en posición delantera (p. ej., /i/ o /e/).
➢ Centrales (p. ej., /a/).
➢ Posteriores: lengua en posición trasera (p. ej., /o/ o /u/).
También se clasifican según la posición de la lengua, que puede ser alta,
media o baja, y que determina el grado de apertura de la boca:
➢ Abiertas: /a/.
➢ Semiabiertas: /e/ y /o/.
➢ Cerradas: /i/ y /u/.

Elisa Ruiz Ortega


2020-2021
A) Papel de los formantes.
Los formantes corresponden a las frecuencias reforzadas por la forma que
adopta el tubo vocal en cada momento. En ellos reside la clave de la
percepción de las vocales porque:
➢ La síntesis de vocales artificiales demuestra que cuando se alteran
los formantes, el sonido resultante suena a una vocal distinta.
➢ El análisis de las vocales naturales mediante espectrogramas
muestra que a vocales distintas les corresponden formantes
diferentes, localizados en distintos niveles de frecuencia.
Los dos primeros formantes (F1 y F2), empezando a contar desde abajo
en un espectrograma, son los más importantes para la inteligibilidad (los
otros tres lo serán para la naturalidad). La investigación ha demostrado
que la mayor parte de las vocales pueden identificarse gracias a los dos
primeros formantes.
Cada vocal tiene un patrón característico de F1 y F2, tal como se observa,
desde la vocal más anterior /i/ a la más posterior /u/:

Se comprueba, pues:
➢ F2 es más alto cuanto más anterior es la vocal: el espacio que
queda delante del estrechamiento causado por la lengua es más
corto cuanto más anterior se sitúa la lengua.
➢ F1 es más alto cuanto más abierta es la vocal: F1 depende de la
abertura del tubo vocal, siendo /a/ la que tiene el F1 más alto de
todas.

B) Variabilidad de los formantes.


Los formantes dependen del tamaño y la forma del tracto vocal, por lo que
hay grandes diferencias individuales entre hablantes de distinto sexo y
edad. La frecuencia de los formantes es inversamente proporcional a la
longitud del tubo (desde las cuerdas vocales hasta los labios), por eso,
una misma vocal difiere mucho en los valores absolutos de sus formantes
en función de si es pronunciada por una mujer, un niño…

Elisa Ruiz Ortega


2020-2021
En promedio, los hombres adultos tienen un tracto vocal más largo y sus
formantes son más graves. Las mujeres tienen el tracto vocal más corto y
sus formantes son más agudos, lo que se acentúa más en el caso de los
niños.
Peterson y Barney llevaron a cabo un estudio sobre producción vocal y
representaron los valores de los formantes (denominados formánticos) F1
y F2 en un diagrama de dispersión:

En el diagrama aparecen conglomerados de puntos muy extendidos en


grandes zonas ovaladas, una por cada clase de vocal, y cada punto
representa una vocal pronunciada por un participante.
Estos autores demostraron así:
➢ Alta variabilidad de los formantes.
➢ Solapamiento entre las áreas vocálicas: distintas vocales
pronunciadas por distintos hablantes pueden coincidir en el plano
y tener valores formánticos iguales o muy parecidos.
A pesar de esto, los hablantes no tenemos problemas para entender el
lenguaje y percibir correctamente cada vocal. Esto puede significar que
tenemos un mecanismo perceptivo que nos permite distinguir entre una
/e/ dicha por un niño y una /i/ pronunciada por un adulto, aunque ambas
tengan los mismos F1 y F2.

C) Normalización de las vocales.


Las diferencias físicas entre hablantes provocan diferencias considerables
en los formantes de una misma vocal (p. ej., los formantes de un niño para
la vocal /a/ serán mucho más altos que los de un adulto para la misma
vocal). ¿Cómo podemos determinar que dos sonidos tan diferentes
corresponden a la misma vocal? Es necesario que ocurra un proceso de

Elisa Ruiz Ortega


2020-2021
estandarización o normalización que transforme los valores formánticos a
una escala común para que se puedan comparar.
La primera teoría en este sentido fue la de la razón entre formantes, por
la que la identificación de las vocales no depende de los valores absolutos
de aquellos, sino de su proporción F2/F1. Esto parece corroborarse
cuando se aplica a datos reales, pero no permite explicar todos los casos,
lo que significa que debe haber información adicional que los oyentes
usan para este proceso.

Se han propuesto otras hipótesis sobre la normalización:


➢ Modelos de normalización intrínseca: cada vocal contiene
suficiente información acústica para permitir la normalización. La
proporción F2/F1 es importante, pero es la información de la vocal
la que permite resolver la ambigüedad, concretamente el formante
F3 y la frecuencia fundamental de la voz.
➢ Modelos de normalización extrínseca: los oyentes necesitan
información externa para establecer un marco de referencia sobre
las características del hablante. Las vocales se perciben en
relación con el inventario completo de vocales de un hablante y
este se extrae de los fragmentos de habla precedentes; es decir,
que el oyente evalúa los formantes de la vocal según el rango de
valores contenidos en frases anteriores para esa misma vocal.

D) Percepción continua de las vocales.


Las vocales se perciben de forma continua y cualquier variación en los
formantes será percibida por los oyentes. De la misma forma, los cambios
continuos y graduales serán percibidos también de forma continua.
Si sintetizamos un conjunto de vocales artificiales cuyos formantes tengan
valores que vayan desde los típicos de una vocal a los de otra, todos los
estímulos intermedios serán percibidos como vocales intermedias entre
ambas.

Si se escuchan secuencialmente, los estímulos se percibirán como


sonidos de la vocal /i/ cada vez más abiertos hasta que se perciben como
sonidos de la vocal /e/.
Elisa Ruiz Ortega
2020-2021
2.2. Percepción de las consonantes.
Las consonantes se producen por movimientos o gestos articulatorios rápidos
que se imponen sobre los de las vocales. Al contrario de lo que sucede con
estas, las consonantes no pueden formar el núcleo de una sílaba (no existen
sílabas de una sola consonante), y de hecho, no se puede pronunciar algunas
consonantes si no van unidas a una vocal (p. ej., /p/, /t/, /b/…).

A) Transiciones formánticas.
Hay muchas pistas perceptivas en la señal del habla para la identificación
de los sonidos consonánticos, siendo la más importante las transiciones
de los formantes vocálicos. Cuando pronunciamos una vocal aislada, sus
formantes presentan una apariencia estable, pero si esta va unida a una
consonante (p. ej., /pa/), la trayectoria formántica se alterará hacia arriba
o hacia abajo por influencia de esta.

Estas inclinaciones están causadas por la presencia de una consonante y


se conocen como transiciones formánticas. Son especialmente evidentes
en las consonantes oclusivas (p. ej., /p/, /t/, /b/…). Para percibir las
consonantes son importantes las transiciones de F1 y F2, sobre todo de
este último.

Elisa Ruiz Ortega


2020-2021
Así, nuestro sistema perceptivo utiliza estas transiciones para identificar
los distintos sonidos consonánticos del habla. Hay que tener en cuenta,
en este sentido, que las relaciones entre consonante y vocal no son
simples, esto es, no todas las /d/ darán lugar a una transición hacia arriba,
por ejemplo, sino que se trata de algo mucho más complejo.

B) Percepción categórica.
Los sonidos consonánticos, a diferencia de los vocálicos, son percibidos
de forma discreta o categórica, no de forma continua. Liberman et al.
hicieron un experimento sintetizando una serie de 14 estímulos formados
por representaciones esquemáticas de F1 y F2 para ser escuchados por
un sintetizador de voz.
Todos los estímulos eran iguales, excepto en la transición de F2, que
variaba de forma gradual desde un inicio bajo hasta uno alto.

La mayoría de los participantes percibieron /be/, /de/ y /ge/, pero de forma


categorial. La parte estable de los formantes corresponde a la vocal /e/ y
las transiciones se deben a las consonantes. La percepción distingue
entre /b/, /d/ y /g/ en función del grado de inclinación de F2.
Si la percepción fuera continua, como en las vocales, se percibirían formas
intermedias de estas tres vocales, pero esto no es lo que sucede. Parecen
existir valores críticos en la transición de F2 que, al ser superados, hacen
dejar de percibir una categoría de sonido y empezar a percibir otra, ello
sin diferencias dentro de cada categoría.

Los estudios sobre percepción categórica utilizan dos tipos de tareas:


➢ Discriminación de estímulos.
✓ Paradigma AX: se presenta un estímulo seguido de otro, que
puede ser el mismo o no, y la tarea consiste en decir si el
segundo es igual o diferente al primer estímulo.
✓ Paradigma ABX: se presentan dos estímulos seguidos que
siempre son distintos y después un tercer estímulo, que
siempre será igual a uno de los anteriores.
➢ Identificación de estímulos: se presenta un estímulo en cada
ensayo y la tarea consiste en identificar la consonante.

Elisa Ruiz Ortega


2020-2021
La discriminación y la identificación están relacionadas, porque dentro de
una misma categoría los estímulos son difícilmente discriminables, pero
cuando pertenecen a distintas categorías, la discriminación es perfecta.
Hay, pues, una discontinuidad en los resultados:
➢ Error dentro de la misma categoría.
➢ Desempeño casi perfecto entre categorías.
Esto no ocurre en la percepción continua de las vocales, donde los
resultados son proporcionales a la distancia entre los estímulos (cuanto
más distintos, mejor se discriminan).

C) Contraste sordo-sonoro.
El principal parámetro empleado en la investigación psicolingüística sobre
la percepción del lenguaje es el conocido como VOT (voice onset time).
En función del valor que adopte, percibiremos una consonante oclusiva
sorda (p. ej., /p/, /t/, /k/) o una oclusiva sonora (p. ej., /b/, /d/, /g/).
En castellano, estas consonantes se organizan según su punto de
articulación en labiales, dentales y velares:

Cuando pronunciamos una consonante oclusiva en posición inicial de


sílaba, se produce la siguiente secuencia de movimientos:
➢ Movimiento 1: interrupción completa de la salida del aire de la boca.
La oclusión se realiza:
✓ Labiales: se realiza con los labios en las consonantes /p/ y
/b/.
✓ Dentales: se realiza con la lengua contra los dientes en las
consonantes /t/ y /d/.
✓ Velares: se realiza con la parte posterior de la lengua contra
el velo del paladar en las consonantes /g/ y /k/.
➢ Movimiento 2: los órganos fonadores se separan bruscamente,
liberando el aire a presión y dando lugar a una pequeña explosión.
➢ Movimiento 3: las cuerdas vocales empiezan a vibrar para el inicio
de la vocal que sigue a la consonante.
La coordinación de estos movimientos se lleva a cabo en el área de Broca.
Así, la diferencia perceptiva entre los tres tipos de consonantes oclusivas
viene determinada por la relación temporal entre los dos últimos
movimientos articulatorios (milisegundos). Tomando el segundo

Elisa Ruiz Ortega


2020-2021
movimiento como cero, el VOT puede ser positivo (movimiento 2 –
movimiento 3) o negativo (movimiento 3 – movimiento 2).
Por su parte, las oclusivas sordas tienen un VOT más largo que las
sonoras. Hay límites críticos entre las dos categorías y que difieren en
cada idioma.

¿Hay percepción categórica en sonidos que no sean del habla? En ciertas


condiciones, parece que algunos estímulos se perciben de forma
discontinua, pero trabajos más recientes indican que sí es posible
diferenciar estímulos de una misma categoría fonética.
La percepción categórica permite a los oyentes centrarse en los aspectos
de la señal importantes para identificar los fonemas e ignorar las
variaciones no esenciales. Según Ryalls, la percepción categórica no está
presente en los sonidos de no habla; además, representa una forma de
manejar la gran variación entre las producciones diferentes de un mismo
sonido que son típicas del lenguaje humano. Así, las variaciones
irrelevantes entre distintas producciones de un sonido se ignoran para
acelerar el reconocimiento (lo contrario supondría decidir qué fonemas
asignamos a ciertos sonidos ambiguos).
Recuadro 5-4. Problemas en la percepción del habla.
Percibir el habla es una tarea muy compleja que requiere unos mecanismos igualmente complejos.
Prueba de ello es lo difícil que está resultando construir máquinas capaces de realizar esa tarea, a
pesar del esfuerzo y dinero que desde hace tiempo se vienen invirtiendo.
Hay varios factores que dificultan la percepción del habla:
- Ruido ambiental: normalmente oímos las conversaciones en ambientes ruidosos (en la calle, en la
cafetería, etc.) en los que tenemos que separar el habla de otros sonidos.
- Diferencias individuales: hay una gran disparidad en la forma en que pronuncian las palabras las
diversas personas debido a las características de sus aparatos fonadores (gran variabilidad entre niños
y adultos, hombres y mujeres) y de sus dialectos y acentos.
- Superposición de hablas: muchas veces oímos al mismo tiempo varias conversaciones que se
superponen.
- Rapidez en la producción del habla: nuestro sistema perceptivo tiene que ser capaz de identificar con
gran rapidez los fonemas, ya que nos pueden llegar unos 20-30 por segundo.
- Rápido desvanecimiento del habla: contrariamente a la lectura, en la que las palabras permanecen
ante nuestros ojos todo el tiempo que queramos, en la percepción oral las palabras se desvanecen
muy rápidamente.
Pero hay sobre todo dos factores que convierten la percepción del habla en una tarea sumamente
compleja:
- El problema de la continuidad: el habla es continua y no segmentada en palabras.
- El problema de la ausencia de invarianza: no existe correspondencia exacta entre los estímulos
acústicos y los segmentos fonéticos.

Elisa Ruiz Ortega


2020-2021
3. Percepción del habla en animales.
Kuhl y Miller llevaron a cabo un experimento con chinchillas intentando reproducir
los estudios típicos de identificación con seres humanos. Encontraron que las
respuestas de estos animales fueron muy similares a las de los humanos ante
los mismos estímulos:
➢ La percepción es categórica.
➢ Las fronteras entre categorías varían igual que en las personas, es decir,
en función del punto de articulación de las consonantes.
En estudios posteriores se han encontrado resultados similares, lo que
rechazaría la hipótesis de la percepción categórica como manifestación de un
mecanismo especial humano, cuyos defensores aseguraban que a los animales
les falta este mecanismo y por ese motivo, no pueden decodificar la señal de
habla (lo cual ha sido desmentido ya).
En realidad, los resultados obtenidos por la investigación no invalidan per se la
posible existencia de un mecanismo especial en las personas, pero la percepción
categórica ya no puede tomarse como algo exclusivamente humano. Así,
debería entenderse como una propiedad general del sistema de audición de los
animales vertebrados, con diferencias de sensibilidad en su capacidad para
discriminar eventos temporales.

Por otra parte, se ha observado percepción categórica en sonidos que no son de


habla:

Elisa Ruiz Ortega


2020-2021
4. Teorías sobre la percepción del habla.
4.1. Teoría motora.
Liberman et al. propusieron la teoría motora para explicar la ausencia de
invarianza acústica del habla. Según esta teoría, el elemento común a los
espectrogramas de los mismos fonemas son los movimientos articulatorios
porque son los que originan el habla, así como las órdenes motoras del
cerebro para producir dichos movimientos.
Las órdenes motoras, según la teoría, son invariables para cada fonema y
tienen la constancia que no aparece en la señal. Los oyentes que perciben el
lenguaje son, a su vez, productores, por lo que podrían utilizar toda o parte de
la maquinaria neural necesaria para la reconstrucción de los gestos
articulatorios.
Según Liberman et al., no existe un mecanismo general de audición o
aprendizaje perceptivo, sino que la percepción depende de un decodificador
especializado en lenguaje único y propio de los seres humanos. Este
decodificador contendría información completa sobre las características
anatómicas y fisiológicas del tracto vocal y sobre las consecuencias acústicas
y articulatorias de los gestos lingüísticamente significativos.

Hay algunas evidencias que apoyan esta teoría:


➢ Los extranjeros mueven los labios mientras intentan comprender una
palabra en un lenguaje no familiar.
➢ Muchas personas sordas pueden comprender el habla a partir de los
gestos visibles articulatorios de otras personas.
➢ Efecto MvGurk: los oyentes combinan información visual sobre la
producción del habla con la información auditiva. Cuando ambas son
diferentes, el oyente percibirá un fonema con un punto de articulación
intermedio entre ambos.

Elisa Ruiz Ortega


2020-2021
4.2. Teoría realista directa.
En los años 80 Fowler desarrolló esta teoría como alternativa a la teoría
motora, planteando que el objeto de percepción es de tipo articulatorio o
motor, pero difiriendo en algunos puntos esenciales de la primera.
Este planteamiento se basa en la perspectiva ecológica de la teoría de la
percepción directa de Gibson, que considera que la estructura del estímulo
incorpora toda la información necesaria para percibir los objetos y eventos del
entorno. Así, animales y personas percibimos directamente todos los
elementos del entorno relevantes para la supervivencia. La percepción se
entiende como un proceso directo en el que no hay pasos intermedios ni
elaboración.
Fowler, por su parte, entiende que la percepción del lenguaje puede
caracterizarse de la misma forma que la percepción visual de las superficies
de los objetos. En el caso del lenguaje, los oyentes captarían directamente los
movimientos articulatorios productores de la misma manera que se perciben
otros sonidos del entorno.
La crítica principal a esta teoría se centra en la consideración de los gestos
articulatorios como objetos propios de la percepción del lenguaje. Por otro
lado, se pueden encontrar muchos ejemplos de situaciones en las que existe
percepción sin un conocimiento directo de los gestos (p. ej., cuando
escuchamos música).

4.3. Teoría auditiva general.


Kuhl y Miller, entre otros, aseguran que los mecanismos perceptivos
generales de la audición son los responsables de la percepción del lenguaje.
Según ellos, la percepción del lenguaje no se basa en la percepción de gestos
articulatorios, lo cual se demuestra gracias a la paradoja de las sílabas ya
mencionada (percepción de la misma consonante a pesar de las variaciones).
Según la teoría auditiva general, la percepción de la constancia o invarianza
no depende de la recuperación de gestos articuladores ni de un mecanismo
especial.
Una derivación de esta teoría es la hipótesis de la potenciación auditiva, que
defiende que los sistemas de sonidos de las lenguas se han adaptado para
convertirse en señales que potencian las características generales del sistema
auditivo. Así, las lenguas desarrollan un inventario de fonemas que optimiza
la distintividad fonética entre ellos en función de las capacidades auditivas
generales.

5. Efecto del contexto en la percepción del lenguaje.


El fin último de la percepción del lenguaje oral es extraer el significado de lo que
oímos, pero en este proceso hay dos fuentes de información que fluyen al mismo
tiempo.
➢ Información acústica del estímulo: hace que el sistema perceptivo-
cognitivo funcione de abajo-arriba (procesos bottom-up).
Elisa Ruiz Ortega
2020-2021
➢ Información en sentido contrario: fluye desde arriba-abajo (procesos top-
down), desde las representaciones sintácticas, semánticas y pragmáticas.
A esto se le conoce como efecto del contexto.

5.1. Restauración fonémica.


Warren propone que la información cognitiva procedente de procesos
superiores es capaz de suplir la información física ausente en la señal de
habla y restaurar el fonema que falta. Llevó a cabo un experimento en el que
sustituyó un fonema por un sonido no lingüístico de características generales
y descubrió que los participantes no percibieron la diferencia. Una vez
informados de las condiciones experimentales, el efecto seguía
produciéndose.
Este efecto, sin embargo, no ocurrió cuando los estímulos a percibir no eran
palabras, y cuando el fonema ausente se reemplazada por silencio, este era
detectado fácilmente. Así pues, parece que para que ocurra la restauración
fonémica es necesario algún material de entrada sobre el que reconstruir
perceptivamente el fonema ausente.
En otro experimento del mismo autor se presentaron frases idénticas con una
palabra a la que le faltaba una letra y siendo la última palabra distinta en todos
los casos. Los participantes aseguraron haber escuchado, en cada caso, una
palabra completa que guarda relación con la última, por lo que cabe
preguntarse si los oyentes percibían el fonema ausente (efecto perceptivo) o
lo adivinaban sin escucharlo (efecto post perceptivo).
Los datos parecen indicar que:
➢ La influencia de las palabras en la percepción de los fonemas es
perceptiva.
➢ La influencia de la frase es post perceptiva.

Elisa Ruiz Ortega


2020-2021
En el lenguaje escrito también se ha encontrado una restauración grafémica,
equivalente a la fonémica.
➢ Fenómeno de las letras ilusorias: es la capacidad de leer un texto en el
que hay palabras con algunas letras sustituidas por símbolos o
números parecidos a ellas.
➢ Sombreado de frases: consiste en repetir las palabras de una frase lo
más rápido posible, según se van escuchando. Si la frase no está bien
formada o si se trata de secuencias desordenadas de palabras, la
repetición será peor.

5.2. Efectos arriba-abajo de alto nivel.


Los procesos de alto nivel actúan desde las representaciones superiores de
la palabra, por lo que leemos mejor y más rápido un texto con estructura y
significado coherentes que un conjunto desordenado de palabras o sílabas.
Esto se debe a que en el primer caso podemos aprovechar la información
arriba-abajo y necesitaremos menos información estimular de abajo-arriba.
Sin embargo, en el segundo caso el procesamiento se basará exclusivamente
en la información del estímulo (abajo-arriba) y tendrá que ser analizado en
profundidad.
En resumen: cuanta más información arriba-abajo tengamos, menos
información entrante abajo-arriba necesitaremos. Esta idea se ve apoyada por
la percepción del habla en situaciones naturales de comunicación, ya que las
palabras presentadas en un fondo de ruido se perciben mejor en el contexto
de una frase que cuando están aisladas.

Elisa Ruiz Ortega


2020-2021
-TEMA 6-
Reconocimiento oral de palabras.

1. Introducción.
Reconocemos y comprendemos las palabras con gran rapidez y precisión,
teniendo en cuenta que una persona con una cultura media conoce entre 40.000
y 80.000 palabras.
La palabra se considera la unidad mínima de una lengua con significado, pero
en sentido estricto esta sería el morfema. El lexema es un tipo de morfema que
tiene significado por sí mismo y que constituye la raíz de una palabra (p. ej., en
la palabra “gatas”, “gat” es el lexema “a” es un morfema que indica género
femenino y “s” es otro morfema que indica número plural).
Los morfemas que por sí solos tienen significado y a los que no se les añade
nada más se denominan libres, y aquellos que se añaden a una raíz se llaman
ligados. De estos últimos hay dos tipos:
➢ Derivativos.
✓ Pueden ser prefijos (antes de la raíz) o sufijos (después de la raíz).
✓ Crean palabras nuevas al modificar el lexema (p. ej., “acuerdo” y
“desacuerdo”, donde “acuerdo” sería una palabra primitiva y
“desacuerdo” una derivada).
➢ Flexivos.
✓ Siempre son sufijos.
✓ No alteran el significado de la raíz, sino que indican número, género
o tiempo verbal.
Al evocar una palabra en nuestra mente activamos mucha información, como su
significado (más o menos preciso) o el conjunto de sonidos que componen la
palabra, la información ortográfica, morfológica y sintáctica. Esto supone que
cuando mantenemos una conversación y activamos palabras en nuestro cerebro
(2-3 por segundo) lo hagamos rápido y de forma muy eficiente.
Esta activación se produce también en el lenguaje escrito.

2. Estructura y organización del léxico.


2.1. Dos vocabularios básicos.
Dentro del vocabulario podemos distinguir entre:
➢ Palabras de clase abierta o de contenido.
✓ Grupo mayoritario.
✓ Significado pleno.
✓ Se incorporan nuevos términos.
➢ Palabras de clase cerrada, de función o “functores”.
✓ Número muy pequeño.
✓ Sin contenido semántico pleno.
✓ Modifican el significado de otras palabras y establecen
relaciones entre ellas.
Elisa Ruiz Ortega
2020-2021
✓ Papel clave en la construcción de oraciones.
✓ Uso muy frecuente.

La representación y el procesamiento de los dos tipos de vocabulario son muy


diferentes en varios aspectos:
➢ Lesiones cerebrales: una lesión puede afectar más a un tipo de
vocabulario que al otro.
✓ Afasia de Broca: mayor dificultad para el uso de palabras de
función.
✓ Afasia de Wernicke: los pacientes no entienden ni producen
palabras de contenido.
➢ Adquisición del lenguaje: la adquisición de las palabras de clase
cerrada es mucho más tardía que el de las palabras de contenido.
➢ Resultados experimentales y observacionales: la frecuencia de uso
influye mucho en la identificación de las palabras de contenido, pero no
en las de función.

2.2. Organización del léxico mental.


Comprender una palabra implica una serie de subprocesos muy rápidos y
automatizados de los que no somos conscientes hasta el resultado final. Si se
trata de emparejar la información del estímulo externo con estructuras de
información almacenada previamente en nuestra memoria, ¿cómo y dónde se
guarda esa información y cómo se organiza?
Tradicionalmente, Oldfield propuso la idea de un diccionario o léxico mental,
donde se incluirían “entradas léxicas” con:
➢ Representación fonológica.
➢ Representación ortográfica.
➢ Representación morfológica.
➢ Representación sintáctica.
➢ Representación semántica.
➢ Conceptos asociados a la entrada.

Elisa Ruiz Ortega


2020-2021
No toda esta información estaría siempre completa o sería precisa. Además,
puede suceder que falle la conexión entre algunas representaciones y no
seamos capaces de activar la información fonológica de una palabra, pero sí
la semántica (a esto se le conoce como fenómeno de la punta de la lengua).

A) ¿Listado exhaustivo o listado parcial?


Cabe preguntarse si en el léxico mental hay una entrada para cada
palabra (incluyendo todas aquellas que derivan de una palabra base) o si
hay una sola entrada de la que se derivan todas las variantes morfológicas
(p. ej., “comer”, “comió”, “comeríamos”), pero aún se desconoce la
respuesta.
Hay dos posibilidades:
➢ Hipótesis del listado exhaustivo: cada variante de cada palabra
tiene una entrada léxica.
➢ Hipótesis del listado parcial o segmentación obligatoria: el léxico
sólo incluye una lista parcial de entradas con los lexemas por un
lado y los afijos (prefijos y sufijos) por otro. Así, para identificar una
palabra habría que segmentarla, extraer su raíz y compararla con
el listado parcial de lexemas o formas base.
La investigación parece avalar esta explicación, ya que los tiempos
de reacción observados para la identificación de palabras que no
tienen prefijos, pero lo parece (p. ej., “interés” o “resultado”) son
mayores que las palabras control. De la misma forma, se han
encontrado tiempos de reacción superiores en el reconocimiento
de pseudopalabras compuestas por morfemas reales (p. ej.,
“floristero” o “panaderista”).
Los datos empíricos demuestran la existencia de una hipótesis mixta o
dual, según la cual existe:
➢ Listado exhaustivo: contiene palabras irregulares,
monomorfémicas y palabras regulares, pero muy familiares.
➢ Listado parcial: contiene palabras morfológicamente complejas y
regulares de forma segmentada (raíz y afijos).
Ambas partes se procesan por separado y se unen después, lo que resulta
muy útil con las palabras de baja frecuencia, de las que no es necesario
conocer todas sus formas derivadas para entenderlas y utilizarlas.
En cualquier caso, hay que tener en cuenta que la noción de morfema es
complicada desde el punto de vista psicológico.

B) Acceso léxico.
¿Cuál es la primera representación del estímulo externo que nos permite
acceder al léxico mental y activar la información de una palabra? Hay
varias unidades funcionales que podrían cumplir esta función, pero la
mayor parte de la investigación coincide en que intervienen dos
mecanismos:

Elisa Ruiz Ortega


2020-2021
➢ Activación: la información procedente del estímulo externo activa
un conjunto de candidatos posibles (representaciones).
➢ Competición: los candidatos compiten entre sí hasta que se
produce la identificación léxica.

3. Metodologías experimentales.
3.1. Técnica gatting (apertura sucesiva).
El último autor en desarrollar esta técnica ha sido Grosjean. Un estímulo
lingüístico (normalmente una palabra monosilábica) se presenta
secuencialmente en segmentos de tiempo cada vez mayores hasta que puede
ser identificado.
La VD es la duración mínima del estímulo que permite su identificación.

3.2. Detección de estímulos (monitoring).


Fue desarrollada por Foss, y consiste en pulsar un botón rápidamente cada
vez que aparece un estímulo determinado previamente. A la vez, el sujeto
tiene que procesar cierto material lingüístico. Así, el tiempo de reacción para
la detección del estímulo reflejará la carga de trabajo del sistema cognitivo
durante la tarea.

3.3. Decisión léxica.


Es una de las tareas más usadas en Psicolingüística, existiendo dos
modalidades:
➢ Visual (Rubenstein et al.): el sujeto tiene que decidir rápidamente si un
estímulo formado por letras es una palabra de su idioma o no.
➢ Auditiva (McCusker et al.): el sujeto tiene que decidir si los sonidos que
escucha forman una palabra o no.
En ambas modalidades, la VD es el tiempo de reacción, aunque también se
puede tener en cuenta la proporción de errores (que es otra VD).

3.4. Otros métodos.


Existen otros procedimientos:
➢ Tareas de decisión o categorización semántica: el sujeto tiene que
decidir rápidamente en función de preguntas de contenido semántico
(p. ej., “¿la naranja es una fruta o una verdura?”).
➢ Tareas de categorización sintáctica: el sujeto tiene que decidir
rápidamente en función de preguntas de contenido sintáctico (p. ej.,
“¿papel es masculino o femenino?”).
➢ Tarea de localización de palabras o wordspotting (Cutler y Norris): se
administra por vía auditiva una lista de palabras sin sentido, algunas de
las cuales incluyen en su interior una palabra que el sujeto debe
detectar lo más rápido posible.

Elisa Ruiz Ortega


2020-2021
Hay que tener en cuenta que no hay ninguna tarea que per se refleje sólo el
proceso que pretende estudiar, ya que todas incorporan inevitablemente otros
procesos que pueden “contaminar” los resultados (como en la tarea de
decisión léxica, donde se añade el proceso de decisión, que aumenta el
tiempo de reacción).

4. Variables que influyen en el reconocimiento de las palabras.


4.1. Punto de unicidad.
En el lenguaje oral hay una secuenciación temporal de los fonemas que
forman una palabra (llegan al oído del receptor uno tras otro). El punto de
unicidad es aquel en el que la palabra se convierte en única dentro de las que
forman nuestro idioma.
Cuando percibimos el primer fonema de una palabra, se activan todas las
palabras de nuestro léxico que empiecen por el mismo fonema; cuando nos
llega el segundo, muchas palabras de esa lista serán descartadas por no
coincidir, y así seguirá sucediendo hasta que percibamos un fonema con el
que sólo quede activa una palabra.
Este punto constituye una variable determinante en el tiempo que empleamos
en reconocer una palabra, porque si el punto de unicidad se encuentra más al
inicio de la misma, la identificación será rápida, pero si se encuentra al final,
tardaremos más.

4.2. Frecuencia léxica.


Las palabras que se usan con más frecuencia se pueden reconocer antes y
más rápido que las menos frecuentes. Para poder cuantificar esta variable de
forma fiable se han elaborado diccionarios de frecuencia, que se construyen
haciendo recuentos a partir de un conjunto amplio de muestras naturales de
lenguaje en distintos ámbitos. En la mayoría de los idiomas la pauta general
es que hay unas pocas palabras (sobre todo las de función) que se repiten
mucho, mientras que otras se usan mucho menos.
El léxico informatizado del español o LEXESP, de Sebastián-Galles et al.
contiene más de cinco millones de unidades léxicas escritas, extraídas de seis
dominios lingüísticos diferentes para determinar su frecuencia relativa y
absoluta.
El problema de estos diccionarios es que se construyen a partir de muestras
de textos escritos y no se puede asumir que el lenguaje oral y el escrito sean
equivalentes, por lo que las frecuencias determinadas podrían no ser
adecuadas para el lenguaje oral. Estos diccionarios se basan en el lenguaje
escrito porque es menos costoso, pero ya se ha llevado a cabo alguna
investigación en este sentido utilizando subtítulos de películas.

Foss empleó la tarea de detección de fonemas para explicar los efectos


cognitivos de la frecuencia léxica. Esta consiste en escuchar un estímulo de
habla continua y realizar dos tareas a la vez: entender el mensaje y pulsar el
Elisa Ruiz Ortega
2020-2021
botón cada vez que aparece el fonema /b/ en el mismo. Encontró que la
latencia de respuesta era menor cuando el fonema aparecía después de una
palabra frecuente, probablemente porque esto exige menor carga de
procesamiento que una palabra poco habitual.
La verdadera variable psicológica es la familiaridad subjetiva que cada
persona tiene con cada palabra, lo que vendrá determinado por la historia
biográfica de cada uno y no por las veces que esté contabilizada en un
diccionario de frecuencias. Esta familiaridad se puede medir a través de
estudios normativos en los que las personas dan puntuaciones a conjuntos de
palabras sobre una escala de familiaridad.
A pesar de lo dicho, la investigación demuestra que las puntuaciones
subjetivas guardan una estrecha relación (r>0,80) con los índices objetivos
obtenidos en los recuentos estadísticos.

¿En qué subproceso específico incide el efecto de la frecuencia léxica? Balota


y Chumbley defienden que si la frecuencia influye directamente en el acceso
léxico su efecto debe ser visible en cualquier tarea que implique dicho acceso.
Sin embargo, esto no siempre sucede. En sus investigaciones, estos autores
no pudieron demostrar el efecto de la frecuencia en la tarea de categorización
semántica.
Balota y Chumbley creen que el efecto de la frecuencia presente en las tareas
de decisión léxica se debe a las peculiaridades de la propia tarea (en concreto
a la toma de decisión) y consideran que la frecuencia de uso no influye
realmente en el acceso al léxico mental, sino en el proceso post léxico de la
toma de decisión. Lo mismo ocurriría en la tarea de detección de fonemas.
Esta cuestión aún sigue debatiéndose, pero es difícil aislar el efecto de esta
variable del efecto de las demás, porque normalmente están relacionadas.

4.3. Edad de adquisición.


Esta variable es muy determinante en el reconocimiento de las palabras,
incluso hay algunos autores que aseguran que lo es más que la frecuencia de
uso. Ambas están muy relacionadas porque, normalmente, los niños
aprenden antes las palabras más frecuentes. De este hecho se deduce que
la investigación realizada sobre la frecuencia de uso, sin tener en cuenta la
edad de adquisición, obviaba los efectos de esta última y se los atribuía
erróneamente a la primera.
En la actualidad, los estudios ya analizan las dos variables, aunque
dependiendo de la tarea una u otra tiene mayor efecto.
➢ Tarea de decisión léxica: mayor influencia de la frecuencia de uso.
➢ Tarea de categorización semántica: mayor influencia de la edad de
adquisición.
Un problema de esta variable es que es más difícil de cuantificar, porque es
complicado saber cuándo aprenden los niños cada palabra. Una forma de
averiguarlo es presentar a los niños dibujos para que los nombren, ya que si
lo hacen es que han adquirido esa palabra. Sin embargo, es un método arduo
Elisa Ruiz Ortega
2020-2021
si lo que se quiere es conocer la edad de adquisición de una base de datos
amplia.
Por ello, la medida más utilizada es la escala subjetiva de edad de adquisición,
que se obtiene presentando una lista de palabras a adultos para que puntúen
sobre una escala la edad a la que creen que aprendieron cada palabra.
Aunque pueda sorprender, los valores obtenidos mediante este procedimiento
se relacionan estrechamente con los obtenidos presentando dibujos a los
niños.

4.4. Lexicalidad.
En la tarea de decisión léxica, el tiempo necesario para determinar que un
estímulo es una palabra es más corto que para determinar que no lo es, pero
esto ocurre sólo con una condición: que los estímulos que no son palabras
reales se ajusten a las normas:
➢ Ortográficas: tienen que contener secuencias admitidas en el idioma.
➢ Fonológicas: tienen que ser pronunciables.
A esto se le conoce como pseudopalabras. En el caso de que las palabras no
reales que se presenten no cumplan estas dos condiciones, el tiempo de
reacción del sujeto disminuirá considerablemente porque el sujeto ni siquiera
accederá al léxico para buscarla (p. ej., “khdsfkadsj” será rechazada de
inmediato por no ser una secuencia admitida en nuestro idioma ni ser
pronunciable).
Por último, aquellas pseudopalabras que se parecen mucho a palabras que sí
son de nuestro idioma tardan más en ser rechazadas (p. ej., “camaler”, que
incluye la palabra cama).

4.5. Vecindad fonológica.


Este concepto hace referencia a las palabras que comparten todos los
fonemas, excepto uno, con otra palabra (p. ej., “topo” y “toro” son vecinas de
“tono”). En la mayoría de los estudios se ha encontrado que cuantos más
vecinos tenga una palabra, más nos costará reconocerla.
También es importante la frecuencia léxica de los vecinos, porque si se trata
de palabras muy habituales, será más difícil su inhibición y, por tanto, el tiempo
de respuesta en el reconocimiento aumentará.

4.6. Efecto del contexto (priming).


Gracias a los estudios de Cattell en el s. XIX sabemos que las palabras se
reconocen más rápido cuando van precedidas de un contexto con el que
guardan relación. Al efecto del contexto previo en el reconocimiento se le
conoce como priming.
Los efectos del priming (facilitadores o inhibidores) se evalúan siempre
comparando los tiempos de reconocimiento de la palabra cuando va
precedida del contexto (prime) respecto de cuando le precede una palabra no

Elisa Ruiz Ortega


2020-2021
relacionada. Además, hay que tener en cuenta que sólo afecta a las palabras
reales, por lo que se trata de un efecto lingüístico y no perceptivo.
Hay varios tipos de priming:
➢ Semántico.
➢ Fonológico.
➢ De repetición.
➢ Afectivo.
➢ Sintáctico.

4.7. Otras variables.


A) Imaginabilidad.
Se trata de la facilidad con la que nos podemos imaginar el significado de
una palabra (p. ej., es más fácil imaginar un gato que una verdad). Las
palabras concretas y altamente imaginables se recuerdan mejor que las
abstractas y difícilmente imaginables en pruebas de memoria.
➢ Tarea de decisión léxica: menor TR con palabras concretas.
➢ Experimentos de priming: las palabras concretas facilitan mejor a
las concretas, mientras que las palabras abstractas facilitan mejor
a las abstractas.
Esta variable se mide a través de cuestionarios subjetivos en los que los
sujetos puntúan sobre una escala la facilidad que tienen para imaginarse
una palabra. Hay que tener en cuenta que, aunque se relacione con la
concreción o abstracción de las palabras, se trata de fenómenos
diferentes.

B) Polisemia.
Una palabra polisémica es aquella que tiene varios significados (p. ej.,
“banco”). Se ha encontrado que las palabras con mayor número de
significados se reconocen más rápido que otras con pocos, especialmente
si se trata de palabras de baja frecuencia de uso.
Hay que distinguir este tipo de palabras de las homógrafas (p. ej.,
“botones” o “vino”), que se escriben igual, pero son palabras diferentes
con distintas entradas en el diccionario. En el caso de “botones”, puede
hacer referencia a la persona que trabaja en un hotel en dicho puesto
como a los botones de una camisa.

C) Morfología.
¿Cómo se representan las palabras morfológicamente complejas en el
léxico y cómo accedemos a ellas en el proceso de reconocimiento? La
investigación en este sentido se ha producido más en castellano que en
inglés, debido a la gran riqueza morfológica de nuestro idioma.
Se han propuesto dos alternativas:

Elisa Ruiz Ortega


2020-2021
➢ Hipótesis del listado exhaustivo: cada palabra compuesta tiene su
propia representación léxica, por lo que su frecuencia de uso
determinará el TR en el reconocimiento.
➢ Hipótesis del listado parcial o de segmentación obligatoria: las
palabras se segmentan en morfemas, accediendo a la raíz y a los
afijos de forma independiente. Lo que determinará el
reconocimiento es la frecuencia de la raíz y de los afijos.
Como ya se ha mencionado, en la actualidad se defiende una hipótesis
mixta en la que se asume que las palabras de morfología irregular y las
más frecuentes tienen su propia representación y las palabras regulares
y las de baja frecuencia se descomponen en raíz y afijos.

D) Contenido emocional.
En igualdad de condiciones, los TR son más rápidos en el reconocimiento
de palabras con una alta carga emocional. Un caso particular serían las
palabras tabú, que se ha demostrado que no se procesan igual que otras
y son mejor recordadas en pruebas de memoria.

5. Modelo de reconocimiento de palabras.


5.1. ¿Por qué un modelo?
Los modelos intentan dar una explicación de la realidad ofreciendo una visión
unificadora sobre fenómenos dispersos cuya conexión no siempre es
evidente. Parten de datos de la propia realidad, pero constituyen una fuente
de nuevas hipótesis que tienen que ser verificadas, esto es, tienen capacidad
predictiva.
No existe un modelo perfecto, pero lo ideal es que se cumpla el principio de
falsabilidad de Popper, que establece que una teoría debe poder refutarse por
los datos empíricos. Según este autor, una teoría psicológica debe plantear
hipótesis específicas empíricamente verificables a priori para resultar útil.

5.2. Modelos de acceso directo: modelo del logogén.


Morton planteó este modelo en los años 70, según el cual, cada palabra que
conocemos estaría representada en nuestra memoria por un dispositivo
denominado “logogén”, un mecanismo que acumula activación respecto a una
palabra. Cuando se alcanza un determinado umbral de activación prefijado, el
logogén se dispara y reconocemos la palabra.
Así, cuando entra información en el sistema o conjunto de logogenes, estos
acumulan activación sobre sus palabras hasta que uno alcanza el umbral
necesario y resulta ganador en la competición para la identificación de
palabras. Mientras no están activos mantienen un nivel de activación basal.

Elisa Ruiz Ortega


2020-2021
En este modelo, la búsqueda léxica no es serial, sino que desde el principio
toda la información es accesible al sistema de logogenes, que reciben la
activación en paralelo desde tres fuentes:
➢ Representaciones ortográficas: análisis visual de las palabras escritas.
➢ Representaciones auditivas: palabras habladas.
➢ Representaciones semánticas: procedentes del sistema cognitivo.

El sistema de logogenes no distingue entre fuentes, toma las tres como


externas. Cuando la información entra en el sistema tiene el mismo valor
funcional independientemente de cuál sea su origen (fuente interna o externa),
explicándose así el efecto del contexto. Morton asegura que cuanta más
información tienen los logogenes procedente del sistema cognitivo, menos
información sobre el estímulo requerirán para identificar las palabras.
De esta forma, mientras leemos o escuchamos un mensaje, nuestro sistema
cognitivo construye en tiempo real una representación del significado del
mismo, por lo que la información que se envía al sistema de logogenes sobre
ese mensaje preactivará determinadas palabras coherentes con él. Gracias a
este efecto del contexto, los logogenes requerirán menos información de
entrada para llegar a su umbral de activación e identificar las palabras.
Este modelo es interactivo porque la información contextual influirá sobre el
reconocimiento de palabras desde el primer momento.

El modelo del logogén explica la mayor parte de los fenómenos conocidos en


el momento de su formulación, como:
➢ Priming de repetición: cuando un logogén se activa al identificar una
palabra, su activación desciende hasta el nivel de reposo
gradualmente, por lo que aquellas palabras recién activadas retendrán
una activación residual superior a la de reposo durante un tiempo. Esto
significa que, si en ese período se vuelve a activar el mismo logogén,
este se disparará antes y reconoceremos la palabra más fácilmente.
Elisa Ruiz Ortega
2020-2021
➢ Efecto de la frecuencia léxica: cada logogén tiene un umbral de disparo
distinto, así que las palabras de alta frecuencia, que se han presentado
más veces al sistema de logogenes, están asociadas a logogenes con
umbrales de disparo más bajos (es más fácil que se activen).

➢ Priming semántico: los logogenes están conectados entre sí y su


activación se extiende a los más cercanos. Es por esto que las palabras
semánticamente próximas tienen logogenes cercanos que
comunicarán más probablemente sus activaciones.

Elisa Ruiz Ortega


2020-2021
Por ejemplo, si leemos la palabra “hospital” se activará su logogen y
dicha activación se comunicará a logogenes próximos, como “doctor”,
“enfermedad” o “ambulancia”. Si en ese momento entra información
congruente con estas últimas palabras, sus logogenes se dispararán
antes por la activación recibida desde el logogén “hospital”.

¿Cómo se procesan las no palabras según este modelo? Coltheart et al.


proponen que hay un tiempo límite para que el sistema de logogenes se active
e identifique una palabra, si esto no sucede, el estímulo se rechazará como
no palabra. En cambio, si este se parece a alguna palabra real, el rechazo
será más lento porque habrá una activación parcial de logogenes.
Una debilidad importante de este modelo es que predice que un cambio en la
modalidad por la que se recibe la información no afecta a los procesos de
facilitación (priming), es decir, que la previa presentación de un estímulo por
vía visual no provoca el efecto de priming por vía auditiva o viceversa. Sin
embargo, la investigación ha demostrado que esto no es así.
Teniendo esto en cuenta, Morton et al. plantearon una nueva versión del
modelo para tratar de resolver el problema:

En esta versión se consideran tres sistemas distintos de logogenes, uno por


cada modalidad sensorial (visual y auditiva) y uno de salida. Así, los sistemas
permanecen separados, sin influencias entre modalidades. A pesar de este
nuevo nivel de complejidad del modelo, la evidencia experimental posterior ha
sugerido la necesidad de considerar cuatro sistemas, a saber, uno para leer,
otro para escribir, otro para escuchar y otro para hablar.

5.3. Modelos de búsqueda serial: modelo de Forster.


Estos modelos conciben mecanismos parecidos al que identifica una palabra
en un diccionario convencional. Se trata de buscar en las entradas léxicas,
Elisa Ruiz Ortega
2020-2021
que están ordenadas para facilitar la búsqueda, y una vez se ha localizado la
palabra, el diccionario ofrece toda la información almacenada sobre ella.
El modelo más conocido es el que Forster, propuesto en el s. XX, cuya
formulación original es:

La búsqueda en el diccionario se produce en dos etapas:


➢ A través de ficheros de acceso: hay tres tipos:
✓ Fichero de acceso ortográfico: información ortográfica de las
palabras escritas.
✓ Fichero de acceso fonológico: información acústica y fonológica
de las palabras habladas.
✓ Fichero de información sintáctica y semántica.
➢ En un gran archivo principal o maestro: guarda toda la información del
léxico mental, incluyendo los significados, y contiene referencias
cruzadas y conexiones entre las palabras que están relacionadas
semánticamente.
Cuando leemos o escuchamos una palabra, el estímulo se convierte en una
representación perceptiva que se envía al fichero de acceso correspondiente
a la modalidad sensorial para su análisis. El fichero proporcionará un indicador
(como si de una referencia en una biblioteca se tratase) dirigido al fichero
principal.
Para acelerar el proceso, los ficheros de acceso están divididos en
compartimentos separados sobre la base de la primera sílaba o de las
primeras letras de la palabra buscada. Dentro de cada compartimento, los
ítems están ordenados por la frecuencia de uso, encontrándose las más
frecuentes al principio. Una vez se ha localizado la unidad en el fichero de
acceso, el indicador conducirá a la entrada correspondiente del archivo

Elisa Ruiz Ortega


2020-2021
maestro, donde se podrá acceder a toda la información lingüística de la
palabra.

Este modelo es de tipo modular porque la información de los niveles


lingüísticos superiores (oracional y supraoracional) no incide directamente en
el proceso de acceso a la información. Así, el efecto de contexto sólo puede
ocurrir a través de las referencias cruzadas dentro del fichero principal
(priming semántico posterior a la identificación).
El planteamiento de Forster ha recibido críticas dirigidas al mecanismo serial
que propone, que impediría un efecto de priming procedente de niveles
superiores de procesamiento (oraciones). Tampoco ha logrado explicar cómo
se pronuncian y procesan las no palabras. Por ello, el mismo autor modificó
en varias ocasiones la teoría inicial:
➢ Primera modificación: se asumen diferentes niveles de actividad para
las entradas en los ficheros de acceso, lo que permite explicar el
priming basado en las similitudes ortográficas entre estímulos.
➢ Segunda modificación: se incorpora un rasgo de paralelismo para
sugerir que dentro de cada fichero acceso se produce una búsqueda
simultánea en todos sus compartimentos.
Además del modelo de Forster se pueden destacar:
➢ Modelo de verificación de Becker: explicación más compleja del priming
semántico.
➢ Modelo del diccionario de bolsillo de Glanzer y Ehrenreich: tenemos
dos diccionarios mentales, uno con información sobre todas las
palabras y otro sólo con las palabras más comunes, como si se tratase
de un diccionario de bolsillo.

5.4. Modelos mixtos: modelo de cohorte.


El modelo de cohorte de Marslen-Wilson surge como una formulación mixta
de los dos anteriores, pero sólo es válido para la identificación de palabras
habladas. Según estos autores, en el reconocimiento de palabras se produce
una secuencia ordenada de etapas, pero en ellas se activan paralela y
simultáneamente varios elementos léxicos.
Lo que plantea esta teoría es que mientras escuchamos una palabra se activa
una cohorte (conjunto finito) de palabras congruentes con los sonidos
iniciales. Se trata de representaciones que compiten en el proceso de
identificación.
A medida que el estímulo se va recibiendo por el sistema perceptivo, la
cohorte inicial se reduce y se van desactivando los candidatos incompatibles
con la secuencia de sonidos hasta que sólo queda uno. Esto suele ocurrir
antes de llegar al final de la palabra. Así, cada palabra tiene un punto de
unicidad a partir del cual la palabra es única y se reconoce sin necesidad de
escuchar hasta el final.

Elisa Ruiz Ortega


2020-2021
Marslen-Wilson et al. emplearon la técnica del sombreado de frases y otros
estímulos lingüísticos para probar el modelo. Presentaban una frase a los
participantes que tenía que ser repetida lo más rápido posible, y encontraron
que las palabras se repetían con TR muy cortos, lo que significa que los
sujetos reconocían las palabras antes de terminar de escucharlas. En cambio,
en la repetición de no palabras, esto no ocurría.
Según estos autores, el punto de unicidad es distinto en cada palabra porque
depende de cuáles y cuántos sean los demás candidatos. En este sentido, la
información del contexto puede influir acelerando el proceso al eliminar
competidores de cohorte que son poco congruentes con el contexto.
A pesar del gran impacto del modelo de cohorte, presenta algunas
debilidades:
➢ Cualquier discrepancia del estímulo en su parte inicial lo excluiría de la
cohorte y su representación no podría ser activada ni identificada. En
cambio, los datos demuestran que esto sí ocurre.
➢ No se explica bien el efecto de la frecuencia léxica.

En los años 80 surgieron los modelos conexionistas como TRACE, propuesto


por McClelland y Elman para explicar el reconocimiento de palabras habladas.
Existen múltiples unidades simples que están conectadas entre sí y
organizadas en tres niveles de procesamiento:
➢ Primer nivel: las unidades de entrada analizan el estímulo en sus
rasgos fonológicos elementales.
Elisa Ruiz Ortega
2020-2021
➢ Segundo nivel: representa a los fonemas.
➢ Tercer nivel: representa a las palabras.
La información fluye en este esquema desde abajo hacia arriba y, al mismo
tiempo, los niveles superiores influyen sobre los inferiores para facilitarles la
tarea de reconocimiento. La característica más importante del modelo es que
da gran importancia a los procesos de arriba-abajo.

Dentro de cada nivel, las unidades (rasgos, fonemas y palabras) están


conectadas lateralmente entre sí por conexiones inhibidoras. Así, la entrada
de un estímulo activará distintas unidades en el nivel de los rasgos que
competirán entre sí inhibiéndose mutuamente. Por el contrario, las conexiones
entre niveles son excitatorias y bidireccionales, así, un rasgo “ganador” de la
competición en este nivel transmitirá su energía al siguiente, donde también
habrá inhibición. El proceso se repetirá de nuevo hasta llegar al nivel de las
palabras, donde el estímulo será identificado.
A la vez que ocurre este procesamiento abajo-arriba se da el proceso inverso
de arriba-abajo que ayuda a que en la competición “ganen” las unidades
coherentes con las representaciones superiores.

Este modelo ha resultado ser muy influyente para nuevos modelos interactivos
y conexionistas. Sus ventajas son:
➢ Puede ser implementado matemáticamente en ordenadores para hacer
simulaciones.
➢ Explica el efecto del contexto léxico y otros fenómenos asociados.
➢ Localiza los límites entre las palabras dentro de una cadena hablada.
➢ Funciona bien con estímulos ruidosos.

Elisa Ruiz Ortega


2020-2021
Sin embargo, también presenta algunos problemas:
➢ Es demasiado flexible: los parámetros que se ajustan a unos resultados
no suelen ajustarse igual de bien a otros.
➢ Segmenta el tiempo en el estímulo de entrada de forma poco realista.

6. Bases neurológicas.
La primera hipótesis sobre la percepción del habla planteaba que se producía a
través de la corteza auditiva; sin embargo, en los años 70 y 80 se produjeron dos
descubrimientos que contradecían ese planteamiento:
➢ Algunos trastornos de la capacidad de procesar sonidos del lenguaje
tienen poca relación con las dificultades de comprensión propias de la
afasia de Wernicke.
➢ La destrucción de la circunvolución temporal superior izquierda puede
coexistir con una comprensión normal del lenguaje, no así con la
producción oral, que se ve afectada.
Además, era conocido en esta época que la circunvolución transversa de Heschl
interviene directamente en el primer procesamiento de todos los sonidos, sean
lingüísticos o no. Este hecho unido a los dos anteriores ofrecían evidencias
difíciles de integrar en un marco teórico único.

A pesar de ello, Hickok y Poeppel plantearon un modelo de organización cortical


de la percepción del habla, según el cual, la entrada sensorial auditiva es
procesada a través de dos rutas neurales:
➢ Ventral (interior, abajo): constituye el sistema conceptual o del significado
y procesa la señal del habla para su comprensión. Se considera una ruta
bilateral, aunque con importantes diferencias entre ambos hemisferios (el
hemisferio derecho es más selectivo en su actuación que el izquierdo).
Pone en contacto el sonido con el significado.
La localización física de esta ruta abarca áreas de la parte media e inferior
de los lóbulos temporales, que están conectados entre sí a través del
cuerpo calloso (estructura de unión de ambos hemisferios) y estructuras
subcorticales.

Elisa Ruiz Ortega


2020-2021
➢ Dorsal (exterior, arriba): constituye el sistema articulatorio-motor y
proyecta la información sobre las redes articulatorias del lóbulo frontal
izquierdo. Está fuertemente lateralizada en el hemisferio izquierdo.
La localización física de esta ruta se extiende desde la parte posterior del
lóbulo temporal hasta el lóbulo frontal, concretamente el área de Broca, y
la corteza premotora en su posición dorsal.
Una lesión en la unión temporoparietal o en las fibras del fascículo
arqueado provocan la afasia de conducción (llamada síndrome de
desconexión), caracterizado por una buena comprensión oral y la
comisión de múltiples errores fonémicos en la producción verbal.

Según este modelo, la información sensorial se proyecta en el área auditiva


primaria y se procesa en primer lugar en la parte superior de los lóbulos
temporales (zona de fondo blanco en la imagen) en los dos hemisferios. En una
zona próxima se analizan las características espectrotemporales del estímulo,
sea lingüístico o no y posteriormente, si es una señal de habla, la información
neural se bifurca hacia la ruta ventral o la dorsal.

Elisa Ruiz Ortega


2020-2021
-TEMA 7-
Procesamiento semántico.

1. Introducción.
El reconocimiento no siempre implica comprensión, especialmente en el caso de
las palabras de baja frecuencia. Esta disociación entre palabras y significados
se explica porque ambos fenómenos responden a procesos diferentes que se
desarrollan en áreas cerebrales distintas. La comprensión ocurre después del
reconocimiento, motivo por el cual podemos reconocer una palabra, aunque no
recordemos su significado, pero no podemos comprenderla sin haberla
reconocido antes.
Locke distinguía entre:
➢ Intensión de la palabra: se refiere al significado y especifica las
propiedades que debe tener un objeto para pertenecer a un concepto o
clase.
➢ Extensión de la palabra: se refiere al conjunto de objetos que tienen
dichas propiedades.
La semántica hace una distinción entre:
➢ Denotación: significado objetivo de una palabra.
➢ Connotación: conjunto de implicaciones emocionales y subjetivas que
cada persona asocia a una palabra.

¿Qué es el significado? La teoría referencial del significado lo define como el


objeto o referente al que una palabra hace referencia. Esta teoría puede servir
para los nombres propios, no así para las palabras abstractas (p. ej., justicia o
comodidad). De hecho, también plantea problemas en el caso de las palabras
concretas.
Es necesario que agrupemos los objetos “equivalentes” en clases que requieran
una respuesta similar y les asignemos una etiqueta verbal. Tulving distingue
entre dos tipos de memoria:
➢ Semántica: información almacenada en la memoria sobre los conceptos.
Es información abstracta desligada de cualquier tiempo y espacio.
➢ Episódica: asociada a un evento o situación específica.

1.1. Metodologías de investigación.


Para estudiar el sistema semántico se utilizan:
➢ Categorización semántica (más lenta): el sujeto tiene que decidir si un
concepto pertenece a una categoría semántica o no.
➢ Decisión léxica (más rápida): consiste en que el sujeto tiene que decidir
a cuál de dos categorías semánticas pertenece un concepto.
➢ Asociación de palabras: fue creado por Galton, y consiste en presentar
una palabra al sujeto para que responda la primera palabra que se le
Elisa Ruiz Ortega
2020-2021
ocurra. En esta tarea, las personas coinciden en responder con el
término más cercano semánticamente al que se ha presentado, lo cual
indica que la relación semántica entre las palabras desempeña un
papel clave en la organización de las mismas en la memoria.
Las respuestas a esta tarea determinan que hay cuatro tipos de
relaciones asociativas (suponiendo que la palabra presentada sea
“silla”):
✓ Taxonómicas dentro de una clasificación semántica.
❖ Términos coordinados (p. ej., mesa).
❖ Términos subordinados o hipónimos (p. ej., mecedora).
❖ Términos supraordenados o hiperónimos (p. ej., mueble).
✓ Atributos o propiedades del objeto (p. ej., madera).
✓ Partes del objeto (p. ej., patas).
✓ Términos funcionales (p. ej., sentarse).
➢ Verificación de frases: consiste en presentar oraciones en las que se
dice que el sujeto es miembro de la categoría expresada por el
predicado (p. ej., “el perro es un mamífero”) para que los participantes
respondan si son verdaderas o falsas.
➢ Fluidez verbal: consiste en nombrar durante un minuto ejemplares de
una determinada categoría semántica.
➢ Asociación semántica: consiste en señalar cuál de dos estímulos (que
suelen ser dibujos o palabras) está relacionado con un tercero.

1.2. Variables determinantes del procesamiento semántico.


Las variables que determinan el procesamiento semántico son:
➢ Tipicidad: es la más importante de todas y hace referencia a lo
representativo que es un ejemplar de su categoría. En las tareas
semánticas, cuanto más típico o representativo es el ejemplar, menor
es el TR de los sujetos. Esta variable se mide con escalas en las que
los sujetos señalan el grado de tipicidad de cada ejemplar.
➢ Edad de adquisición: las primeras palabras que se aprenden influyen
mucho tanto en la comprensión como en la producción del lenguaje
porque son más fáciles de entender y están más accesibles para el
habla que las demás.
Influyen mucho en:
✓ Tarea de denominación de dibujos.
✓ Tarea de fluidez semántica.
✓ Tarea de asociación semántica.
Influyen en menor medida en:
✓ Tarea de repetición de palabras.
✓ Tarea de decisión léxica.
✓ Tarea de lectura en voz alta.
¿Por qué las palabras que se aprenden antes son importantes? Hay
dos aproximaciones en este sentido:
✓ Modelos localistas: los primeros conceptos aprendidos ocupan
una posición central en la red semántica y establecen
conexiones con los que se añaden después. En cambio, los

Elisa Ruiz Ortega


2020-2021
conceptos tardíos se unen a una red ya formada en posiciones
más periféricas y con menos conexiones.
Por este motivo, cuando se produce anomia (dificultad para
recuperar palabras) o se sufre Alzheimer, las palabras de
adquisición tardía se ven más afectadas.
✓ Modelos conexionistas: la edad de adquisición tendrá más o
menos influencia según el peso que tengan las conexiones entre
los nodos. Así, las palabras tempranas tienen más posibilidades
de aumentar el peso de sus conexiones que las tardías.
Las enfermedades antes mencionadas se explican en estos
modelos porque afectan más a las conexiones con menor peso.
➢ Imaginabilidad: las palabras concretas y altamente imaginables se
recuerdan mejor que las abstractas y difícilmente imaginables en las
pruebas de memoria. Esta variable se mide a través de cuestionarios
subjetivos en los que los sujetos puntúan sobre una escala la facilidad
que tienen para imaginar el significado de una palabra.
Un problema que presentan estas variables es que se miden con escalas
subjetivas, además de que pueden verse afectadas por otras variables
relacionadas.

2. Organización del sistema semántico.


Somos capaces de recuperar los significados de las palabras muy rápido, a
pesar de la cantidad de información que tenemos en nuestro sistema conceptual,
lo que significa que este está muy bien organizado y que los conceptos son muy
accesibles.
Esto se consigue gracias a la agrupación en categorías semánticas que se
organizan jerárquicamente:
➢ Nivel básico: categorías formadas por abstracción de muchos ejemplares
diferentes. Es el nivel en el que pensamos y al que nos referimos
habitualmente.
➢ Nivel subordinado: ejemplares concretos de una categoría.
➢ Nivel supraordenado: categorías más generales y abstractas, formadas
por ejemplares muy diversos que no suelen tener mucha relación (lo que
exige un gran esfuerzo de abstracción).
Hay categorías cerradas (p. ej., los días de la semana), pero la mayoría son
abiertas y están constituidas por muchos miembros.

Los conocimientos episódicos son propios de cada persona; sin embargo, el


conocimiento semántico es compartido mayoritariamente por toda la sociedad.
Cada vez que aprendemos un concepto, aprendemos sus características
esenciales y la categoría a la que pertenece. Así, lo clasificamos en dicha
categoría en nuestro sistema conceptual y le asignamos todas las características
de la misma. Si un concepto no cumpliera alguna de esos rasgos, lo incluiríamos
como característico.

Elisa Ruiz Ortega


2020-2021
La tipicidad juega un papel muy importante en el procesamiento semántico y por
ello es necesario disponer de estudios sobre lo que las personas de un ámbito
lingüístico y cultural concreto consideran de una categoría semántica y de sus
conceptos más representativos.

3. Teorías cognitivas.
3.1. Teorías de redes.
Según este planteamiento, el significado de una palabra forma parte de una
red de significados interconectados. Las primeras formulaciones sobre el
significado se basaron en la metáfora del ordenador.
Collins y Quillian proponen un modelo jerárquico que plantea una
representación del conocimiento similar a la que podría existir en un
ordenador siguiendo el principio de economía cognitiva. Así, los conceptos
serían los nodos de la red y estarían conectados entre sí en distintos niveles
jerárquicos (de menor a mayor abstracción). Cada nodo tiene asociadas las
propiedades que le corresponden a su nivel dentro de la jerarquía, evitando
así la redundancia en nodos inferiores.

Para poner a prueba el modelo, Collins y Quillian realizaron varios


experimentos basados en la tarea de verificación de oraciones. Según los
autores, empezamos a buscar significados por el nodo que corresponde al
estímulo presentado y vamos subiendo hasta el nivel que corresponda para
verificar la oración. Así, a mayor distancia semántica entre el concepto y la
categoría, mayor será el tiempo de verificación.

A) Limitaciones del modelo.


Inicialmente, el modelo explicaba bien el funcionamiento del sistema
semántico, pero aparecieron algunos problemas:
➢ No todos los conceptos se pueden organizar en un esquema
jerárquico tan claro.
➢ Algunas evidencias empíricas posteriores no encajaban en las
predicciones del modelo: la memoria no siempre reflejará la
estructura lógica de las categorías naturales.
➢ Las respuestas de pertenencia de los ejemplares de una misma
categoría no encajan: si los nodos de un mismo nivel son
Elisa Ruiz Ortega
2020-2021
equivalentes, deberían requerir TR parecidos en la tarea de
verificación de oraciones y esto no siempre sucede.

B) Red de propagación de activación.


Debido a las limitaciones del modelo, Collins y Loftus plantearon uno
nuevo basado en la propagación de activación, según el cual la
información semántica está organizada en nodos interconectados, pero
no jerárquicamente, sino de forma más flexible.

Los conceptos asociados entre sí estarían más próximos dentro de la red


y unidos por un vínculo, y cuanto mayor sea la asociación, más cerca se
encontrarán. De esta forma, cuando un concepto se active, esa activación
se propagará por los demás nodos con una fuerza decreciente. Los nodos
con una fuerte relación formarán conglomerados, que representan los
campos semánticos u otras informaciones asociadas.
Este modelo es similar al del logogén de Morton, pero aquí no se tiene en
cuenta la información fonológica, ortográfica, etc., ni los mecanismos de
acceso al significado. Tiene una gran capacidad explicativa, pero es
demasiado general y es complicado ponerlo a prueba.

3.2. Teorías de rasgos.


Las teorías composicionales consideran que todos los conceptos están
compuestos por un conjunto de rasgos simples que ya no se pueden dividir.
El modelo de rasgos más conocido es el de Rips et al., que establece que los
conceptos se representan en la memoria mediante conjuntos de rasgos
semánticos. La evidencia proporcionada por la tarea de la verificación de
oraciones se explicaría porque se produce una comparación entre el ejemplar

Elisa Ruiz Ortega


2020-2021
y su categoría; así, cuantos más rasgos compartan, más rápida será la
respuesta.
Hay dos tipos de rasgos:
➢ Definitorios: claves para formar parte de una categoría semántica.
➢ Característicos: añaden propiedades a los conceptos.

Smith et al. propone un modelo en el que la existencia de estos dos tipos de


rasgos implica que la verificación de oraciones se tenga que realizar en dos
pasos:
➢ Primer estadio: se recuperan los rasgos definitorios y los característicos
del ejemplar y de la categoría y se comparan. Si hay muchos rasgos en
común, la respuesta a la tarea será afirmativa rápidamente y viceversa.

➢ Segundo estadio: si el ejemplar y la categoría no comparten muchos


rasgos, es necesario comparar sólo los rasgos definitorios de ambos
conceptos y sólo cuando todos ellos coincidan, la respuesta a la tarea
será afirmativa.
Las limitaciones de este modelo se resumen en:
➢ No está claro que todos los conceptos puedan descomponerse en un
listado de rasgos simples.
➢ Muchas categorías no reúnen un conjunto de rasgos que tengan todos
sus miembros.
➢ Supone la existencia de límites entre categorías, pero en la práctica
estos son difusos.
➢ No estudia el conocimiento sobre cómo se relacionan las propiedades
de los objetos.

Elisa Ruiz Ortega


2020-2021
3.3. Teoría de prototipos.
Fue propuesta por Rosch y se basa en un enfoque diferente: los objetos se
agrupan por su semejanza familiar entre ellos, es decir, las categorías están
definidas por el parecido entre sus miembros y no por una definición lógica y
objetiva.
Los miembros de cada categoría cuentan con unos rasgos característicos de
muchos de los conceptos que la componen, pero no necesariamente de todos.
Un prototipo es una representación abstracta de una categoría que constituiría
el mejor ejemplo de la misma.
De esta concepción se desprenden dos propiedades fundamentales:
➢ Estructura graduada: no todos los miembros son igual de
representativos de la categoría. Esta podría representarse
espacialmente como un continuo en el que están los miembros en
función de su representatividad o tipicidad: cuanto más típico sea el
ejemplar, más cerca del centro se encontrará. En consecuencia, los
miembros más prototípicos compartirán más rasgos entre sí que los
periféricos.

➢ Límites difusos: el grado de pertenencia a cada categoría se va


difuminando a medida que los ejemplares se alejan del centro, de
manera que las fronteras entre conceptos son difusas.

Los experimentos de verificación de oraciones demuestran que los TR varían


en función de la cercanía o lejanía de los conceptos al centro de la categoría.
Por otra parte, tiene algunas limitaciones:
➢ No todos los conceptos se ajustan bien al esquema de prototipos.
➢ Los juicios de tipicidad no son fijos, sino que varían según el contexto.
➢ Puede ser una teoría circular: los ejemplares son miembros de una
categoría porque son similares, y son similares porque son miembros
de una categoría.

Elisa Ruiz Ortega


2020-2021
➢ Se ha cuestionado si la abstracción que supone el prototipo de una
categoría es un componente esencial para la representación de
conceptos.

4. Teorías neurocognitivas.
En los últimos años se ha empezado a tener en cuenta el sustrato neurológico
de los conceptos en la formulación de teorías del procesamiento semántico. Los
datos de pacientes con trastornos en determinadas categorías semánticas
permiten entender cómo se organizan los conceptos en nuestro sistema
semántico y cuáles son las áreas cerebrales responsables del procesamiento.
Parece plausible que las categorías están representadas por redes neuronales
en diferentes áreas cerebrales, de forma que si se lesiona un área en concreto
tendremos dificultad para procesar las categorías que allí se representaban. Este
planteamiento tiene algunos datos difíciles de explicar, como el hecho de que la
categoría específica de “instrumentos musicales” está asociada a la categoría
general “seres vivos” y no a la de “objetos inanimados”. Por el contrario, la
categoría específica de “partes del cuerpo” se suele asociar a la categoría
general de “objetos inanimados” y no a la de “seres vivos”.

4.1. Teoría sensoriofuncional.


La propusieron Warrington et al. e intenta explicar las disociaciones
encontradas en pacientes con trastornos en ciertas categorías semánticas.
Según esta teoría los conceptos se representan en el cerebro en función de
sus rasgos característicos:
➢ Categoría “seres vivos”: se distingue por sus rasgos perceptivos.
➢ Categoría “objetos inanimados”: se distingue por sus propiedades
funcionales.
De este modo, las redes neuronales responsables de la categoría “seres
vivos” se extienden más hacia las zonas perceptivas (temporal y occipital) y
las de la categoría “objetos inanimados” hacia las zonas motoras (frontal y
parietal).
Hay algunos datos contrarios a este planteamiento:
➢ Se han encontrado pacientes con déficits específicos para la categoría
“seres vivos” que tenían igualmente dañados o conservados los rasgos
perceptivos y funcionales.
➢ Las alteraciones en las categorías que comparten rasgos no siempre
se producen en paralelo.

4.2. Teoría del conocimiento específico de dominio.


Caramazza y Shelton defienden que la evolución del cerebro humano ha
determinado la organización del sistema conceptual y que este está dividido
en dominios por la acción de mecanismos neuronales destinados al
procesamiento de tipos de estímulos específicos.

Elisa Ruiz Ortega


2020-2021
Esta teoría distingue entre dominios de:
➢ Animales.
➢ Vegetales.
➢ Artefactos.
No descarta, sin embargo, la existencia de más dominios. La presión evolutiva
condujo a adaptaciones específicas para reconocer y responder
diferencialmente a cada dominio, ya que las consecuencias para la
supervivencia son diferentes.

La distinción entre dominios ocurre desde los primeros meses de vida de los
bebés, por lo que parece ser un mecanismo innato. Por otra parte, hay que
tener en cuenta las disociaciones entre dominios que presentan las personas
con lesiones cerebrales, que tienen dañada una categoría, pero conservan las
demás.
También hay datos que contravienen la teoría:
➢ No siempre existe una correlación entre la categoría afectada y el área
cerebral dañada en los pacientes.
➢ Los estudios de neuroimagen no demuestran que haya correlación
entre las categorías semánticas y las áreas cerebrales activadas.

4.3. Teoría conexionista.


Fue desarrollada por Tyler y Moss, y considera que sólo hay un sistema
semántico que no presenta separación alguna, ni funcional ni
neuroanatómica. Así, todos los conceptos estarían distribuidos en una misma
red semántica, en la que aquellos que comparten rasgos están más próximos
(en consecuencia, si se produce una lesión en esta parte de la red, será más
probable que se vean afectados). Cada concepto tiene algunos rasgos
comunes con los demás de la misma categoría y otros distintivos propios.
Un dato contrario a esta teoría es que nunca se producen trastornos en
categorías específicas (p. ej., “mamíferos”). Si los déficits que presentan los
pacientes respecto a una categoría se deben a que afectan a los rasgos
comunes de sus ejemplares, ¿por qué no se ha encontrado un déficit para la
categoría si todos los ejemplares comparten rasgos?

5. Bases neurológicas del sistema semántico.


Las técnicas de neuroimagen y los estudios con pacientes con lesiones
cerebrales indican que las redes de información semántica se extienden por
varias zonas del cerebro, incluyendo:
➢ Lóbulos temporales: zonas temporales inferior y media de ambos
hemisferios.
➢ Lóbulos parietales: zona temporoparietal izquierda.
➢ Lóbulo frontal: zona inferior del lóbulo frontal izquierdo.
➢ Vías subcorticales: fascículo arqueado.

Elisa Ruiz Ortega


2020-2021
Así, los trastornos relacionados con la categoría “seres vivos” se producen por
la lesión en el área temporooccipital. Aquellos relacionados con la categoría
“objetos inanimados” derivan de la lesión en el área frontoparietal.

Según la teoría de la percepción-acción, los conceptos se forman cuando


percibimos un estímulo y realizamos la acción correspondiente al mismo. Lo que
ocurre es que el estímulo conecta las neuronas perceptivas con las motoras
formando una nueva red o circuito. De esta forma, cada concepto sería el
resultado de la red que se forma con las neuronas responsables del
procesamiento de:
➢ Los rasgos perceptivos.
➢ Las propiedades motoras.
➢ Las conexiones entre ambos.
La predominancia de uno u otro tipo de rasgo variará en función del concepto:
➢ Seres vivos: rasgos perceptivos.
➢ Objetos inanimados: rasgos motores.

La teoría de las redes distribuidas sostiene que hay distintas distribuciones de


los conceptos dependiendo de estos dos tipos de características:
➢ Conceptos con un alto contenido motor: las redes neuronales están
situadas en los lóbulos frontales.
➢ Conceptos con un alto contenido visual: las redes neuronales están
situadas en el lóbulo occipital.
➢ Conceptos con un alto contenido táctil: las redes neuronales están
situadas en los lóbulos parietales.
La corteza motora está organizada de forma somatotópica (como si fuese un
mapa).

Elisa Ruiz Ortega


2020-2021
De esta forma:
➢ Conceptos referentes a acciones con la mano: activación de la parte
media.
➢ Conceptos referentes a acciones con el pie: activación de la parte alta.
Hay que tener presente que los circuitos cerebrales responsables de los
conceptos también se extienden a las estructuras subcorticales, formando
circuitos corticosubcorticales que intervienen en el lenguaje y cuya lesión puede
provocar algún trastorno lingüístico.
Desde esta perspectiva se considera que los conceptos abstractos no dependen
de rasgos perceptivos ni motores concretos, sino que se producen a partir de
rasgos comunes a los conceptos concretos.

¿Las redes semánticas se extienden por todas las zonas cerebrales


mencionadas o hay algunas que cumplan una función en el acceso al significado
o en otras operaciones posteriores al procesamiento semántico? El hecho de
que algunas áreas participen en el procesamiento de un concepto no significa
necesariamente que sean responsables del conocimiento conceptual, podrían
intervenir en el acceso al significado o sólo en momentos posteriores.
Whitney et al. hablan de dos componentes muy unidos, pero independientes en
el procesamiento:
➢ Conocimiento conceptual.
➢ Mecanismos ejecutivos responsables del acceso al conocimiento: se
encarga de seleccionar la información relevante en cada contexto, que es
la que se va a recuperar (no se activa todo el conocimiento que tenemos
sobre un concepto cada vez, sólo la relevante en las circunstancias de
que se trate).

Patterson et al. desarrollaron la teoría hub o centro de actividad, según la cual


las redes neuronales de los conceptos se distribuyen por las áreas perceptivas
y motoras y, además, por una zona del cerebro responsable del conocimiento
conceptual puro que es independiente de la modalidad sensorial.
Este componente central amodal se propone porque los conceptos son
entidades abstractas formadas a partir de estímulos concretos a los que se
puede acceder desde distintas modalidades sensoriales. Cuando se daña un
área cerebral y se dañan algunos conceptos, los pacientes no pueden
recuperarlos de ninguna forma (p. ej., las categorías supraordenadas).
Damasio distingue algunas zonas de convergencia de información sensorial
procedente de distintos lugares:
➢ Zona de convergencia entre formas y movimientos: conocimiento de los
animales.
➢ Zona de convergencia entre formas y colores: conocimiento de las frutas.
➢ Zona de convergencia entre formas y acciones: conocimiento de los
objetos hechos por el hombre.

Elisa Ruiz Ortega


2020-2021
En este sentido, la teoría hub plantea la existencia de una zona añadida que
sería amodal, un centro distribuidor de actividad donde estarían representados
todos los conceptos. La lesión de esta zona produciría una alteración semántica
independientemente de la modalidad perceptiva y de respuesta involucradas.
Los pacientes con demencia semántica sufren una pérdida conceptual
importante, pero no se ven alterados la memoria ni el lenguaje. Se produce por
una atrofia en la zona anterior de los lóbulos temporales, que parece coincidir
con la localización de la zona amodal propuesta por la teoría hub.

En definitiva, nuestra capacidad para usar el sistema semántico de forma


eficiente depende de:
➢ Un conjunto de representaciones amodales.
➢ Un control semántico responsable del acceso a las mismas.
Un resumen de las dos teorías expuestas es:

Elisa Ruiz Ortega


2020-2021
-TEMA 8-
Comprensión de oraciones.

1. Introducción.
La interpretación de una oración sencilla conlleva procesos específicos que no
se dan durante el reconocimiento de palabras aisladas. Para comprender una
oración hay que ejecutar los procesos ortográficos, fonológicos, de acceso léxico
y semánticos para cada palabra individualmente y, además, habrá que realizar
ciertos procesos de segmentación en unidades sintácticas, agrupando palabras
en unidades mayores (sintagmas).
El lector tendrá que descomponer la oración en varios componentes que tengan
alguna relación (coordinación, yuxtaposición, etc.) y establecer vínculos de
correferencia entre las palabras y los componentes o cláusulas (palabras que se
refieren a otras de la oración, como los pronombres). El orden de las palabras
también permite establecer las funciones de cada una en la oración.
Así pues, el lector debe tener unas competencias lingüísticas para llevar a cabo
todas estas acciones. Son intuitivas y pragmáticas, y son diferentes de los
conocimientos formales del lenguaje.

El análisis de las pausas en el habla espontánea o en la lectura en voz alta


desvela que hacemos pausas entre sintagmas y pausas más largas entre
cláusulas. Estudios que registran los movimientos oculares demuestran que en
la lectura silenciosa también hacemos estas pausas. Todo ello indica que
segmentamos espontáneamente el lenguaje en constituyentes gramaticales.
La sintaxis, por su parte, es un aspecto único de los seres humanos. Hay dos
planteamientos en cuanto al estudio psicológico de los procesos sintácticos en
las oraciones.
➢ Teorías estructurales: el procesamiento sintáctico se ejecuta en un
módulo que opera independientemente del resto de procesos.
➢ Teorías funcionalistas: asumen una arquitectura interactiva del lenguaje,
proponiendo una influencia mutua entre procesos sintácticos, semánticos
y pragmáticos.
➢ Teorías pragmáticas: se interesan por la complejidad semántica de
algunos tipos de oraciones en cuya comprensión intervienen procesos no
estrictamente lingüísticos.
Las tres perspectivas son complementarias, pero obedecen a planteamientos
teóricos y procedimientos experimentales diferentes.

La mayoría de las lenguas en el mundo tienen sintaxis, pero hay alguna


excepción, como las protolenguas o lenguas macarrónicas, que apenas tienen
gramática. Se puede destacar la ausencia de:
➢ Flexión morfológica.
➢ Concordancia de número o persona.
Elisa Ruiz Ortega
2020-2021
➢ Verbos auxiliares que expresen tiempo verbal, aspecto, igualdad…
➢ Subordinación.
➢ Conjunciones.
➢ Muy pocas preposiciones.
➢ Artículos o adjetivos demostrativos.

2. Perspectiva estructural de la gramática.


Chomsky desarrolló una teoría lingüística enormemente influyente en la
Psicología del lenguaje. Propone el concepto de “regla generativa y de
transformación”, empleada para codificar sintácticamente las oraciones y que se
aplica de forma jerárquica.

2.1. Teorías basadas en principios.


Asumen una concepción modular del lenguaje, esto es, sostienen que hay
estadios de procesamiento autónomos o encapsulados, por lo que para
procesar una oración:
➢ Primero opera el analizador sintáctico, segmentando la oración en
función de la información estructural.
➢ En estadios posteriores entran en juego factores no estructurales:
✓ Significado de las palabras.
Elisa Ruiz Ortega
2020-2021
✓ Aspectos contextuales del discurso.
✓ Consideraciones pragmáticas que validan la segmentación u
obligan a repetirla.

La investigación relativa a la comprensión de las oraciones sigue una


estrategia determinada: presentar a los sujetos oraciones ambiguas
gramaticalmente (p. ej., “María vio a Juan cuando iba a la playa”) y comprobar
qué interpretación sintáctica se les dan. Se puede comprobar así cuáles son
las preferencias de segmentación (que, según estas teorías, son universales).
Frazier y Clifton desarrollaron la teoría de vía muerta para explicar este tipo
de oraciones. Según ellos, los sujetos eligen inmediatamente una estructura
de las dos posibles (en el ejemplo anterior, María era la que iba a la playa; o
bien, Juan era el que iba a la playa) basándose en dos principios universales:
➢ Adjunción mínima: elección de la representación sintáctica más simple.
➢ Cierre tardío: unir las nuevas unidades gramaticales a la última cláusula
o sintagma procesados.
Al aplicar estos principios a la oración del ejemplo, resulta más lógico y menos
costoso cognitivamente hablando que se adjunte “cuando iba a la playa” al SN
(sintagma nominal) “Juan” porque ambas estructuras están más cerca que en
el caso del SN “María”.

Teniendo en cuenta que esta teoría es de carácter modular, los principios de


segmentación deben aplicarse (obligatoriamente, porque son universales)
independientemente del significado de las palabras. Por ejemplo, en la oración
“María vio el faro cuando iba a la playa”, el mecanismo explicado obligaría a
adjuntar el SN “el faro” con el SAdv (sintagma adverbial) “cuando iba a la
playa”. Es evidente que el resultado de esta unión no tiene sentido, por lo que
posteriormente deberían actuar los factores semánticos, cambiando la
adjunción de un SN al otro.

Elisa Ruiz Ortega


2020-2021
En teoría, la estrategia de adjunción obligatoria ocurre en cualquier idioma al
que una oración ambigua sea traducida. Sin embargo, en un experimento
realizado por Cuetos y Mitchel con hablantes ingleses y españoles,
encontraron diferencias en la aplicación del principio de cierre tardío, así como
un tiempo de lectura mayor cuando se añadía un elemento contradictorio al
final de la oración.
En hispanohablantes, la preferencia por el cierre temprano (en el ejemplo
adjuntar el SN “María” con el SAdv) se observa en los tiempos de lectura y
también en la actividad electrofisiológica cerebral.

Así pues, la supuesta universalidad de los principios de segmentación que


postulaba la teoría de vía muerta no se pudo demostrar. Esto hizo que Frazier
et al. tuvieran que modificar su planteamiento para ajustarse a la evidencia
empírica, dando lugar a la teoría de la interpretación.
En esta ocasión, los principios de adjunción mínima y cierre tardío sólo se
aplican rígida y universalmente a unos pocos sintagmas: sujeto, predicado y
complementos de las cláusulas finitas. En cambio, las oraciones ambiguas
que incluyen sintagmas no primarios (complejos) se interpretan aplicando
mecanismos semánticos de asignación de roles temáticos.
➢ En el ejemplo “alguien disparó contra el criado del palacio que estaba
en el balcón”, la adjunción lógica es del SN “el criado” y “estaba en el
balcón”.
➢ En el ejemplo “alguien disparó hacia la habitación de la actriz que
estaba en el balcón”, la adjunción lógica es del SN “la actriz” y “estaba
en el balcón”.

2.2. Teorías paramétricas de segmentación.


Reconocen que hay diferencias sintácticas cualitativas entre lenguas y que
estas deben tenerse en cuenta (un ejemplo es la posición de modificadores,
como los adjetivos, en la oración. En inglés se sitúan delante del nombre, pero
en español se sitúan detrás) porque pueden afectar a la comprensión
sintáctica de oraciones ambiguas.
Por otro lado, Cuetos y Mitchel descubrieron que en inglés la mayoría de las
oraciones ambiguas con cláusulas de relativo (p. ej., “María vio a Juan cuando
iba a la playa”) se resuelven adjuntando CR (cláusula de relativo) al SN “Juan”.
En cambio, en español sucede lo contrario. Se plantea, pues, que estas
diferencias en la segmentación puedan deberse únicamente a la experiencia
de cada individuo con ambigüedades previas, en cuyo caso optará por
resolver esa ambigüedad siguiendo la estrategia de resolución más frecuente.

3. Perspectiva funcional de la gramática.


Se interesa por los procesos de construcción del significado y los mecanismos
cognitivos subyacentes a la comprensión oracional.

Elisa Ruiz Ortega


2020-2021
Hay algunas ideas relevantes que proponen los lingüistas funcionalistas y
cognitivos:
➢ La gramática como instrucciones del procesamiento.
Los marcadores gramaticales (p. ej., preposiciones, morfemas...) pueden
considerarse instrucciones que guían al lector en la ejecución de ciertas
operaciones mentales:
✓ Regulación del foco atencional.
✓ Búsqueda de información en la memoria.
✓ Integración conceptual.
Así, estos marcadores indican al lector en cada momento cómo debe
operar con las palabras y los conceptos en las oraciones.
➢ Correspondencia entre forma lingüística y significado.
Comúnmente, el sujeto gramatical de una oración es una entidad
animada, humana, consciente, activa y volitiva, pudiendo construirse
muchos más predicados significativos que se refieren a entidades
animadas.
También hay algunas estructuras gramaticales que expresan eventos
relevantes como la ubicación espacial, relaciones causales o acciones de
transferencia.
➢ Figura y fondo.
La figura es una entidad relativamente desconocida que recibe el foco
atencional, mientras que el fondo es la entidad más familiar que se usa
como marco de referencia (p. ej., el libro rojo está encima de la mesa de
mi despacho).
➢ Perspectiva.
Cuando nos comunicamos, tenemos que enmarcar la descripción de un
evento en un punto de vista determinado. En cierto modo, podría decirse
que no podemos dejar de incluirnos en lo que decimos, estableciendo así
un marco espacial, temporal o conversacional.
En castellano (y en muchas otras lenguas), la producción de un mensaje
implica una perspectiva temporal: no se puede generar una oración sin
datar los eventos de los que se hablan con respecto al momento del habla.
Algunos recursos en este sentido son los morfemas de los tiempos
verbales, los adverbios de tiempo o los pronombres deícticos (p. ej. “yo”,
“tú”, que implican la perspectiva del hablante o la del oyente).

3.1. Anáforas.
Este elemento facilita la coherencia entre oraciones y es una referencia a un
concepto mencionado con anterioridad (p. ej., en la oración “Ágata está
escribiendo una novela policíaca. Ella se inspira en los sucesos de la prensa”,
el pronombre “ella” actúa como anáfora).
Este marcador gramatical es uno de los principales que induce al lector u
oyente a establecer vínculos correferenciales entre las cláusulas de una
oración y haciendo que decida cuál es su antecedente para poder integrar y
comprender la oración. Son muy abundantes en la lengua, especialmente los
pronombres.

Elisa Ruiz Ortega


2020-2021
El estudio del procesamiento de las anáforas permite usar métodos de
investigación como las medidas de activación o el registro de los movimientos
oculares.

Los psicólogos del lenguaje quisieron comprobar en qué momento el receptor


de un mensaje resuelve (decide cuál es) el antecedente o referente de una
anáfora y qué factores determinan el coste cognitivo de esa decisión. En este
sentido, será más costoso decidir cuál es el antecedente cuando:
➢ Hay dos posibles antecedentes (anáfora ambigua).
➢ La distancia entre este y la anáfora es mayor.
➢ No pertenece a la idea que se está desarrollando.
Gernsbacher utilizó anáforas de repetición del nombre (no ambiguas) y
pronominales ambiguas para estudiar el curso temporal de la resolución de
las mismas. Encontró que hay dos procesos que operan en la resolución
anafórica:
➢ Ensalzado del referente (aumento de la activación): la ambigüedad
referencial del pronombre no se resuelve inmediatamente, sino al final
de la oración.
➢ Supresión o inhibición del no referente: cuando se resuelve el
antecedente, este será verificado más rápido y se enlentecerá la
respuesta ante el no referente.

Normalmente, los pronombres anafóricos hacen referencia a un antecedente


con el que concuerdan en género y número, lo que constituye una pista para
resolverlos. Sin embargo, hay una excepción: las anáforas conceptuales
(antecedente en singular y pronombre anafórico en plural).

Estas anáforas son gramaticalmente incorrectas, pero correctas


conceptualmente. En algunos estudios se ha comprobado que los lectores
aceptan estas últimas y las prefieren a las primeras.

Elisa Ruiz Ortega


2020-2021
3.2. Conectores.
Estos marcadores unen semánticamente varias cláusulas, operando
igualmente como instrucciones de procesamiento (nos indican cómo tenemos
que integrar dos cláusulas). Los más frecuentes son conjunciones o adverbios
que actúan como:
➢ Aditivos (p. ej., “hacía calor y no tenía agua en la nevera”).
➢ Temporales (p. ej., “le robaron la ropa mientras se bañaba en la playa”).
➢ Causales (p. ej., “se fue a la playa porque hacía calor”): expresan una
relación de causalidad, pero no indican cómo se produce esta, sino que
es el lector el que debe darle sentido en función del contexto y de su
conocimiento previo.
➢ Adversativos (p. ej., “no quiso ir a la playa, aunque hacía mucho calor”):
indican que las expectativas causales se van a romper en la siguiente
cláusula, es decir, indican discontinuidad.
Se diferencian de las anáforas en que suelen operar entre unidades
relativamente complejas, mientras que las anáforas sólo hacen referencia a
conceptos nominales previamente mencionados. No sólo señalan una
relación sintáctica, sino que nos inducen a construir un tipo de relación
semántica.
El orden de adquisición de los conectores en los niños se produce en orden
de menor a mayor demanda cognitiva:
➢ Aditivos.
➢ Temporales.
➢ Causales.
➢ Adversativos.
Por otra parte, la frecuencia de uso de los conectores es muy alta, tanto en el
lenguaje oral como en el escrito:

Elisa Ruiz Ortega


2020-2021
El estudio de los conectores en Psicología del lenguaje ha sido muy escaso,
siendo más del interés de los psicólogos del razonamiento o pensamiento,
que consideran que algunos de los conectores constituyen operadores lógicos
incorporados en el lenguaje natural.
Millis y Just llevaron a cabo un experimento en el que presentaron una oración
con un conector causal y la misma sin este. Encontraron que la presencia del
conector reducía la carga cognitiva de la lectura, excepto en la última palabra,
y que las respuestas dadas por los sujetos en pruebas de memoria realizadas
después sobre la misma oración eran más rápidas en presencia del conector.
A priori, podría parecer que los conectores causales y adversativos se pueden
utilizar indiscriminadamente, pero un estudio en el que se presentaron
oraciones con conectores apropiados e inapropiados al contenido demostró
que no se pueden intercambiar.

4. Perspectiva semántica y pragmática.


4.1. Más allá de las palabras: significado corpóreo.
Hay algunas cuestiones que hay que tener en cuenta:
➢ El significado es referencial: representamos las palabras y oraciones y
elaboramos un modelo de la situación a la que se refieren.
➢ Algunas oraciones pueden referirse a situaciones concretas.
➢ Algunas investigaciones sugieren que la comprensión de estas
oraciones moviliza representaciones corpóreas de la situación (p. ej.,
visuales o motoras).
➢ Las teorías corpóreas consideran que la comprensión de oraciones
implica simulaciones sensoriomotoras de los eventos contenidos en
ellas.
Hay dos tipos de estudios que comprueban que la comprensión de oraciones
puede tener distintas consecuencias:
➢ Las oraciones que describen objetos activas representaciones
visuales. El paradigma experimental básico consiste en presentar a los
sujetos una oración seguida de un dibujo, del que hay que indicar lo
más rápido posible si se mencionaba en la oración o no. En este
sentido, se ha comprobado que la verificación oración-dibujo es más
rápida cuando las características del dibujo sí coinciden con el
significado de la oración. Lo mismo ocurre cuando en las oraciones se
incluyen objetos que pueden tener diferentes formas.
Este efecto se debe a que la comprensión de oraciones referidas a
acciones activa representaciones motoras, y una forma de comprobarlo
es utilizar paradigmas de doble tarea (desarrollado por Glenberg y
Kaschak), en los que los sujetos tienen que comprender oraciones
referidas a acciones a la vez que realizan una acción motora similar
(compatible) o diferente (incompatible) con la mencionada en la
oración. A este paradigma se le conoce como compatibilidad oración-
acción (COA).
Si existe interacción, ya sea facilitación o interferencia, entre el
significado de la oración y la ejecución de la acción, se podrá afirmar
Elisa Ruiz Ortega
2020-2021
que comprensión y acción comparten procesos motores.
Efectivamente, parece que se ha demostrado la existencia de esta
relación, siendo patente incluso en el caso de oraciones que incluyen
conceptos abstractos.
Por otro lado, la investigación con técnicas de neurociencia ha
mostrado que la comprensión de oraciones de acción activa regiones
de la corteza motora y premotora específicas del tipo de acción que se
menciona.
➢ La comprensión de oraciones activa expresiones faciales.
El lenguaje humano permite expresar emociones, pero también las
puede provocar. ¿La comprensión de oraciones puede activar
procesos emocionales? Las expresiones faciales constituyen una
manifestación fisiológica de las emociones, y han sido estudiadas por
los investigadores para comprobar si la comprensión activa emociones
o no.
Havas et al. presentaron a los participante oraciones con valencia
positiva o negativa para que las juzgasen como agradables o
desagradables manipulando encubiertamente sus expresiones
faciales, ya que tenían que sostener un lápiz en los labios
encontrándose:
✓ Condición de expresión de preocupación: produce una
respuesta más lenta para los contenidos agradables.
✓ Condición de sonrisa: produce una respuesta más lenta para los
contenidos desagradables.
Parece que durante la comprensión de una oración los lectores simulan
la emoción implícita mediante los mecanismos cerebrales
correspondientes, y cuando la expresión forzada en el experimento es
de valencia diferente al de la oración, es más difícil comprender esta.

4.2. Más allá del lenguaje literal: las metáforas.


Las metáforas son expresiones que se refieren a ideas abstractas utilizando
palabras concretas. Literalmente, son oraciones falsas, pero muy frecuentes
en la vida diaria, por lo que deben cumplir alguna función psicológica
Elisa Ruiz Ortega
2020-2021
importante. Se calcula que empleamos unas cinco o seis metáforas por cada
minuto de conversación, aunque no nos dé esa sensación porque muchas de
ellas sean metáforas “muertas” (están tan arraigadas en el lenguaje que no
producen ninguna tensión metafórica).
Lakoff y Johnson proponen que las metáforas son modos de pensar, más que
de hablar, y que nuestro sistema conceptual se organiza de forma metafórica.
En este sentido, las metáforas orientacionales se organizan en torno a las
dimensiones del espacio:

Así, se produce una especie de colonización cognitiva cuando se mapea un


dominio del conocimiento abstracto e intangible en una dimensión física. Otra
característica de las metáforas es que pueden ser generativas, es decir, guiar
nuestro comportamiento.

En los últimos años se han llevado a cabo muchos experimentos que intentan
comprender las metáforas en los procesos sensoriomotores. En estos
estudios se considera que las metáforas no son convenciones lingüísticas
arbitrarias, sino que a veces su significado metafórico sí que activa procesos
corpóreos.
Santana y Vega usaron un procedimiento COA en una tarea de comprensión
de metáforas orientacionales, en el que los participantes tenían que leer
oraciones de tres tipos:
➢ Literales espaciales.
➢ Metáforas espaciales.
➢ Abstractas no espaciales.
Obtuvieron respuestas más rápidas en las condiciones de compatibilidad que
en las de incompatibilidad en las oraciones literales y en las metáforas.
Por otro lado, Sell y Kaschak descubrieron que la dimensión horizontal
también es un organizador de metáforas conceptuales, lo que significa que
tendemos a representar el futuro situándolo delante y el pasado detrás (al
menos en castellano). Emplearon el mismo paradigma que en el caso anterior
(COA) y los resultados avalaron su hipótesis. En la misma línea, Santiago et
al. encontraron que el tiempo también se organiza sobre la dimensión espacial
izquierda-derecha.
Los dos tipos de metáforas temporales son de origen distinto:

Elisa Ruiz Ortega


2020-2021
➢ Representación detrás-delante: puede tener que ver con la dirección
de la marcha, situando las metas no alcanzadas delante y las
superadas detrás.
➢ Representación izquierda-derecha: puede tener que ver con
cuestiones culturales, como la lectura y la escritura (hacia la derecha),
porque los árabes y los hebreos, que leen y escriben de derecha a
izquierda, representan en este sentido el tiempo.

4.3. Más allá de los hechos: oraciones negativas y contrafactuales.


El lenguaje humano no sólo se puede emplear para comunicar hechos
(lenguaje factual), sino también para expresar estados mentales o irreales,
porque la lengua dispone de recursos sintácticos y morfológicos que lo
permiten, como las oraciones negativas y las contrafactuales (p. ej., “¿y
si…?”).

A) La negación.
La negación puede tener varias funciones:
➢ Valor informativo: en las negaciones episódicas (p. ej., “Luis no
tiene gasolina”) es necesario que los interlocutores partan de un
supuesto o hipótesis previa (p. ej., que los coches normalmente
tienen gasolina) para que adquieran valor informativo.
➢ A veces, los supuestos en los que se basa la negación son
contextuales y requieren un conocimiento episódico previo entre
los interlocutores.
➢ Imperativo: su finalidad es conseguir que el oyente no realice una
acción que efectivamente iba a llevar a cabo (p. ej., “no cojas ese
libro”). Esta es la función de la negación más primitiva desde el
punto de vista evolutivo.
MacDonald y Just realizaron una investigación sobre la comprensión de
las negaciones presentando a los participantes oraciones en las que se
negaba un primer elemento, un segundo elemento, o ninguno.
Encontraron que el elemento negado siempre se verificaba más
lentamente que el no negado, lo que implica que la negación es un
reductor de la activación.

¿Cómo se representa la información que se niega? Tradicionalmente, se


creía que la negación es un operador simbólico que se aplica sobre la
representación proposicional de la oración y que reduce su activación. Sin
embargo, puede ocurrir que los sujetos se representen la situación
descrita con un objeto presente (afirmado) y otro ausente (negado), por lo
que este sea menos activado.

Elisa Ruiz Ortega


2020-2021
Kraup et al. presentaron a varios sujetos cuatro tipos de oraciones,
afirmativas y negativas, que describían un objeto presente o ausente. El
resultado fue:
➢ A los 500 milisegundos de la lectura, la negación ejercía un efecto
indiscriminado de reducción de la activación: el objeto descrito se
verificaba más despacio en las oraciones negativas.
➢ A los 1.500 milisegundos de la lectura, la activación dependía de si
el objeto estaba presente en la oración o no, dándose una
respuesta más rápida en la condición “objeto presente”.
Se pone de manifiesto, así, que existe un doble proceso en la
comprensión de las negaciones:
➢ Primera etapa: reducción de la activación.
➢ Segunda etapa: la activación dependerá de si el objeto está
presente o no en la oración.
La investigación ha concluido que, además, la negación reduce la
actividad de las áreas motoras bloqueando las representaciones de este
tipo asociadas al lenguaje de acción.

B) Las oraciones contrafactuales.


Estas expresiones se usan para hacer conjeturas sobre eventos pasados
que podrían haber ocurrido de otra forma (p. ej., “si Jaime hubiera
estudiado la última semana, habría aprobado el examen”). Son
manifestaciones de nuestras capacidades representacionales que nos
permiten valorar eventos pasados y contrastarlos con alternativas
hipotéticas, por lo que a veces se relacionan con emociones de pesar o
de alivio.
Algunas funciones de este tipo de oraciones son:
➢ Ayudar a establecer vínculos causales.
➢ Aprender a partir de los errores.
➢ Favorecer la toma de decisiones.
➢ Persuadir al interlocutor.

¿Cómo se comprenden las oraciones contrafactuales? Estas tienen un


significado dual, es decir, cuando comprendemos una oración, nos
representamos dos modelos de situación:
➢ Realista: lo que ha ocurrido de verdad.
➢ Hipotética: lo que podría haber ocurrido si se hubiera hecho otra
cosa.
Por otro lado, Vega y Urrutia intentaron comprobar si este tipo de
oraciones provoca representaciones corpóreas igual que las factuales.
Emplearon el paradigma COA con oraciones en formato factual y
contrafactual y observaron que las oraciones contrafactuales sí que
inducen representaciones motoras al describir acciones.

Elisa Ruiz Ortega


2020-2021
Cabe preguntarse también en qué medida se adapta el lector al mundo
hipotético que se presenta con una oración contrafactual. En este sentido,
Ferguson y Sanford presentaron oraciones a los participantes mientras
registraban sus movimientos oculares.
Comprobaron que, al principio, el lector de un enunciado contrafactual no
puede evitar que su conocimiento del mundo interfiera en la comprensión.
Sin embargo, al final el antecedente contrafactual es asumido y la
información que estaba en conflicto con la realidad se integra en un
modelo de situación nuevo que se corresponde con el mundo hipotético.

Elisa Ruiz Ortega


2020-2021
-TEMA 9-
Comprensión del discurso.

1. Introducción.
El discurso está compuesto por un conjunto de oraciones que guardan
coherencia entre sí. El lector u oyente debe:
➢ Combinar el significado de múltiples oraciones.
➢ Establecer la coherencia entre ellas.
➢ Extraer las ideas principales.
➢ Hacer inferencias aplicando su conocimiento sobre el mundo.
Todos estos procesos se realizan de forma inmediata según se procesan las
palabras del discurso, lo que implica un gran desafío para el sistema cognitivo
humano.

1.1. Discurso oral y discurso escrito.


El discurso es una forma natural del lenguaje y puede ser oral o escrito, de
una sola persona (monólogo) o de varias (diálogo). La conversación es un
ejercicio cognitivo complejo porque los interlocutores tienen que:
➢ Alternar los procesos de comprensión y producción del habla.
➢ Tener en cuenta el discurso de la otra persona.
Hay multitud de dificultades que surgen a lo largo de una conversación en
cuanto a la comprensión:
➢ Hay relativamente pocas oraciones completas y bien formadas.
➢ La planificación es oportunista, no se puede predecir con mucha
antelación cómo se desarrollará la conversación.
➢ Lo que decimos debe ajustarse al conocimiento del interlocutor sobre
el tema en cuestión.
➢ Tenemos que decidir cuándo iniciar nuestra intervención, pensando lo
que vamos a decir cuando todavía estamos escuchando al interlocutor.
➢ Hay frecuentes cambios de tarea (hablar-escuchar), lo que supone un
coste cognitivo adicional.
➢ Según los modelos de situación, los interlocutores comparten sus
representaciones situacionales, incluso cuando debaten o no están de
acuerdo.
➢ Los interlocutores tienden a usar las mismas palabras, construcciones
gramaticales y fonéticas.
Por su parte, el discurso escrito es más formal y cuidado, con oraciones bien
formadas, y los detalles del texto normalmente han sido planificados,
documentados, revisados y corregidos antes de su forma definitiva. En este
caso, el lector no dispone de información contextual directa, como sí ocurría
en el caso del oyente.

Elisa Ruiz Ortega


2020-2021
1.2. Textos narrativos y textos expositivos.
Hay muchos tipos de textos, pero los psicólogos del lenguaje distinguen entre:
➢ Textos narrativos: se asemejan a la comunicación humana básica,
describiendo episodios con la información organizada temporal,
espacial y causalmente.
Una de las diferencias principales con respecto a la comunicación oral
espontánea es que en estos textos el autor y el lector no comparten
situación ni es posible contemplar directamente el mundo narrativo
descrito, lo que obliga al autor a dar detalles explícitos y al lector a
hacer un mayor esfuerzo de comprensión.
➢ Textos expositivos: son productos culturales asociados habitualmente
a la exposición de conocimientos técnicos, científicos, etc. No son
textos “para leer”, sino “para estudiar”.

1.3. Métodos.
Las narraciones literarias son demasiado extensas y complejas para ser
estudiadas en el laboratorio, por eso, los investigadores suelen crear
microtextos en los que se manipulan algunas variables para estudiar la
comprensión.
Brandsford y Johnson desarrollaron un experimento en el que un grupo de
sujetos recibía un microtexto correcto gramaticalmente, pero ambiguo en
cuanto a su significado. Manipularon la variable presencia/ausencia de título
con tres grupos de participantes y encontraron que la comprensión era mejor
en aquellos a los que se les había proporcionado el título (contexto) antes de
leer el microtexto. Demostraron así que la comprensión del discurso implica
no sólo el procesamiento de las palabras y las oraciones individuales, sino
también la construcción de modelos de situación apropiados.
La mayor parte de las investigaciones emplean medidas en línea, intentando
“capturar” los procesos de comprensión sobre la marcha de la misma. Algunos
procedimientos son:
➢ Analizar los tiempos de lectura de las palabras u otras unidades de
texto mediante el registro de los movimientos oculares o la técnica de
la ventana móvil. Los ojos se fijan más tiempo en palabras poco
familiares, en aquellas donde se resuelve el antecedente de una
anáfora ambigua, cuando se encuentra una incongruencia… La última
palabra de cada cláusula, oración o párrafo también conlleva más
Elisa Ruiz Ortega
2020-2021
tiempo de fijación, porque realizamos operaciones adicionales de
“empaquetado” de la información.
➢ Medidas de activación intercaladas durante la lectura de un texto o al
final.
✓ Identificación de palabras.
✓ Decisión léxica.
✓ Nombrado de una palabra en voz alta.

2. Fenómenos emergentes en el discurso.


2.1. Coherencia.
La coherencia depende de:
➢ Las características del texto: un texto es una estructura organizada que
proporciona al lector pistas útiles para construir el significado del mismo
(marcadores de cohesión). Estos marcadores indican al lector que las
oraciones sucesivas incluyen algún concepto mencionado
previamente.
➢ La actividad del lector: a pesar de lo anterior, será el lector el que
finalmente construya la coherencia del texto a partir de los marcadores
de cohesión y de su conocimiento del mundo.
La prueba de que la coherencia está en la mente del lector y no en el
texto es que, partiendo de un mismo texto, es posible que un lector
construya una representación coherente y otro no.
Se distingue entre:
➢ Coherencia local: la establece el lector entre contenidos cercanos en el
texto (p. ej., cláusulas consecutivas) y suele estar guiada por los
marcadores de cohesión (anáforas y conectores).
➢ Coherencia global: es la capacidad de establecer vínculos temáticos
entre contenidos lejanos.

Elisa Ruiz Ortega


2020-2021
2.2. Inferencias.
Un texto es una guía incompleta que le “pide” al lector que haga inferencias
para comprender su significado. En el ámbito de la Psicolingüística, las
inferencias consisten en recuperar contenidos de la memoria que se basan en
conocimientos semánticos y pragmáticos del mundo.

A) ¿Cuántas inferencias?
La lectura es un proceso continuo que suele realizarse a gran velocidad,
lo que significa que el lector no tiene tiempo ni recursos cognitivos
suficientes para generar todas las posibles inferencias sobre el texto. En
este sentido, Mckoon y Ratcliff plantearon una hipótesis minimalista,
según la cual, los lectores hacen pocas inferencias automáticas durante
la lectura, y las que se hacen, sólo será cuando se cumplan unas
condiciones. Estos autores aseguran que sólo se producirán inferencias
entre cláusulas u oraciones consecutivas cuando sean necesarias para
establecer la coherencia local. Quedan así descartadas las inferencias
globales.
Esta hipótesis generó mucha investigación posterior porque había
muchos investigadores en desacuerdo que querían rebatirla. Parece
improbable que el lector no realice al menos algunas inferencias globales
durante la lectura, pues se tornan necesarias para comprender el
argumento de lo que se lee.

Por otro lado, Graesser et al. sugieren una hipótesis construccionista,


proponiendo que los lectores construyen en línea y automáticamente las
inferencias explicativas para interpretar los sucesos y acciones. Así, lo
que se infiere son las motivaciones de los personajes, sus metas e

Elisa Ruiz Ortega


2020-2021
intenciones, emociones o las causas o consecuencias de los obstáculos
que se les presentan.
Lo que no se inferiría, según estos autores, son los detalles visuales del
entorno espacial, de los objetos o de los personajes. En momentos
puntuales, es posible representar mentalmente con gran detalle un
entorno visual, pero ello requiere un costoso proceso de aprendizaje que
va más allá de la lectura en línea.

B) ¿Qué tipos de inferencias existen y cuándo se producen?


Hay dos tipos de inferencias:
➢ Puente: son necesarias para establecer la coherencia local entre
dos cláusulas consecutivas (p. ej., cuando leemos “el sol empezó
a calentar. El muñeco de nieve empezó a derretirse”, establecemos
un puente causal “el calor del sol derritió el muñeco”).
➢ Elaborativas: constituyen una actividad superflua del lector, que lee
un texto coherente en sí mismo, pero construye una inferencia
elaborativa a partir de la información dada por el texto (p. ej.,
cuando leemos “Pedro está comiendo sopa en el vagón restaurante
del tren; de pronto, cuando acercaba cuidadosamente la cuchara a
la boca, el tren frenó bruscamente”, es probable que elaboremos la
inferencia “la sopa se derramó”).
En relación con el curso temporal, se distingue entre:
➢ Inferencias proactivas: se anticipan en el curso de la lectura.
Suelen ser elaborativas.
➢ Inferencias retroactivas: pretenden establecer la coherencia local
de la parte del texto que acabamos de leer. Suelen ser inferencias
puente.
Las inferencias pueden estar moduladas por las características del lector
y del texto:

Elisa Ruiz Ortega


2020-2021
2.3. Niveles de representación.
Durante la comprensión del discurso generamos tres niveles de
representación:
➢ Forma superficial: representación exacta de las palabras, sintagmas y
estructuras sintácticas.
➢ Texto base: conceptos y relaciones semánticas.
➢ Modelo de situación: representa la situación descrita y es
independiente de la estructura del texto.

Para poder distinguir estos niveles hay que observar cómo persisten en la
memoria. Para ello, Kintsch et al. estimaron la fuerza del trazo de memoria
correspondiente a los tres niveles de representación mediante un experimento
en el que se presentaba un texto a un grupo de participantes y después se les
hacía una prueba de memoria sobre el contenido en diferentes momentos.
Los resultados que encontraron fueron:
➢ Forma superficial: persistencia de apenas unos minutos.
➢ Texto base: se debilita a lo largo de las sesiones.
➢ Modelo de situación: se mantiene incluso después de cuatro días.
Así pues, con el modelo de situación se retiene la información esencial de una
narración a lo largo del tiempo, pero ¿qué son estos modelos? Son
representaciones que guardan más parecido con una experiencia que con las
características gramaticales o estructurales del propio texto.

Elisa Ruiz Ortega


2020-2021
A) Representaciones de lo singular.
Los modelos de situación son representaciones de patrones de
información únicos, lo cual los diferencia de los esquemas o guiones, que
son conocimientos semánticos genéricos. Al comprender un discurso o un
fragmento de este, se construye un modelo de la situación que representa
un estado particular de eventos.

B) Representaciones dinámicas.
Las representaciones semánticas son dinámicas, cambian a lo largo de la
vida en función de la experiencia. Mientras que los procesos de cambio
de esquemas (conceptual) son lentos, los modelos de situación se
actualizan rápidamente.
Esa actualización es compleja y requiere un uso sofisticado del
conocimiento que tenemos del mundo.

C) Isomorfismo.
Los modelos de situación se parecen a nuestra experiencia y se
diferencian de la estructura del texto superficial o del texto base. Algunos
autores consideran que los modelos de situación son representaciones
corpóreas, es decir, que retienen aspectos propios de nuestra interacción
sensoriomotora con las situaciones.

D) Dimensiones básicas.
El número de modelos de situación posibles es infinito, pero su
composición se basa en la combinación de unas pocas dimensiones
básicas:
➢ Tiempo.
➢ Espacio.
➢ Causación.
Las situaciones suelen representarse organizadas en un marco
espaciotemporal, mientras que los sucesos y las acciones se vinculan en
términos de causa-efecto. Los protagonistas actuarían como elementos
vertebradores de la información situacional, lo que implica la existencia de
algunos parámetros interpersonales asociados de modo permanente y
otros de modo transitorio.

2.4. Formato de la representación.


A) Proposiciones.
La información del discurso se representa en forma de proposiciones, que
son pequeños esquemas con el formato general: predicado [argumento 1,
argumento 2, …, argumento N]. Así, cada vez que comprendemos una

Elisa Ruiz Ortega


2020-2021
oración, la traducimos al lenguaje mental de las proposiciones, por
ejemplo:
➢ Oración: María le dio un libro a Pedro.
➢ Codificación: dar [agente: María, receptor: Pedro, objeto: libro]. De
forma más simple, podría ser: dar [María, Pedro, libro].
Normalmente, las oraciones se componen de más de una proposición y,
dentro de un texto, estas comparten argumentos entre sí y presentan una
relación jerárquica. Por ejemplo:
➢ Oración: ayer María le prestó a Pedro el libro que Laura le había
regalado, pero él lo perdió.
➢ Proposición 1: prestar [María, Pedro, libro].
➢ Proposición 2: ayer [proposición 1].
➢ Proposición 3: regalar [Laura, María, libro].
➢ Proposición 4: perder [Pedro, libro].
➢ Proposición 5: pero [proposición 1, proposición 4].

Las proposiciones no tienen anáforas ni sintaxis, sino que se limitan a


reflejar la relación predicado-argumento. Los argumentos proposicionales
normalmente son conceptos genéricos, pero también se pueden reflejar
ejemplares concretos.
Estas representaciones se pueden adecuar a diferentes paráfrasis
(explicación de un texto difícil de entender o transformación de una
oración para que se entienda mejor), lo que indica que no se limitan a
reproducir el texto, sino que se abstraen las relaciones conceptuales
subyacentes. Se reflejan, así, las características del texto base. Kintsch
considera que los modelos de situación se codifican en forma de
proposiciones, aunque esto no parece estar del todo claro.
¿Las proposiciones son una mera convención formal del científico para
representar la información o son el modo en que el cerebro realmente
codifica la información? Los estudios empíricos en este ámbito son
escasos, aunque parece existir cierta evidencia favorable a la
funcionalidad de las proposiciones.

B) Simulaciones corpóreas.
Las teorías corpóreas del significado se ajustan bien a las características
de los modelos de situación, proponiendo que el lenguaje está anclado en
el mundo, es decir, que los mecanismos perceptivos, motores y
emocionales del cerebro que empleamos en la construcción de la
experiencia real participan también en el pensamiento del significado.
Desde esta perspectiva, el significado consiste en la simulación mental de
los objetos, eventos y situaciones a los que se refieren las palabras que
escuchamos o leemos.
Estas teorías no están tan bien articuladas como las que se basan en
proposiciones y, sin embargo, cuentan con mayor apoyo empírico. El
cerebro cuenta con extensas redes neuronales que procesan en línea la
Elisa Ruiz Ortega
2020-2021
información biológicamente relevante, por eso tendría sentido que el
lenguaje reutilice las redes sensoriomotoras cerebrales para representar
el significado.

En definitiva, ¿cuál de las dos propuestas es más válida, la proposicional o la


corpórea? Ambas perspectivas parten de supuestos que entran en conflicto,
por lo que no parece que pueda determinarse un punto intermedio entre las
dos.
Las fortalezas y debilidades de cada postura se resumen en:

3. Investigaciones sobre modelos de situación.


3.1. Dimensión espacial.
Inicialmente, esta fue la dimensión más investigada en los modelos de
situación, ya que es bastante fácil elaborar textos experimentales con una
estructura superficial que difiera totalmente de la estructura espacial de la
Elisa Ruiz Ortega
2020-2021
situación descrita. Este tipo de textos permiten distinguir entre la importancia
de los distintos niveles de representación del discurso para cada persona.
Glenberg et al. llevaron a cabo un experimento en el que presentaban un texto
con una frase crítica en la que se establecía una asociación espacial (p. ej.,
“se puso la camiseta”) o una disociación (p. ej., “se quitó la camiseta”) entre
el personaje del texto y un objeto. Pasado un tiempo determinado,
presentaban la palabra de prueba (“camiseta”) en distintos momentos.
La conclusión a la que llegaron fue:
➢ Condición asociada: el objeto queda vinculado al personaje, por lo que
mientras este siga en el foco del discurso el objeto será accesible.
➢ Condición disociada: el personaje está en el foco del discurso, pero el
objeto ha quedado separado de él, por lo que ya no resulta accesible.
Cuando una narración describe escenarios espaciales más complejos que
una simple asociación personaje-objeto, el lector no construye una
representación espacial detallada en línea, porque consumiría demasiados
recursos cognitivos y porque esta dimensión no siempre es la más relevante.
En general, lo que ocurre es que los modelos de situación espacial se
elaboran con poco detalle en línea.

3.2. Dimensión temporal.


La estructura del lenguaje es temporal, porque los fonemas, las palabras y las
oraciones se pronuncian y comprenden secuencialmente. Los sucesos en los
modelos de situación también suelen ser secuenciales y por ello los lectores
u oyentes suelen aplicar el principio de iconicidad temporal, esto es, asumen
que el orden de las cláusulas y oraciones corresponde al orden cronológico
de los eventos en el mundo narrativo. Según este principio, además, los
sucesos descritos ocurren de forma continua, sin ningún lapso de tiempo entre
ellos.
Existen otros recursos léxicos y gramaticales que también expresan matices
temporales:
➢ Tiempos verbales (en castellano ubicamos los eventos en presente,
pasado o futuro).
➢ Adverbios y locuciones adverbiales de tiempo (p. ej., “después”,
“mientras” o “la próxima semana).

Todos los elementos que determinen la dimensión temporal deben guiarnos


en la construcción de modelos de situación organizados temporalmente,
aunque Zwaan descubrió que lo que parece ser importante es la ruptura de
continuidad temporal que producen dichos elementos (p. ej., un adverbio) en
el modelo de situación.
En el caso del aspecto verbal se puede distinguir entre:
➢ Verbos perfectivos: señalan una acción terminada (p. ej., “Dalia ha
jugado un partido”).

Elisa Ruiz Ortega


2020-2021
➢ Verbos imperfectivos: señalan una acción en curso (p. ej., “Dalia estaba
jugando un partido”).
Carreiras et al. utilizaron un paradigma de activación para determinar cómo el
aspecto verbal modula la accesibilidad de los conceptos en la lectura, y
descubrieron que el nombre del personaje inicial del texto presentado es más
accesible (sigue asociado) cuando el verbo es imperfectivo que cuando es
perfectivo (se ha disociado).

3.3. Dimensión emocional e interpersonal.


Las narraciones pueden ser inductoras de emociones y algunos estudios han
intentado averiguar si los lectores son capaces de mantener la perspectiva
emocional de los personajes de una narración. Las oraciones de contenido
emocional están asociadas a simulaciones en las que llegan a intervenir las
expresiones faciales.
Gernsbacher llevó a cabo un estudio sobre la comprensión de las emociones
en el discurso, presentando a los participantes historias en las que el
protagonista se encontraba en una situación inductora de una emoción,
aunque esta no se nombrase explícitamente. El resultado fue que, en efecto,
al leer la narración, y como parte del modelo de situación construido, se
activaba inmediatamente una representación del estado emocional de los
protagonistas.
Esta representación emocional se caracteriza por:
➢ No refleja sólo rasgos generales de la emoción, sino que permite
distinguir entre estados emocionales próximos.
➢ No parece estar guiada por etiquetas emocionales, sino que forma
parte de la comprensión de la cadena de acciones, metas y relaciones
entre personajes de la narración.

Sanford et al. investigaron cómo los lectores asignan una importancia


narrativa diferente a cada personaje teniendo en cuenta ciertos elementos
léxicos del texto. Observaron que cuando una frase incluye la mención a un
protagonista por su nombre (p. ej., “Juan, María”) y a un personaje secundario
descrito por su rol (p. ej., “el camarero”), el lector elegirá la perspectiva del
primero.
También encontraron que el protagonista (cuando se hace referencia a él por
su nombre) no está ligado a ningún escenario particular en la narración, si
este cambia, el personaje seguirá accesible en la memoria del lector. En
cambio, los personajes secundarios sí son dependientes del escenario.
Por otro lado, Holtgraves descubrió que utilizamos las relaciones de estatus
entre los personajes para interpretar oraciones ambiguas. También
representamos sus estados mentales y su grado de conocimiento sobre los
eventos de la narración y somos capaces de ponernos en el punto de vista
mental del protagonista a pesar de disponer de información privilegiada sobre
la situación que se narra.

Elisa Ruiz Ortega


2020-2021
4. Teorías sobre la comprensión del discurso.
4.1. Aportaciones de Walter Kintsch.
A) Teoría de la macroestructura (Kintsch y Van Dijk).
Propone que durante el procesamiento del discurso se elaboran dos tipos
de estructuras semánticas:
➢ Microestructura: es la organización local del discurso. Incluye
microproposiciones correferentes (con argumentos repetidos)
extraídas del texto y que mantienen una relación jerárquica entre
sí.
➢ Macroestructura: es la organización global del discurso (argumento
o tema). Incluye macroproposiciones que se refieren a los mismos
contenidos que la microestructura, pero desde un punto de vista
más global. Una vez comprendemos un texto, lo que recordamos
después es su macroestructura.

Según los autores de la teoría, el paso de la microestructura a la


macroestructura se logra aplicando macrorreglas que reducen y organizan
la información:
➢ Borrado: se eliminan las proposiciones que no tienen ninguna
vinculación como antecedente de siguientes proposiciones.
➢ Generalización: se sustituye una secuencia de proposiciones por
una proposición general de orden superior.
➢ Construcción: se sustituye una secuencia de proposiciones por una
proposición que denota un hecho global.
Estas macrorreglas también se aplican a las proposiciones de la
macroestructura recursivamente, pero para evitar que esto ocurra
indefinidamente, la aplicación está controlada por un esquema de
discurso, que operan de arriba abajo (desde la MLP).
Las estructuras del texto se procesan en ciclos de memoria de trabajo,
que se inician en los límites entre cláusulas o, si son muy largas, entre
sintagmas. Así, se extraen las proposiciones de microestructura y se
aplican las macrorreglas para generar la macroestructura.
En cada ciclo de memoria se procesan pocas proposiciones, aunque
depende de la capacidad de la memoria del lector y de las características
del texto.

B) Teoría de la construcción-integración (Kintsch).


Esta nueva teoría sigue abogando por algunas características de la teoría
anterior:
➢ Las representaciones son conceptuales o proposicionales.
➢ Hay dos fases en la comprensión del discurso: la construcción
relacionada con la extracción de proposiciones a partir del texto
superficial (equivalente a la microestructura) y la integración, que

Elisa Ruiz Ortega


2020-2021
es la reducción de información para alcanzar la comprensión
(equivalente a la macroestructura).
➢ El procesamiento se realiza en ciclos de memoria de trabajo, pero
esta teoría elimina las macrorreglas y propone reglas débiles o
condicionales (del tipo “si se dan las condiciones X, Y, Z → realizar
las operaciones A y B”) y procesos conexionistas.
Las diferencias respecto a la teoría anterior son:
➢ Proceso de construcción: da lugar a muchas proposiciones,
algunas apropiadas, pero incompletas; algunas se derivan
directamente del texto, otras se generan por asociación, etc. Se
establecen vínculos asociativos entre las proposiciones,
configurando una red conexionista.
Kintsch asegura que este proceso es automático y que está guiado
principalmente por el texto, lo que implica que el resultado es
caótico e insuficiente para obtener un significado coherente del
mismo. Sin embargo, permite la flexibilidad y adaptación a la
información contextual de los textos.
➢ Proceso de integración: establece un orden en la información
generada por el proceso anterior. La red activada anteriormente
reajusta los pesos de sus conexiones y el resultado se integra en
la macroestructura elaborada previamente. Se constituye así una
representación más o menos coherente que el texto base.

C) Teoría de la memoria de trabajo a largo plazo (Ericsson y Kintsch).


Según las teorías clásicas sobre la memoria de trabajo, sólo podemos
retener hasta siete unidades de información y sólo durante unos
segundos. Sin embargo, nuestro rendimiento en la comprensión de
narraciones y en algunas otras tareas parece contradecir este hecho.
Este planteamiento pretende resolver el conflicto anterior postulando que
existe una memoria de trabajo a largo plazo específica de este dominio y
que se adquiere por entrenamiento continuado. Uno de los rasgos más
distintivos de esta memoria es que la interrupción de la lectura no provoca
el desvanecimiento de la información. Así, se utilizan estructuras de
recuperación almacenadas en la MLP y se activan cuando reciben ciertos
índices.
La memoria de trabajo a largo plazo se puede mejorar con entrenamiento
y permite ampliar nuestras capacidades cognitivas, porque elimina los
límites estructurales y funcionales de la MCP. Hay que tener en cuenta,
sin embargo, que para conseguir esta mejora es necesario un esfuerzo
continuado y que es específica del dominio entrenado.

Elisa Ruiz Ortega


2020-2021
D) Valoración de las aportaciones de Kintsch.
Las teorías desarrolladas por este autor suponen un gran avance en la
interpretación de la comprensión del discurso, pero hay algunas
cuestiones que no se explican:
➢ El análisis sintáctico de las oraciones.
➢ Los procesos de codificación proposicional a partir del texto
superficial.
➢ Los aspectos computacionales no están muy detallados.
➢ Los procesos conexionistas que se aplican en la integración no son
una propuesta formal de simulaciones efectivas.
El hecho de no disponer de mecanismos de codificación automática de
las representaciones lleva a Kintsch a adoptar las teorías estadísticas del
significado, como el análisis semántico latente (LSA), que representa el
significado de las palabras, oraciones o textos como vectores en un
espacio matemático.
Por otra parte, el uso de las proposiciones como formato de
representación no tiene un anclaje en el mundo.

4.2. Teorías de modelos de situación.


A) Modelos de continuidad situacional.
Proponen que cuando se produce alguna discontinuidad en las
dimensiones situacionales de un texto, hay un sobrecoste cognitivo.
Según Grensbacher, cuando empezamos a leer una narración
establecemos la “fundación de una estructura” (modelo de situación) y se
activan “celdillas” en la memoria (nodos de memoria semántica).
Esta fundación implica un coste cognitivo considerable que se manifiesta
en una lectura lenta de las primeras oraciones del texto. Después se
produce un “mapeado de estructura”, que consiste en ir completando la
estructura fundada y que sólo puede ocurrir si se mantiene la continuidad
temporal, espacial, causal y de correferencia.
Cuando aparece algún indicador de discontinuidad, el lector realiza un
cambio de estructura, es decir, deja de implementar la estructura anterior
y funda una nueva. Este cambio implica un incremento del coste cognitivo
que, de nuevo, se manifiesta en el enlentecimiento de la lectura en este
punto del texto. Además, realizado el cambio, la estructura anterior pierde
accesibilidad en la memoria, lo que podría explicar las diferencias
individuales en la comprensión de los lectores menos eficientes (que
hacen más cambios de estructura) y los más eficientes (que hacen menos
cambios).

¿Qué es lo que determina el cambio de estructura? Gernsbacher asegura


que en algunos casos hay marcas explícitas de cambio en el texto (p. ej.,
“al día siguiente”, “sin embargo”, etc.), pero esto no es lo habitual. Suelen
ser inferidas por el lector a partir de su conocimiento sobre el mundo.

Elisa Ruiz Ortega


2020-2021
Zwaan et al. proponen el modelo de indexación de eventos, que constituye
una variante de la propuesta de Gernsbacher. Añaden dos dimensiones
de la situación: protagonista e intencionalidad, que se suman a la
temporalidad, espacialidad y causalidad ya presentes en el modelo
anterior.
Según estos autores, en cada nuevo evento de la historia, el lector
supervisará las cinco dimensiones y las actualizará cuando haya algún
cambio significativo.

B) Teoría de la experiencia de inmersión.


Zwaan incorpora en esta teoría muchas de las ideas de Kintsch et al.
sobre los procesos de comprensión del discurso, pero sustituye las
proposiciones por representaciones corpóreas como formato de los
modelos de situación. Surge como una perspectiva integradora de
planteamientos previos.
La experiencia de inmersión se basa en el supuesto de que la memoria
de trabajo del lector refleja la accesibilidad de los objetos y eventos
narrativos de forma parecida a como lo hace en la experiencia real. Así,
los objetos presentes y próximos, los eventos en curso, las metas actuales
y las entidades visibles en la situación se mantendrán en la memoria mejor
que sus contrarios.
Este autor propone tres componentes de la comprensión:
➢ Activación: se dispara con cada palabra, es difusa y caótica. Lo que
se activa son trazos de experiencia sensoriomotores.
➢ Interpretación: resulta de combinar las activaciones de las redes
difusas activadas por las palabras de una cláusula siguiendo un
mecanismo de satisfacción de múltiples constricciones (similar al
mecanismo conexionista que proponía Kintsch). Constituye una
simulación experiencial concreta.
Cada proceso de interpretación está ligado a una unidad de
entonación del habla y se puede considerar como un marco
atencional.
➢ Integración: ocurre a medida que avanza el texto y el lector ejecuta
nuevas interpretaciones, pero se da de forma integrada. Esto
significa que una interpretación emplea una parte de la
interpretación anterior que está activa en la memoria de trabajo y
la combina con las redes funcionales asociadas a las palabras
procesadas ahora.

4.3. Teorías estadísticas: análisis semántico latente.


Landauer y Dumais elaboraron la teoría LSA, basada en la idea de que las
pautas de uso del lenguaje revelan información semántica. Esta teoría analiza
estadísticamente la coocurrencia de las palabras en textos naturales.
Inicialmente, registraron la ocurrencia de unas 60.000 palabras en 30.000
textos formando una inmensa matriz de palabras x textos, en cuyas celdillas

Elisa Ruiz Ortega


2020-2021
se incluían las frecuencias de ocurrencia. Mediante diversas operaciones
matemáticas se obtienen propiedades psicológicas emergentes.
El LSA es una herramienta estadística que trabaja con datos lingüísticos, pero
Landauer y Dumais aseguran que es una auténtica teoría del significado,
porque, según ellos, los humanos funcionamos en gran medida de la misma
forma que el LSA (el significado de la mayoría de las palabras lo adquirimos
a partir de su relación con otras palabras). Este análisis se utiliza también para
evaluar textos automáticamente.
A pesar de su utilidad, no hay que olvidar que no es una teoría completa de la
comprensión del lenguaje porque no tiene en cuenta:
➢ Las palabras gramaticales.
➢ Los procesos sintácticos.
➢ El orden de las palabras.
➢ Los mecanismos cognitivos implicados en la comprensión.
En lo que sí pone su atención esta teoría es en que los lectores podrían
realizar un cómputo automático de la coocurrencia de palabras, como si se
tratase de un atajo cognitivo que les permitiera realizar inferencias probables.
Sin embargo, la comprensión del significado no se puede reducir a este
cómputo estadístico de palabras porque se requiere un anclaje al mundo.

4.4. Teorías neurológicas.


Estas teorías se basan principalmente en estudios conductuales, aunque en
los últimos años han aumentado las investigaciones neurocientíficas.

A) Papel del hemisferio derecho.


Tradicionalmente, la comprensión y producción del lenguaje se han
asociado al hemisferio cerebral izquierdo; sin embargo, los estudios
neurocientíficos han demostrado que el hemisferio derecho interviene en
la comprensión del discurso de forma especial. Así, las personas con
lesiones en dicho hemisferio no presentan síntomas afásicos, pero tienen
dificultades, por ejemplo, para extraer las ideas principales de una
narración o para realizar inferencias.
La teoría más completa explicativa del papel del hemisferio derecho en la
comprensión del discurso fue desarrollada por Beeman, quien defiende
que ambos hemisferios están especializados en distintos procesos
semánticos de la comprensión.
➢ Hemisferio izquierdo: codificación semántica fina que activa
intensamente campos semánticos reducidos, dominantes y
relacionados con el contexto inmediato.
➢ Hemisferio derecho: codificación semántica gruesa que activa
débilmente campos semánticos amplios, difusos y mal
estructurados.
En la mayoría de las tareas del lenguaje, el hemisferio izquierdo es más
eficiente porque realiza un procesamiento más rápido y apropiado que el
Elisa Ruiz Ortega
2020-2021
derecho. Sin embargo, cuando las formas de lenguaje son más
sofisticadas (p. ej., entender el sentido del discurso o metáforas nuevas),
el hemisferio derecho ofrece más ventajas porque es probable que los
campos semánticos difusos de muchas palabras se activen y permitan
una resolución del significado. Lo que ocurre en realidad es que ambos
hemisferios cooperan y combinan su información a través del cuerpo
calloso.
Esta teoría se ajusta bien a la propuesta de la construcción-integración de
Kintsch, pero la división del trabajo entre los hemisferios ha sido criticada
por algunos autores.

B) Papel de otras estructuras cerebrales.


Los modelos de situación son representaciones multidimensionales que
incluyen aspectos sensoriomotores, emocionales e interpersonales que
proporcionan el carácter experiencial a la comprensión de narraciones.
Así, cabría esperar que durante la comprensión se activen las redes
neurales visuales, motoras, emocionales, etc., pero ¿ocurre esto en
realidad?
Ferstl et al. encontraron activaciones compartidas en el área de Broca y
en muchas regiones que tienen que ver con la teoría de la mente, es decir,
con la capacidad de entender los estados mentales de los demás. En
general, los datos neurológicos avalan la noción de modelos de situación
como representaciones experienciales o corpóreas, pero también
confirman la actuación de las áreas perisilvianas del hemisferio izquierdo.

Elisa Ruiz Ortega


2020-2021
-TEMA 10-
Producción oral del lenguaje.

1. Introducción.
Cualquier hablante nativo articula unas 150 palabras por minuto en condiciones
normales, aunque la cifra puede llegar a duplicarse. Un adulto con educación
media cuenta con un vocabulario de unas 30.000 palabras, pero ¿hablan más
las mujeres que los hombres? Mehl et al. demostraron que no en un estudio
realizado a lo largo de varios años. Constataron:
➢ Las diferencias individuales en la producción oral son muy grandes: hay
personas que apenas dice 5.000 palabras al día y otras que llegan a
40.000.
➢ Las diferencias no están relacionadas con el sexo de los hablantes: el
promedio general es de unas 16.000 palabras diarias en mujeres y 15.000
en hombres, pero la diferencia no es significativa.
Aparentemente, hablar es un proceso sencillo, pero hay involucradas complejas
operaciones mentales que producen el habla, muchas de ellas automáticas. En
general, la producción del lenguaje ha suscitado menos atención que la
comprensión, debido a que es mucho más fácil estudiar este último fenómeno.

2. El habla: materialización del lenguaje oral.


En la producción del habla intervienen más de cien músculos en una secuencia
de movimientos muy compleja y sincronizada bajo la dirección de estructuras
neuronales relacionadas con el área de Broca.
Durante el habla concurren tres funciones fisiológicas a la vez:
➢ Respiración: suministra aire a presión, que constituye la energía mecánica
necesaria.
➢ Fonación: las cuerdas vocales generan la fuente del sonido o matera
prima acústica (vocales y consonantes sonoras, p. ej., /b/, /d/, /m/).
➢ Articulación: la materia prima se moldea a través de los órganos
articulatorios del tracto o conducto vocal.
✓ Órganos fijos.
❖ Paladar duro u óseo.
❖ Cavidad nasal.
❖ Dientes.
✓ Órganos móviles.
❖ Labios.
❖ Lengua.
❖ Velo del paladar o paladar blando.
❖ Mandíbula.
Las cuerdas vocales se encuentran en la laringe y son controladas a voluntad
del individuo. Cuando no se está produciendo habla, están relajadas y
separadas, permitiendo que el aire circule; sin embargo, durante el habla,

Elisa Ruiz Ortega


2020-2021
algunos músculos se tensan manteniéndolas próximas, y cuando pasa el aire a
través de ellas, vibran con una frecuencia determinada.
A la vez, controlamos el diafragma y los músculos intercostales para dosificar la
cantidad y la presión de aire que gastamos. De esta forma podemos modificar la
frecuencia de vibración y entonar melodías (incluyendo la entonación del
lenguaje).

El sonido vibratorio no es lingüístico per se, sino que es a través del tracto vocal
como adquiere las resonancias propias de la voz y se articula el habla, que se
modula para crear segmentos fonéticos.
Fant diseñó un modelo que explica cómo se produce el habla y que se denomina
teoría de la fuente y el filtro:
➢ Fuente: es el punto en el que se genera el sonido base que después se
filtrará o modelará (materia prima acústica).
✓ Vocales y consonantes sonoras: la fuente está en las cuerdas
vocales.
✓ Consonantes sordas: la fuente está en el punto de la boca donde
se produce el ruido consonántico.
➢ Filtro: el sonido generado en la fuente se propaga a través del tubo o tracto
vocal, se somete a sus resonancias y sufre un proceso de filtrado que
hace que unas frecuencias se refuercen y otras se atenúen. Según el
lugar en el que el tubo vocal se estreche, los resultados acústicos
variarán.
✓ Punto de articulación: lugar en el que se produce la constricción
(estrechamiento) principal del tubo. Según el punto de articulación,
se distinguen consonantes labiales, dentales, palatales…
✓ Modo de articulación: forma en que se crean los fonemas. Según
el modo se distinguen consonantes nasales, fricativas, oclusivas…

Durante la producción oral se da el fenómeno de la coarticulación, que implica


que los sonidos “vecinos” se mezclan y pueden confundirse entre sí. Se produce

Elisa Ruiz Ortega


2020-2021
un solapamiento de movimientos articulatorios porque cuando articulamos un
fonema estamos anticipando los movimientos o gestos articulatorios necesario
para los fonemas futuros y arrastramos movimientos residuales de los anteriores.
Este hecho es fundamental para que el habla se pueda descodificar después de
forma natural y muy rápida, lo cual no sucede con otros códigos sonoros.

3. Fuentes de datos.
La investigación sobre la producción oral del lenguaje se ha basado en dos
aproximaciones:
➢ Observación y registro del habla espontánea para analizar determinados
patrones.
➢ Estudio de los TR en el nombrado de objetos o dibujos.
A estas dos aproximaciones se unen las evidencias de carácter neurológico.

3.1. Características temporales del habla: pausas y vacilaciones.


En el habla se pueden suceder períodos de fonación y de silencio o pausas,
y estas se han considerado como indicadores de actividad cognitiva necesaria
para la producción del lenguaje. Concretamente, las pausas cumplen tres
funciones:
➢ Fisiológica: permitir la inspiración de aire.
➢ Cognitiva: planificación del lenguaje.
➢ Comunicativa: facilitar la comprensión del oyente.
No se puede establecer una función concreta a cada pausa, pero se sabe que
estas no se distribuyen al azar y que no se ajustan únicamente a los requisitos
fisiológicos.
Se distingue entre:
➢ Pausas vacías: silencio.
➢ Pausas llenas: se producen sonidos como “ah”, “eh”.

El habla espontánea tiene una estructura cíclica con una alta proporción de
pausas y vacilaciones seguidas de períodos fluidos de fonación.

Elisa Ruiz Ortega


2020-2021
Goldman-Eisler propone una concepción del habla como una sucesión alterna
de períodos de planificación y períodos de ejecución. Sin embargo, no
siempre es fácil distinguir estos ciclos.

3.2. Errores del habla.


Estos errores constituyen una de las fuentes más valiosas del estudio de la
producción oral. Son aquellos que se producen durante el habla normal y no
se corresponden con lo que el hablante quería decir.
Se parte del supuesto de que son el resultado de un mal funcionamiento
momentáneo de los procesos responsables del lenguaje (libre de errores). Los
errores pueden afectar a distintas unidades del lenguaje (fonemas, sufijos,
palabras…).

Así, hay tres tipos de errores del habla:


➢ De movimiento o contextuales: se produce un desplazamiento o
intercambio entre diferentes elementos de la cadena hablada.
➢ No contextuales: sustituciones, omisiones, adiciones o fusiones de
elementos.
➢ Otros: localizados en el acento y en variables suprasegmentales.

Los errores son muy diversos, pero no son aleatorios, constituyen un


fenómeno sistemático que también está sometido a reglas gramaticales.
➢ Rara vez afectan a sílabas.
➢ El elemento erróneo y el elemento que realmente se quería producir
casi siempre pertenecen a la misma clase gramatical.
➢ Cuando se sustituye una palabra por otra, suele haber una relación
entre ellas, ya sea fonológica, semántica o ambas.
➢ Normalmente dan lugar a secuencias aceptadas en la gramática.

Elisa Ruiz Ortega


2020-2021
Por otra parte, los errores de movimiento (concretamente los desplazamientos
e intercambios) son informativos de los procesos de secuenciación y
ordenación que ocurren mientras planificamos el lenguaje en tiempo real.
Estos procesos son una interacción de dos elementos que deben estar
presentes simultáneamente en la representación mental de lo que se va a
decir.
Así, la distancia entre ambos puede dar una idea del tamaño o amplitud de
las unidades de planificación en un momento dado.

3.3. Estados de “punta de la lengua”.


Este fenómeno se define como el estado subjetivo que experimentamos
cuando creemos estar seguros de conocer una palabra y somos
temporalmente incapaces de recuperarla de la memoria y pronunciarla,
aunque nos dé la sensación de que estamos a punto de recordarla.
Durante el estado de “punta de la lengua” (también denominado TOT), es
habitual disponer de información parcial sobre la forma de la palabra y siempre
hay información semántica. Parece que lo que sucede es que se produce una
interrupción en un estado intermedio de la activación léxica, lo que demuestra
que la recuperación de unidades léxicas desde nuestro diccionario mental no
ocurre en un solo paso.
Según Levelt, cada unidad léxica tiene dos elementos:
➢ Lemma: información semántica y sintáctica.
➢ Lexema o forma: información morfológica y fonológica.

Lo habitual es que toda la información se active y esté disponible en nuestra


mente, pero hay veces que el paso del lemma al lexema queda interrumpido,
estando disponible únicamente la información semántica y sintáctica de la
palabra que buscamos.
¿Cómo se estudian los fenómenos de TOT experimentalmente? Se inducen
a través de la metodología diseñada por Brown y McNeill, que presentaban
definiciones de palabras relativamente raras a los participantes para que estos
escribieran la palabra definida. Cuando estos no eran capaces de ello por el

Elisa Ruiz Ortega


2020-2021
fenómeno de la “punta de la lengua”, se les pedía que hicieran conjeturas
sobre las características parciales de las palabras.

La investigación ha determinado un promedio de una palabra a la semana que


no puede ser recordada debido a este fenómeno. Además, la forma en que se
resuelve (se encuentra la palabra) varía, oscilando entre unos minutos o unas
horas. Es habitual que busquemos activamente el término, que consultemos
a otras personas o que repitamos varias veces palabras relacionadas.
Este estado se da especialmente con palabras poco frecuentes en nuestro
idioma, nombres propios de lugares, personas conocidas, etc. y se produce
más durante el envejecimiento. Es transitorio, pero si se produce una lesión
cerebral, se puede llegar a sufrir anomia, en la que fallos de este tipo suceden
asiduamente.

3.4. Estudios experimentales cronométricos.


Cattell descubrió que nombrar objetos dibujados requiere el doble de tiempo
que leer sus nombres impresos, lo que se puede explicar porque hay una ruta
de acceso directo entre la palara escrita y el código fonológico, pero el dibujo
activa primero la representación conceptual del objeto y después el código
fonológico.
Snodgrass y Vanderwart utilizaron bases de dibujos para desarrollar normas
de referencia sobre los TR para nombrar los objetos. En este sentido, los
dibujos cuyos nombres son menos frecuentes en el idioma requieren más
tiempo para ser nombrados.
Stroop introdujo un paradigma experimental novedoso y muy útil conocido
como la tarea de Stroop. Consiste en presentar nombres de colores escritos
con tinta de color diferente al que se menciona, así, los participantes deben
nombrar el color de la tinta, ignorando el significado de la palabra. En sus
investigaciones, encontró que se producía una interferencia cuando el color
de la tinta y el color mencionado eran distintos (p. ej., la palabra “rojo” escrita
con tinta verde).
Una variante de la tarea Stroop es la tarea de interferencia palabra-dibujo, que
consiste en la presentación de un dibujo sobre el que aparece una palabra
escrita que no corresponde con aquel, por ejemplo:

Elisa Ruiz Ortega


2020-2021
En este caso también se produce interferencia cuando hay que nombrar el
dibujo, pero no cuando hay que leer la palabra. Esto significa que hay una
inhibición semántica de la palabra distractora hacia el nombramiento del
dibujo. Sin embargo, cuando la palabra escrita tiene relación fonológica con
el nombre del dibujo (p. ej., la palabra “cantante” en el dibujo del elefante), lo
que surge es una facilitación fonológica, acortándose los TR.

Este tipo de experimentos son muy útiles para estudiar los subprocesos que
intervienen en la producción de palabras y sobre el curso temporal de los
mismos. Glaser y Düngelhoff estudiaron este último fenómeno variando los
tiempos entre la presentación de la palabra y la presentación del dibujo (a esta
diferencia de tiempo se le denomina “asincronía entre los inicios de los
estímulos”).

Encontraron que:
➢ Cuando la palabra pertenece a la misma categoría que el dibujo, se
produce una interferencia semántica que retrasa el nombramiento del
dibujo.
➢ La activación del significado de la palabra interfiere en el significado del
dibujo cuando aquella se presenta unos 300ms antes que el dibujo y
hasta que se presenta unos 100ms después.
Estos resultados avalan, pues, lo que ya se había observado con la tarea de
Stroop respecto a la interferencia semántica.

3.5. Evidencia neurológica.


El análisis sistemático de las afasias, las anomias y otras alteraciones
patológicas del lenguaje constituyen una fuente importante de información
sobre el funcionamiento de los mecanismos lingüísticos.

Elisa Ruiz Ortega


2020-2021
Así, la investigación de la Neuropsicología cognitiva parte de dos supuestos:
➢ Especificidad: se asume que se pueden encontrar:
✓ Patrones de preservación y deterioro del lenguaje: son
altamente selectivos y específicos y dependen de subprocesos
concretos.
✓ Patrones complementarios o dobles disociaciones.
➢ Transparencia: se considera que el resultado de una lesión es un
patrón de conducta que refleja la organización de un sistema sano
preexistente en el que se ha producido una lesión y que, por ese
motivo, debe funcionar con uno de sus componentes alterados.
En cuanto a la investigación de neuroimagen y electrofisiología, se registra la
actividad cerebral mientras los participantes llevan a cabo tareas de
producción del lenguaje para identificar las áreas cerebrales directamente
involucradas.

4. Niveles de procesamiento en la producción del lenguaje.


James describe la producción del lenguaje como:
➢ Un proceso de pensamiento holístico y global.
➢ Un proceso de habla serial: comporta un ensamblaje lineal de sonidos.
La mayoría de los modelos sobre producción del lenguaje admiten la existencia
de tres niveles de procesamiento:
➢ Nivel conceptual o de planificación: cuando nos disponemos a hablar
partimos de una intención comunicativa (queremos decir algo). James
identifica esta intención con un estado de conciencia que no es específico
de la actividad lingüística. En este punto, seleccionamos el contenido de
nuestro mensaje a partir de representaciones previamente activadas y
entran en juego también nuestros pensamientos y sentimientos, así como
la experiencia emocional.
➢ Nivel lingüístico de construcción y selección: el mensaje inicial debe
transformarse en algo verbal que se pueda comunicar a través del
lenguaje, esto es, tenemos que construir oraciones significativas y
gramaticalmente aceptables en nuestra lengua mediante la codificación y
formulación del mensaje.
➢ Nivel fonológico de generación y articulación: pronunciaremos la oración
gracias a nuestros órganos fonoarticuladores, convirtiéndose así el
mensaje en una conducta externa y explícita que puede ser analizada por
el interlocutor.

4.1. Planificación conceptual del mensaje.


En esta fase se genera internamente un mensaje, seleccionando su contenido
comunicativo (lo que queremos decir). Tiene carácter intencional y el individuo
se basa en su conocimiento general del mundo y del modelo de situación que
haya elaborado para seleccionar los contenidos a comunicar y establecer un
orden entre ellos.

Elisa Ruiz Ortega


2020-2021
El resultado será un mensaje preverbal, lo que significa que las operaciones
de planificación no son lingüísticas (no requieren conocimiento gramatical),
sino que implican la concepción de un significado sobre lo que se quiere
comunicar y una intención comunicativa.
Los mensajes están codificados en forma de unidades individuales abstractas
que están sujetas a valores de verdad; así, los mensajes tienen que contener
información sobre los referentes (objeto sobre el que se dice algo) y los
predicados básicos (lo que se dice sobre el objeto). En este sentido, Levelt
distingue dos niveles:
➢ Procesos de macroplanificación: el hablante organiza las líneas
generales de su discurso y toma dos decisiones sobre el contenido:
✓ Información específica del mensaje que va a comunicar.
✓ Orden de presentación de la información.
➢ Procesos de microplanificación: el hablante adopta una perspectiva o
punto de vista sobre lo que va a decir.
Así, el resultado de ambos procesos constituiría la representación preverbal
de cada oración, que se correspondería con la estructura profunda de la
gramática generativa.

4.2. Codificación gramatical y lexicalización.


La transformación del mensaje preverbal en un formato verbal implica:
➢ Selección de los conceptos léxicos apropiados del vocabulario del
hablante.
➢ Construcción de la estructura sintáctica en la que se van a insertar
dichos conceptos.
Estas operaciones generalmente no son accesibles para la conciencia, igual
que ocurría en los procesos de comprensión del lenguaje; así, únicamente
seremos conscientes de ellas cuando haya algún fallo. La diferencia con la
comprensión es que, en este caso, los errores cometidos son visibles.

A) Construcción de la estructura sintáctica.


Lo primero que hay que hace es especificar qué elementos actuarán como
sujetos en la emisión verbal y cuales lo harán como objetos (y de qué tipo).
En este sentido, hay que tener en cuenta que las lenguas tienen léxicos y
sintaxis diferentes en muchos aspectos.
No existe acuerdo entre los investigadores sobre qué proceso se
desarrolla primero, si la selección léxica o la estructura sintáctica.
Probablemente, la respuesta se encuentre en una posición intermedia, ya
que no se puede demostrar que se seleccionan todas las palabras clave
del enunciado para después combinarlas, y tampoco es posible planificar
una estructura sintáctica sin tener ningún conocimiento de cuáles serán
las piezas léxicas que se emplearán.

Elisa Ruiz Ortega


2020-2021
Los verbos parecen desempeñar un papel esencial en esta controversia,
pues muchos ya implican una estructura sintáctica concreta (p. ej., el
verbo “dar” implica necesariamente que alguien (sujeto) da algo (objeto
directo) a alguien (objeto indirecto); o verbos transitivos como el verbo
“tener”, que implican necesariamente un objeto directo).
Después de esto se pasa a un nivel posicional, en el que se fija el orden
de los elementos principales y, dentro de ellos, qué orden siguen sus
componentes. Los procesos de inflexión determinarán la organización a
un nivel más detallado, estableciendo la realización gramatical última de
los elementos léxicos y codificando las propiedades morfosintácticas
dependiendo de la lengua de que se trate.

B) Lexicalización.
Este proceso consiste en la selección de palabras del diccionario mental
del individuo para producir el lenguaje. Así, se pasa de la representación
semántica de las palabras a la fonológica en dos etapas:
➢ Activación del significado.
➢ Recuperación de la forma fonológica: si hay alguna disrupción o
fallo, se producirá el fenómeno de “punta de la lengua”.
Según la teoría de Levelt sobre la representación de las palabras por un
lemma y un lexema, los primeros serían amodales y constituirían
representaciones mentales que reflejan un estadio intermedio entre la
activación de una idea y los sonidos del habla necesarios para expresarla.
En general, la investigación apoya esta teoría, pero hay distintos puntos
de vista en cuanto a la naturaleza del lemma.

4.3. Codificación fonológica.


A partir de la etapa anterior, donde se generó una estructura del lenguaje que
constituye una representación léxico-sintáctica del enunciado, lo que queda
es asegurarse de que los sonidos de las palabras salen en el orden y con la
prosodia adecuados. El hablante elaborará un plan fonético de los sucesivos
segmentos acústicos que materializan la estructura superficial de la oración
para ser traducidos finalmente al plano motor (movimientos articulatorios).
El ámbito de planificación de esta etapa es más reducido y la mayoría de los
errores que se producen se deben a un intercambio de fonemas dentro de un
mismo sintagma.
Esta “voz interior” ya es accesible a nuestra conciencia y está compuesta por
palabras organizadas en una secuencia de imágenes acústicas (sonidos
interiores) de los sonidos que configuran el enunciado verbal. Esta
accesibilidad nos permite examinar el mensaje introspectivamente y decidir si
lo hacemos público o no.

Elisa Ruiz Ortega


2020-2021
En la configuración del plan fonético hay varios niveles de representación que
se superponen y se acoplan en dos planos:
➢ Representación suprasegmental: compuesta por la estructura
prosódica y métrica. Incorpora propiedades melódicas y temporales del
lenguaje que abarcan las variaciones en:
✓ Frecuencia fundamental de la emisión.
✓ Acento.
✓ Duración e intensidad relativa de las unidades sonoras.
➢ Representación segméntala: organizada sobre la base de la estructura
de las sílabas y sus segmentos constituyentes (fonemas).
Por último, el plan fonético tendrá que transformarse en plan motor, esto es,
una serie coordinada de órdenes motoras que permitirán la realización
articulada del mensaje verbal para que el oyente pueda percibirlo.

5. Modelos de producción oral.


Los seres humanos no sólo comunicamos mensajes a través del habla, sino
también de la escritura, que comparte muchos procesos con el habla:
➢ Planificación del mensaje que se quiere transmitir a nivel conceptual.
➢ Selección de los elementos léxicos.
➢ Realización de procesos motores para convertir los fonemas que
componen las palabras en signos gráficos en distintos formatos.
También hay diferencias notables entre ambos procesos, ya que en la escritura:
➢ No hay una interacción entre escritor y lector.
➢ El escritor debe construir todo el contexto y hacer referencias explícitas
para que el lector pueda entender lo que lee.
➢ Se puede pensar bien antes de escribir, al no existir presión temporal y se
pueden hacer correcciones de algo ya escrito (proceso de revisión).
➢ Es posible crear estructuras gramaticales y utilizar un vocabulario más
complejos, lo que implica un mayor cuidado de este tipo de lenguaje.
Hay que tener en cuenta que todas estas características se refieren a las formas
clásicas de escritura, pero en los últimos años se han venido utilizando otro tipo
de medios electrónicos para la comunicación escrita, en los que hay una
interacción continua entre los participantes, existe un contexto común y no se
elabora mucho el discurso ni se revisa después.
En cuanto a la investigación sobre la producción oral del lenguaje, como ya se
mencionó, la mayoría de los modelos coinciden en distinguir tres niveles de
representación (significado, representaciones léxicas y fonemas), pero difieren
en la explicación de su funcionamiento y las relaciones entre sí.

Elisa Ruiz Ortega


2020-2021
5.1. Modelos discretos o modulares.
Garrett propuso un modelo modular basándose en los errores del habla,
defendiendo que la producción del lenguaje pasa por etapas de
procesamiento discretas y que hay tres niveles principales de procesamiento:
➢ Nivel conceptual o del mensaje: los procesos de inferencia dan lugar a
una representación del mensaje que empieza a tomar forma lingüística
a través de:
✓ Selección léxica.
✓ Determinación de las estructuras funcionales.
➢ Nivel de la oración: hay dos subniveles:
✓ Funcional: se seleccionan las formas léxicas y su contenido
semántico se asigna a los papeles sintácticos (sujeto u objeto),
pero sin fijar el orden de las palabras.
✓ Posicional: se especifica la posición de las palabras dentro del
marco sintáctico y las relaciones de concordancia gramatical, lo
que servirá de base para generar una representación fonológica.
➢ Nivel articulatorio o motor: pronunciación del mensaje con su estructura
prosódica y segmental.

Garrett distinguió entre los papeles desempeñados por palabras de contenido


(recuperadas por su contenido semántico en el nivel funcional) y palabras de
función (indispensables para la organización estructural en el nivel posicional).

Elisa Ruiz Ortega


2020-2021
Esta distinción se ha confirmado a partir del análisis de las pausas en el
lenguaje espontáneo porque las interrupciones para la búsqueda léxica sólo
se producen ante palabras de clase abierta o de contenido.

El modelo de Levelt et al. se centra más en los procesos de selección de las


palabras habladas, y parte de la base de que la producción del lenguaje
atraviesa estadios ordenados y que la activación pasa de unos a otros sin
haber retroalimentación hacia atrás. Así, en cada etapa se genera un tipo de
representación que constituiría la materia prima para la siguiente.
La información pasa por una serie de etapas discretas o modulares desde la
preparación conceptual hasta la articulación de sonidos y en cada una se
produce un tipo distinto de representación que cada vez se aproximará más a
la representación sonora.

Así pues, los procesos se suceden de la siguiente forma:


➢ Fase de preparación conceptual.
✓ Elección del concepto léxico que expresa el mensaje que se
quiere transmitir.

Elisa Ruiz Ortega


2020-2021
✓ Selección del lemma desde el léxico mental: representación del
contenido semántico y sintáctico de las palabras.
➢ Fase fonológica-articulatoria: tiene cierta fragilidad y puede
interrumpirse por fenómenos como el de la “punta de la lengua”. Se
preparan los gestos articulatorios apropiados para las palabras a partir
de la construcción de la forma fonológica, que se hace en dos etapas:
✓ Codificación morfológica: se activa el morfema adecuado en
función del contexto oracional.
✓ Codificación fonológica o silabización: genera la palabra
fonológica o la secuencia de sílabas correspondientes al
morfema flexionado. En este punto se activan los planes
articulatorios para producir la estructura silábica construida en el
estadio anterior.
Según Levelt et al., el sistema utiliza en este punto un silabario,
que es un repertorio de movimientos articulatorios
correspondientes a las sílabas más frecuentes del idioma.

5.2. Modelos interactivos.


Según estos modelos, existe una interacción desde el principio de la
producción oral entre los niveles de representación. Dell et al. desarrollaron el
modelo de dos pasos, que implica la transferencia de información entre tres
niveles de procesamiento (semántico, léxico y fonológico).

Cuando se inicia la activación en el sistema semántico, esta se extiende hacia


el nivel léxico desde el principio y de ahí al fonológico, por lo que los tres
niveles operan simultáneamente. Así, la información semántica activa tanto la
representación léxica de la palabra como otros nodos léxicos que comparten
rasgos de significado y que actuarán como competidores. Al mismo tiempo, la
activación fluye hasta el nivel fenológico, donde se activarán los fonemas de
la palabra en cuestión y también los de las palabras competidoras.
Las conexiones mencionadas son bidireccionales, así, la activación viaja
hacia abajo, como ya se ha explicado, y hacia arriba, desde el nivel fonológico
al léxico y desde este al semántico.
En este modelo, los fonemas se activan a la vez que los nodos léxicos (que
serían equivalentes a los lemmas del modelo de Levelt et al.), lo que permite

Elisa Ruiz Ortega


2020-2021
explicar la elevada tasa de errores mixtos que ocurren en el habla espontánea
(aquellos en los que la palabra errónea está relacionada semántica y
fonológicamente con la que se pretendía decir).
Los errores se producen porque la palabra errónea recibe activación
semántica y fonológica, y al competir “mejor” con la palabra correcta, ocurre
el error.

Por otra parte, el modelo de Stemberger plantea que existen varios


componentes que se influyen mutuamente.

Este modelo establece que hay una interacción entre las palabras y la sintaxis
a partir del significado. Así, los niveles léxico y semántico se procesan
simultáneamente y ejercen influencia recíproca entre sí. Esto se pondría de
manifiesto en los errores que se cometen en el habla espontánea al sustituir
una palabra por otra, pues automáticamente se produce una acomodación
sintáctica a la nueva palabra (p. ej., si decimos “tus dientes están todos rojos”
en lugar de “tu lengua está toda roja”, el verbo y los restantes elementos
gramaticales se acomodarán a la palabra errónea).

Elisa Ruiz Ortega


2020-2021
5.3. Modelos en cascada.
Estos modelos comparten algunas características con los anteriores:
➢ Con el enfoque interactivo: asumen un procesamiento en paralelo de
los distintos niveles de representación.
➢ Con el enfoque modular: el flujo de activación es unidireccional y sólo
fluye hacia delante (o de arriba abajo).
Esta perspectiva recibe el nombre de “en cascada” porque la información
siempre fluye desde arriba hacia abajo como si fuera una cascada continua
entre los niveles superiores y los inferiores.
Se diferencia de los modelos modulares porque cada nivel de procesamiento
puede empezar a funcionar desde el momento en que haya partes de
información del nivel superior ya disponibles. Así, los niveles inferiores pueden
estar funcionando simultáneamente antes de que la labor de los superiores
haya terminado.

6. La conversación.
La conversación o el discurso en interacción es una actividad intencional y
cooperativa. En este sentido, Grice formuló cuatro máximas sobre la
colaboración de los interlocutores de una conversación:
➢ Máxima de la cantidad: el mensaje debe ser informativo, pero no más de
lo necesario.
➢ Máxima de la calidad: se debe decir aquello que se cree que es cierto, y
no decir nada sobre lo que se cree que es falso o sin la suficiente
evidencia.
➢ Máxima de la relevancia: el mensaje debe ser relevante para el propósito
de la conversación.
➢ Máxima de la forma: el mensaje debe ser claro, evitando la confusión,
ambigüedad u oscuridad en el lenguaje.
Clark concibe la conversación como una actividad conjunta en la que ambos
participantes comparten un “conocimiento común” basado en:
➢ Copresencia física y lingüística.
➢ Pertenencia a la misma comunidad o grupo social.
Además, comparten la “creencia común” de que el oyente está comprendiendo
lo que intenta comunicar el hablante y viceversa.

El paradigma de comunicación referencial fue diseñado por Krauss y


Weinheimer, y consiste en que dos participantes separados por una pantalla se
comuniquen en una situación estructurada. Uno de los dos da instrucciones al
otro para que sea capaz de seleccionar un objeto o una figura de entre varias
posibles.
Ambos tienen el mismo conjunto de figuras, que no corresponden
necesariamente a objetos de la vida real (por lo que las referencias no son
directas ni simples). Así, los participantes deben cooperar en su interacción
verbal para incrementar la eficacia en la tarea.
Elisa Ruiz Ortega
2020-2021
6.1. Deixis en la conversación.
El discurso se desarrolla en un contexto espaciotemporal concreto que los
interlocutores comparten simultáneamente, lo que le confiere un carácter
deíctico (se sitúa el discurso en un espacio y tiempo). La deixis implica un
grado de complejidad superior al que podría parecer.
Existen diferentes grados de demanda cognitiva relacionados con un sistema
de tres ejes subjetivos y orientados en torno al hablante:
➢ Un eje que señala la verticalidad percibida.
➢ Dos ejes horizontales con distintos niveles de prominencia psicológica.
✓ Delante-detrás.
✓ Derecha-izquierda.

6.2. Estructura de la conversación.


Dentro de una conversación se pueden distinguir tres momentos:
➢ Apertura: hay infinidad de formas de iniciar una conversación, pero casi
siempre ocurre de modo vocativo, dirigiéndonos al otro hablante (p. ej.,
“oye, Juan”). También es común el uso de fórmulas estereotipadas de
inicio de contacto (p. ej., “hola”).
➢ Turnos de habla: es una de las características más llamativas de la
conversación, ya que no parece haber reglas formales sobre la
alternancia en los turnos de palabra.

Elisa Ruiz Ortega


2020-2021
Sacks et al. consideran que cuando hay más de tres hablantes se
suelen seguir tres reglas:
✓ Quien está hablando puede elegir mediante ciertos indicios
quién será el próximo hablante.
✓ Si no se hace uso de la regla anterior, cualquier participante
podrá tomar la palabra.
✓ La persona que está hablando puede seguir haciéndolo, aunque
no tiene por qué hacerlo.
➢ Cierre: no se produce bruscamente, sino que hay señales de precierre
que anuncian la proximidad del fin de la conversación, que terminará
con un “adiós” recíproco.

Elisa Ruiz Ortega


2020-2021
-TEMA 11-
Lectura.

1. Introducción.
Desde hace miles de años, los humanos intentamos transmitir mensajes a través
de signos escritos. Primero utilizamos los dibujos (escritura ideográfica),
después estos se fueron esquematizando y sofisticando para poder representar
conceptos abstractos y escenas más complejas.
El verdadero sistema de escritura surgió cuando los símbolos escritos
empezaron a representar palabras en lugar de objetos o conceptos (escritura
logográfica). Con el tiempo, los dibujos se fueron haciendo más arbitrarios.
Finalmente, hacia el año 1.500 a.C. se produjo la aparición de los sistemas
alfabéticos, y en este momento los signos pasaron a representar fonemas
(escritura alfabética).
Los fenicios primero y los griegos después fueron incluyendo algunas vocales y
consonantes a esos fonemas, constituyendo finalmente el sistema alfabético casi
como lo conocemos hoy en día. A partir del alfabeto griego, los romanos hicieron
los últimos cambios.

El cerebro requiere un aprendizaje sistemático y prolongado hasta conseguir una


lectura fluida y automática, pero una vez se adquiere, queda fijado, y cada vez
que una palabra o frase aparece ante nuestros ojos, no podemos evitar leerla.
La lectura conlleva unos procesos similares a los que se emplean en la
producción del lenguaje oral, pues el objetivo es el mismo: comprender un
mensaje a partir de estímulos físicos. En el lenguaje escrito, dichos estímulos
son signos en el papel o en la pantalla en la que se proyectan sobre nuestros
ojos.
Hay varias diferencias entre el lenguaje oral y el escrito, ya que en este:
➢ Las letras que forman las palabras aparecen todas a la vez y permanecen
en el campo visual.
➢ Reconocemos las palabras a partir de las letras escritas: las variables más
importantes en este sentido son:
✓ Frecuencia de uso.
✓ Edad de adquisición.
➢ La prosodia se interpreta a través de los signos de puntuación.
➢ El contexto se construye a partir de diversas inferencias sobre la
información que aparece en el texto y del conocimiento propio del mundo.

2. Percepción de la información escrita.


2.1. Movimientos sacádicos y fijaciones.
Nuestro campo visual es muy amplio (abarca casi 180º), pero nuestra agudeza
visual se limita a la zona de la fóvea, en el centro de la retina (ocupa sólo 3º).
Esto implica que en cada “vistazo” vemos aproximadamente 10-12 letras y
Elisa Ruiz Ortega
2020-2021
que para ver las siguientes, los ojos tienen que desplazarse a una posición
nueva.
Este desplazamiento se produce en saltos bruscos que se denominan
“movimientos sacádicos”. Cuando llegamos al final de una línea, nuestros ojos
dan un salto hacia atrás hasta el inicio de la siguiente y seguir avanzando.
Estos últimos también se pueden producir cuando no entendemos lo que
estamos leyendo y tenemos que volver a leer una parte del texto.

El tiempo medio de duración de los movimientos sacádicos es de 20-40ms y


la amplitud media de los desplazamientos es de 8-10 caracteres, aunque hay
una gran variabilidad individual.
Los movimientos sacádicos son de naturaleza balística, esto es, una vez
inician un movimiento, no es posible corregirlos. Por ello, el punto de fijación
hacia el que se dirigirá el movimiento tiene que ser elegido antes de iniciarse,
pero ¿cómo se decide? McConkie y Rayner aseguran que el lector utiliza la
información parafoveal distante (la información borrosa que percibimos) para
decidir el siguiente punto de fijación.
Sin embargo, la información parafoveal no es suficiente para reconocer las
palabras e informar de cuáles son importantes, pues sólo sirve para conseguir
información superficial al respecto. Cuando nuestros ojos se detienen en una
parte del texto, comienza la extracción de información.

En los períodos de fijación extraemos la información de las palabras,


accediendo a su significado y pronunciación. Dependen mucho de si el lector
es experto (tiempo menor) o no (tiempo mayor), siendo el promedio unos 200-
250ms. En este sentido, también influye el tipo de texto que estemos leyendo,
siendo mayor el período de fijación en textos difíciles, formados por palabras
de baja frecuencia, etc.

Elisa Ruiz Ortega


2020-2021
El análisis visual de las palabras requiere muy poco tiempo (apenas 50ms),
pero los períodos de fijación duran hasta 250ms porque, hasta que no se
termina de procesar toda la información, los ojos no continúan su movimiento
hasta el siguiente punto.

Elisa Ruiz Ortega


2020-2021
2.2. Identificación de las letras.
Se produce durante la fijación y si no conseguimos identificar las letras (p. ej.,
cuando intentamos leer una receta médica), no podemos seguir con el
proceso de reconocimiento de palabras.
Según la hipótesis de plantillas, desarrollada en los años 70, los lectores
tienen representaciones mentales de la forma de cada letra del abecedario a
modo de plantillas con las que comparamos cada letra que vemos escrita. Se
trata de una hipótesis intuitiva, pero presenta un inconveniente: las letras
pueden escribirse de muchas formas, por lo que serían necesarias
demasiadas plantillas para reconocer cada letra.
Actualmente tiene más apoyo la hipótesis de rasgos, que sostiene que cada
letra se define por una serie de rasgos y cuando nuestro sistema lector detecta
algunos de ellos, identifica la letra correspondiente. Una vez hemos
identificado la letra, olvidamos rápidamente qué rasgos permitieron su
identificación o si estaba incompleta, ya que sólo permanece una
representación abstracta. Esta teoría es más económica y se ajusta mejor al
funcionamiento cerebral.

A finales del s. XIX dominó la hipótesis de que la forma global de las palabras
es suficiente para su reconocimiento. Cattell descubrió que los sujetos tenían
más dificultades para identificar letras cuando se presentaban aisladas que
cuando formaban parte de una palabra. Otros autores, con metodologías
diferentes, obtuvieron resultados similares a Cattell, en apoyo a la hipótesis
global.
Este planteamiento tuvo una gran influencia en el plano educativo,
concretamente en cuanto a los métodos de aprendizaje de la lectura (los
métodos globales de lectura enseñan a leer a partir de la palabra completa).

3. Reconocimiento de palabras escritas.


Es proceso fundamental de la lectura y consiste en extraer el significado y la
pronunciación de los signos escritos. Reconocemos las palabras con gran
rapidez y el proceso mejora con el aprendizaje.
Se han utilizado muchas metodologías para investigar este fenómeno,
principalmente basadas en:
➢ Tiempos de reacción.
➢ Tiempos de exposición.
➢ Tiempos de seguimiento de los movimientos oculares.
➢ Técnicas electrofisiológicas.
Se ha demostrado que la frecuencia con la que aparecen escritas las palabras
es una variable determinante del tiempo que se tarda en reconocerlas (a mayor
frecuencia, menor tiempo de reconocimiento).

Elisa Ruiz Ortega


2020-2021
3.1. Metodología.
A) Umbral de reconocimiento.
Consiste en la identificación de palabras presentadas brevemente en una
pantalla (taquistoscopio). Se presenta una palabra durante un tiempo muy
corto y este se va aumentando progresivamente hasta que la persona es
capaz de identificarla.
➢ VD: milisegundos de exposición del estímulo necesarios para la
identificación correcta de la palabra. Otra posibilidad es utilizar
siempre el mismo tiempo de presentación y observar el porcentaje
de aciertos (VD).
➢ VI: varían dependiendo del objetivo de cada experimento.
La desventaja de este método es que no se pide a los sujetos que
respondan en un plazo determinado, lo que puede provocar la
intervención de otros procesos post léxicos.

B) Decisión léxica visual.


Los sujetos deben decidir lo más rápido posible si una serie de letras
presentadas de forma escrita constituyen una palabra de su idioma o no.
La mitad de los estímulos suelen ser palabras y la otra mitad, no palabras
(que pueden estar formadas por series de letras o ser pseudopalabras).
Se trata de la tarea más utilizada en la investigación del reconocimiento
de palabras porque permite manipular fácilmente las características de los
estímulos y recoger los efectos de los tiempos de respuesta.

C) Lectura en voz alta.


Se presentan palabras en una pantalla para que los sujetos las pronuncien
lo más rápido posible (por tanto, la VD es el tiempo de reacción). El tiempo
medio de lectura está en unos 500ms, pero hay que tener en cuenta que
ese tiempo es el que transcurre entre la aparición de la palabra en la
pantalla y el inicio de la lectura, obviando el tiempo de la pronunciación.
El supuesto básico de esta técnica es que el tiempo necesario para iniciar
la pronunciación depende de su accesibilidad en el léxico mental de la
persona, así, cuanto más disponible esté la unidad léxica, antes empezará
la lectura.

D) Categorización semántica.
Se presentan palabras de dos categorías diferentes (p. ej., “animales
domésticos” y “animales salvajes”) para que los sujetos determinen a cuál
de las dos pertenece cada palabra. Lo que se mide es el acceso al sistema
semántico, que es imprescindible para saber a qué categoría pertenece
cada palabra.

Elisa Ruiz Ortega


2020-2021
En esta tarea influyen algunas variables semánticas, como la tipicidad
(cuán representativa es la palabra presentada de su categoría) o la
imaginabilidad.

E) Movimientos oculares.
Esta técnica pretende estudiar cómo procesamos unidades mayores del
lenguaje escrito y el mecanismo básico consiste en la emisión de un rayo
de luz infrarroja al globo ocular que no es visible para el sujeto y que se
refleja en un ordenador. Este determina dónde está mirando el sujeto en
cada momento a partir de cálculos matemáticos.
La información más relevante que se puede obtener a partir de este
método es el lugar y tiempo de fijación ocular, partiendo del supuesto de
que cuanto más procesamiento exija una palabra, mayor será el tiempo
de fijación sobre ella.

F) Priming.
Con esta técnica se estudia el curso temporal del reconocimiento de
palabras y consiste en la presentación de una palabra (denominada
prime) inmediatamente antes de la que el individuo tiene que reconocer
(denominada target).
Los tiempos de respuesta varían mucho en función de la relación existente
entre el prime y el target. Así, se distinguen varios tipos de priming:
➢ De repetición: el prime y el target son la misma palabra. Los efectos
de este tipo de priming son muy potentes porque se produce
activación a todos los niveles de procesamiento, pero el efecto es
mayor en las palabras de baja frecuencia.
➢ Ortográfico o formal: el prime y el target comparten muchas letras
(p. ej., “carnero” y “cartero”).
➢ Fonológico: el prime y el target se parecen en su pronunciación. En
castellano, el priming ortográfico y fonológico apenas pueden
distinguirse, porque las palabras se escriben y pronuncian
prácticamente igual, pero en idiomas como el inglés se diferencian
mejor.
➢ Semántico: el prime y el target se relacionan por su significado (p.
ej., “perro” y “gato”).

En función del intervalo temporal entre ambos estímulos (SOA), se


distinguen dos tipos de priming:
➢ Controlado (>250ms): los individuos ven el prime sin problemas.
➢ Automático (<250ms): los sujetos no tienen tiempo de llevar a cabo
ninguna estrategia, por lo que todos los efectos observados serán
automáticos.
Hay un tercer tipo de priming que se denomina “enmascarado”, en el que
se presenta el prime durante 50-75ms y es inmediatamente tapado por
Elisa Ruiz Ortega
2020-2021
una máscara de signos para dificultar su percepción. De esta forma, los
sujetos no son conscientes de la presencia del prime, y aun así se siguen
observando sus efectos.

G) Potenciales evocados.
Esta técnica mide la actividad eléctrica cerebral a través de unos
electrodos colocados sobre el cuero cabelludo. Cuando se presentan los
estímulos en el campo visual de los sujetos, el cerebro produce unas
ondas que varían en polaridad y momento de aparición en función de sus
características. Así:
➢ Procesamiento semántico: asociado a la onda N400.
➢ Procesamiento ortográfico: asociado a la onda N200.
➢ Procesamiento fonológico: asociado a la onda N320.
Tiene una gran resolución temporal y permite comprobar que si dos
variables producen activación en diferentes momentos es porque influyen
en procesos distintos del sistema.

3.2. Resultados.
Las diferencias en el reconocimiento de palabras son muy pequeñas, pero
aparecen de forma constante y en la mayoría de las personas. A través del
estudio de las variables que influyen en los TR de reconocimiento se pueden
inferir los procesos cognitivos que intervienen en la lectura.
Hay variables que influyen en el reconocimiento tanto de palabras escritas
como en el reconocimiento oral:
➢ Frecuencia de uso.
➢ Edad de adquisición.
➢ Vecindad ortográfica.
➢ Imaginabilidad.
En cambio, la variable punto de unicidad apenas tiene importancia en la
lectura, porque esta aparece completa ante nuestros ojos y las letras se
identifican todas a la vez en paralelo. Por su parte, la longitud de las palabras
es determinante en la tarea de lectura en voz alta porque los tiempos de
lectura se incrementan de forma casi lineal con su número de letras.

La longitud de las palabras puede medirse en función del número de letras o


de sílabas, sobre todo en idiomas como el español o el francés. En español
se producen dos hechos paradójicos:
➢ Cuanto más frecuente es una sílaba, mayor es el TR de
reconocimiento.
➢ Cuanto mayor es la frecuencia de un morfema (especialmente los
prefijos), menor es el TR de reconocimiento.
Este hecho ha sido corroborado por múltiples autores empleando diversos
métodos de investigación.

Elisa Ruiz Ortega


2020-2021
Por último, la regularidad entre las formas escritas y su pronunciación es una
variable que influye mucho en idiomas como el inglés, de ortografía opaca.
Así, los hablantes ingleses tardan más y cometen más errores al leer palabras
irregulares y este es el motivo también por el que los niños ingleses tardan
mucho más tiempo en aprender a leer.
En castellano, que es un idioma totalmente transparente (los grafemas se
pronuncian siempre igual), no puede darse este problema porque todas las
palabras son regulares y pueden leerse sin dificultad, aunque no la hayamos
visto antes.
La escritura en castellano, en cambio, no es tan regular, pues existen sonidos
que representamos de formas diferentes:
➢ El sonido /k/ se puede representar con las letras “k”, “c” y “qu”.
➢ El sonido /b/ se puede representar con las letras “b” y “v”.
➢ El sonido /⊖/ se puede representar con las letras “c” y “z”.
Estas irregularidades implican que hay palabras que no se pueden escribir
bien si no se conoce su representación ortográfica, especialmente en el caso
de palabras de ortografía arbitraria, que no siguen ninguna regla ortográfica
(p. ej., “zanahoria” u “hotel”). Para escribir palabras que sí se ajustan a alguna
regla ortográfica no es necesario disponer de su representación. Por este
motivo el aprendizaje de la escritura requiere mucho más tiempo que el de la
lectura.

La existencia de las palabras de ortografía arbitraria justifica la existencia de


dos vías de escritura en castellano:
➢ Subléxica: para las palabras desconocidas.
➢ Lexicoortográfica: para las palabras de ortografía arbitraria, con dos
condiciones:
✓ Que sean familiares.
✓ Que la persona disponga de una representación de la palabra
en su memoria.
Así, cuando tenemos que escribir una palabra de ortografía arbitraria que no
conocemos, hacemos uso de ambas vías para elegir los grafemas más
frecuentes (vía subléxica) y para buscar palabras familiares que sean
parecidas (vía lexicoortográfica).

Hay bastante consenso sobre el plano de actuación en el sistema lector de


algunas variables:
➢ Frecuencia de uso: actúa a nivel léxico cuando tenemos que reconocer
una palabra entre otras.
➢ Vecindad ortográfica: nivel léxico.
➢ Imaginabilidad: actúa cuando accedemos al significado de las palabras.
➢ Edad de adquisición: puede actuar a nivel semántico, léxico y
fonológico.
En la mayor parte de los estudios sobre reconocimiento de palabras se utilizan
palabras aisladas para comprobar los efectos de cada variable evitando
Elisa Ruiz Ortega
2020-2021
influencias externas. ¿Se mantienen dichos efectos cuando se introduce la
palabra en un texto o va precedida de otra con la que está relacionada? El
contexto facilita el reconocimiento y modula el papel de las variables.
Sin embargo, el contexto no parece influir en el acceso al significado de las
palabras, lo que queda demostrado cuando leemos una palabra polisémica y
se activan todos sus significados (aunque sólo sea durante los primeros
milisegundos), no sólo el que es coherente con el contexto.

3.3. Modelos de reconocimiento de palabras escritas.


El primer modelo que se propuso para explicar cómo se produce el
reconocimiento de palabras es el del logogén, propuesto por Morton. En él,
cada palabra está representada por un mecanismo (que se denomina
logogén) que se activa cuando se corresponde con el estímulo que se está
procesando.
Cada vez que se activa un logogén, su umbral de activación disminuye, de
forma que cuantas más veces se lea una palabra, menor será el umbral de
activación necesario para ser reconocida.
Forster propone el modelo de búsqueda, en el que se utiliza la metáfora de la
biblioteca para explicar el reconocimiento de palabras. En ella hay archivos en
los que se encuentran las fichas de los libros en función de distintos órdenes
(p. ej., alfabético o temático) y estanterías donde están los libros. También hay
archivos periféricos con las representaciones de las palabras.
Hay tres tipos de archivos:
➢ Fonológico: para el lenguaje oral.
➢ Ortográfico: para el lenguaje escrito.
➢ Sintáctico-semántico.
Además de ellos hay un archivo general donde se almacena toda la
información referente a cada palabra. Así, una vez llegamos a la
representación de una palabra en el archivo periférico, esta nos conducirá a
la información del archivo general.

A) Modelo dual o de doble ruta (Coltheart).


Fue propuesto a partir del modelo del logogén, añadiendo nuevos
componentes para explicar nuevas evidencias encontradas por la
Psicología experimental y la Neuropsicología. Es de tipo serial.
Según este modelo, hay dos procedimientos para pasar de la palabra
escrita al significado (lectura comprensiva) o la pronunciación (lectura en
voz alta):
➢ Vía subléxica: permite leer las palabras aplicando las reglas
grafema-fonema, es decir, transformando cada letra en su
correspondiente fonema.
Se puede utilizar con cualquier palabra (familiar o desconocida) e
incluso con pseudopalabras, porque las reglas grafema-fonema

Elisa Ruiz Ortega


2020-2021
son aplicables a cualquier estímulo, siempre que la pronunciación
sea regular.
➢ Vía léxica: permite leer directamente las palabras activando sus
representaciones en el léxico visual. Tiene dos variantes:
✓ Vía léxica pura: conecta el léxico ortográfico con el
fonológico.
✓ Vía lexicosemántica: conecta el léxico ortográfico con el
fonológico a través del sistema semántico.
Esta vía es muy útil porque nos permite leer de forma fluida y es
necesaria para la lectura de palabras irregulares (que sólo existen
en idiomas opacos). El problema es que sólo podemos usar esta
vía cuando las palabras son familiares porque, de otra forma, no
podemos tener representaciones de las mismas en la memoria.

Cuando leemos una palabra pueden ocurrir varias cosas:


➢ Activación de la vía subléxica: la palabra es desconocida (p. ej.,
“golimbro”).
➢ Activación de la vía léxica: la palabra es familiar e irregular (p. ej.,
“Google”).
➢ Activación de ambas vías: la palabra es familiar y regular (p. ej.,
“casa”). Dependiendo de lo larga que sea la palabra, puede ser más
eficaz una vía que otra, pero ambas funcionan y por eso
cometemos tan pocos errores al leer, porque si falla una vía, la otra
la sustituye.
Elisa Ruiz Ortega
2020-2021
Al principio, los niños sólo usan la vía subléxica (serial) porque no tienen
representaciones de palabras en su léxico visual. Poco a poco las van
formando y empiezan a utilizar la vía léxica (en paralelo), adquiriendo
rapidez y fluidez en la lectura.
La vía subléxica tiene que ser enseñada sistemáticamente, pero en el
caso de la vía léxica, los niños no requieren aprendizaje alguno, ya que
las representaciones se van formando al leer (a esto se le conoce como
autoaprendizaje).
La influencia de las distintas variables en el reconocimiento de palabras
cambia a lo largo del aprendizaje de la lectura:
➢ La longitud de las palabras influye sólo al principio, cuando se
utiliza la vía subléxica.
➢ La frecuencia de uso influye cuando se emplea la vía léxica.
Tiempo después, Coltheart propuso una versión del modelo de tipo
computacional en la que la vía subléxica opera de forma serial, pero la vía
léxica opera en paralelo y en cascada. Esto permitía explicar algunos
puntos débiles del modelo inicial, como el hecho de que la vía léxica sea
más rápida que la subléxica.

B) Modelo de triángulo (Seidenberg y McClelland).


Es un modelo conexionista que se propuso a partir del modelo de
procesamiento distribuido en paralelo (PDP) de McClelland y Rumelhart.
Según estos autores, todas las palabras, familiares o desconocidas, se
leen utilizando el mismo procedimiento, no existiendo una distinción entre
vía léxica y subléxica.
Se distinguen tres niveles:
➢ Ortográfico.
➢ Fonológico.
➢ Semántico.

Los tres niveles están unidos entre sí por unidades ocultas y la facilidad
para leer dependerá de la fortaleza de estas conexiones. Así, cuando
leemos una palabra, se activan las representaciones correspondientes y
la fuerza de la conexión es mayor, por lo que las palabras con mayor
frecuencia de uso se reconocerán más rápido que el resto.
Elisa Ruiz Ortega
2020-2021
Desde esta perspectiva se establecen dos vías en la lectura:
➢ Vía que conecta la ortografía con la fonología.
➢ Vía que conecta la ortografía con la fonología a través de la
semántica.

Los modelos conexionistas cuentan con gran aceptación porque están


inspirados en el funcionamiento cerebral e intentan simular las redes
neuronales. Otra ventaja de este modelo es que mejora con la práctica,
por lo que permite explicar el aprendizaje de la lectura.

4. Bases neurológicas de la lectura.


El tiempo promedio que se tarda en leer una palabra en voz alta es de unos
500ms, de los cuales:
➢ Procesamiento visual: 100 ms.
➢ Procesamiento fonológico y semántico: 150ms.
➢ Activación y ejecución de programas motores para la pronunciación:
250ms.
Gracias a las técnicas neurofisiológicas y de neuroimagen actuales podemos
saber lo que ocurre en nuestro cerebro mientras leemos.
Las primeras áreas cerebrales que se ponen en funcionamiento durante la
lectura son las visuales del lóbulo occipital, donde llega la información
procedente de los ojos y se analizan los rasgos de las letras para su
identificación. Por otro lado, las últimas áreas que trabajan en este proceso son
las motoras del lóbulo frontal, desde donde se envían las órdenes a los músculos
del aparato fonador para articular los fonemas.

Una de las áreas cerebrales más importantes en la lectura es la zona


parietotemporal, donde se encuentran:
➢ Área de Wernicke.
➢ Circunvolución angular.
➢ Circunvolución supramarginal.
Aquí es donde se integra la información visual con la fonológica, es decir, donde
los grafemas se traducen en fonemas para que las palabras se puedan
reconocer.
La zona occipitotemporal participa en el reconocimiento ortográfico de las
palabras, y es conocida como área de la forma visual de las palabras porque se
activa ante la presentación de palabras presentadas visualmente, pero no
cuando se presentan por vía auditiva.
Cuando alguien sufre una lesión en esta área, puede identificar las letras que
componen las palabras, pero no es capaz de leerlas globalmente. Por otro lado,
los niños disléxicos muestran poca activación de la zona cuando leen.

Elisa Ruiz Ortega


2020-2021
La tercera área responsable del procesamiento de la lectura se encuentra en la
zona media e inferior del lóbulo temporal izquierdo. Las técnicas de neuroimagen
han demostrado que los niños disléxicos tienen menor volumen de sustancia gris
en los lóbulos temporales, y especialmente en el izquierdo. Concretamente, en
el área de la forma visual de las palabras las diferencias entre niños disléxicos y
no disléxicos son mucho mayores.
Por el contrario, los niños disléxicos presentan:
➢ Mayor cantidad de sustancia gris en el lóbulo frontal derecho.
➢ Menor densidad de sustancia blanca.
Elisa Ruiz Ortega
2020-2021
Esto implica que se produce una activación menor del hemisferio izquierdo,
sobre todo en la zona parietotemporal izquierda, responsable del procesamiento
fonológico de las palabras, mientras se realizan tareas lingüísticas. Igualmente,
hay menor activación de la zona occipitotemporal izquierda (área de la forma
visual de las palabras) durante la lectura.
Todas estas alteraciones provocan que los niños disléxicos tengan dificultades
para aprender a leer y escribir y que su memoria verbal a corto plazo sea más
reducida.

En la lectura en voz alta, además de las regiones anteriores, participa también el


área de Broca, situada en el lóbulo frontal izquierdo, que lleva a cabo la
recodificación fonológica necesaria para la pronunciación. Desde este punto se
envían las órdenes al área motora para ejecutar los movimientos productores del
habla.

La lectura no es algo programado, sino que para su funcionamiento es necesario


establecer conexiones entre las áreas mencionadas (área visual y
parietotemporal). Cuando un niño empieza a leer sólo tiene desarrolladas las
áreas visual y auditiva, pero con el aprendizaje de las reglas grafema-fonema,
poco a poco establecerá conexiones entre ambas.
Una vez transformadas las letras en sonidos, para leer en voz alta sólo hace falta
emplear los mismos mecanismos que para la repetición en el lenguaje oral, esto
es, la conexión entre la zona parietotemporal y el área de Broca a través del
fascículo arqueado. A esta vía se le denomina circuito dorsal y es la primera que
desarrollan los niños cuando aprenden a leer.
A medida que los niños siguen leyendo se forman las representaciones
ortográficas de las palabras y ya no necesitan convertir cada letra a su sonido,
sino que pueden leer globalmente. Dicha representación necesita asociarse con
la pronunciación y el significado de la palabra, por lo que se desarrollará una
nueva vía que conecta el área de la forma visual de la palabra con el área
temporal media y el área de Broca. A esta vía se le conoce como vía ventral.
En resumen:
➢ Vía dorsal: área parietotemporal → fascículo arqueado → área de Broca.
➢ Vía ventral: área de la forma visual de la palabra → área temporal media
→ área de Broca.
Elisa Ruiz Ortega
2020-2021
En los lectores expertos, ambos circuitos participan en la lectura, aunque su
papel depende de varios factores.
➢ Circuito dorsal: su actividad se centra en el inicio del aprendizaje de la
lectura, de hecho, en los niños que están aprendiendo a leer, es el único
circuito que se activa. Funciona sobre todo con las palabras desconocidas
y las pseudopalabras.
Equivale a la vía subléxica del modelo dual o a la conexión ortografía-
fonología del modelo de triángulo.
➢ Circuito ventral: se activa cuanto más experto es el lector y funciona más
con las palabras familiares, sobre todo las irregulares.
Equivale a la vía lexicosemántica del modelo dual o a la conexión
ortografía-semántica del modelo de triángulo.

Elisa Ruiz Ortega


2020-2021
-TEMA 12-
Trastornos del lenguaje.

1. Introducción.
A través del estudio de trastornos afásicos se puede conocer la gran variedad de
alteraciones que se deben a lesiones cerebrales y se pueden poner a prueba los
modelos de procesamiento lingüístico.
A finales de los años 70, Marshall y Newcombe describen tres tipos de dislexias
con diferentes síntomas y los interpretaron en función de los modelos de lectura
existentes. Se considera que este es el inicio de la Neuropsicología cognitiva,
cuyo objeto de estudio se basa en poner a prueba los modelos cognitivos con
pacientes con trastornos del lenguaje.
Hay pacientes que son incapaces de realizar ciertas tareas, pero pueden hacer
otras incluso más difíciles, lo que demuestra que los procesos se pueden ver
afectados de forma selectiva (disociación de procesos). Este fenómeno se puede
demostrar cuando un paciente:
➢ Es incapaz de realizar una tarea X, dependiente de un proceso cognitivo
A.
➢ Es capaz de realizar una tarea Z, dependiente del proceso cognitivo B.
En este caso, hablaremos de disociación de los procesos A y B (son
independientes tanto a nivel cognitivo como neurológico). Si además
encontramos otro paciente que tenga los síntomas contrarios a este, podremos
hablar de disociación doble entre los procesos A y B.
Hay muchos tipos de disociaciones dobles, como:
➢ Nombres frente a verbos.
✓ Trastorno en el procesamiento de nombres: daño en el lóbulo
temporal izquierdo.
✓ Trastorno en el procesamiento de verbos: daño en el lóbulo frontal
izquierdo.
➢ Seres vivos frente a objetos inanimados.
✓ Trastorno en el procesamiento de seres vivos: daño en la zona
temporal media e inferior.
✓ Trastorno en el procesamiento de objetos inanimados: daño en la
zona frontoparietal izquierda.
➢ Palabras irregulares frente a palabras regulares.
✓ Trastorno en el procesamiento de palabras irregulares: daño en la
vía ventral (área occipital → zona temporal inferior → área frontal).
✓ Trastorno en el procesamiento de palabras regulares: daño en la
vía dorsal (área occipital → zona temporoparietal → área frontal).

2. Trastornos del lenguaje oral.


Tradicionalmente, los trastornos del lenguaje se han dividido en dos síndromes:
➢ Afasia de Broca: engloba los trastornos de producción.
Elisa Ruiz Ortega
2020-2021
➢ Afasia de Wernicke: engloba los trastornos de comprensión.
Sin embargo, muchos pacientes tienen síntomas de una afasia, aunque
padezcan la otra, por lo que esta distinción no es perfecta. Lo más razonable,
pues, parece explicar cada síntoma según los modelos de comprensión y
producción, independientemente del síndrome en el que puedan incluirse.

2.1. Trastornos de comprensión.


A) Sordera verbal pura o sordera específica para las palabras.
➢ Lesión: circunvolución superior del lóbulo temporal izquierdo.
➢ Síntomas.
✓ Dificultad para identificar los fonemas.
✓ Dificultad para comprender el habla.
➢ Sí pueden:
✓ Identificar sonidos ambientales.
✓ Percibir las características físicas del lenguaje (p. ej., si habla
un hombre o una mujer, si la voz es grave o aguda, etc.).
✓ Algunos pueden identificar ciertos fonemas.
➢ Les ayuda:
✓ Mejorar su percepción cuando el habla es lenta y bien
articulada.
✓ Ver la cara de la persona que habla.

B) Sordera para la forma de la palabra.


➢ Lesión: parte superior y posterior del lóbulo temporal izquierdo.
➢ Síntomas.
✓ No son capaces de reconocer las palabras.
✓ No distinguen palabras reales de inventadas.
➢ Sí pueden:
✓ Identificar correctamente los fonemas.
✓ Repetir las palabras y las pseudopalabras utilizando la vía
subléxica o el mecanismo de conversión acústico-
fonológico.
✓ Escribir al dictado usando el mecanismo de conversión
acústico-fonológico.

C) Sordera para el significado de las palabras.


➢ Lesión: circunvoluciones anterior y supramarginal.
➢ Síntomas.
✓ No pueden acceder al significado de las palabras ni de las
pseudopalabras de forma oral.
➢ Sí pueden:
✓ Identificar los fonemas.
✓ Reconocer las palabras.
✓ Saber si una palabra es familiar o no.
✓ Distinguir las palabras de las pseudopalabras.
Elisa Ruiz Ortega
2020-2021
✓ Leer y entender las palabras si se presentan de forma
escrita.
➢ Interpretación: el sistema semántico está intacto, lo que se ha
dañado es la vía de acceso o conexión entre el léxico auditivo y el
sistema semántico. Por eso, los pacientes pueden llegar a entender
las palabras cuando se presentan por otras vías.

D) Agnosia fonológica.
➢ Lesión: vía subléxica.
➢ Síntomas: no pueden repetir ni escribir al dictado palabras
desconocidas.
➢ Sí pueden:
✓ Reconocer palabras familiares.
✓ Acceder al significado, repetir y escribir al dictado las
palabras familiares.

E) Disfasia profunda.
➢ Lesión: varios componentes del sistema de procesamiento léxico.
✓ Destrucción total de la vía subléxica.
✓ Destrucción parcial de la vía léxico-semántica.
➢ Síntomas.
✓ Más llamativos:
❖ Incapacidad total para repetir pseudopalabras.
❖ Errores semánticos de repetición.
✓ Problemas de comprensión.
✓ Dificultad para repetir palabras de baja frecuencia.
✓ Mayor dificultad para repetir palabras abstractas que
concretas.
✓ Mayor dificultad para repetir verbos que nombres.
✓ Graves dificultades para repetir palabras funcionales.
✓ Mayor dificultad para repetir palabras compuestas que
simples.
➢ Interpretación.
✓ Destrucción total de la vía subléxica: provoca la incapacidad
de repetir pseudopalabras.
✓ Destrucción parcial de la vía léxico-semántica: permite
activar parcialmente el sistema semántico, pero los
pacientes no siempre escogen el concepto adecuado.

2.2. Trastornos de producción.


La anomia es un trastorno caracterizado por la dificultad para recuperar
palabras que los pacientes intentan usar en su discurso oral. Esta dificultad
no se debe a problemas motores, y dependiendo del mecanismo concreto
responsable del trastorno se distinguen varios tipos de anomia.

Elisa Ruiz Ortega


2020-2021
A) Anomia semántica.
➢ Lesión: zonas temporal y frontotemporal del hemisferio izquierdo.
➢ Síntomas.
✓ Discurso pobre y vacío de contenido.
✓ Problemas de comprensión, especialmente de conceptos
poco familiares.
✓ Dificultad en las tareas que exigen acceder al significado.
✓ Dificultad para distinguir entre conceptos similares

B) Anomia pura.
➢ Lesión: lóbulo temporal izquierdo, aunque se puede producir por
una lesión en cualquier zona del cerebro.
➢ Síntomas.
✓ Dificultad para recuperar el nombre de los conceptos, como
si estuvieran constantemente en el estado de la “punta de la
lengua”.
✓ Uso masivo de circunloquios (explican lo que significa o para
lo que sirve la palabra que no consiguen recordar).
✓ Uso de términos genéricos.
✓ Escaso uso de palabras de contenido, especialmente
nombres.
➢ Sí pueden:
✓ Construir oraciones gramaticalmente correctas y con
palabras funcionales adecuadas.
✓ Recordar palabras de alta frecuencia.
✓ Recordar palabras que adquirieron en edad más temprana.
➢ Les ayuda: mencionar los primeros fonemas de la palabra que no
recuerdan.

C) Anomia fonológica.
➢ Síntomas.
✓ Dificultad para seleccionar los fonemas de las palabras
recuperadas de la memoria.
✓ Errores de omisión, sustitución, adición e intercambio de
fonemas.
✓ Dificultad en la tarea de denominación de dibujos.
✓ Dificultad en tareas de lectura en voz alta y de repetición.
✓ Cuanto más larga es la palabra, más fonemas tienen que
seleccionar y más probable es que se equivoquen.
➢ Sí pueden: recuperar la palabra que buscan.

D) Apraxia del habla.


➢ Lesión: lóbulo frontal izquierdo.

Elisa Ruiz Ortega


2020-2021
➢ Síntomas.
✓ Daño en los programas que envían las órdenes a los
músculos encargados de la articulación.
✓ Errores de sustitución, omisión, adición e intercambio de
fonemas debido al fallo en la ejecución de la orden de
articulación.

3. Trastornos del lenguaje escrito.


3.1. Dislexias.
La dislexia es un trastorno de la lectura en el que se pueden distinguir:
➢ Dislexia evolutiva: se refiere a dificultades en el aprendizaje de la
lectura. Suele aparecer junto a la disgrafia evolutiva (dificultad para
aprender a escribir) porque se trata de operaciones muy relacionadas.
➢ Dislexia adquirida: se refiere a dificultades para leer producidas por una
lesión cerebral. Puede manifestarse independientemente de la
disgrafia adquirida (dificultad para escribir por una lesión cerebral)
porque ambos procesos dependen de áreas cerebrales diferentes.

A) Periféricas.
Se producen cuando la lesión cerebral afecta a las áreas responsables de
los procesos perceptivos de identificación de letras y palabras.
Hay varios tipos de dislexias periféricas, pero la más conocida es la alexia
pura o lectura letra a letra:
➢ Lesión: entre el lóbulo occipital y el lóbulo temporal del hemisferio
izquierdo.
➢ Síntomas.
✓ Dificultad para leer palabras completas.
✓ En los casos más graves tienen que leer en voz alta cada
letra de las palabras para poder entenderlas.
✓ Lectura lenta y trabajosa.
➢ Sí pueden:
✓ Identificar bien las letras que forman las palabras.
✓ Leer de forma serial muy lentamente.

B) Centrales.
Se producen cuando la lesión cerebral afecta a las áreas responsables de
los procesos de reconocimiento de palabras.

Elisa Ruiz Ortega


2020-2021
Hay varios tipos de dislexias centrales:
➢ Fonológica.
✓ Lesión: en función del número de reglas grafema-fonema
que se haya visto dañado, el grado de alteración lectora será
mayor o menor. También influye la experiencia lectora
previa a la lesión.
❖ Según el modelo dual: la lesión daña la vía subléxica,
que es fundamental para leer palabras de baja
frecuencia y desconocidas.
❖ Según el modelo de triángulo: la lesión daña la
conexión entre las unidades ortográficas y
fonológicas, por lo que las palabras sólo se pueden
leer a través de la vía semántica.
✓ Síntomas.
❖ Dificultad para leer palabras desconocidas y
pseudopalabras.
❖ Confusión de palabras por otras que se parecen
visualmente.
❖ Transformación de las pseudopalabras en palabras
(lexicalización).
✓ Sí pueden:
❖ Leer palabras familiares.
❖ Utilizar la vía léxica.
➢ Superficial.
✓ Lesión.
❖ Según el modelo dual: la lesión daña la vía léxica, por
lo que los pacientes intentan leer todas las palabras
por la vía subléxica, que no funciona bien con las
palabras irregulares.
❖ Según el modelo de triángulo: la lesión daña la vía
semántica, por lo que estos pacientes tendrán
problemas también con el significado de las palabras.
✓ Síntomas.
❖ Dificultad para leer palabras irregulares (no se leen
igual que se escriben).
❖ Regularización: leen la palabra como se escribe,
aunque no se pronuncie así realmente.
❖ Tiempos de lectura más lentos.
✓ Sí pueden:
❖ Leer palabras regulares, ya sean familiares o
desconocidas.
❖ Leer pseudopalabras.
➢ Profunda.
✓ Lesión.
❖ Según el modelo dual: la lesión daña la vía subléxica
(lo que impide leer pseudopalabras) y la
lexicosemántica (lo que origina el resto de los
síntomas).

Elisa Ruiz Ortega


2020-2021
❖ Según el modelo de triángulo: la lesión daña la
conexión ortografía-fonología y parcialmente también
la representación semántica.
✓ Síntomas.
❖ Incapacidad para leer pseudopalabras.
❖ Incapacidad para leer palabras desconocidas.
❖ Comisión de errores semánticos: sólo se producen si
la vía subléxica está totalmente dañada.
❖ Mayor dificultad para leer palabras abstractas que
concretas.
❖ Mayor dificultad para leer palabras funcionales que
de contenido.
❖ Mayor dificultad para leer verbos que nombres.
❖ Errores visuales.
✓ Subtipos de dislexia profunda.
❖ De input: daño en el sistema léxico visual.
❖ Central: daño en el sistema semántico.
❖ De output: daño en el sistema léxico fonológico.

3.2. Disgrafias.
La disgrafia es un trastorno de la escritura y, al igual que en la dislexia, si
diferencia el trastorno del aprendizaje (disgrafia evolutiva) y el producido por
una lesión cerebral (disgrafia adquirida).

A) Centrales.
Se producen cuando la lesión cerebral afecta al procesamiento léxico.
Hay tres tipos de disgrafias centrales:
➢ Fonológica
✓ Lesión: según el modelo dual: la lesión daña la vía subléxica
que impide el funcionamiento del mecanismo de conversión
fonema-grafema. Por ello, los pacientes sólo pueden usar la
vía léxica, que sólo sirve para las palabras familiares.
✓ Síntomas.
❖ Dificultad para escribir al dictado palabras
desconocidas y pseudopalabras (a mano y a
ordenador).
❖ Lexicalizaciones: conversión de pseudopalabras en
palabras en la escritura al dictado.
❖ Errores en la escritura de algún grafema.
✓ Sí pueden: escribir bien palabras familiares (cuanto más
frecuente sea la palabra, más posibilidades hay de que los
pacientes la escriban bien).
➢ Superficial.
✓ Lesión: según el modelo dual, la lesión daña la vía léxica,
por lo que los pacientes siguen utilizando el mecanismo de

Elisa Ruiz Ortega


2020-2021
conversión fonema-grafema que sí funciona con las
palabras regulares.
✓ Síntomas: dificultad para escribir palabras irregulares.
✓ Sí pueden: escribir correctamente palabras conocidas,
desconocidas y pseudopalabras, siempre que sean
regulares.
➢ Profunda.
✓ Lesión: según el modelo dual, la lesión daña completamente
la vía subléxica y parcialmente la vía léxica.
✓ Síntomas.
❖ Principal: errores semánticos al escribir al dictado.
❖ Incapacidad para escribir pseudopalabras.
❖ Numerosos errores en la escritura de palabras de
baja frecuencia, abstractas y funcionales.

B) Periféricas.
Se producen cuando la lesión cerebral afecta a los componentes post
léxicos y motores.
Desde que se selecciona la representación ortográfica de la palabra hasta
que se representa (se escribe) su forma concreta en el formato
correspondiente, se llevan a cabo varias operaciones cognitivas:
➢ Seleccionar los grafemas que forman la palabra y retenerlos en la
MCP.
➢ Transformar los grafemas en alógrafos (representaciones)
concretos.
➢ Activar los patrones motores encargados de realizar los
movimientos correspondientes para representar dichos alógrafos.

Hay varios tipos de disgrafias periféricas:


➢ Disgrafia en la selección de los grafemas y su retención.
✓ Síntomas: errores de omisión, sustitución e intercambio de
grafemas (cuanto más larga sea la palabra, peor será la
ejecución) tanto en la escritura a mano como a ordenador.
➢ Disgrafia en la selección de los alógrafos.
✓ Síntomas.
❖ Dificultad para seleccionar los alógrafos adecuados
(elegir el tipo de letra de la escritura), por lo que a
veces los pacientes mezclan mayúsculas y
minúsculas en una misma palabra.
❖ Pérdida de un tipo de alógrafo concreto.
➢ Disgrafia puramente motora o apráxica.
✓ Lesión: daña los programas motores que controlan la
formación de letras (sólo en la escritura a mano).
✓ Síntomas.
❖ Dificultad para escribir a mano.

Elisa Ruiz Ortega


2020-2021
✓ Sí pueden:
❖ Escribir a ordenador o deletrear oralmente palabras.
❖ Algunos pacientes pueden escribir a mano, pero con
una letra muy deformada.
➢ Disgrafia aferente.
✓ Lesión: daña los procesos perceptivos (coordinación visual).
✓ Síntomas:
❖ Principales:
• Omitir o duplicar algunos rasgos de las letras.
• Dificultad para mantener la escritura en la línea
horizontal.
❖ Dificultad para escribir con buena letra o dibujar bien
las letras.
❖ Escritura deformada.

4. Trastornos semánticos.
➢ Lesión: lóbulo temporal izquierdo, aunque también puede afectar a los
lóbulos frontales o parietales. Los efectos variarán en función del área
lesionada y del tamaño de la lesión.
➢ Síntomas.
✓ Trastorno leve.
❖ Afectación de los conceptos menos familiares o de los
rasgos más específicos de algunos conceptos.
❖ Afectación de algunas categorías semánticas.
✓ Trastorno grave: afectación de todo el sistema conceptual.

5. Trastornos en la oración.
El término genérico para referirse al trastorno que provoca problemas en la
comprensión y formación de oraciones es agramatismo. Las personas que lo
sufren pueden presentar disociaciones entre la comprensión y la producción de
oraciones, observando en consecuencia distintos síntomas.
➢ Lesión: daña el área de Broca o zonas próximas a ella.
➢ Síntomas.
✓ Dificultad para entender y producir oraciones complejas.
✓ Dificultad para producir oraciones complejas.
❖ Escaso uso de palabras funcionales (sí conservan las de
contenido).
❖ Oraciones muy cortas.
❖ Estructuras sintácticas simples.
❖ Dificultad para conjugar bien los verbos.
✓ Dificultad para comprender oraciones complejas.
❖ Ocurre en oraciones que no siguen el orden preestablecido
de “SN + SV + SN” (donde habitualmente las funciones son
“sujeto + verbo + objeto”).
❖ Los pacientes aplican el orden preestablecido, aunque las
oraciones sigan otro, y asignan las funciones sintácticas
erróneamente.
Elisa Ruiz Ortega
2020-2021
6. Trastornos en el discurso.
➢ Lesión: daña el hemisferio cerebral derecho.
➢ Síntomas.
✓ Dificultad para captar el tema principal del discurso o la
conversación.
✓ Dificultad en la realización de inferencias.
✓ Dificultad para interpretar la información paradiscursiva (externa al
discurso) relativa a los estados emocionales del interlocutor o del
personaje narrativo.
✓ Dificultad para interpretar los aspectos prosódicos del habla.
✓ Dificultad para comprender el lenguaje indirecto (p. ej., metáforas,
frases hechas, etc.).
✓ Dificultad para comprender el humor.
➢ Sí pueden:
✓ No presentan afasia.
✓ Inalteración de las capacidades fonológicas, léxicas o semánticas.
✓ No muestran agramatismo ni dificultad en la comprensión de
oraciones.

7. Alteraciones del lenguaje en las demencias neurodegenerativas.


7.1. Enfermedad de Alzheimer.
Estos pacientes empiezan pronto a presentar problemas de comprensión, que
se manifiestan en:
➢ Dificultad para seguir el discurso, sobre todo si es complejo.
➢ Dificultad para comprender palabras, sobre todo de baja frecuencia y
abstractas.
➢ Pérdida del interés por la lectura.
En cuanto a la producción, los síntomas son más visibles:
➢ Abundantes circunloquios.
➢ Aumento de la respuesta “no sé”.
➢ Faltas de ortografía.
➢ Mezcla de letras mayúsculas y minúsculas.

7.2. Enfermedad de Parkinson.


Las alteraciones cognitivas más evidentes de esta enfermedad afectan a
funciones ejecutivas, como la capacidad de planificación, la toma de
decisiones, etc., porque se ven afectados los circuitos frontales. De forma
menos visible, en el lenguaje también se aprecian síntomas:
➢ Procesos superiores.
✓ Comprensión de oraciones.
✓ Comprensión de metáforas.
✓ Capacidad de realizar inferencias.
➢ Procesos de ámbito léxico y semántico.
✓ Tareas de fluidez verbal.
✓ Denominación de dibujos.
Elisa Ruiz Ortega
2020-2021
7.3. Demencia frontotemporal.
Dependiendo de dónde se produzca antes la degeneración cortical se pueden
distinguir dos variantes:
➢ Conductual: la atrofia empieza en la zona frontal.
➢ Afasia primaria progresiva: la atrofia afecta a la zona perisilviana entre
los lóbulos frontal y temporal.
Hay dos tipos:
✓ Afasia primaria progresiva no fluente: la atrofia empieza en la
región perisilviana anterior (lóbulo frontal).
❖ Habla poco fluida.
❖ Abundantes errores fonológicos.
❖ Trastornos articulatorios.
❖ Agramatismo.
❖ Se conserva la comprensión del lenguaje.
✓ Afasia primaria progresiva fluente o demencia semántica: la
atrofia empieza en la parte anterior del lóbulo temporal.
❖ Dificultad para comprender todo tipo de información
conceptual, sobre todo de conceptos no familiares.
❖ Dificultad para nombrar o dibujar objetos.
❖ No presentan trastornos fonológicos ni sintácticos, de
memoria o ejecutivos.

8. Evaluación del lenguaje.


Las tareas de evaluación del lenguaje atañen todos los componentes del sistema
de procesamiento lingüístico, tanto en comprensión como en producción, en el
lenguaje oral y en el escrito. La evaluación se lleva a cabo en personas sanas y
con trastornos, ya sea por lesiones cerebrales o por enfermedades genéticas. Lo
que cambia en las tareas es la complejidad de los estímulos o la medida de las
respuestas.
➢ Comprensión oral.
✓ Pares mínimos de palabras: se pronuncian pares de palabras o
pseudopalabras para que el paciente juzgue si son iguales o no.
✓ Discriminación o repetición de fonemas.
✓ Decisión léxica auditiva: el paciente escucha una serie de palabras
y pseudopalabras y tiene que decir si son o no reales.
✓ Emparejamiento palabra hablada-dibujo: se presentan varios
dibujos, el evaluador nombra cada uno y el paciente debe señalar
a cuál se refiere.
➢ Producción oral.
✓ Asociación semántica (test de pirámides y palmeras de Howard y
Patterson): se presentan tres dibujos o tres palabras, uno en la
parte de arriba y dos en la de abajo, y el paciente debe indicar cuál
de los dibujos de abajo está relacionado con el de arriba.
✓ Denominación de dibujos de objetos y acciones.
✓ Nombrado a partir de una definición: se da una definición al
paciente, que tiene que indicar qué palabra se está definiendo.
✓ Repetición de palabras.
Elisa Ruiz Ortega
2020-2021
➢ Lectura.
✓ Identificación de letras.
✓ Emparejamiento mayúscula-minúscula.
✓ Decisión léxica visual: el paciente lee una serie de palabras y
pseudopalabras y tiene que decir si son o no reales.
✓ Lectura en voz alta.
✓ Emparejamiento palabra escrita-dibujo: se presentan varios dibujos
a los pacientes y una palabra escrita que deben leer, después
tienen que señalar a qué dibujo se refiere.
➢ Escritura.
✓ Dictado de letras y sílabas.
✓ Dictado de palabras regulares e irregulares.
✓ Dictado de pseudopalabras.
✓ Denominación escrita.
➢ Semántica.
✓ Categorización semántica: se presentan diferentes estímulos y los
pacientes deben indicar la categoría a la que pertenecen.
✓ Señalar el elemento diferente.
✓ Asociación semántica.
✓ Emparejamiento palabra-dibujo.
✓ Fluidez categorial: el paciente tiene que decir el mayor número
posible de ejemplares de una categoría que se le indique.
➢ Oración.
✓ Emparejamiento oración-dibujo: se presentan varios dibujos a los
pacientes, el evaluador dice una oración y deben señalar el dibujo
al que corresponde.
✓ Descripción de una escena: se muestra una escena al paciente
para que describa todo lo que ve.

Tradicionalmente, se evaluaba el lenguaje de las personas para encuadrarlas en


alguna de las dos grandes afasias (Broca o Wernicke). En este sentido, el test
de evaluación más conocido era el de Boston, elaborado por Goodglass y
Kaplan. Sin embargo, con el desarrollo de la Neuropsicología cognitiva, se han
ido elaborando baterías de evaluación que intentan explicar cada síntoma de los
pacientes y no clasificarlos.
La batería de evaluación más famosa es PALPA, adaptada al castellano con el
nombre de EPLA. Está formada por 58 tareas agrupadas en cuatro bloques:
➢ Procesamiento fonológico: evalúa todos los componentes del sistema de
percepción oral.
➢ Lectura y escritura: evalúa los procesos de lenguaje escrito.
➢ Comprensión de dibujos y palabras: evalúa el procesamiento semántico y
la producción oral.
➢ Procesamiento de oraciones: evalúa la comprensión de oraciones.
Una cuestión importante a la hora de aplicar este tipo de pruebas es la de anotar
los tiempos de respuesta y los errores que se cometen, porque aportan mucha
información al estudio de los síntomas evaluados. También hay que tener en
cuenta las fluctuaciones que puedan observarse en diferentes momentos de
evaluación.
Elisa Ruiz Ortega
2020-2021

También podría gustarte