Está en la página 1de 19

NEUROPSICOLOGÍA COGNITIVA HUMANA- ELLIS AND YOUNG

CAPÍTULO VI

RESÚMEN:

“Reconocimiento y comprensión de palabras habladas”

La lengua hablada viaje desde el hablante hasta el oyente en forma


de onda sonora. Esta onda sonora es una fuente de información.
Sin haber visto nunca al hablante podemos deducir correctamente
el sexo de la persona, la región de origen, su estado emocional, etc.
Existe también una información lingüística codificada en la onda
sonora. En ella se incluye información sobre palabras individuales,
pero además se señalan mediante pausas o cambios en el tono de
voz, los límites sintácticos de las frases u oraciones.

Para identificar la palabra, un oyente necesitará tener almacenados


en su memoria todos los patrones sonoros de las palabras que
conozca y será capaz de comparar el patrón que acaba de oír con
los almacenados hasta encontrar la mejor opción equivalente. Lo
que proponemos es otro almacén de palabras o lexicón, pero esta
vez un almacén implicado en el reconocimiento de las palabras
habladas en lugar de en su producción, al que denominaremos
LEXICÓN DE INPUT AUDITIVO.

En la actualidad existen dos enfoques sobre cómo puede funcionar


el LIA. Una teoría propone que el oyente identifica primero los
fonemas (sonidos individuales del habla) en la onda sonora y luego
la palabra a partir de sus fonemas constituyentes. La segunda teoría
sostiene que el input hacia el sistema de reconocimiento de
palabras oídas es una versión de la onda sonora de bajo nivel y sin
segmentar.

El primer estadio del reconocimiento auditivo verbal efectuado por


un primer SISTEMA DE ANÁLISIS AUDITIVO tiene por objetivo
identificar los fonemas de la onda sonora del habla. Los resultados
de este análisis son trasmitidos al LIA, donde se buscará una opción
equivalente entre las características de las palabras almacenadas. Si
la opción es adecuada, se activará la unidad de reconocimiento
correspondiente al LIA. Éste a su vez activará la representación del
significado de la palabra oída en el SS. La flecha entre el LIA y el SS
es bidireccional. Esto permite al SS ejercer una influencia sobre el
nivel de actividad en las unidades verbales que, a su vez,
proporcionan un mecanismo por el cual el contexto semántico en el
que aparece una palabra puede modificar la facilidad con que es
identificada.

Un modo de repetir una palabra oída consistiría en activar su


entrada en el LOH, liberar la forma fonémica y articularla. Esto sería
tomar la ruta directa. Sin embargo, las personas normales también
pueden repetir en voz alta palabras desconocidas o seudopalabras,
para las que no existe una entrada ni en el LIA ni en el LOH.
Necesitamos una ruta alternativa desde el SAA hasta el NF. Esta
ruta también podría emplearse con palabras reales, pero aquellas
también pueden ser repetidas a través de la vía que une los
lexicones de input y de output.
Existen entonces tres rutas para la repetición de palabras. La
primera ruta pasa a través de los significados de las palabras y de
los dos lexicones; la segunda está expresada por el enlace directo
entre el SAA y el NF, y la tercera está representada por la flecha que
une el LIA con el LOH. Esto permitiría que las palabras que oímos
activaran sus entradas en los lexicones de output de habla
directamente, sin necesidad de pasar por las representaciones de
los significados de las palabras del SS.

SORDERA VERBAL PURA

Patrón de síntomas

Caso clínico 1: paciente de 34 años de edad con lesión cerebral por


TEC. Este paciente dejó de repetir o comprender palabras que se le
dirigían, pensándose en un primer momento que había quedado
sordo. Sin embargo, se demostró que esta suposición era falsa
cuando la AT fue normal. Hablaba con fluidez, leía perfectamente
con buena comprensión y escribía de forma correcta, con buena
ortografía. Se quejaba de que la mayor parte de lo que oía carecía
de significado para él (“puedo oir, pero no comprendo”).

Caso clínico 2: paciente RC, mostraba un patrón similar. Su lectura


era fluída y sin errores, pero era incapaz de comprender cuando se
le hablaba. Su audición era normal. Podía repetir vocales en forma
aislada, pero en los demás había poca o ninguna similitud entre lo
que decía y lo que repetía. Era capaz de distinguir las voces de
diferentes personas familiares y de decir si alguien hablaba con el
acento de su propia región.
Estos dos pacientes se aproximan bastante a lo que en la literatura
neuropsicológica se describe como SORDERA VERBAL PURA. Este
trastorno implica una percepción del habla alterada en el contexto
de una buena expresión hablada, una lectura y una escritura
buenas y muy importante, una percepción intacta de los sonidos
ambientales no verbales.

NATURALEZA PSICOLÓGICA DEL DÉFICIT

Estos pacientes pueden tener una percepción completamente


normal de los tonos puros usados en los exámenes audiométricos.
La localización de los sonidos en el espacio era normal en los
pacientes. El reconocimiento de los sonidos ambientales era bueno
en todos los pacientes.

Los pacientes en ocasiones comprenden un tema o una pregunta, si


se les repite muy lentamente dos o tres veces.

Otro indicio sobre la causa subyacente a este déficit nos lo


proporcionan los informes de los distintos grados de facilidad con
que estos pacientes pueden identificar las consonantes y las
vocales. Un paciente podía identificar correctamente vocales
aisladas, pero su actuación se tornaba deficiente si se añadía una
consonante delante de la vocal, de modo que tuviera que
identificar una sílaba del tipo CV. Buscando una explicación para
esta discrepancia, Auerbach y cols, señalan:

…cuando se presentan en un espectograma, las vocales son


representadas por frecuencias características prolongadas. En el
habla natural, la duración media de las vocales oscila entre 100 y
150 ms pero puede prolongarse hasta 400 ms. Las combinaciones
CV con consonantes oclusivas, como ba, pa, da, ta ga o ka,
contienen todas unas transiciones iniciales rápidas en sus
formantes. En estas combinaciones CV, las vocales están
caracterizadas por formantes prolongados, mientras que las
consonantes se caracterizan por cambios de frecuencias rápidos en
los primeros 40 ms del inicio del estímulo…

Para identificar y discriminar entre las consonantes del habla,


debemos ser capaces de hacer discriminaciones temporales muy
finas y seguir con precisión las señales acústicas rápidamente
cambiantes. Esto es, quizá, lo que al menos algunos pacientes con
sordera verbal ya no son capaces de hacer.

LATERALIZACIÓN Y MODOS DE PERCEPCIÓN

La sordera verbal pura puede surgir como consecuencia de una


simple lesión en el lóbulo temporal del HI, mitad del cerebro que
controla muchas funciones lingüísticas en la mayor parte de los
sujetos. Ambos hemisferios reciben sus inputs auditivos más
importantes de los oídos derecho e izquierdo, respectivamente. Las
palabras se identifican ligeramente mejor si se presentan en el oído
derecho, y por lo tanto en el HI; que si se presentan en el oído
izquierdo y por lo tanto en el HD. Esta ventaja del oído derecho es
muy pronunciada en el paradigma de la “escucha dicótica”, que
consiste en presentar pares de palabras simultáneamente, una a
cada oído, a través de auriculares. La relación de este fenómeno
con la sordera verbal pura reside en que las vocales prolongadas no
producen una ventaja del oído derecho/hemisferio izquierdo, sino
que son percibidas de igual modo por ambos oídos/hemisferios. La
mayor parte de las consonantes no pueden presentarse en forma
aislada, pero tan pronto como uno emplea una sílaba CV o CVC en
la escucha dicótica aparece la ventaja del oído derecho.

Shankweiler y Studdente-Kennedy (1976) hablan de dos


“modalidades” diferentes de percepción: una modalidad auditiva y
otra fonética vinculada al habla. Ambos hemisferios, afirman, son
capaces de percibir en la modalidad auditiva, y la modalidad
auditiva es capaz de procesar las vocales prolongadas, de modo que
estas no manifiestan ventaja alguna en ningún oído durante la
escucha dicótica. La modalidad fonética es, una cualidad exclusiva
del HI humano. Esta modalidad es necesaria para la percepción
precisa de las señales acústicas rápidamente cambiantes que las
consonantes determinan, generando así, la ventaja del oído
derecho.

A partir de investigaciones, se puede argumentar que el sistema


“fonético” del HI dañado en los pacientes con sordera verbal pura
sólo se halla implicado en el procesamiento del habla. Esta
afirmación estaría en la línea de los argumentos a favor de una
“modalidad de percepción especial para el habla”.

USO DE LA INFORMACIÓN LABIAL


Los pacientes con sordera verbal pura atienden cuidadosamente los
movimientos de los labios en un intento de compensar su
empobrecida capacidad de procesamiento auditivo/fonético.

USO DEL CONTEXTO

Además de hacer uso de los indicios procedentes de los


movimientos de los labios, los pacientes con sordera verbal pura
parecen también ser capaces de hacer uso del contexto lingüístico
para ayudarse en la comprensión. Okada y cols (1963) señalan que
su paciente presentaba una buena actuación cuando se le
planteaban una serie de cuestiones relativas a un único tema (x ej:
“el tiempo”), pero su comprensión se deterioraba repentinamente
cuando se cambiaba de tema.

En un seguimiento experimental, Saffran y cols demostraron que la


percepción de listas de palabras era mejor cuando los estímulos
procedían de un pequeño número de categorías semánticas
(animales, vehículos, muebles, frutas, etc), con las palabras de cada
categoría agrupadas, que cuando se presentaban palabras no
relacionadas. Asimismo, las palabras presentadas en frases que
proporcionaban una ayuda contextual, se identificaban mejor que
las mismas palabras presentadas aisladamente.

En términos de nuestro modelo, el locus del déficit se sitúa


claramente en el SAA.
SORDERA VERBOSEMÁNTICA

Caso clínico: paciente de 26 años de edad que sufrió un ACV. Se


expresaba de buena gana, hablaba espontáneamente, hacía
preguntas y parecía ser capaz de decir cualquier cosa que deseara
aunque en ocasiones empleaba una palabra equivocada. Podía leer
en voz alta cualquier cosa que se le propusiera. Comprendía frases
cortas escritas, aunque parecía tener problemas con la
comprensión de frases largas o con el texto. Experimentaba
grandes dificultades para comprender el habla, aunque no era
sorda.

Hasta este momento, la paciente parece constituir un caso de


sordera verbal pura, pero lo que la distingue es que era capaz de
repetir las palabras que se le dirigían y no podía comprender,
incluso podía escribirlas al dictado. Cuando se le preguntaba, “¿le
gustaría venir a Edimburgo”?, ella no comprendía la pregunta, pero
la repetía correctamente y escribía las palabras que acababa de
repetir. Una vez que había escrito la pregunta, podía comprenderla
cuando la leía.

Kohn y Friedman (1986) afirman que una sordera verbosemántica


debe cumplir dos condiciones. Cuando una palabra no es
comprendida por vía auditiva:

1- La palabra debe haber pasado por un análisis acústico


adecuado, como lo demuestra una correcta repetición.
2- La representación semántica de la palabra debe estar intacta,
como lo demuestra la inmediata comprensión de la palabra
cuando se presenta en forma escrita.
La repetición intacta de palabras y frases implica un primer estadio
de análisis auditivo intacto (el estadio supuestamente alterado en
los pacientes con sordera verbal pura). La comprensión lectora y el
lenguaje espontáneo intactos implican un SS y un LOH de habla
intactos. Uno puede estar tentado a proponer una alteración en el
LIA, pero la escritura al dictado intacta (con la consiguiente, aunque
no inmediata, comprensión) plantea serias dudas a esta
interpretación. Una explicación alternativa es que la sordera
verbosemántica representa una desconexión completa o parcial del
LIA del SS. Las entradas en el LIA pueden ser aún activadas, pero en
ocasiones son incapaces de provocar la activación siguiente de las
representaciones de los significados de las palabras en el SS. En la
línea de esta explicación, al menos algunos pacientes con una
sordera verbosemántica severa deberían tener unas actuaciones
adecuadas en tareas de decisión léxica auditivas que requieren la
discriminación entre palabras de la lengua y pseudopalabras.

AGNOSIA FONOLÓGICO- AUDITIVA

Caso clínico: paciente de 58 años de edad, que presentaba lenguaje


espontáneo normal, excepto cuando estaba cansado, en donde
tenía problemas en la evocación y cometía parafasias esporádicas.
Su lectura en voz alta era buena, aunque un poco lenta, y su
escritura espontánea estaba también conservada. Sin embargo, el
paciente refería ciertas dificultades para comprender el lenguaje
hablado, en particular términos técnicos científicos nuevos o
nombres nuevos de personas y ciudades. No refería dificultades
con los términos y nombres viejos y familiares.

La repetición y escritura al dictado de palabras reales y familiares,


eran perfectas; mientras que la repetición y la escritura al dictado
de pseudopalabras era muy pobre. Tenía muy buen rendimiento en
la tares de decisión léxica auditiva. Su problema tampoco residía en
la pronunciación de pseudopalabras, porque pudo leer 40 largas y
difíciles, sin cometer errores. Nos queda, por tanto, localizar el
problema a nivel de la conversión acústico-fonémica. Es la ruta que
une al SAA con el NF. Si esta ruta alternativa está alterada en este
paciente, su único camino para repetir el habla sería la vía de los
lexicones de input y output. Esta opción le permitiría enfrentarse
con bastante éxito a las palabras familiares, pero no podría con las
pseudopalabras (incluyendo los términos científicos nuevos y los
nombres nuevos de personas o lugares). En tales situaciones, su
única estrategia consistirá en responder a una pseudopalabra con la
palabra real de significado más próximo.

AFASIA PROFUNDA

Los pacientes con afasia profunda, cometen errores semánticos


cuando tratan de repetir palabras habladas en voz alta. Igual ocurre
en la escritura al dictado. Es obvio que en estos casos pueden estar
ocurriendo diversas cosas. Las palabras habladas pueden estar
activando las representaciones semánticas correctas que después
son mal denominadas o, como alternativa, estas palabras
presentadas oralmente pueden estar activando sólo áreas
conceptuales aproximadas a partir de las cuales los pacientes eligen
un vocablo parecido. Ésta última alternativa explica más fácilmente
por qué cuando se pidió a un paciente que escribiera “brain”
(cerebro), escribió “heart, liver, lungs” (corazón, hígado, pulmón)
dejando claro a través de la mímica, de sus gestos y de los puntos
suspensivos colocados tras las palabras escrita que no estaba
seguro de su respuesta. Cuando se le pidió que señalara la parte del
cuerpo correspondiente sólo pudo hacer un vago movimiento con
su mano sobre el cuerpo. El paciente no cometía errores
semánticos cuando leía en voz alta o escribía los nombres de unas
imágenes. Si la sugerencia anterior de un fallo en el acceso a la
semántica desde el LIA fuese correcta, esta última observación
sugiere rutas de acceso independientes hacia la semántica para las
palabras escritas y para las imágenes.

La repetición oral del paciente era mejor para nombres concretos


que para los abstractos. Su actuación era deficiente en la repetición
de palabras de función gramatical y tenía tendencia a omitir o
cambiar las inflexiones. La repetición de pseudopalabras simples
era bastante mala, sugiriendo que, al igual que el paciente con
agnosia fonológico-auditiva, había perdido el uso de la ruta
alternativa no léxica. Es posible que la pérdida de una ruta no léxica
sea una condición necesaria para la aparición de los errores
semánticos en la repetición, porque si esta ruta estuviese intacta,
debería ser capaz de hacerse cargo completamente de la repetición
en un paciente cuya ruta a través de la semántica está dañada.

Una explicación probable de la afasia profunda, se fundamenta en


un acceso alterado a una semántica detallada desde el LIA,
combinado con una alteración de la ruta, no léxica, fonológico-
auditiva alternativa y quizá también un trastorno sintáctico. Si
existe una ruta directa entre el LIA y el LOH, dicha ruta debe estar
también alterada en los pacientes que cometen errores semánticos
en la repetición.

Resumen: los trastornos del reconocimiento de las palabras


habladas se disocian de los trastornos del reconocimiento visual de
las palabras, de la producción de palabras habladas, de la
labiolectura y del reconocimiento de la voz y del reconocimiento
del tono de voz emocional. La evidencia sugiere que estos
trastornos son todos capaces de disociarse entre sí, implicando la
existencia de subsistemas cognitivos independientes o módulos
para cada uno de estos tipos de procesamiento lingüístico.

En la sordera verbal pura, el paciente aún puede leer, escribir y


hablar correctamente y oír y reconocer los sonidos no lingüísticos.
La percepción de las vocales presentadas oralmente es mejor que la
de las consonantes, sugiriendo una alteración de un sistema
fonético capaz de efectuar las finas discriminaciones temporales
que la percepción de las consonantes requiere. El enlentecimiento
del ritmo del habla puede facilitar la comprensión al situar el ritmo
de discriminaciones temporales dentro del intervalo del SAA menos
especializado del HD. Estos pacientes utilizan los indicios de los
movimientos de los labios para ayudarse en la comprensión, y se
sirven del contexto del tema de conversación para facilitar el
reconocimiento verbal. Los pacientes con sordera verbal pura no
pueden repetir las palabras habladas mejor de lo que pueden
comprenderlas. Por el contrario, son capaces de repetir palabras
que siguen sin poder comprender. El paciente puede incluso ser
capaz de escribir la palabra que no comprende y luego reconocerla
al leer lo que acaba de escribir. En estos casos los síntomas
sugieren una desconexión del LIA con el SS.

Los pacientes con agnosia fonológico- auditiva, son capaces de


comprender y repetir las palabras que oralmente se le presentan,
pero no pueden repetir pseudopalabras. Esto se interpreta como
un trastorno que afecta la conexión entre el SAA y el NF, una
conexión cuya finalidad habitual es permitir al niño o al adulto,
repetir una palabra que nunca ha oído antes.

Las alteraciones en el SS o alrededor de éste, están implicados en la


denominada afasia profunda, en la que los pacientes cometen
errores semánticos en la repetición de palabras habladas.

EVALUACIÓN Y REHABILITACIÓN DE LAS AFASIAS- CUETOS VEGA

CAPÍTULO II

“EL SISTEMA DE PROCESAMIENTO LINGÜÍSTICO”

RESUMEN:

Percepción del habla:

La percepción de los sonidos es posible gracias a la maquinaria


interna de los oídos que consigue transformar las ondas sonoras
que llegan por el aire en impulsos nerviosos que son analizados por
el cerebro. Ciertas características físicas de esas ondas, como la
frecuencia, la intensidad y el timbre con que llegan a los oídos son
las que nos permiten distinguir unos sonidos de otros.

La percepción del habla, aunque en principio comparte esos


mismos procesos de análisis de las características físicas de
cualquier sonido, posee sin embargo, unas características
particulares que la diferencian de la percepción auditiva en general.

Cuando escuchamos a alguien hablar, tenemos que clasificar cada


uno de los sonidos que emite dentro de 24 categorías abstractas,
denominadas fonemas, que componen el español. Esta tares no es
sencilla, ya que existen además otras dificultades para lograr la
categorización del habla según los fonemas:

1- El habla es continua y no segmentada en unidades discretas.


Esto dificulta la percepción del lenguaje, especialmente en los
casos más problemáticos como les ocurre a los niños
pequeños, a cierto tipo de afásicos o a nosotros mismos
cuando escuchamos a una persona hablar en un idioma
extranjero que no denominamos bien.
2- Una segunda dificultad para percibir el habla surge porque los
segmentos fonéticos no tienen propiedades invariantes. La
“b” de la palabra “bueno” se escribe igual que la de “bota”,
“brisa” o “blanco”, pero no se pronuncia igual, ya que su
articulación viene determinada por los sonidos que la siguen o
preceden. Cada una de estas “bes” tiene propiedades
acústicas diferentes.
3- A las dificultades anteriores habría que sumar las diferencias
que existen entre los hablantes de un idioma en la
pronunciación exacta de los fonemas debido a su dialecto
particular.

ANÁLISIS AUDITIVO

La percepción del habla es un proceso difícil. Requiere hacer uso


del contexto para poder interpretar muchos de los fonemas y
palabras que se nos escapan cuando escuchamos una conversación.

Además la percepción requiere un buen funcionamiento de los


mecanismo de análisis encargados de clasificar los sonidos que
llegan a nuestros oídos en alguna de las categorías de fonemas
existentes. Tres son los niveles de análisis para conseguir esto:
análisis acústico, análisis fonético y análisis fonológico.

En el nivel acústico se hace un análisis del estímulo en términos de


sus principales variables físicas, como son la frecuencia, la
intensidad, la duración, etc.

En el nivel fonético se hace un análisis de los rasgos fonéticos con


que ha sido articulado ese estímulo.

En el nivel fonológico, clasificamos el segmento fonético


identificado en el nivel anterior como un fonema determinado de
los existentes en nuestra lengua.

En resumen, cuando percibimos el habla, la tarea que


inmediatamente emprendemos es la de tratar de identificar los
rasgos fonéticos que a su vez nos permiten reconocer los fonemas.

Al escuchar una palabra entran en funcionamiento los detectores


de rasgos fonéticos correspondientes a los sonidos que esa palabra
tiene y esos detectores activan a los detectores de los fonemas que
poseen esos rasgos. A su vez, los detectores de fonemas trasmiten
la activación a las representaciones de las palabras que contienen
esos fonemas.

¿y qué papel juega la sílaba? Existe la posibilidad de que la unidad


activada no sea el fonema, sino la sílaba. Ciertamente, parece más
fácil segmentar el habla, al menos de manera consciente, a nivel de
sílaba que de fonema. Investigaciones han demostrado que los
hablantes del español son sensibles a la sílaba en la percepción del
habla.

PROCESOS LÉXICOS

Si en el primer estadio de percepción del habla la misión era


categorizar la variedad de sonidos verbales que nos llegan en unos
pocos fonemas y/o sílabas, en el siguiente estadio, que
denominaremos léxico o de reconocimiento de palabras, la tarea es
atribuir un significado a esa secuencia de sonidos. Para ello
necesitamos disponer de un almacén de memoria en el que se
encuentren representadas todas las palabras que conocemos
oralmente para así poder identificar cuál es la que corresponde a
una secuencia de sonidos determinada. Este almacén se denomina
léxico auditivo (LIA).

Resulta sorprendente pensar lo efectivos y rápidos que son los


procesos de reconocimiento de palabras ya que a pesar del enorme
número de palabras que conocemos, pocos milisegundos después
de escuchar una secuencia de sonidos ya hemos identificado la
palabra correspondiente. Ciertamente el lenguaje es muy
previsible, de manera que cuando el hablante va a decir una
palabra en un contexto determinado, basta con escuchar los
primeros sonidos para saber de qué palabra se trata. Pero no es
sólo el contexto el que nos ayuda a reconocer con rapidez las
palabras, ya que incluso cuando se presentan aisladas se pueden
reconocer antes de que se hayan terminado de pronunciar. En este
caso, la rapidez de reconocimiento depende principalmente de
dónde tenga situada la palabra el “punto de unicidad”. Se llama
punto de unicidad al fonema a partir del cual la palabra es única, es
decir, no existe ninguna otra palabra que comience con esos
fonemas. Sólo hay una palabra que comience por “rinoc” que es
“rinoceronte”. En cambio hay varias que comienzan por “rino”. En
consecuencia, el punto de unicidad de la palabra rinoceronte es el
fonema /c/. Cuando la palabra tiene el punto de unicidad al
principio, el tiempo de reconocimiento es más corto. En cambio,
cuando el punto de unicidad está al final (x ej: aguja) es necesario
escuchar toda la palabra para poder identificarla.

El modelo que proponen Marslen-Wilson y Tyler (1980) para


explicar el sistema de procesamiento léxico, es el siguiente. En el
momento en que se identifica el primer fonema de la palabra se
activan todas las palabras que comienzan por ese fonema. A este
grupo de palabras activadas se denomina “cohorte” de la palabra.
Una vez identificado el segundo fonema, el número de palabras
activadas se reduce. Y a medida que se van identificando nuevos
fonemas se va reduciendo la cohorte hasta que se llega al punto de
unicidad y sólo queda la palabra clave que es la que se reconoce
como correspondiente a esos sonidos.

De todas formas, aun siendo el punto de unicidad la variable más


importante, no es la única que interviene en el reconocimiento de
las palabras, sino que existen otras variables también relevantes.
Por ej. La frecuencia de uso de las palabras. Ante dos palabras que
tengan el mismo punto de unicidad, la más frecuente se reconoce
primero. Otra variable importante es el patrón de acentuación. La
categoría gramatical, la complejidad morfológica o la composición
silábica, son también otras de las muchas variables que influyen en
este estadio léxico.

PROCESOS SEMÁNTICOS

Los procesos explicados hasta ahora se refieren a todo lo que


ocurre hasta que se activa la representación auditiva de una
palabra. Pero esto no significa que se hubiese activado el
significado de esa palabra, puesto que la forma fonológica y el
significado se encuentran en almacenes separados. Y aunque,
generalmente, la recuperación de una forma fonológica conlleva la
inmediata y automática recuperación del significado, sin embargo
hay ocasiones en las que se produce la activación de la forma
fonológica y no del significado. Por lo tanto, es necesario postular
un nuevo almacén, aunque en este caso para los significados de las
palabras, o lo que es lo mismo, para los conceptos. Este almacén se
llama Sistema Semántico.

La organización del SS es diferente de la del léxico auditivo, así


también como su funcionamiento. Las representaciones del SS o
conceptos, se organizan por categorías. Lo que no está claro aún es
si los conceptos se representan mediante nodos tales como
sostiene la teoría de redes propuesta por Collins y Quillian (1969) y
Collins y Loftus (1975) o a través de sus rasgos. Según la teoría de
redes, los conceptos están representados en la memoria como
unidades independientes conectadas entre sí por medio de una red
de relaciones y es en esas relaciones con otros conceptos donde
reside su significado. El significado de “mesa” vendría dado por su
relación con el concepto más general de “mueble” al que está
unido por la relación “es un” (una mesa es un mueble), con el
concepto de “patas” mediante la relación “tiene” (la mesa tiene
patas), con los conceptos, “madera”, “silla”, etc. La teoría de
rasgos, en cambio, defiende que lo que está representado en la
memoria no son los conceptos, sino los rasgos que definen a esos
conceptos. El concepto “mesa” estaría representado en el SS
mediante los rasgos “es un mueble”, “tiene cuatro patas”, “es de
madera”, etc. Es difícil probar experimentalmente cual de esta
teorías es la correcta. Sí está bastante claro, en cambio, cuáles son
los tipos de categorías en las que se agrupan los conceptos. Se
sabe, por ej, que esas categorías no son producto de una peculiar
organización innata del SS, sino que son resultado del aprendizaje.
Así, unas de las distinciones más generales de los conceptos en
nuestro SS es la de seres vivos vs artefactos. Esta división obedece a
las características que distinguen a unos y otros. Mientras que los
seres vivos se diferencian por sus rasgos perceptivos, los artefactos
tienen unos rasgos que permiten deducir su función.

Otro dato bien establecido es que el SS es común para todas las


modalidades perceptivas. Mientras que el LIA sólo sirve para
reconocer las palabras que nos llegan a través del lenguaje oral. No
obstante esta opinión no es compartida por todos los autores.

Sin embargo, los datos de los pacientes que sufren una lesión en el
SS apoyan más la existencia de un SS único.

También podría gustarte