Está en la página 1de 202

Tema 1 - El estudio del lenguaje

Tema 1 - El estudio del lenguaje

1.1 Introducción

Crystal ofrece ocho funciones del lenguaje, la comunicación, expresar una


emoción, interacción social, utilización de sonidos, modificación del entorno,
registro de hechos, pensar y expresar la propia identidad, e incluso jugamos
con el lenguaje (humor). Hay distintas áreas de estudio científico que ponen de
relieve aspectos distintos del lenguaje, el estudio de la anatomía, la
neuropsicología, que trata de identificar las estructuras cerebrales
responsables e implicadas, la lingüística y la ciencia que nos ocupa, la
psicolingüística, la cual se encarga del estudio de los procesos
psicológicos que se ven envueltos en el lenguaje, así los psicolingüistas
estudian la comprensión, la producción, y el recuerdo del lenguaje. La
moderna psicolingüística está estrechamente relacionada con la
psicologia cognitiva y depende en gran medida del mismo tipo de
métodos.

1.2 ¿Que es el lenguaje?

Una sencilla definición podría ser, un sistema de símbolos y reglas que nos
permiten comunicarnos, los símbolos son objetos que designan objetos, las
palabras son símbolos.

En cuanto al estudio del lenguaje se puede hablar de

semántica estudio del significado de las palabras

sintaxis estudio de del orden de las palabras

morfología Estudio de las palabras y su formación

Pragmática Estudio de la utilización del lenguaje

Fonología Estudio de como se utilizan los sonidos del lenguaje

Desde el punto de vista de la morfología, existen dos tipos, por un lado la


morfología inflexión, que se ocupa de los cambios de una palabra que
no alteran su significado, por ejemplo la declinación de los tiempos
verbales, o la pluralizaron, y la morfología derivativa, que se ocupa de
aquellos cambios que si afectan a la semántica como por ejemplo la
derivación, “desarrollo -> desarrollado”.

Salva Herrera- MailTo :ssalva4@me.com


1
Tema 1 - El estudio del lenguaje
La idea de palabra también merece cierta consideración, Crystal define
a la palabra como la unidad mas pequeña de la gramática que puede
ser por sí sola una expresión completa, separada por espacios en el
lenguaje escrito. La psicólogos creen que almacenamos representaciones
de palabras en una especie de diccionario mental, el lexicón, dicho
diccionario incluiría toda la información necesaria para el
reconocimiento de las palabras, incluso los papeles sintácticos que podría
representar, como se supondrá el lexicón es enorme, se estima que un adulto
normal conoce unas 70.000 palabras. Los psicolingüistas están
especialmente interesados en conocer como es el proceso de acceso al
lexicón y como se representan las cosas.

1.2.1 ¿Como ha evolucionado el lenguaje?

El lenguaje ha debido de cambiar enormemente a lo largo de los años, prueba


de ello es la cantidad de distintas lenguas existentes hoy en día, ni siquiera se
sabe si todos los idiomas humanos descienden de un mismo idioma original, no
obstante es evidente que muchos de los idiomas actuales están relacionados,
es mas, análisis más detallados, han demostrado que la mayoría de los
idiomas de Europa derivan de una fuente común conocida como
protoindoeuropeo, así todos ellos se denominan indoeuropeos.

En total, los lingüistas han identificado mas de cien familias idiomáticas, a


excepción de algunos idiomas como el vasco, que no parecen pertenecer a
ninguna de ellas. Los idiomas también cambian en periodos de tiempo my
breve, así acuñamos nuevas palabras, otras caen en desuso, etc., aunque las
diferencias idiomáticas han surgido en periodos muy breves desde el
punto de vista evolutivo, no se debe suponer que los que hablan
distintos idiomas procesan de igual forma, aunque es probable que a
un nivel básico si, puede que existan algunas diferencias, sobre todo
en el procesamiento de la palabra escrita, no obstante como se ha dicho,
existe un importante núcleo central de mecanismos psicológicos que
parecen ser comunes al procesamiento de todos los idiomas.

1.2.2. ¿Para que sirve el lenguaje?

El lenguaje como tal es una actividad social, es una forma de acción


conjunta en la que los individuos colaboran en una meta común. Aunque la
principal función del lenguaje sea la comunicación, es posible que que
se haya adquirido o haya derivado de otras funciones, en concreto es
posible que el lenguaje haya desempeñado otros procesos cognitivos que
inicialmente no eran lingüísticos.

Salva Herrera- MailTo :ssalva4@me.com


2
Tema 1 - El estudio del lenguaje
La versión mas extrema de esta idea es la corriente denominada Sapir-
Whorf, que afirma que el lenguaje evolucionó para permitirnos pensar,
y que la comunicación es solo un efecto colateral.

1.3 Historia y métodos de los psicolingüistas

1.3.1 Una breve historia

La historia de la psicolingüística es relativamente reciente, los


comienzos del estudio científico del lenguaje pueden remontarse a la
conferencia de Cornell en 1951, no obstante el lenguaje ya había sido
estudiado por Galton y posteriormente por Freud, el cual intentó explicar el
origen de los errores del habla en base a su teoría psicodinámica.

En cuanto a la cronología se puede situar la infancia de la psicolingüística


en la revisión de Chomsky del libro de Skinner, la adolescencia a
principios de los 60 cuando los psicolingüistas intentaron relacionar el
procesamiento del lenguaje con la gramática transformacional de Chomsky,
desde entonces la psicolingüística se ha separado de la lingüística y en la
actualidad constituye una rama independiente de la ciencia. Nos obstante en
sus inicios, tal y como indica su nombre, la psicolingüística moderna
estuvo conformada por la lingüística y la psicologia, y sobre todo
influenciada por el enfoque de la lingüística de Chomsky. Las
principales preocupaciones de los primeros lingüistas eran bastante
distintas a los de la actualidad, la lingüística comparativa por ejemplo se
ocupaba de comparar y de buscar los orígenes de los distintos idiomas,
en lingüística moderna, los principales datos utilizados por los
lingüistas provienen de las investigaciones sobre lo que constituye una
construcción gramaticalmente correcta y lo que no.

Los primeros enfoques psicológicos del lenguaje consideraban que el


procesador del lenguaje era un sencillo dispositivo que podía
comprender y generar frases pasando de un estado a otro, en este
sentido hay dos ramas de estos primeros trabajos, por un lado los derivados
de la teoría de la información de Shannon y por otro lado los derivados del
conductismo. A mediados del S.XX el paradigma imperante era el
conductismo, para el cual el único objeto posible para la psicologia era la
conducta, así consideraban el lenguaje una conducta mas, que podía ser
explicada en términos de condicionamiento, refuerzos, etc. Sin embargo las
actitudes cambiaron rápidamente, en parte, gracias a la revisión del libro
de Skinner por parte de Chomsky, convirtiendo a la replica mas influyente
que el original.

Salva Herrera- MailTo :ssalva4@me.com


3
Tema 1 - El estudio del lenguaje
Chomsky demostró que el conductismo era incapaz de abordar el
lenguaje natural, y postulo una nueva teoría, la Teoría de la Gramatica
Transformacional, que proporcionaba una explicación tanto a la
estructura subyacente como a los conocimientos particulares que cada
sujeto posee de su propio idioma, así en este momento la psicolingüística
floreció como un intento de constatar las repercusiones psicológicas a esta
postura, sin embargo la empresa no fue del todo exitosa, pronto se vio que la
lingüística, si bien aporta mucha información, nada dice acerca de los
procesos psicológicos implicados en el lenguaje.

Posteriormente en la década de los 70 la psicolingüística fue integrada


por la psicologia cognitiva, en la cual se entendía al sujeto como un sistema
de procesamiento de información, en este sentido el PI podría representarse
como diagramas de flujo, de la misma manera que pueden representarse las
tareas complejas entes de ser convertidas en software, así los diagramas de
flujo ilustran niveles de procesamiento y muchos trabajos de esta época
trataron de demostrar como se transformaba un nivel de representación del
lenguaje en otro, la metáfora computacional ha tenido una influencia
clave en la moderna psicolingüística.

Muchos modelos tradicionales están especificados como diagramas de


cajas y flechas, así se les conocen como cajón-logia, en donde el cajón
representa el nivel de procesamiento y las flechas son el medio de ir
de una caja a otra.

La psicolingüística moderna es fundamentalmente una ciencia


experimental, y al igual que la psicologia cognitiva, se ha basado y se basa
en métodos similares y sobre todo en experimentos que se centran en
los tiempos de reacción, así los psicólogos intentan dividir el
procesamiento del lenguaje en sus elementos constitutivos y mostrar
como se relacionan esos elementos entre si.

1.3.2 El enfoque de la ciencia cognitiva

El termino ciencia cognitiva se utiliza para abarcar el enfoque


multidisciplinar del estudio de la mente, los modelos informáticos tienen
muchas ventajas y han adquirido una importancia creciente, entre los primeros
programas relacionados con la IA, estaba el ELIZA, el programa simulaba un
terapeuta rogeriano no directivo, dicho software, funcionaba de forma sencilla,
utilizando unas pocas técnicas como la de unir frases con estructuras
prealmacenadas, o patrones, generando respuestas predeterminadas ante
unas pocas palabras clave, como por ejemplo “madre”.

Salva Herrera- MailTo :ssalva4@me.com


4
Tema 1 - El estudio del lenguaje
No obstante, la gente que utilizaba el software, terminó sintiéndose muy unida
a él, a pesar de saber que sólo era una maquina. Estos primeros intentos
tenían la virtud de demostrar la inmensidad de la tarea que constituye
comprender el lenguaje, el enfoque convencional de la IA ha tenido cierta
influencia sobre las teorías de la psicolingüística, sobre todo en cuanto a la
forma de en que comprendemos la sintaxis y hacemos inferencias cuando
comprendemos una historia.

Mas recientemente el enfoque conexionista, PDP, o redes neuronales


ha adquirido una relevancia mayúscula en la psicolingüística, para este
enfoque las redes neuronales incluyen muchas unidades simples
parecidas a las neuronas, ricamente conectadas entre si, trabajan
juntas sin un plan director explícito, dentro de este enfoque un concepto
clave es el de activación, la idea de que la mente utiliza algo parecido a la
activación, y que el grado de activación de las unidades puede influir sobre los
niveles de activación de elementos similares en una idea muy importante.

1.3.3 Los métodos de la psicolingüística moderna

Se puede aprender mucho de los modelos informáticos, pero el grueso de los


datos con los que trabaja la disciplina provienen de los experimentos
tradicionales de la psicologia, básicamente los que generan TR, la
ventaja de estos es que son sencillos de ejecutar en las computadores mas
modernas. Una de las técnicas experimentales mas utilizada es la
imprimación o priming, la idea que subyace es que si dos cosas son
parecidas entre si y están implicadas juntas en el procesamiento, o
bien se ayudaran o bien se obstaculizaran, sin embargo si no están
relacionadas no ejercerán efecto alguno, el priming puede ayudar,
facilitador, o puede dificultar, inhibidor.

1.4 El lenguaje y el cerebro

La neurociencia cognitiva estudia de que forma se relaciona la


conducta con el cerebro, con sus estructuras.

1.4.1 los estudios sobre lesiones

Los estudios sobre lesiones incluyen los análisis de los efectos que tienen los
daños cerebrales sobre el desempeño, y que han hecho enormes
contribuciones a la compresión de como se relacionan los procesos psicológicos
con el cerebro, uno de estos enfoques en la neuropsicología cognitiva.

Salva Herrera- MailTo :ssalva4@me.com


5
Tema 1 - El estudio del lenguaje
En uno de los modelos de neurología mas comunes, Wernicke-
Geschwind, los procesos del lenguaje fluyen básicamente desde la parte
anterior del hemisferio izquierdo a la parte posterior, produciendo los
procesos de alto nivel (semántico y planificación) en la parte anterior,
área de Wernicke y la recuperacion, procesos de bajo nivel, de los
sonidos en la parte posterior, área de Broca, estando conectadas dichas
partes por el fascículo Arcuato (arqueado, cuya lesión provoca la afasia
de conducción, imposibilidad de repetir el discurso oído, aunque se
conserva la capacidad de hablar normalmente y la compresión del discurso de
los demás).

Por su parte el enfoque de la neuropsicología cognitiva es bastante


distinto, así centra en relacionar la conducta de un cerebro dañado con
los modelos de procesamiento normal.

Shallice afirmó que se puede diferenciar la neuropsicología cognitiva de la neuro psicologia


tradicional en tres aspectos cruciales

1 en que la neuropsicología cognitiva ha constituido un avance teórico a la hora de


relacionar los desordenes neurológicos con los modelos cognitivos

2 En que la neuropsicología cognitiva ha constituido un avance metodológico al


poner de relieve la importancia de los casos de estudio concretos, frente a los estudios
de grupos

2 En que la neuropsicología cognitiva ha aportado un programa de investigación en


tanto en cuanto pone de relieve como se pueden informar los modelos de
procesamiento normal estudiando la conducta de los cerebros dañados

Ademas Shallice afirmó también que la neuropsicología cognitiva ha ido demasiado lejos en
cuanto a tres ideas

1 Afirmando que los estudios de grupos no pueden aportar ninguna información


adecuada para construir modelos cognitivos

2 Afirmando que los información sobre la localización es irrelevante para comprender la


conducta

2 Subestimando la información clínica sobre pacientes

En la actualidad se esta poniendo un mayor énfasis en lo que ocurre


dentro de los elementos constituyentes, sobre todo desde que se ha
aplicado la modelización conexionista a la neuropsicología cognitiva.

Salva Herrera- MailTo :ssalva4@me.com


6
Tema 1 - El estudio del lenguaje
Un concepto importante tanto en la cognitiva como en la tradicional es la
doble disociación, este efecto se da cuanto ante dos pacientes A, B, el
paciente A sólo es capaz de desempeñar la tarea I, y le es imposible o tiene
muchas dificultades para desempeñar la tarea II, se da el proceso inverso en el
paciente B, la interpretación tradicional de una doble disociación es que
en cada tarea subyacen procesos distintos, sin embargo desde la
modelización conexionista se ha advertido que ante una doble
disociación no siempre hay dos rutas distintas, es mas, es posible que
puedan surgir dobles disociaciones aparentes en sistemas complejos
distribuidos en una única ruta.

1.4.2 Creación de imágenes cerebrales

En el contexto de la teoría de procesamiento del lenguaje y de la estructura del


cerebro, las imágenes cerebrales podrían proporcionarnos importantes pistas
sobre lo que esta ocurriendo, el principal método utilizado en la creación
de imágenes cerebrales es la sustracción, a un mismo sujeto desempeña
una tarea y después una variante de la misma, por ejemplo leer el voz alta y
luego leer en silencio, las imágenes se superponen y se trata de analizar las
diferencias, este método parece evidente, sin embargo en la practica es
sumamente difícil, ademas las técnicas de sustracción de imágenes
suelen mostrar la activación de áreas corticales que no se solapan para
tareas similares, lo que resulta difícil de interpretar, ademas los
estudios de la imágenes también sugieren que los procesos cognitivos
esta más localizados de lo que indican otros métodos.

En general las técnicas de neuroimagen son caras y la resolución temporal


tiene mucho que mejorar, si bien las de mayor resolución temporal son los
EEG y las de mayor resolución espacial son al fRMI ( mejor que la PET).

1.5 Cuestiones finales

1.5.1 Hasta qué punto es modular el sistema de lenguaje

El concepto de modularidad es un concepto importante en psicolingüística, el


procesamiento parte de una entrada sobre la que actúan uno o más niveles de
procesamiento para generar una salida. Un módulo, es un conjunto de
procesos, contenidos, que convierte una entrada en una salida, sin
ninguna ayuda externa. Decimos que los procesos dentro de un módulo
son independientes de los de fuera. El procesamiento depende
exclusivamente de los datos, los modelos en los que los procesos se
producen de esta manera se denominan autónomos.

Salva Herrera- MailTo :ssalva4@me.com


7
Tema 1 - El estudio del lenguaje

Procesamiento interactivo de interacción incluye la influencia de un nivel de


procesamiento dentro de otro nivel de procesamiento, aquí hay que tener en
cuenta el solapamiento y la dirección.

Solapamiento: existen dos tipos de modelos, modelo de tapas discretas:


ese tipo de modelos la información sólo puede pasar al siguiente nivel
una vez que ha sido procesada por la anterior. Modelo en cascada: en
este modelo sí que se permite que la relación fluya de un módulo a otro
sin que algunos de los dos haya terminado su procesamiento, si se
solapan las etapas es posible que hayan múltiples candidatos
activados en el nivel inferior.

Dirección: procesamiento abajo arriba: depende exclusivamente de los


datos, nos encontraríamos con modelo interactivo de reconocimiento de
palabras, desde la representación conceptual de la palabra hasta la
representación mental de la misma. Procesamiento de arriba abajo:
utiliza conocimiento proveniente del niveles superiores, nos encontraríamos
con un modelo interactivo de la generación de palabras, de la
representación mental hasta el sonido de la palabra.

Según muchos investigadores los procesos son modulares no


interactivos, hay dos razones fundamentales para este supuesto: los
modelos modulares suelen ser más sencillos, y la creencia
generalizada de que la evolución fomenta un sistema modular. Tanto
Fodor como Pinker, son exponentes de la opinión de que el lenguaje es
muy modular y tiene una base innata significativa y, ofrecen una visión
filosófica más general, la modularidad es inconsistente con el relativismo.

La existencia de una disociación neuropsicológica entre los procesos


suele aceptarse como demostración de la modularidad de los procesos
implicados. En este sentido existen dos tipos de modularidad, modularidad
física: si están o no localizados los procesos psicológicos en una parte del
cerebro, o modularidad de procesamiento: en principio, una serie de
procesos podrían estar distribuidos por todo el cerebro y, sin embargo,
tener un papel modular en el modelo de procesamiento, así mismo es
posible que los tipos de modularidad estén relacionados, de forma que los
módulos cognitivos se correspondan con los módulos neuropsicológicos. Farah
criticó este supuesto de localidad y afirmó que se pueden explicar las
disociaciones neuropsicológicas en términos de sistemas distribuidos
conexionistas. Por su parte Chomsky afirmó que lenguaje es una facultad
especial que no se puede reducir a procesos cognitivos, y Piaget afirmó que
lenguaje es un proceso cognitivo como cualquier otro.
Salva Herrera- MailTo :ssalva4@me.com
8
Tema 1 - El estudio del lenguaje
Sin embargo incluso teniendo cuenta que lenguaje fuera un módulo
autocontenido tendría que relacionarse con el resto del sistema cognitivo.

1.5.2 Utiliza reglas el sistema de lenguaje

En la lingüística tradicional, gran parte del conocimiento estaba


encapsulado formas de reglas específicas. Sin embargo en los modelos
conexionistas, el procesamiento se produce mediante una interacción
de muchas unidades simples interconectadas, los modelos
conexionistas que pueden aprender son particularmente importantes,
se aprende la información mediante la representación repetida, la idea general
subyacente aprendizaje puede resumirse con el aforismo Hebb: las
células que se disparan juntas se configuran juntas. Sin embargo la
conducta de los modelos dentro del sistema conexionista no siempre
es totalmente predecible, dado que pueden variar de una situación
otra. La modelización es una idea importante en la psicolingüística
contemporánea, los modelos conexionistas resultan más creíbles que la
inteligencia artificial, desde punto vista neural además basan su idea
en una metáfora del cerebro, por otro lado, suelen intentar minimizar la
cantidad de información configurar el sistema, el conexionismo tiene la
virtud de que al escribir el programa informático, uno está obligado a ser
explícito en sus supuestos.

Al conexionismo se han atribuido tres grandes consecuencias

1 Hace que se preste atención a los procesos que se producen dentro de las
cajas de los modelos mas clásicos

2 El coleccionista obligado a analizar con detalle la representaciones utilizadas por el


sistema de lenguaje, se pueden contrastar los enfoques conexionistas con los enfoques
basados en reglas. En los enfoques conexionistas las reglas no están codificadas
de forma explícita, sino que emergen como consecuencia de las
generalizaciones estadísticas

3 El cambio de énfasis de la reglas de aprendizaje al aprendizaje mediante


muchas repeticiones. Los modelos probabilistas han resultado
particularmente influyentes en la adquisición de lenguaje mediante el análisis
de estadísticos o de distribución de lo que oyen, más que mediante reglas de
aprendizaje explícitas

Salva Herrera- MailTo :ssalva4@me.com


9
Tema 2 - Descripción del lenguaje

Tema 2 - Descripción del lenguaje

2.1 Introducción

La acústica es el estudio de las propiedades físicas de los sonidos, y se pueden


describir diversas técnicas, entre ellas una de las mas utilizadas es el
espectograma del sonido, en dicho análisis se pueden apreciar picos de energía
en determinadas frecuencias, los cuales se denominan formantes, la
estructura del formante es una característica importante de los sonidos en el
habla, así todas las vocales y algunas consonantes tienen formantes,
pero el patrón de los distintos formantes es particularmente
importante en las vocales. Se pueden describir los sonidos los sonidos del
habla en dos niveles, la fonética, que describe el detalle acústico de los
sonidos del habla, y la fonología, que se ocupa de describir las
categorías de sonidos que utiliza cada idioma.

Fonética Fonología

Un fonema es una unidad básica de Existen tres tipos de fonética articulatoria (como
sonido de un determinado idioma. se hacen los sonidos), auditiva ( o perceptiva,
pone de relieve como se perciben los sonidos) y,
acústica (propiedades físicas del sonido).

Se dice que dos fonos, son una Dos palabras de un idioma que sólo se diferencien
expresión de un mismo fonema, en un en un sonido son pares mínimos
determinado idioma si la diferencia
entre ambos nunca marca una
diferencia de significado en las palabras,
por otro lado los fonos distintos que se
comprenden como el mismo fonema en
un idioma se denomina alófonos.

Hablando en términos generales, al fonética es el estudio de los fonos y la


fonología el estudio de los fonemas

Tal y como es conocido la sustitución de un fonema por otro genera, por


definición, un cambio de significado, sin embargo la sustitución de un fono por
otro, no necesariamente ha de producir un cambio semántico. La
pronunciación percibida, PR, se define como el acento supuestamente
bien educado y de gran prestigio que no da ninguna pista sobre el
origen regional (de Gran Bretaña) de la persona que habla. Hablamos
moviendo partes de tracto vocal, incluidos los labios, los dientes, la lengua y la
laringe, siendo esta ultima la principal fuente de sonido, de hecho se
producen dos tipos de sonidos, combinado la forma de tracto vocal, las vocales
y las consonantes.

Salva Herrera- MailTo :ssalva4@me.com


10
Tema 2 - Descripción del lenguaje

Sonidos producidos

Vocales Las vocales se generan con un flujo de aire relativamente libre, la naturaleza
de la vocal viene determinada por la forma en que la lengua modifica el flujo
de aire, así se pueden clasificar las vocales en función de la posición de la
lengua, elevada, media, inferior.
Se pueden combinar dos tipos de vocales para crear un diptongo, ademas
mientras pronunciación de las consonantes es relativamente constante en los
distintos dialectos (del ingles) la de las vocales puede variar mucho.

Consonantes Las consonantes se forman cerrando o restringiendo parte de tracto vocal al


pasar el aire, clasificamos las consonantes en función del lugar de
articulación (lugar del tracto vocal que se cierra o constriñe),
independientemente del resto de consideraciones. El tiempo que transcurre
entre que se libera la constricción y el momento en el que empiezan a vibrar
las cuerdas vocales se denomina tiempo de comienzo de voz, VOT.
La otra dimensión de importancia para describir las consonantes es la forma
de articular, así pues podemos distinguir las consonantes en términos de las
características articulatorias distintivas, su lugar de articulación, la forma de
articular y la fonación.

2.1.2 Estructura de sonidos de nivel superior

Las palabras se dividen en unidades rítmicas denominadas sílabas, las sílabas


se pueden analizar en función de su estructura jerárquica, el inicio de la
sílaba es una consonante o grupo inicial, la rima está compuesta por el
núcleo y por la coda la cual incluye los componentes finales. En inglés
todos estos componentes son opcionales a excepción del núcleo, además las
reglas que organizan la estructura son distintas entre los idiomas, por ejemplo
las palabras japonesas no tienen codas, y en el chino cantonés las únicas
codas posibles son los sonidos nasales o los golpes de glotis (sonidos que se
producen al cerrar y abrir la glotis).

Las carteristas de las palabras y las sílabas que pueden contener mas
de un fonema, como el tono, la acentuación y el ritmo, se denomina
características suprasegmentales, asimismo la acentuación varia dentro de
una palabra, puesto que unas silbas reciben más énfasis que otras, así la
acentuación y el tono determinan el ritmo, y los idiomas difieren en
cuanto al ritmo.

En inglés por ejemplo, aunque se puede utilizar el tono para atraer la atención
a una palabra o para transmitir más información, las palabras no cambian de
significado, sin embargo en algunos idiomas como el nigerino Nupe, si lo
hacen.

Salva Herrera- MailTo :ssalva4@me.com


11
Tema 2 - Descripción del lenguaje

2.2 Enfoques lingüísticos de la sintaxis

La lingüística proporciona un lenguaje para describir la sintaxis, en concreto la


obra de Chomsky ha sido influyente en la detección de las limitaciones
de la potencia del lenguaje humano y como debe describirse mejor.

2.2.1 Ta teoría lingüística de Chomsky

La obra de Chomsky parte de dos ideas, 1) las relaciones entre lenguaje y


cerebro, y como adquieren los niños el lenguaje, 2) una descripción técnica de
la estructura del lenguaje. Chomsky afirmó que el lenguaje es una
característica especifica de cada especie, innata, e independiente de
otros estructuras cognitivas, para el autor, el estudio de la sintáctica
consiste en descubrir una serie de reglas o gramática que nos permite
producir y comprender el lenguaje, además Chomsky hizo hincapié en que
se debe distinguir la competencia ( hace referencia al conocimiento
abstracto de nuestro idioma, a los juicios de valor sobre el mismo) del
desempeño lingüístico real.

En sus trabajos más recientes diferenciaba entre lenguaje externalizado y


lenguaje internalizado, para Chomsky la lingüística del lenguaje
externalizado debe recopilar muestras del lenguaje y comprender sus
propiedades, se trata por tanto de describir las regularidades de un lenguaje
en el formato de una gramática, por su parte la lingüística del lenguaje
internalizado, trata de lo que saben las personas de su propio idioma, y
para Chomsky el principal objetivo de la lingüista moderna debería ser
el lenguaje internalizado, se trata pues de producir una gramática que
describe nuestro conocimiento del lenguaje no de las frases que
producimos normalmente. Otra forma de decirlo sería afirmar, que el
lenguaje internalizado se ocupa de los fenómenos mentales y el
lenguaje externalizado de los fenómenos sociales, así la competencia
es una faceta del lenguaje internalizado. De forma general podemos
decir que la psicolingüística se ocupa del desempeño y la lingüística
de la competencia, si bien muchas cuestiones relativas a la competencia son
de interés psicológico.

Una gramática utiliza un numero finito de reglas que combinadas pueden


generar todas las frasees posibles de un idioma, sin embargo no puede
generar frases sin sentido, por ello se la denomina gramática generativa,
además Chomsky afirmó que una gramática debe poder explicar la
estructura subyacente de las frases, y finalmente la teoría de la
lingüística debería también poder explicar como se produce la
adquisición del lenguaje durante el desarrollo.
Salva Herrera- MailTo :ssalva4@me.com
12
Tema 2 - Descripción del lenguaje
La teoría lingüística de Chomsky ha sufrido diversas evoluciones, en su última
revisión, el minimalismo, el tema central es que el idioma está basado en
reglas, y que nuestro conocimiento sintáctico se puede capturar en un número
finito de reglas sintácticas.

2.2.2 Descripción de las sintaxis y de la gramática de la estructura de los


sintagmas

Chomsky propuso que las reglas sobre la estructura de los sintagmas


son un elemento esencial de nuestra gramática, aunque prosiguió
afirmando que no son el único elemento. Las reglas sobre la estructura de
los sintagmas describen como deben combinarse las palabras, y proporcionan
un método para describirla estructura de una frase, la idea central es que
las frases se crean jerárquicamente a partir de unidades mas
pequeñas utilizando reglas de reescritura, el conjunto de dichas reglas
constituye una gramática de estructura de los sintagmas. En una gramática
de los sintagmas hay dos tipos de símbolos los elementos terminales
(vocabulario o palabras) y elementos no terminales (todo lo demás),
cabe indicar que las reglas de la gramática no se ocupan de palabras
concretas sino que de categorías de palabras, sustantivos, verbos,
adjetivos, adverbios, etc.

Se pueden diferenciar dos tipos de palabras

con (sustantivos, verbos, adjetivos y la mayoría de los adverbios) que realizan el


contenido trabajo semántico y las palabras, se les suele llamar palabras de clase abierta

funcionales tienden a ser cortas, y se utilizan con muchas frecuencia, sobre las cuales
recae el trabajo gramatical, se les suele llamar elementos de clase cerrada

Transformaciones: Chomsky afirmó que la gramática de la estructura de


los sintagmas no es capaz de capturar nuestra competencia lingüística,
aunque puede producir cualquier frase sin producir frases sin sentido,
puede por tanto proporcionar una explicación de la estructura de las
frases pero sin embargo no puede explicar la relación entre frases
relacionadas. Chomsky demostró que el conocimiento de estas
relaciones podría indicarse mediante la introducción de reglas de
reescritura conocidas como transformaciones, las transformaciones
son tan centrales en la teoría que todo el enfoque terminó
conociéndose como gramática transformacional . Una transformación
es un tipo especial de regla de reescritura que parte de una serie de
símbolos, ademas las transformaciones no solo capturan nuestras intuiciones
sobre todo como están relacionadas entre si las frases, sino que también
permiten que se simplifique la gramática.

Salva Herrera- MailTo :ssalva4@me.com


13
Tema 2 - Descripción del lenguaje
Fundamentalmente porque las reglas que nos permiten reescribir series de
palabras como otras series, capturan muchas de las facetas de las
dependencias entre palabras.

Estructura superficial y profunda: Chomsky presentó una profunda


revisión de la teoría, denominada teoría estándar, los cambios
introducidos hacían referencia fundamentalmente a la estructura de sistemas
lingüístico y a la naturaleza de las reglas sintácticas.

El nuevo modelo, presencia de tres nuevos componentes

1 Un sistema semántico, que no existía en el modelo anterior, asignaba


significado a las series sintácticas

2 Un componente fonológico, convertía las series sintácticas en series fonológicas

3 Un componente sintáctico que se ocupaba del orden de las palabras, a su vez este
componente se dividía en dos subcomponentes un conjunto de reglas básicas y las
transformaciones

La aplicación más importante de esta teoría posterior fue la


introducción de la diferenciación entre estructura profunda y
estructura superficial. En la teoría estándar se generaba una estructura
profunda y una estructura superficial, la profunda era el resultado de las
reglas básicas que constituían el elemento de entrada en el
componente semántico, la superficial era el resultado de las
transformaciones y el elemento de entrada de las reglas fonológicas.

La descripción de las frases en cuanto a su estructura profunda tiene dos ventajas

1 Algunas estructuras superficiales son ambiguas, en tanto en cuanto tienen dos


estructuras profundas distintas

2 En la estructura superficial no suele estar claro que constituye el sujeto y que el


objeto de la frase

Teoría de los parámetros y principios del minimalismo: la nueva


versión estándar de la teoría se conoció originalmente como la teoría
del gobierno y la obligación, posteriormente pasaría a llamarse teoría de
los parámetros y principios, en cuyo nombre se pone de manifiesto la idea
central a que hay principios comunes a todos los idiomas.

Salva Herrera- MailTo :ssalva4@me.com


14
Tema 2 - Descripción del lenguaje

Ha habido una serie de cambios importantes en las versiones mas recientes de la teoría

1 Con el tiempo el numero de transformaciones disminuyó de forma paulatina

2 La importancia de la estructura profunda también ha menguado

3 Cuando se mueve un componente de un lugar a otro, este deja un rastro de su poción


original

4 Se pone un énfasis especial en la palabra mas importante en cada frase

5 La teoría revisada permite interponer unidades intermedias entre los sustantivos y los
sintagmas nominales, y entre los verbos y las locuciones verbales

En la más reciente remodelación de sus ideas, el programa minimalista


intenta simplificar la gramática todo lo posible, así el principio de
economía requiere que todos los procesos y representaciones lingüísticas sean
todo lo económicas que sea posible, así se afirma que el apartado teórico y
descriptivo necesario para describir el lenguaje debería minimizarse al
máximo, sin embargo este principio aunque sencillo, sus repercusiones en
cuanto a la teoría son enormes.

En el minimalismo, el papel de las reglas gramaticales generales y


abstractas queda completamente abolido, por el contrario el lexicón
incorpora muchos aspectos de la gramática, así en vez de reglas sobre la
estructura de los sintagmas, las categorías se fusionan para constituir
categorías mas grandes, ademas las representaciones léxicas de las
palabras especifican características gramaticales que controlan la fusión de las
categorías, todas estas ideas quedan reflejadas en las modernas explicaciones
del análisis gramatical.

Teoría de la optimalidad y lingüística cognitiva: el minimalismo aunque


importante para los lingüistas, no ha tenido repercusión para los
psicolingüistas, muchas de las ideas clave de la moderna
psicolingüística quedan reflejadas en otras ramas de la lingüística sobre
todo en la teoría de la optimalidad, esta teoría que se a aplicado a la
fonología, la morfología, la sintaxis y la semántica, gira alrededor de una
idea central, la forma superficial de una expresión emana de la
resolución de los conflictos entre las representaciones subyacentes,
esta teoría comparte mucho con enfoques conexionistas del lenguaje.

La lingüística cognitiva es el nombre que se ha dado al enfoque general, frente


al enfoque gramatical generador de Chomsky, la lingüística cognitiva no
considera que exista una facultad del lenguaje separada, y afirma que
procesamos el lenguaje, utilizando el mismo tipo de procesos
cognitivos que utilizamos para otras facetas de la cognición.

Salva Herrera- MailTo :ssalva4@me.com


15
Tema 2 - Descripción del lenguaje
Aprendemos el lenguaje utilizando procesos de aprendizaje generales
más que procesos específicos al idioma.

2.2.3 El poder de las gramáticas: la teoría del autómata

La teoría del autómata también revela algo sobre la dificultad de la tarea que
tiene un niño a la hora de aprender a hablar. El estudio de los distintos
tipos de gramática y de los dispositivos necesarios para producirla
forma parte de la lingüística matemática o teoría computacional,
denominada teoría del autómata. Un autómata es un dispositivo que
incluye una gramática y puede producir frases coherentes con la
misma, parte de una entrada, realiza unas operaciones y genera una
salida, el tipo de autómata más sencillo que conocemos es un dispositivo
de estado finito, se trata de un sencillo dispositivo que pasa de un estado a
otro en función de su estado actual y de la entrada actual, y produce lo
que se conoce como lenguaje Tipo 3.

Chomsky demostró que no se puede describir el lenguaje natural


mediante este autómata de estado finito, ya que este no puede
reproducir arbitrariamente largas secuencias de múltiples estructuras
insertadas en el centro en las que la secuencia de injertos podría prolongarse
indefinidamente, ya que solo se puede producir este tipo de frases si el
dispositivo posee memoria para recordar lo que ha producido hasta
ahora. Pero Chomsky fue mas lejos, y afirmó que ni las gramáticas
libres de contexto ni las sensibles al contexto permitirían explicar el
lenguaje humano, dado que según él es necesario añadir
transformaciones a una gramática de la estructura de los sintagmas, cuyo
resultado seria una gramática del Tipo 0, que solo se puede producir
con una maquina de Turing.

Se ha definido a una gramática como un dispositivo que puede generar todas


las frases de un sistema pero es capaz a su vez de no generar aquellas que
carecen de sentido, cada gramática corresponde con un tipo particular
de autómata, y cada tipo produce lenguaje es de distinta complejidad.
Para ser capaces de generar un numero infinito de frases, nuestra
gramática debe incorporar reglas de interactivas y de carácter
recursivo, así algunas de estas reglas deberán ser sensibles al contexto
en donde se realiza la manipulación de los símbolos. Los lenguajes libres de
contexto y sensibles al mismo, difieren en cuanto a su necesidad de
reglas que se puedan especificar de forma independiente al contexto
en el que se produzca los elementos.

Salva Herrera- MailTo :ssalva4@me.com


16
Tema 2 - Descripción del lenguaje

Tipos de autómatas

Autómata de Mas potente que un dispositivo de estado finito dado que tiene
empujar hacia arriba memoria, sin embargo esta es limitada, y es un tipo de memoria
donde sólo se puede recuperar el último elemento, Tipo 2 de
lenguaje

Autómata limitado Lenguaje Tipo 1, con memoria limitada, pero de la que se puede
linealmente recuperar cualquier información

Maquina de Turing Es el autómata mas potente, sin limitaciones y produce una


gramática Tipo 0

Salva Herrera- MailTo :ssalva4@me.com


17
Tema 3 - Los fundamentos del lenguaje

Tema 3 - Los fundamentos del lenguaje

3.1 ¿De done proviene le lenguaje?

Actualmente no se tiene ni la mas remota idea de como era el primer lenguaje,


es posible que algunas palabras fuesen onomatopéyicas, la idea de que el
lenguaje evolucionó a partir del mimetismo o imitación es conocida
como ding-dong o heave-oh. Tal vez la idea mas obvia sobre como se
produjo el lenguaje, es que ha sido una de las múltiples adaptaciones
que nos caracterizan y por tanto fruto de la selección natural, sin embargo
incluso esta hipótesis es controvertida, la alternativa seria que el lenguaje
surge como un efecto colateral, fruto del aumento del tamaño del
cerebro o del aumento de la inteligencia general.

A favor de la teoría del efecto secundario se han propuesto varios argumentos

1 Muchos de los investigadores consideran que no ha habido suficiente tiempo


evolutivamente hablando, desde que la evolución divergió entre seres
humanos y otros primates

2 No puede existir una gramática en forma intermedia, o se tiene o no

3 Puesto que la posesión de una gramática compleja no revela ninguna ventaja


evolutiva, la selección no ha podido haberla seleccionado

Sin embargo en los últimos años a la idea de que el lenguaje es una


adaptación que ha evaluando como otra cualquiera, ha adquirido mas
fuerza, por un lado porque proporciona un mecanismo general que se
entiende bien, y en parte porque las objeciones no tienen demasiada validez.
La capacidad de lenguaje y manipular símbolos debió haber surgido cuando en
el ser humano aumento de tamaño de su cerebro y de complejidad de este
cuando el homo sapiens se direnció de otras especies. Un estudio de
evidencia fósil sugiere que la estructura correspondiente al área de
Broca, existe en el cerebro de los primeros homínidos de hace 2
millones de años. El aparato articulatorio no ha evolucionado
significativamente los últimos 60.000 años, la evolución del lenguaje ha tenido
un coste, así las estructuras de nuestro aparato fonador hacen mas
probable, en comparación con otros animales, que nos atragantemos.

Bickerton ha defendido la idea del protolenguaje intermedio entre la


comunicación de los primates y el lenguaje humano, el protolenguaje
tiene etiquetas asignadas a los conceptos pero no tiene una sintaxis, así el
protolenguaje diferencia del lenguaje por la potencia de la sintaxis.

Salva Herrera- MailTo : ssalva4@me.com


18
Tema 3 - Los fundamentos del lenguaje
Se puede decir que los primates, a los que se les enseñas algún tipo de
lenguaje, los niños muy pequeños, o los niños desprovistos de
estimulación lingüística hablan un protolenguaje.

Es improbable que el lenguaje haya evolucionado en un solo golpe y dependa


de un único gen, no obstante se ha identificado el FOXP2, dicho gen en los
animales esta relacionado con la coordinación sensorial y motriz y con
los movimientos complejos, pero que en humanos, cuando se daña
evita la adquisición normal del lenguaje, el FOXP2 del los humanos
surgió por una mutación del FOXP2 los animales anteriores, lo cual ha
provocado un mayor desarrollo en el are de Broca, dicha mutación significo
que el habla podía ser totalmente independiente en el sentido que no
dependía de los gestos.

Piaget fue el primero que propuso que el lenguaje había evolucionado


en íntima conexión con la utilización de los gestos manuales, de forma
que los gestos vocales se desarrollaron para ampliar el repertorio, Corballis
afirmó que la evolución del lenguaje liberó a las manos de tener que
hacer gestos para comunicarse, que el lenguaje surgió no de las
llamadas de los primates sino que de los gestos de los primates, así en
chimpancés y gorilas, al igual que humanos el área 44 de Brodmann
está particularmente agrandada en el hemisferio izquierdo y dicha área
que esta probablemente ligada con la producción de gestos,
corresponde con el área de Broca en los humanos.

Las Neuronas espejo del área 44, despeñan un papel fundamental en la


imitación, y en los gestos, así el sistema de neuronas espejo para agarrar
permitió la imitación, lo que a su vez permitió que se desarrollaran los
primeros gestos, a medida que el lenguaje de los gestos iba
evolucionando se fueron incorporando vocalizaciones en el sistema,
provocando la lateralización y especialización del lenguaje.

Deacom por su parte propuso que el lenguaje y el cerebro


evolucionaron conjuntamente de forma interactiva, convergiendo hacia
una solución común a los problemas cognitivos y sensoriomotores a los que se
tenia que enfrentar el organismo, a medida que crecía el cortéx frontal en
los humanos el procesamiento simbólico iba adquiriendo mayor
relevancia y se hicieron necesarias las habilidades lingüísticas para
gestionar el procesamiento de los símbolos.

Elman propone que el lenguaje surge de continuos ajustes y reajustes que


interactuan entre sí.

Salva Herrera- MailTo : ssalva4@me.com


19
Tema 3 - Los fundamentos del lenguaje
Por su parte Fhiser y Marcus proponen que el lenguaje no fue una
única innovación a gran escala, sino una compleja reconfiguración de
varios sistemas que se adaptaron para formar el lenguaje.

3.2 El lenguaje animal

3.2.1 Sistemas de comunicación animal

Muchos animales tienen ricos sistemas de comunicación, la


comunicación es la transmisión de una señal que envía información y la
señal es el medio por el que se trasmite la información, existen dos tipos de
señales, las comunicativas: tienen un elemento de diseño y en cierto
modo son intencionales, y las señales informativas: estas señales no
tienen intencionalidad. Asimismo existe una gran variedad de métodos
para transmitir información, las hormigas recurren a las fregonas, y las
abejas al baile, los primates utilizan señales visuales, auditivas y táctiles para
comunicarse entre si, por ejemplo un mono puede tener una señal auditiva
para la presencia de serpientes y otra bien distinta para la presencia de un
águila, si embargo todas estas señales esta relacionadas con un
estimulo, y con su presencia misma, por tanto son en el fondo meras
reacciones. Una creencia generalizada es que ballenas y delfines gozan de
lenguajes propios con los que se comunican con sus congéneres, sin embargo
la investigación a día de hoy no aporta ninguna evidencia de que esto
sea así, es mas este tipo de comunicación se puede explicar en
términos de condicionamiento, y no hay ninguna prueba de que los
delfines empleen subsecuencias de sonidos de la misma forma que los
humanos concatenamos palabras.

3.2.2 Definición del lenguaje

Características del diseño de lenguaje hablado humano, Hockett (1960)

1 Canal vocal auditivo

2 Transmisión difundida y recepción direccional

3 Rápido desvanecimiento

4 Intercambiabilidad

5 Retroalimentación completa

6 Especialización

7 Semántica

8 Arbitrariedad

9 Discrecionalidad

Salva Herrera- MailTo : ssalva4@me.com


20
Tema 3 - Los fundamentos del lenguaje

10 Desplazamiento

11 Tradición

12 Apertura

13 Dualidad de modelo

14 Prevaricación (proporciona la capacidad de mentir)

15 Reflexivilidad

16 Capacidad de aprenderse

Todos los sistemas de comunicación poseen algunas de estas características,


sin embargo algunas son más importantes que otras, así se puede destacar
arbitrariedad, reflexivilidad, prevaricación, tradición, y dualidad del
modelo, todas ellas estas relacionadas con la idea de que el lenguaje
trata del significado y proporciona la capacidad de comunicarnos sobre
cualquier cosa y en cualquier momento de pasado, del presente o del
futuro, así Marshall señalo la importancia de que el lenguaje está
sometido a nuestro control voluntario, la creatividad del lenguaje
emana de nuestra capacidad de utilizar reglas sintácticas para generar
un numeró potencialmente infinito de mensajes a partir de una cantidad
de palabras finita.

Características de principales de la sintaxis

1 Sistema combinatorio discreto, cuando se combinan las palabras, se crea un significado


distinto, ademas el significado de las palabras no sólo se fusiona, sino que se mantiene

2 La ordenación de las frases depende de la ordenación sintáctica de las


categorías de la palabras en la secuencia correcta

3 Las frases se construyen en torno a verbos y sustantivos

4 Se pueden diferenciar palabras que realizan trabajo semántico o trabajo sintáctico

5 La recursión, frases que incluyen ejemplos de sí mimas, esto nos permite construir
un infinito número de frases con un finito número de reglas

En resumen, muchos animales poseen sistemas de comunicación simbólicos,


que les permiten trasmitir mensajes a otros miembros de la especie, que
afectan a su conducta, sin embargo estos sistemas carecen de la riqueza
manifiesta en el sistema humano, capaz de hablar de cualquier cosa, y no solo
de forma reactiva.

Salva Herrera- MailTo : ssalva4@me.com


21
Tema 3 - Los fundamentos del lenguaje
3.2.3 Aprendizaje animal del lenguaje

Los demás animales, son en principio incapaces de aprender un lenguaje, así


ha habido y hay numerosos experimentos en la historia del la psicolingüística
que corroboran esta idea.

Pepperberg, se embarco en uno de ellos, elaborado un programa de


entrenamiento de su loro, durante 13 años trabajo con Alex (el loro),
este adquirió unas 80 palabras y podía incluso producir y comprender
pequeñas secuencias de palabras, así Alex demostró ser capaz de
combinar categorías discretas y utilizar adecuadamente categorías
sintácticas, sin embargo conocía pocos verbos y pocas palabras
funcionales, de aquí que la habilidad lingüística de Alex fuese
extremadamente limitada.

La mayor parte de los trabajos dedicados a la enseñanza del lenguaje


se ha llevado a cabo con otros primates, sobre todo como chimpancés, a
la hora de analizar estos trabajos se ha de tener presente que una de las
características principales del lenguaje humano es que incluye tanto
asociación de un numero finito de palabras con determinados
significados o conceptos como la utilización de un numero finito de
reglas para combinar esas palabras en un numero potencialmente
infinito de frases. En el caso de los delfines negros se pudo enseñar un
lenguaje basado en los movimientos de brazos y piernas de los
instructores y otro con una base acústica, sin embargo este trabajo sólo
ponía a prueba la capacidad de comprensión y no la de producción,
asimismo los delfines mostraron tener una capacidad sintáctica limitada
y fueron incapaces de utilizar palabras funcionales.

3.2.4 Capacidades cognitivas de los chimpancés

Los primates tienen rico sistemas de comunicaciones que utilizan en la selva,


los experimentos con chimpancés sugerían que su desempeño es
similar al de un niño pequeño en tareas de conservación de cantidad,
siempre y cuando pudiese ver como se produce el cambio, de ello se
desprende que las capacidades cognitivas de un chimpancé son
similares a las de un niño pequeño, independientemente del lenguaje,
esta diferenciación es importante, pues implica tres cuestiones nada
superficiales, 1) sugiere que para muchas tareas cognitivas básicas, no
es necesario la competencia lingüística, 2) sugiere que existen algunos
prerrequisitos para la adquisición del lenguaje , y 3) surgiere que las
limitaciones cognitivas en si mismas pudieran no ser suficientes para
explicar el fracaso de los simios el la adquisición del lenguaje

Salva Herrera- MailTo : ssalva4@me.com


22
Tema 3 - Los fundamentos del lenguaje
Chimpancés parlantes:
El caso de Gua: el primer intento de alfabetizar a un chimpancé se llevo a
cabo por Kellogg y Kellogg, los cuales criaron a una simia junto a su propio
hijo, el resultado fue que Gua comprendía algunas palabras, pero nunca
produjo ninguna. Estos primeros estudios, tiene una limitación
fundamental, los chimpancés no tienen el aparato fonador bien
formado de cara a producir sonidos similares a los del habla humana.

El caso de Washoe: aunque el diseño de los tractos vocales de los simios no


es adecuado para el habla, los chimpancés son muy diestros con las manos,
con lo que podría, en teoría, enseñárseles lenguajes basados en gestos o
signos, el intento mas famosos es el de Washoe, una simia que fue
capturada en la selva cuando era una cría y fue criada como una niña
humana, a la que se le enseño el ASL (lenguaje de signos en EEUU),
dicho lenguaje como el lenguaje hablado tiene sintaxis y palabras, al final de
unos años los cuidadores de Washoe afirmaban que la simia cometía
errores de generalización, típicos en niños pequeños, ademas cuando
desconocía un signo podía crear un nuevo, como el caso de pájaro-
agua, para referirse a un pato. Los investigadores observaron que Louis, el
hijo adoptivo de Washoe adquirió espontáneamente algunos de los
signos de su madre, ademas se observo como su madre le enseñaba
otros, aunque esto es un claro indicio de lo que se conoce como transmisión
cultural, no esta claro si se trataba de un idioma que esta siendo transmitido
o simplemente un sofisticado sistema de comunicación. A primera vista
parece que Washoe ha adquirido la utilización de las palabras y sus
significado, y al menos cierta sensibilidad al orden de las palabras
tanto en producción como en la comprensión.

El caso de Sarah: Premack adopto un planteamiento distinto, Sarah era un


chimpancé al que se le enseñaba en el laboratorio a manipular
pequeños símbolos de los plástico que variaban en cuanto a forma,
tamaño y textura, los cuales se podían ordenar en función de una
reglas, justos símbolos y reglas formaban el “premarckés”, cuyas
ventajas eran que se necesita una cantidad menor de memoria ya que el
animal tiene ante sí toda la gama de símbolos a utilizar. Sarah reprodujo
fundamentalmente conceptos léxicos sencillos, e incluso nuevas series,
sin embargo estas nuevas series las formaba combinado unas palabras con
otras, producía asimismo frases bastante complejas y mostró sensibilización
metalingüística (reflexividad), en tanto que podía hablar de sus propio
sistema de lenguaje (es el nombre de..), sin embargo había poca
evidencia de que Sarah estuviera usando los símbolos para formar
unidades sintácticas correctas.

Salva Herrera- MailTo : ssalva4@me.com


23
Tema 3 - Los fundamentos del lenguaje
Evaluación de los primeros intentos de enseñar un lenguaje a los
simios:
A primera vista, estos intentos de enseñar el lenguaje al chimpancé parecen
bastante convincentes, como poco podemos afirmar que han aprendido
asociaciones entre objetos y sucesos y respuestas, uno de ellos podía incluso
hablar sobre la propia capacidad de hablar (reflexividad), podían combinar
los signos de forma novedosa (apertura), y aun mas importante, se afirma
que se combinan los signos siguiendo determinadas reglas, es decir habían
adquirido una gramática (aparentemente).

Por desgracia hay muchos problemas en este tipo de investigaciones, la


literatura esta llena de argumentación y contrargumentación, pero en general
las criticas se podrán estructurar en torno a dos ejes, por un lado
criticas metodologicos relacionadas con los métodos de entrenamiento
y por otro lado procedimientos de contrastación utilizados y la
discusión de como se deberían utilizar los resultados.

Muchas de las críticas metodológicas : el lenguaje de los signos


americanos no es realmente simbólico, en tanto en cuanto muchos de
los signos son iconos reflejan lo que representan de una forma que no es
arbitraria. Sin embargo no todos los intentos mencionados utilizaban el
lenguaje de signos americano: por ejemplo los símbolos de plástico de
Premack y además aunque algunos de los signos del lenguaje de signos
icónicos los demás no lo son. Que sus instructores exageraran la interpretación
de sus gestos, los sordos que utilizaron el lenguaje de signos
observaron una marcada discrepancia entre lo pensaba que había
producido Washoe (que era muy poco) y lo que sus instructores
afirmaban que había producido.

Los procedimientos de contrastación: En estos primeros estudios, la


información sobre la conducta de realización de signos era anecdótica, se
limitada a listas y recuentos acumulados de vocabulario. Nadie produjo
jamás un cuerpo completo de todos los signos del lenguaje de los
signos que utilizaba un simio durante determinado periodo de tiempo.
La repetición de hacer signos es bastante común, lo que genera larga
secuencias como “yo plátano tu plátano mi dar”, es un logro sintáctico menos
impresionante y nada parecido a las primeras secuencias producidas por los
niños, Thompson y Church produjeron un programa informático para
simular la adquisición de Yerkish y por parte de lana, y concluyeron
que no había ninguna evidencia de una auténtica comprensión del
significado de las palabras hora escritura sintáctica, por último hay
serie de diferencias entre la conducta de los simios en lenguaje y la de
los niños a próximamente la misma edad.
Salva Herrera- MailTo : ssalva4@me.com
24
Tema 3 - Los fundamentos del lenguaje

Simios Niños

Las expresiones hacen referencia Expresiones pueden indicar un desplazamiento


fundamentalmente al aquí y ahora temporal

Ausencia e estructura sintáctica Clara estructura sintáctica

Escasa compresión de las relaciones Capacidad de intensificación de las estructuras


sintácticas sintácticas

Necesita la información explícita para No necesita información explícita


utilizar so símbolos

No puede rechazar las frases mal formadas Puede rechazar las frases mas formadas

Rara vez plantea preguntas Pregunta con frecuencia

No se utilizan los símbolos como referencia Se utilizan los símbolos como referencia

Kanzi: es un chimpancé pigmeo y muchos creen que ha dado un paso vital en


la adquisición espontánea de la comprensión, a diferencia de otros símios,
Kanzi no recibió una formación formal con el refuerzo mediante
alimentos a producir símbolo correcto. Adquirió primero los símbolos
observando la educación de su madre del sistema Yerkish de
lexigramas. Después se relacionó con personas en actividades cotidianas
normales y fue expuesta inglés. Kanzi había aprendido al menos siete
símbolos y había producido unas 800 combinaciones de los mismos, era
sensible al orden de las palabras, y comprendía el significado de los
verbos, las expresiones espontáneas constituían más del 80% de lo
que producía. Sin embargo, se ha puesto en duda tanto las capacidades
semánticas como sintácticas de Kanzi, además la adquisición de aparentes
habilidades gramaticales por parte Kanzi era mucho más lenta que la
de los humanos y sus frases no se aproximaban a la complejidad de las
de un niño de tres años, por último Kanzi no mostraba indicios de
utilizar palabras funcionales, no parece capaz de utilizar morfología.

Evaluación de la enseñanza del lenguaje a los simios:


Rivas concluyó que los chimpancés utilizan fundamentalmente signos
para las acciones y los objetos. Además, mostraban pocas pruebas de
disponer de una estructura sintáctica o semántica en los signos que hacían,
mostrando por el contrario una gran repetición, un sencilla
concatenación de los signos, fundamentalmente como objetivo
adquirir alimentos o algún que otro objeto, asimismo Rivas concluyó que
los signos de los simios mostraban muchas diferencias con el primer lenguaje
de los niños.

Salva Herrera- MailTo : ssalva4@me.com


25
Tema 3 - Los fundamentos del lenguaje
Se puede enseñar a las palomas a responder de distinta manera ante
imágenes de árboles y agua, podríamos llegar incluso tan lejos como para
sugerir que estas palomas están nombrando las palabras, pero una diferencia
evidente es que los humanos hacemos algo más que nombrar las palabras:
también conocemos el significado.

¿Pueden los simios aprender de manera espontánea que los nombres


hacen referencia a objetos de una forma constante en distintos
contextos? ¿Tienen estos primates la misma comprensión de las
palabras que tenemos nosotros? A pesar de prometedor trabajo con Kanzi,
no hay respuestas inequívocas a estas preguntas.

En resumen, mientras los chimpancés han aprendido claramente las


asociaciones entre símbolos y el mundo, y entre los propios símbolos,
es debatible que hayan aprendido el significado de los símbolos de la
misma manera que lo conocemos nosotros.

Hemos visto que la recursión (por las frases pueden incluir frases del mismo
tipo) es una característica esencial del lenguaje humano, no hay
ninguna evidencia de que los simios puedan utilizar reclusión. Los
monos pueden aprender gramáticas muy sencillas, pero no pueden
aprender gramáticas más sofisticadas, semejantes a las humanas, que
utilizan estructuras jerárquicas en las que existen dependencias a larga
distancia entre las palabras, así se puede enseñar a los monos gramáticas
inventadas sencillas pero son incapaces de aprender gramáticas artificiales
mucho más sofisticadas con una jerarquía. La generación de una estructura
jerárquica como esta depende de la capacidad de utilización de la
recursión, que sólo los humanos pueden utilizar. Hauser y Chomsky
llegan incluso afirmar que la recursión es el único componente de
lenguaje exclusivamente humano, Pinter y Jackendoff discrepan de
esta afirmación extrema, y afirman que FOXP2 es exclusivo de los
humanos y está implicado el control del habla y de lenguaje, pero no
parece estar implicado en la recursión, por otro lado el idioma piraha
del Amazonas no parece utilizar ninguna recursión y sin embargo es
evidentemente un lenguaje humano.

En definitiva, algunos animales superiores pueden aprender los nombres de


objetos y sencillas reglas sintácticas. Sin embargo, no desarrollan una
representación sofisticada como los humanos, y no pueden aprender
gramáticas complejas similares a la humana.

Salva Herrera- MailTo : ssalva4@me.com


26
Tema 3 - Los fundamentos del lenguaje
¿Porque es importante esta cuestión?
Merece la pena señalar que, aunque las capacidades cognitivas de los
niños pequeños y las de los chimpancés no son muy distintas, sus
capacidades lingüísticas si lo son. Esto sugiere que los procesos de
lenguaje son, en cierta medida, independientes de otros por sus
cognitivos. Chomsky afirmó que lenguaje humano es una facultad
especial e independiente de otros por sus procesos cognitivos, con una
base biológica específica, en concertó Chomsky afirmó que solo los
humanos poseen un dispositivo de adquisición de lenguaje, DAL, que
nos permite adquirir el lenguaje, hasta Premack ha reducido su
compromiso con la afirmación de que los simios pueden aprender el
lenguaje igual que los niños humanos.

3.3 Base biológica del lenguaje

3.3.1 ¿Están localizadas las funciones del lenguaje?

En el pasado, la mayoría de nuestro conocimiento sobre cómo estaba


relacionado el cerebro con la conducta provenía de los estudios de
lesiones combinados con una autopsia, ahora se dispone de técnicas de
creación de imágenes de cerebro con la resonancia magnética funcional.
Hablando en términos generales, en la mayoría de las personas diestras el
hemisferio izquierdo se ocupa fundamentalmente el procesamiento
analítico basado en el tiempo, mientras que el hemisferio derecho se
ocupa fundamentalmente el procesamiento holístico con base espacial.
Para la gran mayoría de las personas diestras, las funciones de
lenguajes se localizan fundamentalmente en el hemisferio izquierdo,
se dice pues que es dominante, incluso 70% de las personas zurdas
tienen el hemisferio izquierdo como dominante.

Primeros trabajos sobre ubicación lenguaje:


La mayor parte del evidencias sobre la ubicación de la función de
lenguaje provine los estudios de los efectos de las lesiones cerebrales.
Una deficiencia en la producción o la comprensión se conoce como
afasia, Broca observo a varios pacientes con lesiones el Cortéx de los lóbulos
frontales izquierdos que provocaba una deficiencia en su capacidad de hablar a
pesar del aparato vocal estaba perfecto estado incluso pasé a comprender.
Unos pocos años más tarde Wernicke identificó otra región implicada en el
lenguaje, esta vez mas atrás en hemisferio izquierdo conocido como el giro
temporal, cuya lesión provoca afasia de Wernicke.

Salva Herrera- MailTo : ssalva4@me.com


27
Tema 3 - Los fundamentos del lenguaje
El modelo de Wernicke-Geschwind:
Wernicke presento uno de los primeros modelos de cómo se organiza en
lenguaje en el cerebro, afirmó que las imágenes de los sonidos de los
nombres de los objetos son almacenados en el área Wernicke, en el
Cortéx temporal superior izquierdo, cuando hablamos, se envía una
información a lo largo de una vía de fibras conocida como fascículo arcuato, al
área de Broca en el cortéx frontal izquierdo, donde se traducen estas
imágenes de los sonidos a movimientos sonidos, los modelos modernos
aunque mas complejos siguen el mismo esquema.

Geschwind por su parte describió como fluye la generación del


lenguaje de las áreas de la parte de trasera del cerebro a la parte
frontal del mismo, en el hemisferio izquierdo, así cuando oímos una
palabra, se transmite la información desde el cortéx auditivo hasta el
área de Wernicke, si continuación decimos esa palabra en voz alta, la
información fluye al área de Broca donde se activa la información
articulatoria y pasa después al área motriz responsable del habla, por otro
lado si leemos una palabra, el área visual de cortéx activa la
circunvolución angular y después el área Wernicke.

El área de Wernicke desempeña un papel central en la compresión de


lenguaje. Una lesión de fascículo arcuato provoca dificultades en la
repetición de lenguaje mientras que por lo demás, la comprensión y la
producción permanecerán intactos, este patrón es un ejemplo de simple
desconexión: la desconexión se produce cuando la conexión entre dos
áreas del cerebro esta dañada sin que dichas áreas estén afectadas.

Este modelo se consideraba demasiado sencillo:


Primero: aunque para la mayoría de las personas las funciones de lenguaje
está localizadas fundamentalmente en el lado izquierdo, algunas funciones
importantes lenguaje tiene lugar en el hemisferio derecho. Algunos
investigadores han sugerido que el hemisferio derecho desempeña un
papel importante en un desorden adquirido conocido como dislexia
profunda. Las regiones corticales parecen tener un papel claramente
importante, aunque poco comprendido de lenguaje, por ejemplo como
las personas que padecen Parkinson podrían conjugar con éxito los
verbos irregulares aunque tienen dificultades con los verbos regulares,
lo que sugiere que las regiones corticales desempañan un papel
basado en el uso de las reglas del lenguaje. El cerebro derecho es
relevante cuando procesamos el sentido de las palabras.

Salva Herrera- MailTo : ssalva4@me.com


28
Tema 3 - Los fundamentos del lenguaje
Segundo: incluso en el cortéx izquierdo, es evidente que las regiones de
cerebro fuera de las tradicionales de Wernicke-Broca desempeñan un
papel importante en el lenguaje.
Tercero: las lesiones cerebrales no tienen un efecto también definido
por el modelo, la total destrucción de las áreas centrales al modelo
rara vez producen afasias de los dos tipos esperados, además los
individuos con una lesión en la región de Broca suelen tener
dificultades para comprender las frases.
Cuarto: Casi todas las personas que parecen una afasia tienen alguna
anomia (dificultad para encontrar los nombres de las cosas)
independientemente del lugar donde se haya producido la lesión.

Modelos recientes de como se relaciona el lenguaje en el cerebro:

Modelo declarativo-procedimental:
Ullman (2004) propuso un modelo llamado DP, declarativo-procedimental,
de como se relacionaba el lenguaje con el cerebro, afirmando que el
lenguaje depende de dos sistemas, por un lado el diccionario mental, el
lexicón, el cual depende del sistema de memoria declarativa, basado
en el lóbulo temporal izquierdo, y otro lado la gramática mental, que
depende fundamentalmente de la memoria procedimental, basa en un
sistema integrado por los lóbulos frontales, los ganglios basales, y el
cerebelo, en esencia esta distinción hace referencia a las diferencias entre las
reglas lingüísticas y las palabras. Otra idea importante es que el
procesamiento del lenguaje utiliza, sistemas y procesos que no le son
exclusivos.

Explicación de gran alcance de Hickok y Poeppel:


Los autores afirman que las primeras etapas de la percepción del habla
implican a la circunvolución temporal superior (bilateralmente), así el
procesamiento cortical diverge en dos vías, la vía vía ventral: encargada de
convertir el sonido en algo con significado, la mayor parte de lo que
consideramos percepción del habla se produce en la vía ventral y la vía
dorsal: la cual se ocupa de hacer un mapa del sonido, obteniendo una
representación que implica articulación y que relaciona la percepción
del habla con la producción de la misma.

En resumen, algunas partes del cerebro son mas importes que otras para las
funciones del lenguaje, pero resulta difícil localizar procesos concretos en
regiones concretas o estructuras especificas, lo mas probable es que
haya implicadas múltiples rutas tanto en la comprensión como en la producción
del lenguaje.

Salva Herrera- MailTo : ssalva4@me.com


29
Tema 3 - Los fundamentos del lenguaje
Diferencias de género y lenguaje:
Niñas: desde una edad mas temprana, son mejores en algunas tareas visuales,
además empiezan a hablan antes y poseen una menor lateralización
hemisférica, con lo que una eventual lesión producirá una afasia de
menor consecuencias, y su recuperacion será mayor que en el caso de los
niños. Asimismo las niñas son mejores lectoras y comenten menos fallos de
ortografía.
Niños: muestran una mayor ventaja del hemisferio izquierdo, lo que
provocará ante una lesión mayores daños en la capacidad lingüística.

En la adultez perduran estas diferencias, además se debe tener en cuenta


los factores culturales según los cuales, por norma general, es mas probable
que un hombre interrumpa, que una mujer sea interrumpida, que la
mujeres produzcan frases mas largas y fluidas, y que un hombre padezca
disfemia (tartamudez).

¿Existe un período crítico para el desarrollo del lenguaje?


La hipótesis del periodo critico de Lenneberg incluye dos ideas
relacionadas, 1) determinados proceso biológicos relacionados con el
desarrollo del lenguaje, sólo se pueden producir en un periodo critico,
la especialización hemisférica, y durante dicho periodo los niños
poseen un alto grado de plasticidad, la cual se pierde cuando se termina el
periodo critico, por otro lado, 2) determinados sucesos lingüísticos deben
producirse en el niño durante el periodo para que el desarrollo se
produzca de manera normal.

Evidencia del desarrollo de la lateralización:


La estructura del cerebro no está definitiva al nacer, se produce una
considerable cantidad de desarrollo tras el nacimiento y durante la infancia,
este proceso desarrollo es denominado maduración. Además, el cerebro
muestra cierto grado de plasticidad incluso durante la edad adulta. No
nacemos con una lateralización total de la función de nuestros
hemisferios: más sorprendente es que las lesiones del hemisferio izquierdo
durante la infancia no siempre provocan una perturbación permanente la
capacidad lenguaje.

Hay tres explicaciones de cómo surge la lateralización y, varios argumentos

La hipótesis de la Afirma que los dos hemisferios son similares en lo que respecta
equipotencialidad lenguaje, madurando el hemisferio izquierdo para especializarse
las funciones del lenguaje

Salva Herrera- MailTo : ssalva4@me.com


30
Tema 3 - Los fundamentos del lenguaje

La hipótesis del Afirma que el hemisferio izquierdo que está especializado en


determinismo lenguaje al nacer y hemisferio derecho sólo asume funciones
irreversible de lenguajes en el caso de que el izquierdo que esté lesionado.
La diferencia básica entre la hipótesis de equipotencialidad y la
hipótesis del determinismo irreversible es que en la del
determinismo irreversible, sólo el hemisferio izquierdo puede
terminar siendo centro del lenguaje a menos que sufra una
lesión en sus centros, motivo por el cual hemisferio derecho asumiría
todo o parte del control, en cambio para la equipotencialidad
cualquiera de los dos hemisferios está preparado para asumir el
control.

La explicación Esta explicación aúna los dos extremos, afirmando que los dos
emergentista hemisferios de cerebro se caracterizan al nacer por sesgos
innatos en los tipos de procesamiento de información que no
son específicos de procesamiento de lenguaje, de forma que
hemisferio izquierdo está mejor adecuado para ser dominante,
aunque los dos hemisferios desempeñan un papel importante
en la adquisición del lenguaje.

La hipótesis del periodo crítico (Lenneberg): es la versión más


conocida de la hipótesis de la equipotencialidad. No hay una asimetría
cerebral al nacer: se produce debido la maduración, el proceso de
lateralización se desarrolla rápidamente entre los dos y los cinco años,
después se ralentiza habiendo culminado cuando se alcanza la pubertad. La
lesión de hemisferio izquierdo del cerebro adulto provoca una disfunción
significativa y, normalmente, permanente, de lenguaje. Lenneberg afirmó
que la flexibilidad al nacer es tal que el cerebro podría asignar
funciones el localizaciones alternativas, si ello fuese necesario. La
conclusión que Lenneberg era que las capacidades lingüísticas de los niños se
recupera mucho mejor que las de los adultos, y que cuanto más joven es el
niño mayores son las probabilidades de recuperación. Otra evidencia que
respalda la hipótesis del periodo critico es que la afasia cruzada, en la
lesión del hemisferio derecho provoca un déficit del lenguaje, parece más
común en los niños, esta lesión sugiere que el cerebro no está
lateralizado al nacer, que la lateralización se produce paulatinamente,
debido a la maduración y, este es el período crítico.

Evidencia de los estudios sobre la lateralización en niños muy


pequeños:
En contra de la hipótesis del período crítico, hay evidencias de que se
produce cierta lateralización a una edad muy temprana si no desde
nacimiento.

Salva Herrera- MailTo : ssalva4@me.com


31
Tema 3 - Los fundamentos del lenguaje
Entus estudió bebés de tres semanas utilizando paradigma de la
habituación a chupar: el experimentador hace un seguimiento de los
cambios del chupeteo a medida que se van presentando estímulos, un
chupeteo rápido es una respuesta innata a la estimulación, cuando el
bebé se aburre, disminuye ritmo de chupeteo, por tanto el seguimiento
del ritmo chupeteo es una forma muy útil de poder saber si el bebé
puede detectar el cambio. Entus descubrió un cambio más marcado en
el ritmo de chupeteo cuando se presentaron estímulos hablando al
oído derecho (hemisferio izquierdo), y una ventaja para el estímulo
distinto al habla cuando se presentaba ante el oído izquierdo
(hemisferio derecho), ademas los niños pequeños también muestran un
periodo sensible a la percepción fonética que ha desaparecido más o
menos cuando cumplen entre 10 y 12 meses.

Mills y Coffrey al analizar los cambios de los patrones de los potenciales


relacionados con los sucesos en actividad eléctrica del cerebro que los bebés
de entre 13 y 20 meses. Compararon potenciales relacionados con los
sucesos cuando los niños escuchaban palabras cuyo significado
conocían con los potenciales relacionados procesos de las palabras
cuyo significado desconocían, comprobando que ambos estímulos
provocaran diferentes potenciales relacionados con sucesos. Éstos
datos sugieren que hemisferio derecho desempeña un papel importante en
adquisición de lenguaje. En concreto, las palabras desconocidas despiertan
actividad eléctrica por todo el hemisferio derecho reflejando, el
procesamiento de un estimulo novedoso y significativo. Las diferencias
tempranas en la asimetría podrían estar relacionadas con los posteriores
habilidades del lenguaje. Por tanto parece que sí existe un período crítico
en el que se produce una lateralización, pero periodo empieza antes de
lo que pensaba Lenneberg, puesto que existe una considerable
evidencia de que se produce cierta lateralización de nacimiento, los
datos respaldarían la idea del hemisferio izquierdo tiene una afinidad
especial para lenguaje.

Evidencia como que las personas un segundo idioma:


Tradicionalmente se utilizó la hipótesis de corte cognitivo para explicar porque
es difícil escribir un segundo idioma por los niños mayores y los adultos.

Johnson y Newport diferencian dos hipótesis, la hipótesis del estado de


maduración: esta capacidad disminuye a medida que se va madurando
independientemente de otros factores. La hipótesis del ejercicio: afirma
además que, salvo que se ejercite esta capacidad una temprana esta se
pierde, ambas hipótesis que predicen que los niños serán mejores que
los adultos adquisición de su primer idioma.
Salva Herrera- MailTo : ssalva4@me.com
32
Tema 3 - Los fundamentos del lenguaje
La hipótesis del ejercicio predice que, siempre que niño haya adquirido
un primer idioma durante la infancia, la capacidad para adquirir otros
idiomas permanecerá intacta y se podrá utilizar cualquier edad. Si
embargo, la investigación ha corroborado que la idea de que si existe
un bloqueo relacionado con la edad a la hora de aprender un nuevo
idioma

¿Son realmente los niños mejores que los adultos en aprender un


idioma?
La evidencia no es tan tajante como se podría pensar. Snow concluyó
que, los adultos no son de hecho peores que los niños pequeños, e
incluso podrían ser mejores que estos, además hay mucha variedad:
algunos adultos son capaces de tener un desempeño parecido al de un nativo
en su segundo idioma, mientras que algunos niños tienen menos éxito en este
sentido. Aunque la capacidad de sintaxis conversacional esta correlacionará
con la duracion de la exposición, esto sólo sugiere el tiempo total dedicado a
aprender el segundo idioma es importante: y cuanto antes empiece más
tiempo se tendrá para ello.

La conclusión es que existe poca evidencia de un corte drástico de las


capacidades de aprendizaje de lenguaje al final de la pubertad. En cuanto al
acento extranjero persistente, el desarrollo fonológico del sonido
puede ser una vía para la que sí exista un período crítico, y aunque
parece que los adultos tienen una ventaja inicial en el aprendizaje, el
nivel de consecución de los niños es mas elevado.

Johnson y Newport descubrieron cierta evidencia de un período crítico


para la adquisición de la sintaxis de segundo idioma, analizaron
inmigrantes y descubrieron una gran ventaja, empleada en descubrir sin
una frase es gramaticalmente correcta, entre los inmigrantes que
habían llegado a una edad más temprana, así que los adultos que había
llegado a Estados Unidos con edades comprendidas entre los 0 los 17 años,
había una gran correlación lineal negativa entre la edad de llegada y la
capacidad de lenguaje, sin embargo, entre los 16 y los 40 años no
encontraron una relación significativa en dicho indicador, Johnson y
Newport concluyeron que hay distintos factores que actúan en la adquisición
de lenguaje después de los 17 años. Propusieron que este cambio es un
cambio de estado de maduración, de la plasticidad a un estado estable,
aproximadamente a los 16 años.

Salva Herrera- MailTo : ssalva4@me.com


33
Tema 3 - Los fundamentos del lenguaje
¿Se produce realmente no discontinuidad?
En contra de la idea original, y en contra de la hipótesis del pedido
crítico, Birdsong no identifico una discontinuidad de aprendizaje en
torno a los 16 años.

En resumen, existe evidencia del periodo crítico en algunas facetas de


desarrollo sintáctico y, aún con más potencia, en cuanto desarrollo
fonológico. Sin embargo, mas que una discontinuidad drástica, parece
haber un declive gradual. Sin embargo la adquisición del segundo idioma no
es una prueba perfecta de la hipótesis porque los parlantes suelen haber
adquirido al menos un primer idioma.

Evidencia en los niños que oyen, hijos de padres con deficiencias


auditivas:
El lenguaje de los niños que oyen con hijos de padres sordos, podría
proporcionar una prueba de la hipótesis del periodo crítico. Sin
embargo, la privación nunca es absoluta. Sachs y Johnson describieron en
el caso de Jim, un niño normoyente de padres sordos cuya única
exposición al lenguaje hablado, hasta que empezó la guardería los tres
años, fue la televisión. La entonación era anormalmente plana, su
articulación muy mala, algunas expresiones eran ininteligibles y su
gramática era muy idiosincrática, además la compresión de lenguaje por
parte de Jim, también era muy pobre. Tras la intervención, al cabo de unos
pocos meses, el lenguaje de Jim era prácticamente adecuado a su
edad. El caso de Jim sugiere que la exposición a lenguaje no es
suficiente por sí sola para adquirirlo normalmente.

¿Qué ocurre si se priva a los niños de una exposición lingüística


durante período crítico?
La otra idea importante de la hipótesis del periodo crítico es que, salvo que los
niños reciban un estimulación lingüística durante el desarrollo, serán incapaces
de adquirir un lenguaje normal. La versión más potente es que sin
ninguna estimulación lingüística durante el período crítico los niños no
pueden adquirir ningún tipo de lenguaje.

La evidencias a favor provienen los informes sobre niños salvajes que


han sido abandonados al nacer y quien sido abandonados y privados de
lenguaje durante la infancia. Los niños salvajes no suelen hablar, y parecen
tener muchas dificultades para aprender a hablar. Los informes mas recientes
de niños salvajes que han sido aparentemente criados como animales incluyen
los casos de niños lobo en la india y del niño mono en Burundi, en cada caso,
los intentos intentos de enseñar hablar, o habilidades sociales, a los
niños, fueron casi totalmente un fracaso.
Salva Herrera- MailTo : ssalva4@me.com
34
Tema 3 - Los fundamentos del lenguaje
Sin duda, es concebible que tuvieran un retraso antes de ser abandonados y
que, por tanto, tuvieran dificultades de lenguaje independientemente de sus
constancias.

Genie era una niña aparentemente normal al nacer, pero fue sometida a
privación lingüística, desde los 20 meses, hasta que fue puesta en custodia de
la protectora cuando tenía 13 años y nueve meses. El caso de Genie viene a
demostrar que es posible aprender un lenguaje fuera del período
crítico, pero que la sintaxis parece tener cierto papel privilegiado, la
cantidad de lenguaje que se puede aprender tras un período crítico
parece muy limitada. Lenneberg descartó el caso dado el trauma
emocional extremo que había parecido la niña, además, no hay acuerdo
sobre si la niña parecía algún tipo de retraso anterior a su confinamiento.

En resumen, la evidencia sobre la privación lingüística no es tan clara como


cabía esperar. Parece que los niños pueden recuperase siempre que
reciban una estimulación suficientemente temprana. Si se mantiene la
privación, el desarrollo del lenguaje, sobre todo lo que respecta al
desarrollo sintáctico se ve muy perjudicado, además, un problema
fundamental es que la privación lingüística siempre viene acompañada
de otro tipo de privaciones y resulta difícil desenredar los efectos de
cada tipo.

Evaluación de la hipótesis del periodo crítico:


Hay dos razones para rechazar la versión fuerte de la hipótesis del
periodo crítico 1): los niños pueden adquirir cierto lenguaje mas allá
del periodo y 2): la lateralización no se produce totalmente durante el
mismo. No obstante, es posible defender una versión mas débil de la
hipótesis. Parece existir un período crítico en el primer desarrollo
fonológico y en el desarrollo de la sintaxis. La versión débil suele
conocerse como las hipótesis del periodo sensible, la evidencia respalda
la versión más débil.

¿Por qué tendría que haber un período crítico para lenguaje?


Existen tres tipos de explicaciones a la pregunta anterior. Primero la
explicación nativista: es que existen periodo critico porque el cerebro está
preprogramado para adquirir lenguaje al principio desarrollo, y la
ausencia de una activación adecuada durante desarrollo podría actuar
como una agresión física en algunas zonas del cerebro, segundo la
explicación de la maduración: es que se pierden ciertas ventajas a media
que madura el sistema cognitivo y neurológico del niño.

Salva Herrera- MailTo : ssalva4@me.com


35
Tema 3 - Los fundamentos del lenguaje
Es decir podría haber una ventaja de “ de lo pequeño”, es posible que unos
recursos cognitivos limitados en el niño sean una ventaja para los niños,
porque significa que sólo pueden procesar una cantidad limitada de lenguaje
en un momento dado. Una variante relacionada de la respuesta de la
maduración es que, a medida que se desarrolla cerebro, agota su
capacidad de aprendizaje dedicando circuitos especializados a
determinadas tareas. El modelo conexionista de la adquisición del
tiempo verbal pasado sugiere que las redes van perdiendo, en efecto,
plasticidad a medida que van aprendiendo más.

Las principales diferencias entre los modelos son el grado en que las
restricciones subyacentes al periodo crítico son lingüísticas o mas generales, y
el grado en el que el momento de la adquisición está controlado
genéticamente, a través del conexionismo, la explicación de la
maduración ha tenido recientemente más atención.

3.4 La base cognitiva de lenguaje: la hipótesis de la cognición

Según Piaget, no hay nada especial sobre el lenguaje, a diferencia de


Chomsky no lo consideraba una facultad especial, sino un proceso
social cognitivo como cualquier otro. Por tanto, tiene claramente
prerrequisitos cognitivos: depende de otros procesos comunicativos,
motores y perceptivos, y su desarrollo sigue claramente las fases
cognitivas de desarrollo, la capacidad de hablar de los adultos es una
facultad socializada y tiene un propósito claro, la comunicación, mientras
que primer lenguaje es egocéntrico. Piaget que diferencia tres tipos
distintos de habla ( en la infancia), primer habla egocéntrica, la repetición
o ecolalia, los monólogos.

La hipótesis de la cognición es una afirmación de las ideas de Piaget


sobre lenguaje, y afirma que lenguaje necesita determinados
precursores cognitivos para poder desarrollarse. Por ejemplo, el niño
tiene que alcanzar la edad de la permanencia de objeto para poder ser
capaz de adquirir conceptos sobre objetos y nombres, sin embargo, Corrigan
demostró que no había ninguna correlación entre el desarrollo de la
permanencia del objeto y desarrollo lingüístico cuando se tenían
cuenta la edad del niño, sin embargo está claro que existe cierta
evidencia de que la adquisición del lenguaje está relacionada con el
desarrollo de la permanencia del objeto de forma más compleja.

Salva Herrera- MailTo : ssalva4@me.com


36
Tema 3 - Los fundamentos del lenguaje
3.4.1 El desarrollo del lenguaje los niños con dificultades de aprendizaje

Si el desarrollo cognitivo impulsa el desarrollo lingüístico, un desarrollo


cognitivo deficiente debería quedar reflejado en un lento desarrollo
lingüístico. La evidencia no es tan clara, sugiere que lenguaje y la
cognición están separados en cierta medida. Aunque algunos niños con
síndrome de Down son totalmente competentes en cuanto lenguaje, la
mayoría no lo es, el desarrollo del lenguaje de estos niños queda
sencillamente retrasado. Hasta la edad de los cuatro años, su edad en el
lenguaje es coherente con la edad mental mental, sin embargo a partir
de este momento, la edad de lenguaje empieza quedar rezagada
respecto a la edad mental. Por otra parte, hay varios tipos desarrollo
cognitivo deficiente que no dan lugar a deficiencias lingüísticas tan claramente
definidas.

Laura era una niña que tenía graves deficiencias cognitivas


generalizadas un CI de 41, sin embargo no parecía tener una
deficiencia en las construcciones sintácticas complejas. Yamada
concluyó que los procesos cognitivos lingüísticos son independientes y
que, puesto que se puede desarrollar lenguaje normal cuando hay
graves deficiencias cognitivas generales, los precursores cognitivos no
son esenciales para el desarrollo lingüístico. Sin embargo, la situación
no esta tan clara, puesto que no todas las habilidades lingüísticas de
Laura permanecieron intactas, en concreto, tenía dificultades con las
formas morfológicas complejas.

El síndrome de Williams es un raro desorden genético que provoca


anomalías físicas (los niños afectados tienen cara de duende) y con un
coeficiente intelectual muy bajo, normalmente entorno 50, sin
embargo el habla estas personas es muy fluida y gramaticalmente
correcta, su capacidad adquirir nuevas palabras y de repetir palabras
inexistentes también es buena. Esta disociación entre una grave
deficiente cognitiva y habilidades lingüísticas normales hace que síndrome
de Williams sea particularmente interesante.

Finalmente, los niños con autismo tienen problemas para comunicarse


socialmente, y su utilización del lenguaje idiosincrática. Este tipo de casos
presenta dificultades para cualquier postura que defienda, o bien, la relación
entre desarrollo cognitivo y lingüístico, o bien la primacía de los procesos
cognitivos, así la evidencia esta a favor de la separación parcial, pero no
total de las habilidades de lenguaje y cognitivas.

Salva Herrera- MailTo : ssalva4@me.com


37
Tema 3 - Los fundamentos del lenguaje
Evaluación de la hipótesis de la cognición:
La hipótesis de la cognición afirma que el desarrollo cognitivo impulsa
desarrollo lingüístico. Sin embargo, no hay evidencia clara. Los niños
adquieren ciertas habilidades de lenguaje antes de lograr la
permanencia del objeto. La posibilidad de que la formación lingüística
pudiera mejorar el desempeño de la tarea de la conservación fue contrastada
por Sinclair, que concluyó que la formación de lenguaje sólo tenía un
pequeño efecto (ene, desempeño de tareas de conservación). La
formación lingüística no afecta los procesos cognitivos básicos, pero
ayuda describir y centrar las facetas relevantes de la tarea. En la
actualidad hay poca investigación activa sobre el enfoque piagetanos
del lenguaje. El énfasis ha pasado, por el contrario, a los percusores
comunicativos de lenguaje y el explicación de la interrelación social.

3.5 La base social del lenguaje

Se ha observado que resulta difícil separar los efectos concretos de la


privación lingüística en los niños salvajes los efectos de la relación
social. Es evidente que no basta con ser expuestos a lenguaje, es que es
necesario algo más. Está claro que un aprendizaje de lenguaje mirando
únicamente la televisión será muy limitado. Para ser eficaz el temprano
aprendizaje de lenguaje debe implicar interacción social. Los
interaccionistas sociales ponen de relieve la importancia del desarrollo del
lenguaje mediante la interacción con otras personas, según los
interaccionistas sociales el desarrollo de lenguaje se debe producir en
un contexto de interacciones sociales con significado. Brunner puso de
relieve la importancia del contexto social en el binomio madre-hijo
para ayudar a los niños a desentrañar las expresiones a las que son expuestos.
Asimismo Brunner sugirió que algunas de las habilidades sociales, o la
forma en la que se utilizan al aprender el lenguaje, puede ser innatas.
El autor describió el desarrollo de lenguaje común desarrollo que se producen
el contexto del sistema de socialización y adquisición del lenguaje.

Otras facetas como la retroalimentación de los adultos son


importantes para desarrollo lingüístico, evidentemente el desarrollo de
la competencia comunicativa es un prerrequisitos esencial de
adquisición de lenguaje.

3.5.1 Toma de turnos en las primeras conversaciones

Como poco, los niños tienen que aprender a escuchar y aprestar cierta
atención cuando se está hablando. Existe cierta evidencia de que dicha
competencia aparece una edad muy temprana.
Salva Herrera- MailTo : ssalva4@me.com
38
Tema 3 - Los fundamentos del lenguaje
Schaeffer propuso que el origen de que se tomen turnos proviene de la
alimentación, también observo que madres y bebes rara vez vocalizan en la
misma situación. Snow comprobó que las madres responden las
vocalizaciones, como si sus bostezos fueron también expresiones. De
ahí que los precursores de la conversación existen una temprana edad
y puede surgir de otras actividades. Trevarthen descubrió que los bebés
responden de distinta manera a las personas, incluyendo saludos con la mano
lo que denomino prehabla: pequeños movimientos de la boca, como un
precursor de la del acto de hablar. No hay duda de que al final de los seis
meses son patentes los precursores de las habilidades sociales y
conversacionales, y que los bebés han desarrollado capacidad de
obtener respuestas comunicativas.

3.5.2 Evaluación de las explicaciones de la interacción social

Una desventaja particular del enfoque de la interacción social es que,


hasta hace poco, las explicaciones solían ser vagas de como los detalles
de cómo fluencia las interacciones sociales al desarrollo. Los procesos
cognitivos median en las interacciones sociales, y la clave de una
teoría sofisticada se encuentra en explicar detalladamente esta
relación.

Trastornos del uso social de lenguaje:


Bishop 1997 describe un trastorno semánticopragmático que es una
deficiencia de lenguaje que tiene la apariencia de una versión muy
suave del autismo, los niños con este trastorno parecen tener dificultades
en las conversaciones en las que tienen que hacer inferencias. Dan
respuestas muy literales a las preguntas, y no parecen capaces de
tener en cuenta el contexto social y de la conversación anterior. Mientras
que se podrían explicar los trastornos relacionados en términos de una
limitación de la memoria, o por negligencia social, el trastorno
semánticopragmático (Bishop) se explica probablemente mejor
afirmando que estos niños tienen dificultades para representar estado
mental de otras personas. Este déficit ilustra la dificultad de
desenmarañar los factores biológicos de los cognitivos y de los
sociales entre sí.

Salva Herrera- MailTo : ssalva4@me.com


39
Tema 3 - Los fundamentos del lenguaje

3.5 (II) El desarrollo del lenguaje de niños con deficiencias visuales o


auditivas

3.5.1 (II) Niños con deficiencias visuales

El desarrollo cognitivo de los niños con deficiencias visuales es mas


lento que el de los niños hablantes videntes, y ello se explica por un
menor numero de experiencias, menor movilidad y control de su
propio cuerpo, por lo que alcanzar la “permanencia” del objeto es un
proceso mas costoso y lento, dado que dependen del oído y del tacto, lo
que necesariamente lleva a la creación de un conceptos distintos. Los
primeros estudios sugerían que su forma de hablar era mas
egocéntrica, y menos creativa, incluso autores como Cutsford llegaron a
afirmar que las palabras de estos niños carecían de sentido. Sin embargo,
Bigelow encontró que los niños ciegos alcanza sólo 1 mes después las
50 primeras palabras en relación a los niños videntes, pero a pesar de
ello si que existen diferencias en cuanto al uso de las mismas, aunque
sutiles, así usan menos palabras referidas a objetos, menos nombres de
animales, mas nombres referidos al objetos de lo auditivo o táctil
(tambor, suciedad) y, usan mas palabras para referirse a acciones.

Alteraciones del desarrollo

La de las palabras es distinta, autores como Landau et al demostraron que los


comprensión niños ciegos podían aprender el significado de palabras como
“mirar” o “ver” sin una experiencia directa, y que ello podría ser
fruto de las inferencias realizadas con las palabras colindantes

El desarrollo también se ve alterado, los niños ciegos tardan mas en adquirir el


fonológico sonido adecuado, sobre todo el palabras con una marcada
pronunciación bucal, y esto ha hecho pensar en la visión en la
modulación de la boca para alcanzar el sonido, sin embargo aunque tarden
mas, alcanzan el hito perfectamente

El desarrollo está marcado por mucha mas repetición de la que se identifica en videntes,
sintáctico además la utilización de frases repetidas se prolonga mas en el desarrollo.
Por otro lado se produce un retraso en la realización de algunas
preguntas y el uso de auxiliares, sin embargo este hecho viene
marcado por el lenguaje de sus cuidadores, los cuales adaptan el
mismo a las necesidades de los niños y en el que predominan las
denominaciones espontáneas

Salva Herrera- MailTo : ssalva4@me.com


40
Tema 3 - Los fundamentos del lenguaje

En resumen, los niños ciegos tienen un desarrollo distinto a los niños videntes en
cuanto al lenguaje, sin embargo lo que no está claro que una deficiencia en el
procesamiento cognitivo provoca una deficiencia en el procesamiento sintáctico, por ello

1 No se puede concluir que los procesos cognitivos precedan al lenguaje

2 No se puede concluir que el lenguaje de los niños ciegos sea deficiente

3 No se puede concluir que el primer lenguaje de los niños ciegos sea menos
funcional

4 Se puede concluir que los niños ciegos usan más el lenguaje y tienen una
memoria verbal mayor que los niños videntes

3.5.2 (II) Niños con deficiencias auditivas

El desarrollo del lenguaje en los niños con deficiencias auditivas, es


claramente mas difícil que en el caso de niño sin problemas en la audición,
sin embrago, los niños sordos, tras una formación adecuada, la
adquisición del lenguaje de los signos corre paralela a la que sería una
normal adquisición del lenguaje oral, pasando por las mismas fases al
mismo tiempo. Existen diferencias en la codificación en las tareas
memorísticas en la sordera, sin embargo, ello, viene explicado por el
carácter fonológico y acústico del procesamiento en la MCP mas que
por un retardo en el desarrollo, de hecho, se ha visto que la destreza en
resolver las tareas piagetianas es la misma en ambos grupos.

Furth puso de manifiesto que los adolescentes sordos tenían mas


problemas a la hora de resolver tareas de razonamiento lógico
simbólico, lo cual implicaría retardo en la adquisición de los procesos
cognitivos, sin embargo estas diferencias se ha explicado en base a
una falta de experiencias y las diferentes formaciones de los niños
sordos.

En definitiva, un niños sordo de padres sordos aprenden el lenguaje de signos


al igual que un niños hablante con padres hablantes, y las diferencias son
aplicables a los contextos, y con igual capacidad resoluta en las tareas
plateadas por Piaget.

Salva Herrera- MailTo : ssalva4@me.com


41
Tema 3 - Los fundamentos del lenguaje

3.6 Relación entre lenguaje y pensamiento

3.6.1 La interdependencia de lenguaje y el pensamiento

El psicólogo ruso Vygotski afirmó que la relación entre lenguaje y


pensamiento era compleja, propuso que discurso y pensamiento tienen
distintas raíces ontogenéticas, en concreto, en la fase preintelectual, las
palabras no son símbolos de los objetos, sino propiedades reales de
los mismos. Los sonidos del habla no están adscritos a un
pensamiento, al mismo tiempo, los primeros pensamientos no son verbales,
por lo que hasta cierto punto de desarrollo, cuando el niño tiene unos
tres años, el habla y el pensamiento son independientes, a partir de
ese momento están conectados. Cuando se produce esta
interdependencia, los monólogos de los niños se convierten en el
discurso interno. A diferencia de Piaget, Vygotski consideró que
desarrollo cognitivo posterior estaba determinado, en parte por
lenguaje. El discurso egocéntrico desempeñan la función de autoguía
que termina siendo internalizado por un discurso interno. Vygotski descubrió
que la capacidad discurso egocéntrico disminuye cuando se reduce
sentimiento del niño de ser comprendido, afirmó que esto era lo
contrario lo que hubiera previsto Piaget.

3.6.2 la hipótesis de Sapir-Whorf

Una idea central en esta hipótesis es que la forma de nuestro lenguaje


determina la estructura de nuestros procesos de pensamiento. El
lenguaje afecta a la forma en la que recordamos y a la forma en la que
percibimos el mundo. La hipótesis de Sapir-Whorf incluye dos ideas
relacionadas, 1) el determinismo lingüístico, es la idea de que la forma y
las características de nuestro lenguaje determina la forma en la que
pensamos, recordamos y nos percibimos, y percibimos el mundo. 2) el
relativismo lingüístico, es la idea de que puesto que los distintos
idiomas describen el mundo de distinta manera, los distintos idiomas
generarán distintas estructuras cognitivas. En la versión fuerte, el
lenguaje determina pensamiento.

Una versión más débil, en lenguaje sólo afecta a la percepción. En la


versión más débil, las diferencias de lenguaje afectarán al
procesamiento de determinadas tareas donde la codificación
lingüística es importante, justamente esa versión débil la que ha resultado
más fácil de contrastar y de la que más apoyo se dispone.

Salva Herrera- MailTo : ssalva4@me.com


42
Tema 3 - Los fundamentos del lenguaje
Diferenciación del vocabulario: es improbable que las diferencias de
vocabulario tenga un efectos negativos sobre la percepción, las diferencias de
vocabulario reflejan diferencias en cuanto las experiencias y a la pericia. No
parecen provocar diferencias significativas en la percepción, pero si
que sirven para clasificar y realizar otros procesos cognitivos. Por otro
lado si que parece perjudicial carecer de palabras para determinados
conceptos.

Diferencias gramaticales entre idiomas: si comparamos angloparlantes


con chinos, los angloparlantes utilizan un modo subjuntivo para codificar
fácilmente afirmaciones contractuales del tipo “si hubiera ido la biblioteca,
habría visto a Pedro” sin embargo el chino no tiene dicho modo subjuntivo, por
tanto parece que esta diferencia gramatical puede provocar una diferencia
cognitiva. En este caso sí parece que los chinos tienen más problemas
para razonamiento contractual que los angloparlantes ( por la carencia
de lao primeros del modo subjuntivo), si ello se debe a que el tipo de
construcción necesaria para hacer un razonamiento contractual es más
largo que subjuntivo inglés, entonces esto sería una prueba del efecto
sutil que tiene la forma lingüística sobre la capacidad razonamiento.

Efectos indirectos de lenguaje sobre la cognición: hay más evidencia de


que el lenguaje puede tener un efecto indirecto sobre la cognición,
sobre todo en tareas en donde la codificación lingüística es
importante. Asimismo se sabe que la percepción no es un proceso
neutro, sino que esta influido por el conocimiento previo.

Duncker analizo el paradigma de la caja y la vela, donde se pide una


reordenación de las funciones de los objetos a fin de que los dos se sostengan
en vertical en una pared, en esta tarea se observa como llamar caja a la
caja de forma explicita puede afectar a debilitar o aumentar el efecto
de la fijación funcional (justamente es esta fijación la que se pretende
superar), se ve por tanto como la influencia lingüística se extiende mas allá lo
lingüístico, en este caso a la emergencia de pensamiento creativo. Por su parte
Hoffman experimentó con bilingües Chino-Inglés, en sus resultados se puede
observar como los que pensaban en Chino aplicaban el estereotipo chino
a la tarea, y los que pensaban en Inglés hacían lo propio, por tanto el
idioma que usaban para llevar a cabo los procesos cognitivos, influyó
notablemente en el resultado de la tarea.

Por tanto, estos trabajos sirven de apoyo a la versión débil de la


hipótesis, aquella que postula que la codificación lingüista influye en
procesos cognitivos como la memoria o la resolución de problemas en
tareas que precisan de la codificación lingüística.
Salva Herrera- MailTo : ssalva4@me.com
43
Tema 3 - Los fundamentos del lenguaje

Sistemas numéricos: el ingles tiene sistema complejo para nombrar a los


números tiene 13 términos primitivos 0-12 y después nombres complejos
especiales hasta 19, etc., por otra parte el sistema de nombres de los
números en chino es mucho más sencillo, y requiere que el niño sólo tenga
que recordar 11 términos 0-10, es sabido que los niños de habla inglesa
tienen más dificultades aprendiendo a contar entre 13 y 19, mientras
que los chinos no, este es un claro ejemplo de lenguaje influyendo
sobre la cognición.

Códigos de colores y memoria para los colores: la forma más fructífera


investigar la versión fuerte la hipótesis de Sapir-Whorf ha resultado
ser el análisis de la forma en que nombramos recordamos a los
colores. Los colores clasificables, que se corresponden con los nombres de los
colores normales, se recuerda más fácilmente. Estos primeros trabajos
parecían respaldar la hipótesis de Sapir-Whorf, pero Berlin y Kay
demostraron que los colores típicos a los se hacían referencia los
términos de los colores básicos, denominados colores focales, tienden
a ser constantes en todos los idiomas. Los niños de tres años también
prefieren los colores focales: los agrupan con más precisión, les
prestan más atención que tienen más probabilidades de elegirlos como
ejemplos de un color que los colores no focales. Por tanto, a primera vista,
la división del espectro de colores no es arbitraria, sino que se basa en
la fisiología del sistema división de colores.

Brown afirma que el nombre de los colores no aporta claridad a la hipótesis de


Sapir-Whorf, asimismo los datos de Bornstein ponen de relieve la importancia
de los factores biológicos en el desarrollo del lenguaje.

Diferencias lingüísticas descodificación del espacio-tiempo: la mayoría


de los idiomas utilizan términos relativos al calificar los términos espaciales
relativos. Los idiomas como el tzeltal, utiliza un sistema absoluto, en el
experimento las personas que hablaban holandés preferirían la flecha
que apunta a la derecha de la que había visto previamente, pero las
personas que hablaban Maya preferían la flecha que apunta más de
izquierda. Esto se debe a que “lo que está norte” con la rotación, pero si lo
hace “lo que esta a la izquierda”. Los distintos marcos de referencia
espaciales se adquieren con la misma facilidad por los niños de las
distintas culturas.

Salva Herrera- MailTo : ssalva4@me.com


44
Tema 3 - Los fundamentos del lenguaje
En resumen, hay evidencia de que la forma en la que los distintos
idiomas codifican diferentes diferencias como el tiempo, el espacio, el
movimiento, la forma y el género, influye en la forma en la que
piensan quienes hablan estos idiomas. Estas diferencias sugieren que
nuestro idioma podría determinar cómo realizamos tareas que, a
primera vista, no parecen implicar lenguaje en absoluto, aunque esta
estimación sigue siendo controvertida.

Evaluación de la hipótesis de Sapir-Whorf: la versión del hipótesis ha


disfrutado de una reactivación, actualmente hay una considerable
cantidad de evidencia que sugiere que los factores lingüísticos pueden
afectar los procesos cognitivos. Incluso la percepción de los colores y la
memoria, que hubo un tiempo que se prestó que se pensó que estaba
determinados por factores biológicos, muestran cierta influencia del lenguaje.
Además, la investigación sobre la percepción y la categorización ha
demostrado que los procesos cognitivos de alto nivel puede influir en
la creación de características visuales de bajo nivel al principio del
procesamiento visual. Esto es totalmente consistente con la idea de que,
al menos en determinadas circunstancias, en lenguaje podría fluir
sobre la percepción. Está claro que disponer de una palabra para expresar
un concepto entre tener que utilizar todo una frase puede reducir la carga de
memoria, las diferencias en los sistemas numéricos de los distintos
idiomas constituyen un ejemplo claro de cómo pueden las diferencias
lingüísticas llevar a ligeras diferencias del estilo cognitivo.

3.6.3 Lenguaje y pensamiento, conclusiones

Existe entre el lenguaje y el pensamiento una relación compleja, el entorno y


la biología determinan la arquitectura cognitiva básica y, dentro de los limites
que dicha arquitectura impone, los idiomas pueden variar la forma de
“observar” el mundo, poniendo de relieve como el lenguaje puede influir en la
percepción y/o la cognición.

Salva Herrera- MailTo : ssalva4@me.com


45
Tema 3 - Los fundamentos del lenguaje

El lenguaje es un medio importante de pensamiento y conceptualización

Una perspectiva potente es que el lenguaje es esencial para el pensamiento


conceptual y es el medio por el cual se realiza

Otra perspectiva mas débil, es que el lenguaje es el medio de pensamiento proposicional


frente al visual

Una visión mas débil aun, es que el lenguaje es necesario para adquirir muchos
conceptos, influyendo en la cognición

Otra visión es que no existe relación alguna, si bien el lenguaje sirve para expresar
pensamientos

Carruthers afirmaba que el lenguaje es el pegamento de la cognición y sirve para


pasar información de un módulo a otro, el lenguaje sería el medio del pensamiento
consciente

Hay también diferencias culturales, así por ejemplo en Occidente el lenguaje


y el discurso interno se supone que ayuda a pensar, y por el contrario
en Oriente, esta habla egocéntrica impide o interrumpe el
pensamiento, por lo que pensar en voz alta ayuda a los occidentales a
un mejor desempeño de la tarea, pero no es así en el caso de los
orientales.

En resumen, es evidente que podemos pensar sin lenguaje, además


algunos animales razonan y resuelven problemas, los bebés poseen
ricas capacidades cognitivas y las personas con daño cerebral no
tienen porque tener daños en la capacidad lingüística, por otra parte
como hemos visto, la cultura influye en la cognición.

Salva Herrera- MailTo : ssalva4@me.com


46
Tema 6 - Reconocimiento visual de las palabras

Tema 6 - Reconocimiento visual de las palabras

6.0 Introducción

El reconocimiento implica la identificación de un elemento como algo con lo


que estamos familiarizados. En el acceso al léxico, la representación de
un elemento parte de su representación perceptiva y, es en este
momento cuando la información va más allá de la mera palabra
escrita. Bogota determinó al momento en que una persona ha reconocido
una palabra pero todavía no ha sido su significado “al momento
mágico”. En los modelos con un momento mágico, sólo se puede
acceder a significado de una palabra cuando ya se ha reconocido. Por
su parte Johnson-Laird propuso que la profundidad de acceso léxico puede
variar, en ocasiones apenas recuperamos información sobre una palabra.
Gerring amplio esta idea, y afirmó que distintos modos de acceso léxico en
distintos contextos.

6.1 Métodos básicos y conclusiones básicas

Seis métodos para analizar el reconocimiento visual de las palabras.

La creación de imágenes,

El análisis de movimientos oculares,

La medición de los tiempos de nombramiento,

Decisión léxica

Clasificación

La identificación taquistoscópica

6.1.1 Estudio de los movimientos oculares en la lectura

El estudio de los movimientos oculares tiene importancia para


ayudarnos a comprender tanto la forma en que reconocemos las
palabras como la forma en que procesamos unidades más largas de
lenguaje impreso. Una técnica sencilla es la técnica conocida como
seguimiento del limbo ocular: aunque es un buen sistema para hacer un
seguimiento horizontal del movimiento del ojo, no es muy bueno para
hacer un seguimiento de los movimientos verticales. Por otro lado, una
de las técnicas más utilizadas es el sistema de Purkinje que hace un
seguimiento preciso tanto de los movimientos horizontales como los verticales.

Salva Herrera- MailTo : ssalva4@me.com


47
Tema 6 - Reconocimiento visual de las palabras
Aprovecha el hecho de que hay varias fuentes de reflexión en el ojo, el
sistema calcula los movimientos del centro exacto de la pupila a partir
de esta información.

Cuando leemos, los ojos se desplazan en saltos denominados sacádicos de


una duración de entre 20 y 60 ms, con intervalos de entre 200 y 250 ms
cuando el ojo esta parado, estos periodos de detenimiento se denominan
fijaciones. La información que se puede asimilar durante la fijaciones
limitada: 15 caracteres a la derecha y tan sólo tres o cuatro izquierda
para los angloparlantes, el patrón se invierte para las personas que
leen derecha izquierda, la información de las regiones más alejadas se
utiliza para guiar los siguientes movimientos oculares. La fóvea es la parte
más sensible del campo visual corresponde aprox. a los siete
caracteres centrales de un texto de tamaño medio, la fóvea que está
rodeada de la parafóvea, donde la agudeza visual es más reducida, más allá
se encuentra la periferia, donde la agudeza visual es aún peor, extraemos la
mayor parte del significado de lo que leemos de la zona de la fóvea.

A veces cometemos errores, o tenemos que volver al material anterior,


tenemos que mirar hacia atrás esto se denomina regresiones, son a
veces tan breves que no somos conscientes de ellas.

El modelo más influyente del control del movimiento ocular que se


modelo de E-Z Reader, en este modelo la atención, el procesamiento
visual y el control oculomotor determinan conjuntamente cuando y
adonde se mueven los ojos cuando leemos. La idea central de este
modelo es que, cuando leemos nos fijamos en un punto, y después la
atención visual progresa avanzando por la linea de texto hasta que se
alcanza un punto donde las limitaciones de la precisión visual
dificultan extraer más información, a continuación se produce una
sacudida a la nueva localización. Los saltos sacádicos están programados
en dos fases, una primera más lábil que se puede cancelar y una
segunda más fuerte que ya no se puede cancelar.

El supuesto central más controvertido, del modelo es que se presta


atención de una palabra a otra forma estrictamente serial, cambian
únicamente cuando se ha identificado cada palabra, la investigación de
las palabras se produce en dos fases la primera fase es una
comprobación de la familiaridad, tras ella puede producirse un salto
sacádico, la segunda fase es el acceso léxico pleno, en el que se
recupera el significado y la representación de la palabra, la
culminación esta segunda fase desencadena sacudida de la atención
que y se pasa a la siguiente palabra.
Salva Herrera- MailTo : ssalva4@me.com
48
Tema 6 - Reconocimiento visual de las palabras

Tal y como se puede ver en este modelo la atención y los saltos sacádicos
están separados y tienen distintas fuentes de control por un lado la
familiaridad y por otro lado la identificación. El procesamiento lingüístico
puede afectar a los movimientos oculares, en el modelo, los procesos de
nivel superior intervienen en un impulso general hacia adelante sólo
cuando el análisis ha sido incorrecto.

6.1.2 Tiempo de reacción y otras mediciones

En la tarea de nombrar: se presenta a los participantes una palabra de


forma visual que tienen que nombrar, midiendo el tiempo se tarda el
participante en empezar a pronunciar la palabra (latencia de
nombramiento), aprox. 500ms.

En la tarea de decisión léxica: el participante tiene que decidir si una


combinación de letras son o no una palabra, por ejemplo deben tocar una
tecla en respuesta a la palabra enfermera y otra ante la palabra “enternera”,
un problema de esta tarea es que los experimentadores tienen que ser
muy sensibles al problema de intercambio entre velocidad y precisión
(cuanto más rápido conteste el participante, más errores comete). Por
lo que los investigadores suelen tener que analizar tanto los TR como
los errores. Además al animar a los participantes a que sean precisos
tienden a ser mucho más lentos en su respuestas, los tiempos de
respuesta varían, pero suelen estar entre los 500 ms y un segundo. En los
experimentos que miden el tiempo de reacción no resulta
particularmente útil medir el tiempo absoluto necesario para
responder, lo que nos importa son las diferencias entre condiciones.

En la tarea de identificación taquistoscópica: se muestran palabras a los


participantes durante un período de tiempo muy breve. El experimentador
registra los umbrales a los que los participantes ya no pueden
identificar elementos con seguridad, si la presentación es
suficientemente breve o si se interfiere con los procesos de percepción
normales, podemos encontrar, percepción subliminal. En este caso, la
conducta de los participantes se ve afectada, aunque no son
conscientes de que se ha presentado algo.

En la tarea de clasificación semántica: requiere que el participante tome


una decisión en la que se utilizan process semánticos. ¿La palabra manzana
hace referencia a una fruta o una verdura?

Salva Herrera- MailTo : ssalva4@me.com


49
Tema 6 - Reconocimiento visual de las palabras
Las distintas técnicas no siempre proporcionan los mismos resultados.
Utilizan distintas facetas de procesamiento.

Una de las ideas más importantes en el reconocimiento de palabras es el


priming. Uno de los paradigmas más comunes consiste en presentar una
palabra antes de presentar la palabra objetivo, la palabra que se
utiliza como estímulo del priming se denomina prima. El tiempo que
transcurre entre que se presenta la palabra prima y el inicio de la
producción de la palabra objetivo se denomina asincronía del
comienzo del estímulo o ACE. La prima no tiene porque ser una palabra
única: puede ser toda una frase y puede ser incluso una imagen.

6.1.3 ¿Que facilita o dificulta el reconocimiento de las palabras?

Muchos de estos fenómenos coexisten tanto en el reconocimiento de la palabra


escrita como hablada, en concreto, los efectos de frecuencia y priming
semántico se encuentran en ambos tipos de reconocimiento (hablada
o escrita)

Interferencia de la identificación: podemos ralentizar la identificación de


las palabras haciendo que sea más difícil reconocer el estímulo, una forma de
conseguirlo es degradando su apariencia física esto se conoce como
degradación del estímulo: la presentación de un estímulo
inmediatamente después del objetivo interfiere con el proceso de
reconocimiento. Esto se conoce como emascaramiento hacia atrás. Si el
enmascaramiento del estímulo no está estructurado, lo denominamos
emascaramiento por energía (ruido, iluminación, etc.), si está
estructurado lo denominamos emascaramiento con patrón (letras o partes
de letras), estos dos tipos emascaramiento tiene efectos muy distintos.

Tipo Característica efecto

Por energía Ruido, iluminación, elemento no Actúa sobre el nivel de detección


estructurado de la característica visual,
provocando escasez de las
mismas y, dificultando su
intensificación

Con patrón Letras, partes aleatorias de letras, Sus efectos crean interferencias a
en general un estímulo estructurado nivel de las letras y limita el
tiempo disponible para procesar

El enmascaramiento se utiliza en los estudios de una de las mayores


controversias de la psicolingüística, La de la percepción sin conciencia,
la percepción subliminal.
Salva Herrera- MailTo : ssalva4@me.com
50
Tema 6 - Reconocimiento visual de las palabras
Allport y Marcel descubrieron en un experimento que las palabras se
habían enmascarado hasta tal punto de que los participantes afirman
que no son conscientes de su presencia, sin embargo pueden, producir
una activación del sistema de identificación de las palabras, incluso hasta
nivel de procesamiento semántico. Es decir, podemos acceder a la
información semántica sobre un elemento sin ser conscientes de su
presencia. Hasta la fecha, no está claro si podemos identificar y
acceder a la información relacionada con el significado de las palabras
sin una sensibilización consciente, aunque la balanza de la evidencia
se decanta probablemente por la respuesta afirmativa. Esta conclusión
no plantea ningún problema real a nuestros modelos de acceso léxico.

Otra forma informativa con la que podemos interferir en el reconocimiento de


las palabras consiste en presentar una palabra, pero en retrasar la
presentación de una o dos letras del inicio de la palabra enmascarando esas
letras hacia atrás. Los resultados han hallado que la identificación de
consonantes es particularmente importante para reconocer una
palabra, en inglés, las consonantes tienen una correspondencia más regular
mientras que las vocales no, sin embargo, en italiano que tiene una
correspondencia mucho más regular las vocales no hay una ventaja de
las consonantes. Por lo tanto, los lectores que leen distintos idiomas
hacen un uso diferencial (temprano) de la información que es probable
que nos ayude a identificar una palabra.

6.1.4 Frecuencia, familiaridad y edad de la adquisición

La frecuencia: de una palabra es un factor muy importante en su


reconocimiento, las palabras que se utilizan comúnmente son más fáciles de
reconocer. El efecto de la frecuencia se demostró por primera vez en el
reconocimiento taquistoscópico, pero se ha demostrado desde entonces
para una amplia variedad de tareas. Whaley demostró en 1978 que la
frecuencia es el factor único más importante para determinar la
velocidad de responder en una tarea decisión léxica.

Existen una serie de normas sobre el recuento de la frecuencia disponibles, por


un lado la norma de Kucera y Francis de 1967 que se basa en inglés americano
escrito, por otro lado existe una base de datos denominada CELEX. Sin
embargo el cuerpo lingüístico de la frecuencia impresa podría no ser
muy preciso en el caso de las palabras de baja frecuencia, así si es
posible obtener clasificaciones de familiaridad de las palabras por la
experiencia individual estas clasificaciones deberían ser una medida más fiable
las tareas de procesamiento que la frecuencia de las palabras impresas.

Salva Herrera- MailTo : ssalva4@me.com


51
Tema 6 - Reconocimiento visual de las palabras
Hay otras variables correlacionadas con la frecuencia, por ejemplo, las
palabras frecuentes tienden a ser mas cortas, además la frecuencia
está particularmente entremezclada con al edad de adquisición.

En conjunto, los niños aprenden las palabras más comunes primero,


pero hay secciones, las palabras que se prenden a edades mas
tempranas se nombran más deprisa y con más precisión. Cuanto mas
tardía es la adquisición de un nombre, más difícil será que lo produzca
un individuo con una lesión cerebral, tanto la frecuencia como la edad
de adquisición pueden estar correlacionadas, sin embargo las
estadísticas, como la regresión múltiple, nos permiten diferenciar entre
ellas, así se afirma que los elementos que se aprenden primero tienden
a tener una mayor frecuencia. Se ha sugerido que todos los efectos de la
frecuencia son, realmente efectos de la edad de adquisición. Por otra aparte,
también se sugerido que los estudios que muestran efectos de la edad
de adquisición no han controlado correctamente la frecuencia, que no
han tenido en cuenta la frecuencia acumulada: la frecuencia con la que
se han recibido las palabras de toda la vida. Las medidas de frecuencia de las
normas anteriormente mencionadas, es posible que no reflejen con precisión la
auténtica frecuencia de las palabras en lenguaje. Incluso aunque lo hicieran,
sólo proporcionarían una instantánea de la utilización en el mundo adulto, sin
embargo, un estudio a gran escala del francés demostró que los
efectos de la edad de adquisición persisten incluso cuando se tienen
cuenta la frecuencia acumulada, además es sabido que la edad de
adquisición afecta particularmente la lectura de palabras, mientras
que la frecuencia acumulada tiene un efecto en todas las tareas.

Los efectos de la edad de la adquisición podrían surgir a consecuencia


de la perdida de la plasticidad de los sistemas de desarrollo, así los
elementos aprendidos tempranamente tendrían una ventaja sobres los
aprendidos más tardíamente. En definitiva los elementos que han sido
aprendidos al principio tienen una ventaja que les permiten
desarrollar representaciones más fuertes en la red, los elementos que
se ha aprendido tarde sólo pueden desarrollar fuerte representaciones
si se presentan con una frecuencia muy elevada.

6.1.4 Longitud de la palabra

Gough afirmó que durante el reconocimiento de las palabras, las letras


se extraen de una pequeña memoria visual a corto plazo, una a una, a
un ritmo de 15 ms por letra. Por tanto, no sería nada sorprendente que
fuera más difícil identificar las palabras mas largas.

Salva Herrera- MailTo : ssalva4@me.com


52
Tema 6 - Reconocimiento visual de las palabras
Sin embargo, resulta sorprendentemente difícil identificar un efecto de
longitud independiente de la frecuencia. Una complicación es que hay
tres formas distintas de medir longitud de las palabras: por número de
letras, por número de sílabas y, por el tiempo que se tarda en decir la
palabra.

Chumbley y Balota encontrón efectos de longitud en la decisión léxica


cuando las palabras existentes e inexistentes tenía la misma longitud
y regularidad en su pronunciación. Weekes determinó que longitud de la
palabra tenía un escaso efecto en el nombramiento de las palabras cuando se
tenía en cuenta otras propiedades de las mismas. Parece que el número de
letras de una palabra tiene poco efecto en el caso de las palabras
cortas, pero cierto efecto para palabras con entre 5-12 letras. Además,
los efectos de longitud de la palabra en el nombramiento reflejan
probablemente el mayor número de palabras parecidas con una pronunciación
similar en el caso de las palabras más cortas. Asimismo el tiempo de
nombramiento aumenta en función del número de sílabas en una
palabra.

6.1.5 efectos de la vecindad

Algunas palabras tienen un gran número de palabras parecidas a ellas,


mientras que otras palabras de frecuencia similar tienen pocas palabras que se
les parezcan. Coltheart et al definieron un estadístico N como número
de palabras que se puede crear cambiando una letra de una palabra
objetivo. El tamaño del vecindario afecta reconocimiento visual de las
palabras, lo que hace que sea fácil reconocer las palabras con un
elevado N, aunque sólo se encuentren claras ventajas para las
palabras de baja frecuencia. Además del tamaño del vecindario, la
frecuencia de los vecinos también podría ser importante aunque
Andrews concluyó que el tamaño de vecindad tiene más efectos que la
frecuencia de los vecinos.

6.1.6 Diferencias entre palabras existentes e inexistentes

Por lo general se responde más deprisa a las palabras que las palabras
inexistentes, las palabras inexistentes más inverosímiles se rechaza
más deprisa que las palabras inexistentes más verosímiles.

6.1.7 Priming por repetición

Cuando se ha identificado una palabra, es más fácil identificarla en la


siguiente ocasión, a esto se le denomina Priming por repetición.

Salva Herrera- MailTo : ssalva4@me.com


53
Tema 6 - Reconocimiento visual de las palabras
La repetición facilita tanto la precisión de la identificación perceptiva
como los tiempos de respuesta en la decisión léxica. La repetición tiene
un efecto sorprendentemente duradero de varias horas o incluso más.

La repetición interactúa con la frecuencia: en una tarea decisión


léxica, los efectos de la imprimación por repetición son más potentes
con las palabras de baja frecuencia, un efecto conocido como
atenuación por la frecuencia. Los efectos de la repetición tienen dos
componentes: un efecto muy breve de acceso léxico y un efecto
episódico a largo plazo y sólo este último es sensible a la frecuencia.
Un evidencia importante que respalda la visión episódica es el descubrimiento
de que normalmente logramos la facilitación mediante imprimación por
repetición únicamente dentro de un campo, la imprimación semántica
también funciona entre campos.

6.1.8 Priming basado en forma

Al compartir letras, se dice que están ortográficamente relacionadas y este


fenómeno se conoce como imprimación ortográfica o basado en la forma.
Podríamos esperar que una palabra como CONTRASTE facilite
reconocimiento de la palabra como CONTRATE. La imprimación base
de la forma sólo es eficaz con primas enmascaradas con ACE cortas, la
forma no se percibe conscientemente de la prima. Las palabras prima
relacionadas en la forma pueden incluso tener un efecto inhibidor
garantizando el reconocimiento de la palabra objetivo así, las palabras
parecidas en apariencia se dividen entre sí. La imprimación a base de la
forma es mucho más fácil de obtener si se enmascara la prima, tal vez
porque la imprimación encubierta es una forma más pura de imprimación que
no tiene contribución del proceso consciente.

6.1.9 Priming semántico

La identificación de la palabra se facilita si va inmediatamente


precedida de una palabra con significado relacionado, se puede
encontrar en efecto, con distinta magnitud en muchas tareas, y no se limita
reconocimiento visual de las palabras (aunque la tarea decisión léxica
muestra el mayor efecto de imprimación semántica). Con intervalos de
tiempo muy pequeños, se puede producir la imprimación si la prima sigue al
objetivo, si el objetivo se presenta únicamente durante 30 ms, seguida tan
sólo de 35 ms más tarde por la prima, se producirá una imprimación hacia
atrás. Esta conclusión sugiere que las palabras se procesan en cierta
medida en paralelo si el tiempo entre las mismas que suficientemente
breve.
Salva Herrera- MailTo : ssalva4@me.com
54
Tema 6 - Reconocimiento visual de las palabras

El priming semántico es un tipo de fecto del contexto, podría tener


ciertas ventajas en el procesamiento, es posible que se acelere el
procesamiento si se logra facilitar el acceso a las palabras relacionadas con la
palabra que se está leyendo actualmente, puesto que es más probable que
sea la siguiente palabra en aparecer.

6.1.10 Otros factores que afectan al reconocimiento de palabras

La facilitación del reconocimiento visual de las palabras se ve afectada por una


serie variables, incluyendo la categoría gramatical a la que pertenece la
palabra. Es posible que la facilidad de crear una imagen, el significado
concreto de una palabra tengan un efecto sobre su identificación, además el
contexto sintáctico afecta al reconocimiento la palabra.

6.2 Procesos atencionales en el reconocimiento visual de las palabras

Leer es un proceso obligado, cuando se ve una palabra escrita, no se


puede dejar de leer, la evidencia para respaldar esta introspección
proviene de la tarea Stroop: es más difícil decir el nombre del color en el
que está escrito una palabra así el nombre del color y la palabra están en
entran en conflicto. El procesamiento automático es rápido, paralelo, y
no es proclive las interferencias por otro lado el procesamiento
atencional, es lento, en serie, y es sensible a las interferencias.

Neely utiliza la tarea de decisión léxica para investigar los procesos


atencionales en la imprimación semántica, manipuló cuatro variables:
la primera era si existía una relación semántica entre la prima y el objetivo,
segundo manipuló las expectativas conscientes de los participantes, tercero,
varió el que la atención de los participantes tuviera que cambiar de una
categoría a otra y, finalmente varió las ACE de entre 200 ms a 2000 ms.
Así Neely concluyo que que el patrón resultados dependía de las ACE.
El autor interpretó estos resultados como demostrativos de que los
procesos distintos que actúan con las ACE cortas y largas.

Con ACE cortas: Con ACE largas:

se produce una rápida facilitación de se produce una lenta acumulación de la


corta duración de los elementos con facilitación que depende las expectativas
relación semántica, que no se puede impedir, de los participantes, esto provoca una y
independientemente de cuáles sean las inhibición de las respuestas para los
expectativas de los participantes. Esta elementos inesperados, con el coste de que,
aplicación se basa en relaciones semánticas, si tienen que responder ante estos
no hay ningún tipo de inhibición con ACE elementos, su respuesta se verá más
cortas. retrasada.

Salva Herrera- MailTo : ssalva4@me.com


55
Tema 6 - Reconocimiento visual de las palabras

Imprimación automática Imprimación atencional

Normalmente estos dos tipos imprimación se producen juntos, en una


tarea de imprimación semántica con ACE intermedias, unos 400 ms, tanto
imprimación automática como la atencional pueden estar cooperando para
acelerar la respuesta.

Más evidencia a favor de un modelo de imprimación de los procesos:


Ciertos experimentos sugieren que es posible que la inhibición no
surja únicamente de los procesos de atención sino que puede que
tenga un componente automático. Por otro lado el efecto de la proporción
refleja el efecto de manipular las expectativas de los participantes variando la
proporción de primas válidas. No obstante, en aquellos casos en los que
las palabras primas están relacionadas con las palabras objetivo, la
imprimación automática sigue produciéndose. Cuantas más primas
relacionadas haya en el experimento, mas reconocen los participantes
su utilidad, y más aumenta la contribución de la imprimación
atencional.

6.2.1 evaluación de los procesos atencionales en reconocimiento de las


palabras

Hay dos procesos atencionales que actúan durante la imprimación


semántica: un proceso facilitador automático de corta duración que no
podemos evitar que ocurra y un proceso atencional que depende de
nuestras expectativas y que es mucho más lento en su inicio. Sin
embargo, no hay duda de que la imprimación atencional implica una
inhibición de las alternativas inesperadas y si una de ellas, en efecto es la
palabra objetivo, su reconocimiento quedará retrasado. La imprimación
automática actúa probablemente mediante una propagación de la
activación

6.3 Distintos resultados distintas tareas

Resulta difícil interpretar los experimentos sobre el reconocimiento de


las palabras porque las distintas tareas experimentales proporcionan,
en ocasiones, resultados distintos. Sin duda, la mayor controversia
hace referencia a las tareas de nombramiento y decisión léxica.
En las tareas de nombramiento y/o decisión léxica, no sólo estamos
estudiando un reconocimiento puro de las palabras, sino que a esto
hay que añadirle los efectos de la tarea de medición.

Salva Herrera- MailTo : ssalva4@me.com


56
Tema 6 - Reconocimiento visual de las palabras
Decisión léxica: ha sido particularmente criticada por ser demasiado
sensible a los efectos del acceso posterior, en concreto, se han afirmado
que refleja demasiado las estrategias de los participantes más que los
procesos automáticos del acceso léxico. Esto se debe a que mide los
tiempos de toma de decisiones además del tiempo de acceso léxico puro, los
participantes pueden utilizar uno o dos tipos estrategia: por un lado los
participantes suelen observar que algunos de los pares de palabras
prima-objetivo están relacionados, así pues, puede generar un conjunto de
posibles objetivos. Por otro lado, la estrategia de comprobación
posterior al acceso o postléxica, la existencia de una relación
semántica entre la palabra prima y la objetivo sugiere que la prima
debe ser una palabra y, por tanto, contestan palabra más deprisa en la
tarea decisión léxica, puesto que no puede existir una relación semántica
entre una palabra y una palabra inexistente

En las tareas de nombramiento: los efectos inhibición son pequeños o


inexistentes, se cree que la inhibición surge por los procesos atencionales,
por lo que su ausencia en las tareas de nombramiento sugiere que
nombramiento no implica un procesamiento atencional. La
imprimación mediada (perro imprima a gato que a su vez imprima a
ratón por tanto el par prima-objetivo sería perro-ratón) se encuentra
de forma mucho más fácilmente en la tarea de nombramiento que en la
tarea de decisión léxica. La imprimación mediada no se suele encontrar
en la decisión léxica porque, normalmente los participantes aceleran el
procesamiento utilizando la comprobación de acceso posterior. Estos
resultados sugieren que la tarea de nombramiento es menos sensible
los procesos post-léxicos, sin embargo, la tarea nombramiento tiene un
componente de producción que no existe una decisión léxica

Evidentemente, tanto decisión léxica como el nombramiento tienen


inconvenientes, por ello, muchos investigadores prefieren ahora
utilizar el análisis de los movimientos oculares. Afortunadamente, los
resultados los distintos métodos suelen converger, aunque la tarea
decisiones léxica es más sensible a la frecuencia de las palabras que el
nombramiento y la duración de la mirada, existe una significativa
correlación en las tres tareas.

6.3.1 El sesgo del efecto de frecuencia

Un experimento realizado por Hawkins sugería que la frecuencia


afecta meramente a la forma en que los participantes respondían a la
tarea experimental.

Salva Herrera- MailTo : ssalva4@me.com


57
Tema 6 - Reconocimiento visual de las palabras
Respondieron con las palabras más frecuentes más a menudo, a pesar de que
realmente no se les estaba enseñando nada (estimulo degradado). De este
experimento se puede afirmar que la frecuencia no tienen efecto sobre
la percepción o reconocimiento de las palabras, tan sólo en los
procesos de producción. Es decir, la frecuencia crea un sesgo de
respuesta lo que se ha denominado ocasiones modelo de acertijos.

Este tipo de experimentos sólo demuestra que la frecuencia puede afectar a


las fases de respuestas posteriores, no nos demuestra que no implica también
los procesos de reconocimiento anteriores, el efecto de la frecuencia podría
surgir de dos maneras: es posible que la palabra sea más accesible porque
vemos las palabras frecuentes más de lo que vemos las palabras menos
frecuentes, o por otro lado porque decimos las palabras frecuentes más a
menudo, la mayor parte del tiempo estas posibilidades están entremezcladas.

Morton desenredó estos dos factores, y concluyó que se puede explicar


mejor los datos con modelos en los que la ventaja de las palabras de alta
frecuencia, esta en que necesitan menos evidencia para alcanzar determinado
umbral para su identificación. El reconocimiento posterior de la palabra queda
facilitado cada vez que estamos expuestos a la misma, por tanto, la
frecuencia de experiencia y la frecuencia de producción son, ambas,
importantes.

Balota y Chumbley afirmaron que la frecuencia las palabras no tiene


ningún efecto sobre la clasificación semántica, se trata de una tarea que
debe implicar el acceso al significado, la palabra objetivo, concluían que
cuando la frecuencia tenía un efecto sobre el reconocimiento de las palabras,
lo tenía debido a los mecanismos de acceso posterior, como la comprobación
de la decisión léxica y la preparación para articulación del nombramiento.

Sin embargo, la mayoría de los investigadores cree que la frecuencia


no tiene un efecto léxico automático de reconocimiento de las
palabras, es posible que los efectos de la frecuencia estén producidos por
otros componentes de la tarea del nombramiento. Además, el retraso de la
respuestas de los participantes que elimina virtualmente el efecto de la
frecuencia.

Salva Herrera- MailTo : ssalva4@me.com


58
Tema 6 - Reconocimiento visual de las palabras
6.3.2 Evaluación de las diferencias entre tareas

La decisión léxica y el nombramiento de las palabras no siempre


ofrecen los mismos resultados, las diferencias se deben a que hay otras
tareas que incluyen facetas de procesamiento no automático por tanto, las
diferencias de los tiempos de reacción en las pruebas pueden reflejar distintas
explicaciones del acceso posterior, más que de los procesos de acceso.

6.4 Sistema dedicado exclusivamente reconocimiento visual de las palabras

Parece más probable que el sistema de reconocimiento las palabras


haya aprovechado otros procesos cognitivos y perceptivos, un
importante una forma de fijarse en esto consiste en analizar el grado en el
que la presentación de las palabras impresas afecta al procesamiento de otro
tipo de materiales, como las imágenes. Así estas conclusiones sugieren
que los sistemas de nombramiento de imágenes y reconocimiento de
palabras son independientes, aunque es una afirmación controvertida.

Los resultados son sensibles a las peculiaridades de las tareas


utilizadas: parte del córtex visual ventral izquierdo responde más a las
palabras y a las pseudopalabras que a series de consonantes.
Los estudios de imágenes cerebrales demuestran que este área es sensible a
las propiedades ortográficas, más que perceptivas de las palabras. Los
datos extraídos de las imágenes cerebrales sugieren que existe una región
exclusiva del cerebro, que a menudo se denomina área de formación
visual de las palabras, que procesa las palabras a un nivel de
representación abstracta. Puesto que esta región también responde a
las pseudopalabras, debe estar reconociendo algo implicado con la
regularidad ortográfica de una secuencia de letras abstractas, sin embargo
hay controversia, ya que el área no responde a palabras inexistentes pero
que son parecidas a las palabras reales.

Farah en 1991 afirmó que el reconocimiento de las caras sólo depende


del procesamiento holístico, mientras que reconocimiento de las
palabras depende del procesamiento de las partes. El reconocimiento de
otros tipos de objetos implica ambos tipos de procesamiento en distintos
grados, la propuesta de Farah hace predicciones específicas sobre la
concurrencia de los déficits neuropsicológicos. Puesto que el
reconocimiento de los objetos depende tanto de procesamiento
holístico como el procesamiento de las partes, nunca se debería poder
encontrar un déficit de reconocimiento los objetos, agnosia, sin
encontrar también, un déficit de reconocimiento de las caras
prosopagnosia o un déficit de reconocimiento de las palabras, dislexia.
Salva Herrera- MailTo : ssalva4@me.com
59
Tema 6 - Reconocimiento visual de las palabras

Aunque se trata de una propuesta interesante, no esta claro que la


percepción de las caras sea holística, además Rumiati et al describieron el
caso de MH, una mujer con indicios de atrofia cortical general, a MH se daba
muy mal reconocimiento de los objetos, aunque era relativamente
buena en el procesamiento de las palabras y caras. Este es el patrón
que Farah predijo que no debería producirse jamás. En resumen, existe
una considerable evidencia de que hay una región del cerebro dedicada en
exclusiva a procesar la información sobre las palabras escritas.

6.5 Facilitación basada en el significado y reconocimiento visual de las


palabras

Resulta que hay distintos tipos de imprimación semántica y que tienen


distintos efectos.

6.5.1 Tipos de imprimación semántica

Cuanto más se aproxime el significado de las palabras, mayor es la


magnitud del efecto imprimación observado.

Podemos diferenciar entre imprimación asociativa imprimación semántica no asociativa

Imprimación se dice que dos palabras están asociadas si los participantes


asociativa producen una en respuesta a la otra en una tarea de asociación de
palabras. Es importante destacar que no todas las asociaciones son iguales
en las dos direcciones, algunas palabras se producen como asociaciones de
otras que no tiene ningún significado relacionado, las dos palabras asociadas
pueden, o no, tener también una relación semántica

Imprimación son aquellas palabras que siguen tenido una relación en cuanto su
semántica significado con la palabra objetivo, pero que no se produce como
no palabras asociadas, la palabra pan y la palabra tarta son un ejemplo de
asociativa par de palabras con relación semántica pero no asociadas, zorro y camello,
ambas palabras pertenecen a la categoría de animales, por tanto están
relacionadas semánticamente sin embargo no tiene ninguna asociación

La mayoría de los estudios se ha fijado en pares de palabras que


tienen tanto una relación asociativa como semántica. La evidencia de
la imprimación asociativa automática es bastante clara, y la mayor
parte del esfuerzo de investigación se ha centrado la cuestión de si
podemos encontrar, o no, una imprimación semántica no asociativa
automática. Shelton y Martin demostraron que la imprimación
automática se tiene únicamente con pares de palabras relacionadas de
forma asociativa en una tarea decisión léxica, y no para pares de
palabras que están relacionada semánticamente pero no asociadas.
Salva Herrera- MailTo : ssalva4@me.com
60
Tema 6 - Reconocimiento visual de las palabras
Este resultado sugiere que la imprimación automática parece
producirse únicamente dentro de lexicón. Sin embargo la tarea decisión
léxica parece ser una medición menos sensible para el procesamiento
automático que la tarea de nombramiento y, por ello, esta imprimación
podría haber surgido a través de medios no automáticos. Estos resultados
sugieren que la imprimación automática en tareas reconocimiento
(decisión léxica) visual de las palabras que utilizan los procesos de acceso
léxico pueden explicarse por las asociaciones entre las palabras más
que por la mediación basada en significado las mismas, así doctor
imprima a enfermera porque estas palabras se producen juntas con
frecuencia, no porque haya una relación semántica. El efecto de
concurrencia puede no ser ni siquiera necesario para que las palabras terminen
asociadas. Igualmente, es necesario señalar que la imprimación semántica
puede tener distintos resultados en el reconocimiento y la producción de las
palabras, por ejemplo, Bowles y Poon demostraron que la imprimación
semántica tiene un efecto inhibidor en la recuperación de una palabra
dada su definición, tarea de producción, mientras que, en una tarea
decisión léxica, tarea de reconocimiento, la imprimación semántica
tiene efecto facilitador.

6.5.2 ¿Afecta el contexto de las frases al reconocimiento visual las


palabras?

El contexto de la frase facilita el reconocimiento a pesar de que no


existe una relación semántica. Los tiempos de reacción son más
rápidos si la palabra objetivo es congruente con el contexto
precedente, sin embargo estudios posteriores, han revelado limitaciones
respecto a, donde y cuanta facilitación contextual se puede producir.
Bloom et al, demostraron que la facilitación sólo se produce si la palabra
objetivo es una continuación extremadamente probable de la frase,
otros autores como Stanovich y West concluyeron que los efectos
contextuales son mayores para aquellas palabras que son más difíciles
de reconocer cuando están aisladas. En condiciones claras,
encontramos fundamentalmente una facilitación contextual en las
palabras probables, en condiciones de degradación de la palabra
objetivo, encontramos una inhibición contextual de las palabras
anómalas.

West y Stanovich afirmaron que los efectos de facilitación identificados en


materia de nombramiento se deben a una simple imprimación asociativa de las
palabras anteriores de la frase.

Salva Herrera- MailTo : ssalva4@me.com


61
Tema 6 - Reconocimiento visual de las palabras
El contexto de la frase actúa por inhibición del acceso posterior de las palabras
incongruentes en el contexto anterior, y esto es más probable que se puede
detectar con tareas del tipo de la decisión léxica que son más sensibles
a los mecanismos del acceso posterior. Sin embargo, un problema de esta
conclusión es que la relación léxica no siempre basta por sí sola para
producir la facilitación y función del contexto de la frase. El contexto
de las frases podría ser de ayuda únicamente en circunstancias
difíciles, como cuando se ha degradado el estímulo. El análisis de
movimientos oculares sugirió que el acceso léxico y el procesamiento
conceptual independiente del contexto no podría separarse en las primeras
etapas del procesamiento de las palabras. Por tanto, es posible que el
contexto tenga algunos efectos tempranos, pero el acceso léxico y el
procesamiento conceptual surgen posteriormente como dos procesos
independientes.

Van Petten, analizó los potenciales relacionados con los acontecimientos ERP,
de frases semánticas anómalas, una ventaja de la técnica ERP es que
permite examinar el curso temporal del reconocimiento de las
palabras antes de que se de una respuesta explícita. Los efectos de
contexto léxico y de la frase eran diferenciales en todos los datos de ERP, y los
efectos el contexto de la frase era más prolongados.

Está claro que los resultados son variables, y parecen depender de la


tarea. Es posible que procesamiento en un discurso sea distinto del
procesamiento de las listas de palabras, como las que se suelen
utilizar los experimentos imprimación semántica.

Carroll et al manipularon el contexto global y local en una tarea en la


que los participantes oyen un discurso en unos auriculares, y después
tenían que nombrar la palabra objetivo. Las condiciones eran que la
palabra objetivo estuviera relacionada globalmente con el contexto pero no
localmente relacionada con las palabras anteriores, y no relacionadas
globalmente pero relacionadas localmente. Los autores concluyeron que
sólo el contexto global facilita el nombramiento de la palabra objetivo,
en este caso poema. El experimento demuestra que, en el discurso
real, es posible que los efectos del contexto global sea más
importantes.

6.5.3 Resumen de los estudios de imprimación basados en significado

Podemos distinguir entre una imprimación semántica asociativa, una


imprimación no semántica asociativa. Todos los tipos de imprimación
tienen tanto componentes automáticos como atencionales.
Salva Herrera- MailTo : ssalva4@me.com
62
Tema 6 - Reconocimiento visual de las palabras
Los procesos atencionales incluyen la comprobación de que elemento
al que accedido es incorrecto, la utilización de expectativas
conscientes e integración de la palabra con representaciones
semánticas y sintácticas de nivel superior de la frase que se está
analizando.

La modelización conexionista sugiere un mecanismo por el que el contexto de


las frases podría tener un efecto. La teoría dominante afirma que la
imprimación semántica se produce mediante la propagación de la
activación. Unos pocos investigadores afirman que la activación no se
propaga y, por el contrario, proponen una teoría de indicios complejos:
según esta teoría la imprimación implica la búsqueda en la memoria
con un indicio complejo que contiene tanto la palabra prima como la
palabra objetivo. Esta teoría predice que la imprimación sólo se puede
producir si los elementos están directamente vinculados en la
memoria. Por tanto, no puede explicar un imprimación mediada en la
que los dos elementos no están vinculados directamente.

6.6 Morfología: procesamiento las palabras complejas

La hipótesis de la lista es exhaustiva afirma que existe una lista exhaustiva


de todas las derivaciones de una palabra, por otro lado la hipótesis de la
descomposición obligatoria afirma que: puesto que el inglés contiene un
gran número de derivaciones regulares necesitaríamos entonces una lista
independiente de las excepciones, de forma que almacenaríamos una
regla general y una lista de las excepciones.

Según la hipótesis de la descomposición obligatoria, para reconocer


una palabra morfológicamente compleja primero tenemos que
deshacernos de los sufijos, eliminación de sufijos, así en una tarea de
decisión léxica, se tardaría más en reconocer las palabras que parece
que tienen un prefijo pero que, de hecho, no lo tienen por ejemplo
interés y resultado, como si los participantes estuvieran intentando
eliminando los sufijos de estas palabras, pero como no son capaces de
encontrar una palabra que se ajuste en su lexicón, tienen que volver a
analizarla. En conjunto, la decisión léxica es mucho más rápida, y hay
un número menor de errores, en el caso de las palabras con elevada
frecuencia de base, lo que de nuevo sugiere que las palabras
complejas se descomponen y se reconocen en función de su raíz, sin
embargo, el efecto de la frecuencia de la base no se encuentra para
todas las palabras.

Salva Herrera- MailTo : ssalva4@me.com


63
Tema 6 - Reconocimiento visual de las palabras
Una palabra morfológicamente compleja se dice que es
semánticamente transparente si su significado resulta evidente a
partir de sus partes, por el contrario si su significado no resulta tan
evidente se dice que es semánticamente opaca. La transparencia
semántica y morfológica afecta a la forma en que se identifica las
palabras. Las formas semánticamente transparentes se descomponen
morfológicamente, sin embargo, las palabras semánticamente opacas
no se descomponen. Las palabras derivadas con sus sufijos y prefijos
se impriman entre sí, pero los pares de palabras con sufijo producen
interferencias. Esto se debe a que cuando oímos una palabra con sufijo
primero oímos la raíz.

Los estudios más recientes han concluido que los efectos imprimación
morfológica son independientes de la similitud del significado, es
decir, no hay diferencia entre los efectos de imprimación de las
derivaciones semánticamente transparentes y opacas en varios
idiomas incluyendo inglés. Estos resultados sugieren que la imprimación
morfológica se tiene, por lo general, debido a la estructura morfológica y no a
un solapamiento semántico entre elementos similares.

6.7 Modelos de reconocimiento visual de las palabras

Todos los modelos parten de una presentación perceptiva de una palabra, y


producen la información deseada, como el significado, el sonido y la
familiaridad.

Preguntas fundamentales

¿Es el procesamiento autónomo o interactivo, existen efectos de arriba abajo en el


reconocimiento de las palabras?

¿El acceso léxico es un proceso en serio o paralelo?

¿Puede caer en cascada la activación de un nivel de procesamiento a otro posterior, o desde


procesamiento en la fase posterior sin esperar que hayan culminado el procesamiento de la
fase anterior?

¿Como encontramos los elementos?

Carr y Pollatsek utilizan el término modelos de casos léxicos para los


modelos que tienen en común que hay un sencillo acceso perceptivo a
un sistema de la memoria, el léxico, donde se almacena las
representaciones de los atributos de las palabras individuales. Podemos
distinguir dos grandes tipos de modelos en los casos léxicos, estos
difieren en cuanto a sí utilizan una búsqueda en serie a través una
lista, o una activación directa múltiple de las unidades.
Salva Herrera- MailTo : ssalva4@me.com
64
Tema 6 - Reconocimiento visual de las palabras

6.7.1 El modelo de búsqueda autónoma en serie Forster

Una analogía frecuentemente utilizada aquí es la de la búsqueda en un


catálogo para encontrar dónde se encuentra el libro en la biblioteca. El
modelo es un modelo de dos etapas: puede utilizar el catálogo para
encontrase donde se encuentra libro, pero todavía tendrá que ir a la
estantería, encontrar la localización real del libro, y extraer la información del
mismo. Forster propuso que identificamos las palabras mediante la
búsqueda en serie en lexicón, un modelo de búsqueda en serie, el
procesamiento perceptivo viene seguido de una búsqueda secuencial
en los archivos de acceso que apuntan a una entrada en el léxico, en
este modelo, el sistema de catálogo se corresponde con lo que se
denominarían archivos de acceso y la estantería llena de libros con el archivo
maestro. Para acelerar el procesamiento, estos archivos de acceso
están subdivididos en cubos separados en función de la primera sílaba
o de las primeras letras de una palabra. Los elementos de estos cubos
están ordenados en función de su frecuencia, la búsqueda en función de la
frecuencia es una característica importante del modelo. La imprimación
semántica se produce debido a la referencia cruzada entre entradas en el
archivo maestro.

Evaluación del modelo de búsqueda en serie: la crítica más


significativa hace referencia a la posibilidad de que haya un
mecanismo de búsqueda en serie. El hacer un gran número de
comparaciones en serie requeriría mucho tiempo, pero el reconocimiento de
las palabras es notablemente rápido. El modelo explica los datos
fundamentales sobre reconocimiento de palabras, y hace una potente
predicción de que los efectos de la imprimación deberían estar
limitados a la imprimación asociativa dentro de lexicón. No debería
haber una implicación de arriba abajo. Por último, el modelo no explica de
manera convincente como pronunciamos las palabras inexistentes. El
modelo de búsqueda en serie, a resultado ser muy influyente y
constituye una norma con la que se compara otros modelos.

6.7.2 El modelo Logogenes

En este modelo cada palabra que conocemos tiene sus propias


características unificadas en una unidad, llamada logogén. Un logogén
acumula evidencias hasta que se alcanza un nivel de umbral de
activación individual, y cuando éste se alcanza la palabra se reconoce. Por
tanto, el acceso léxico es directo, y se produce de manera simultánea y
paralela para todas las palabras.
Salva Herrera- MailTo : ssalva4@me.com
65
Tema 6 - Reconocimiento visual de las palabras
El modelo fue formulado originalmente para explicar cómo afecta el
contexto al reconocimiento de las palabras con una exposición muy
breve a la palabra, pero se ampliado para explicar muchos de los
fenómenos reconocimiento de las palabras. Cada unidad logogénica
tiene un nivel de activación en reposo. A medida que va recibiendo
evidencia que corrobora que corresponde al estímulo presentado, aumenta su
nivel de activación, si dicho nivel de activación consigue superar el umbral, se
dispara el logogén y se reconoce la palabra. Cualquier utilización de
Logogén dará lugar a una facilitación posterior al rebajar el umbral de
este logogén. Los elementos más frecuentes tienen umbrales inferiores,
ademas las palabras inexistentes serán rechazadas sino se disparó
ningún Logogén transcurrido cierto tiempo límite.

Problemas del modelo de Logogén original: en el modelo de logogén


original, una sola unidad se utilizaba para todas las tareas de lenguaje
de una determinada palabra, independientemente de la modalidad, es
decir se utilizaba la misma unidad para la modalidad de hablar y leer. Los
experimentos posteriores contradijeron esta predicción. Por tanto,
Morton dividió el sistema de reconocimiento de las palabras en distintos
conjuntos de logogenes para distintas modalidades.

El modelo fue revisado de forma que, en vez de tener un Logogén para


cada palabra, hubiera dos específicos a cada modalidad, análisis visual
de las palabras, y análisis auditivo de las palabras, sin embargo la
evidencia posterior sugiere que son necesarios cuatro sistemas de
logogenes, uno para lectura otro para la escritura otro para escuchar y
otro para el habla, la evidencia neuropsicológica respalda la división
de sistema de logogenes, y este es el planteamiento dominante la
actualidad.

Interacción de las variables y en el modelo de logogenes: los efectos del


contexto y la calidad del estímulo deberían interactuar si el modelo de Logogén
fuera correcto. Las conclusiones son complejas y contradictorias así, algunos
investigadores han identificado una interacción, Meyer et al concluyeron
que, cuanto menos legible es el estímulo, más beneficiosos son los
efectos del contexto. Sin embargo otros han concluido que los efectos
son aditivos, en definitiva, resulta muy difícil extraer conclusiones a
partir de esta investigación.

El modelo de Logogén ha sido superado por los modelos conexionistas


de reconocimiento de las palabras y, en muchos sentidos, se puede
considerar como el precursor de los mismos.

Salva Herrera- MailTo : ssalva4@me.com


66
Tema 6 - Reconocimiento visual de las palabras
6.7.3 Modelos de activación interactiva de reconocimiento de las
palabras

Rumelhart y McClelly desarrollaron un modelo denominado activación


interactiva y competencia, IAC, uno de los primeros modelos
conexionistas. El propósito original de este modelo era explicar los
efectos del contexto de la palabra en la identificación de las letras.

Reicher et al en 1970 demostraron que en el reconocimiento taquistoscópico


era más fácil reconocer las letras de las palabras, que cuando se
exponían de forma aislada, esto se conoce como efecto de la
superioridad de las palabras. Se puede considerar que el modelo es un
componente de un modelo general del reconocimiento las palabras. El
modelo de activación interactiva y competencia está compuesto por muchas
unidades de procesamiento sencillo colocadas en tres niveles. Existe un nivel
de entrada de las unidades de características visuales, un nivel donde se
corresponden estas unidades con letras individuales, y un nivel de salida en el
que cada unidad corresponde a una palabra. Cada unidad está conectada a la
capa superior la capa inferior. Cada una de estas unidades es excitadora o
inhibidora, las conexiones excitadoras, hacen a las unidades de destino mas
activas, mientras las conexiones las hace menos activas., asimismo cada
unidad esta conectada a cada una de las otras unidades dentro del
mismo nivel mediante una conexión inhibidora, esto introduce el
efecto de la competencia. Cuando se activa una unidad, esta envía una
activación en paralelo a lo largo de las conexiones a todas las demás unidades
con la que está conectada, además, puesto que las letras, en el contexto
de una palabra, reciben activación de las unidades de palabras,
situadas en la capa superior, son más fáciles de leer en el contexto de
una palabra que cuando se presentan de manera aislada, donde no
reciben ningún apoyo de activación de arriba abajo: he aquí el efecto
de la superioridad de las palabras.

Es un modelo de activación interactiva del reconocimiento de letras y


palabras y ha sido muy influyente, como su propio nombre implica, este
tipo de modelo es muy interactivo, por tanto, cualquier evidencia que
parezca imponer una restricción sobre papel del contexto resulta
problemática para este modelo. El alcance del modelo es ilimitado y no
ofrece ninguna explicación de los papeles del significado y del sonido
en el reconocimiento visual de las palabras.

Salva Herrera- MailTo : ssalva4@me.com


67
Tema 6 - Reconocimiento visual de las palabras
6.7.4 Modelos híbridos

Los modelos híbridos combinan el paralelismo como los modelos de


logogenes y conexionistas con la búsqueda serie como el modelo de
Forster. En el modelo de verificación de Becker los procesos
perceptivos, impulsados por el estímulo, de abajo arriba, no pueden
reconocer una palabra por sí solos. El proceso de comprobación de
arriba abajo tiene la última palabra. El procesamiento perceptivo
genera un candidato o conjunto sensorial que está ordenado función la
frecuencia. El contexto genera un conjunto semántico de posibles
candidatos. Tanto el conjunto sensorial como el semántico se
comparan y comprueban mediante un análisis detallado de las
características visuales de la palabra, el conjunto semántico se
comprueba primero, la verificación se hace en serie. Este proceso
generará una clara ventaja para las palabras presentadas en el contexto
adecuado. Cuanto menos concreto sea el contexto, mayor será el
conjunto semántico y más lento será el proceso de verificación.

Norris afirmó que los mecanismos de comprobación de acceso posterior


comprueba el resultado del acceso léxico en función del contexto y resuelven
cualquier ambigüedad existente.

6.7.5 Comparación de los modelos

Hay dos dicotomías: la primera es entre modelos interactivos y


modelos autónomos, la segunda dicotomía es entre sí se accede
directamente a las palabras o se accede a las mismas ante un proceso
de búsqueda. Los modelos del logogén y de activación interactiva son
más modelos interactivos de acceso directo. El modelo de búsqueda en
serie es autónomo y, evidentemente, basado en una búsqueda. La
mayoría de los investigadores se muestra de acuerdo en que las fases
iniciales de léxico implican un acceso directo en paralelo, aunque es
posible que los procesos en serie ayuden posteriormente para
comprobar la respuesta preparadas.

6.8 Resolución de la ambigüedad léxica

La ambigüedad léxica se produce cuando la palabra tiene dos


significados, la forma en que accedemos al significado de las palabras
ambiguas depende de las frecuencias relativas de los sentidos
alternativos de la palabra ambigua y del grado en el que el contexto de
la desambiguación limitan las alternativas.

Salva Herrera- MailTo : ssalva4@me.com


68
Tema 6 - Reconocimiento visual de las palabras
Cuando nos encontramos con una palabra ambigua se activan todos
los significados, pero utilizamos rápidamente el contexto para
seleccionar el significado correspondiente.

Tipos de palabras

Palabras homónimas Son palabras con distintos significados pero que suena igual

Palabras homónimas Suena igual, pero se escriben distinto manera


homófonas no
homógrafas

Homófonas Son ambiguas cuando están escritas, y algunas sólo se pueden


homógrafas discernir en función del contexto, como por ejemplo del fin de animal
o del tinte heredero sucesor.

Polisémicas Son las más interesantes, tiene múltiples significados como por
ejemplo, banco.

Frazier y Rayner diferenciaron entre palabras con múltiples


significados y palabras con múltiples sentidos, donde sólo sentidos
tienen relación, no siempre resulta fácil decidir si una palabra tiene múltiples
significados o sentidos. Está claro que somos más rápidos tomando
decisiones sobre palabras ambiguas comparadas con palabras
equivalentes pero no ambiguas, esta ventaja se denomina la ventaja
de la ambigüedad. Sin embargo, sólo se encuentra esta ventaja para las
decisiones léxicas, para las demás tareas, no hay ninguna ventaja,
incluso puede darse desventaja. Por tanto mientras que los distintos
sentidos de una palabra confieren una ventaja, los múltiples significados no.

6.8.1 Primeros trabajos sobre la ambigüedad léxica.

Modelo de acceso léxico de lectura única desambiguado por el


contexto: según este modelo el contexto limita de alguna manera el
proceso de acceso, de forma que sólo se accede al significado
relevante. Un problema de este modelo es que no está claro cómo puede
contesto proporcionar una restricción tan y inmediata.

Modelo de acceso ordenado: se accede a todos los sentidos de una


palabra en orden, a partir de las frecuencias de cada significado individual. A
continuación se comprueba cada sentido respecto del contexto para ver
si es adecuado. Primero comprobamos el sentido más común respecto del
contexto.

Salva Herrera- MailTo : ssalva4@me.com


69
Tema 6 - Reconocimiento visual de las palabras
Modelo de acceso múltiple: según este modelo, cuando nos encontramos
con una palabra ambigua se activan todos sus sentidos y a continuación,
se elige el adecuado en función del contexto.

Primeros experimentos sobre procesamiento de la antigüedad léxica:


Los primeros experimentos parecían demostrar que hacemos de forma
rutinaria a todos los significados de las palabras ambiguas. Este tipo de
experimentos sugerían que se accede en paralelo a todos los significados
de una palabra ambigua, Hogoboam y Perfetti demostraron que el tiempo
que se necesita para acceder al significado depende de la frecuencia
del uso. La gente tarda en detectar la antigüedad cuando las palabras
aparecen en su sentido más frecuente.

El experimento de Swinney: el autor utilizó una técnica de imprimación


multimodal en la que los participantes tienen que responder a una
tarea decisión léxica visual mientras escuchan un material auditivo
correlacionado, sus conclusiones sugieren que, cuando nos encontramos
por primera vez con una palabra ambigua accedemos automáticamente a
todos sus significados. Sólo utilizamos el contexto a posteriori para
tomar una decisión muy rápido entre las alternativas, dejando activo
únicamente he sentido coherente con el contexto. Este experimento
demostró que el contexto semántico no puede limitar el acceso inicial.

En definitiva, los datos disponibles hasta la fecha sugieren que, cuando


oímos o vemos una palabra ambigua, accedemos de forma
inconsciente e inmediata a todos sus significados, pero utilizamos el
contexto para rechazar muy rápidamente todos los sentidos
inadecuados. Este proceso puede empezar aproximadamente tras unos
200 ms, los significados menos frecuentes necesita más tiempo de
acceso porque se necesita más evidencia para traspasar su umbral y
ser considerados como adecuados al contexto. Esto sugiere que los
procesos de acceso léxico son automáticos o encapsulados
informativamente, y que todos los sentidos de la palabra ambigua parecen
el resultado, pero si utilizamos rápidamente la información semántica para
elegir cuál es el sentido más adecuado.

6.8.2 Trabajos actuales sobre la ambigüedad léxica.

En la actualidad existe un acuerdo en que, cuando nos encontramos con una


palabra ambigua, se activan todos los significados y se utiliza el contexto para
seleccionar rápidamente cual es el correcto.

Salva Herrera- MailTo : ssalva4@me.com


70
Tema 6 - Reconocimiento visual de las palabras
La investigación reciente a utilizado técnicas fundamentalmente, la
imprimación multimodal y las mediciones de movimiento ocular, para
refinar esta idea.

Los efectos de la frecuencia del significado y del contexto anterior:


Modelo de acceso selectivo: el material desanbiguador anterior limita
el acceso de forma que sólo se accede al significado adecuado.

Modelo de acceso reordenado: el material desambiguador anterior


afecta a la fase de acceso en tanto en cuanto aumenta la
disponibilidad de significado adecuado de la palabra. Se trata de un
modelo híbrido entre los modelos autónomo e interactivo donde la influencia
que puede tener el contexto es limitada.

Modelo de acceso autónomo: el contexto anterior no tiene ningún efecto


sobre acceso, se accede manera exhaustiva a todos los significados. En
una versión de este modelo, conocido como el modelo de integración,
la integración con éxito de un significado por el contexto anterior da
por finalizada la búsqueda de significados alternativos de esta palabra.

Modelos y sus predicciones

Modelo de Contexto: se predice que el contexto no tiene ningún efecto sobre la


integración fase inicial, los significados de las palabras ambiguos serán accedidos
en una estricta secuencia temporal independiente del contexto.
TP: se predice que los tiempos de procesamiento de la palabra ambigua
será más largos en la condición negativa que las condiciones positiva
y neutra, pero el tiempo de procesamiento del contexto desambiguador
posterior será más largo en las condiciones positiva y neutra que en la
negativa

Modelos de Predice que el contexto anterior tendrá un efecto sobre el acceso inicial
Acceso de la palabra ambigua en la condición condición positiva, pero no la
reordenado condición negativa o la neutra, por tanto la condición clave es la
positiva, que favorece el significado subordinado pero también es consistente
con significado dominante

Hasta ahora, los datos respaldan el modelo de acceso reordenado


respecto a uno estrictamente autónomo, como el modelo de integración. Sin
embargo en el modelo de acceso reordenado el papel del contexto esta
limitado por la frecuencia de los significados. Un modelo alternativo
es el modelo sensible el contexto, donde la frecuencia de significado y
el contexto sesgado actuan juntos, dependiendo de la fortaleza del
contexto.

Salva Herrera- MailTo : ssalva4@me.com


71
Tema 6 - Reconocimiento visual de las palabras
Según el modelo de acceso reordenado, siempre se generará el
significado dominante independientemente del contexto, por lo que
hará falta tiempo para resolver el conflicto, sin embargo, según el
modelo sensibilidad contexto, sólo debería haber conflicto, y por tanto,
un efecto del sesgo de subordinado en la condición de contexto débil. Los
datos de una tarea de lectura a ritmo libre respaldan el modelo
sensible el contexto. Un contexto suficientemente potente puede
eliminar el efecto del sesgo del subordinado.

Evaluación de trabajo sobre la ambigüedad léxica:

Al principio según enfoques básicos, según la perspectiva autónoma,


accedemos automáticamente a todos los sentidos de una palabra y,
utilizamos un contexto para elegir la interpretación adecuada. Según la
perspectiva interactiva, el contexto permite un acceso selectivo de los
sentidos adecuados de la palabra ambigua.

Los experimentos más recientes sugieren que el patrón de acceso


depende de las frecuencias relativas de los sentidos alternativos de la
palabra ambigua y el grado en que el contexto de desambiguación limita
el número de alternativas. Todos los modelos recientes de
desambiguación incorporan un elemento de interactividad. Así pues, la
forma en que abordamos la ambigüedad léxica depende tanto de las
características de la palabra ambigua como del tipo de contexto de
desambiguación.

Aunque parece que las palabras ambiguas provocan dificultades para el


sistema del lenguaje, en algunos casos las palabras ambiguas presentan una
ventaja. Es posible que resolvamos más rápidamente palabras ambiguas en
comparación con las palabras no ambiguas, esto reporta una ventaja en la
decisión léxica. Si bien hay una serie de explicaciones a este fenómeno, todas
giran en torno a la idea de la disposición de múltiples significados.

Salva Herrera- MailTo : ssalva4@me.com


72
Tema 7 - Lectura

Tema 7 - Lectura

7.1 Introducción

La unidad básica de lenguaje escrito es la letra, el grafema se utiliza para


designar la letra o combinación de letras que representa un fonema. Hay
mucha más variabilidad en estructura de los lenguajes escritos que en
los lenguajes hablados. En lenguajes transparentes como el español y el
italiano existe una correspondencia de grafemas a fonemas de uno a
uno, de forma que cada grafema está realizado únicamente por un fonema y
cada fonema está realizado únicamente por un grafema. En los idiomas como
inglés, esta relación puede ser de uno a muchos en ambos sentidos. En las
escrituras como el hebreo y el árabe, no se representan todo los sonidos,
puesto que las vocales ni siquiera se escriben. Una consecuencia de esta
variación en las escrituras es que debe haber diferencias en el
procesamiento de las personas que leen los distintos idiomas. Por
tanto, algunas de las conclusiones pueden ser ciertas para muchos
idiomas y para otros muchos sistemas escritura, pero no
necesariamente para todos ellos. A diferencia del habla, la lectura y
escribir son un desarrollo relativamente reciente, por tanto, tal vez no sea
sorprendente que la lectura sea una tarea cognitiva bastante compleja.

Tipos de palabras

Regulares La correspondencia escritura, sonido, se da cuando los grafemas


corresponden con los fonemas de forma totalmente regular

Irregulares Son aquellas en las que la correspondencia entre grafema y fonema


es irregular, son excepcionales

Pseudopalabras/ Aquellas que, a pesar de ser novedosas, tenemos claro como


inexistentes pronunciarlas

7.2 Modelo preliminar de la lectura

Nuestra capacidad de leer palabras inexistentes, y palabras


irregulares, sugiere la posibilidad de que exista un modelo de ruta dual
en el nombramiento de las palabras. Podemos comprender la
pronunciación de las palabras inexistentes o existentes que no hemos visto
nunca antes, y también pronunciar correctamente palabras irregulares.

Salva Herrera- MailTo : ssalva4@me.com


73
Tema 7 - Lectura
El modelo clásico de ruta dual sigue dos rutas para convertir las palabras
en sonidos:
1) existe un acceso directo al léxico, que se necesita para las palabras
irregulares, debe implicar un vínculo directo entre la letra impresa y el
sonido. Es decir nos lleva directamente a la entrada de una palabra en el
lexicón, y en ese momento somos capaces de recuperar el sonido de la
palabra.

2) ruta de convergencia de grafema a fonema, también denominada ruta


indirecta o no léxica, que se utiliza para leer las palabras inexistentes.
Esta ruta realiza lo que se denomina una recodificación fonológica. No
implica, en absoluto un acceso al léxico. Otra justificación importante de la
ruta de la conversión de grafema a fonema, es que es útil para que los
niños aprendan a verbalizar las palabras emitiendo sonidos de cada
letra de una en una.

Puesto que ninguna de las rutas puede, por sí sola, explicar


correctamente el desempeño de la lectura, parece que debemos
utilizar ambas, los teóricos contemporáneos de la ruta dual consideran
que la lectura es como una carrera entre ambas rutas, así para los
lectores expertos la ruta directa es mucho más rápida, la ruta indirecta
sólo se hará patente en circunstancias excepcionales, como cuando
vemos una palabra con la que no estamos familiarizados.

7.2.1 Relación del de la ruta dual con otros modelos

El modelo de búsqueda autónoma en serie Forster, El modelo


Logogenes, Modelos de activación interactiva de reconocimiento de las
palabras, y los modelos híbridos de reconocimiento visual de las
palabras pueden ser considerados como las teorías de funcionamiento
la ruta de lectura de acceso directo al léxico. La ruta dual es la versión
más sencilla de una serie de posibles modelos con múltiples rutas, o de
codificación paralela.

En efecto, que sean necesarias o no las dos rutas para lectura


constituye una cuestión central en el tema relativo lectura. Los
modelos que proponen que podemos apañárnoslas con una sola ruta
(como los modelos conexionistas) deben producir una explicación
satisfactoria de cómo pronunciamos las palabras inexistentes. Algunos
investigadores creen que incluso los adultos, con buen nivel de lectura
acceden fundamentalmente al significado pasando de la palabra
escrita a la fonología y, después, al significado, una idea denominada
mediación fonológica.
Salva Herrera- MailTo : ssalva4@me.com
74
Tema 7 - Lectura
Sin embargo la mayoría de los investigadores consideran que en los
adultos expertos, existe una ruta directa de la palabra impresa a la
semántica.

7.3 Los procesos de lectura normal

7.3.1 Lectura de las palabras inexistentes

Según el modelo de ruta actual, la pronunciación de todas las palabras


inexistentes debería producirse utilizando la ruta de conversión de
grafema a fonema, ruta secundaria. Esto significa que todas las palabras
inexistentes que sean pronunciables deberían ser muy parecidas y su parecido
con las palabras existentes no debería ser importante.

El efecto pseudohomófono: son dos palabras inexistentes


pronunciables que suenan como palabras existentes cuando se
pronuncian, como yielo / hielo. Rubenstain et al demostraron que los
pseudohomófonos se pueden confundir más con las palabras de
verdad que otros tipos de palabras inexistentes. Los participantes las
pronuncian más rápidamente, pero las rechazan más lentamente como
palabras inexistentes. Por su parte Martín et al afirmaron que es el parecido
visual lo que realmente importa, los pseudohomófonos se pueden
confundir más que otras palabras inexistentes porque se parece más a
las palabras (objetivo), que porque suenen de la misma forma.

El experimento de Glushko: los aspectos léxicos sobre la lectura de las


palabras inexistentes, Glushko hizo un experimento muy importante sobre
efecto de la regularidad de los vecinos (reales de una palabra
inexistente) sobre su pronunciación, demostró que las latencias de
nombramiento de unas palabras inexistentes eran significativamente
más lentas que otras palabras, así los tiempos de reacción de las
palabras inexistentes que tienen vecinos reales con correspondencias
ortográficas irregulares, son más lentos que los que de otras palabras
inexistentes de control.

En resumen, Glushko concluyó que la pronuncianción de las palabras


inexistentes se ve influida por la pronunciación de las palabras
parecidas, y que las palabras inexistentes no son iguales entre sí. La
investigación posterior ha demostrado que la proporción de pronunciaciones
regulares de las palabras inexistentes aumenta a medida que aumenta el
número de vecinos ortográficos, con lo que se puede concluir que, existen
efectos léxicos sobre el procesamiento de las palabras inexistentes.

Salva Herrera- MailTo : ssalva4@me.com


75
Tema 7 - Lectura
Por tanto el experimento de Glushko pone a cuestión el modelo dual de
las dos rutas, la independencia de ambas.

Finalmente, los efectos de las palabras inexistentes en los


experimentos complejos son sensibles a muchos factores, como la
pronunciación de las palabras circundantes en la lista. Esto también
sugiere que la pronunciación de las palabras inexistentes implica algo
más que una mera conversión de grafemas más a fonemas.

En definitiva estos datos no se ajustan a la versión sencilla del modelo


de ruta dual. La pronunciación de las palabras inexistentes sería afectada por
la pronunciación de palabras visualmente parecidas, es decir la ruta léxica
parece afectar a la ruta no léxica

7.3.2 Procesamiento de las palabras

Según el modelo de ruta dual, se accede directamente las palabras a través


de la ruta directa. Esto significa que habría que tratar a todas las palabras
de la misma manera respeto de la regularidad de sus
correspondencias ortografía y sonido. Un análisis de los datos revela que
esta predicción no es sostenible. Baron et al proporcionaron una primera
demostración de este problema, descubriendo que se nombraba más
deprisa una lista de palabras regulares que una lista de palabras
excepcionales con la misma frecuencia. Esta tarea es una versión
simplificada de la tarea del nombramiento, una conclusión que se ha
reproducido en numerosas ocasiones, es la de que existe una relación
entre la regularidad y la frecuencia: la regularidad tiene pocos efectos
sobre la pronunciación de las palabras de frecuencia elevada, pero las
palabras regulares de frecuencia baja se nombran más deprisa que las
palabras irregulares de frecuencia alta, incluso cuando se tienen
cuenta la edad de adquisición.

Jared concluyó que las palabras de frecuencia elevada pueden ser


sensibles a la regularidad, pero su efecto está moderado por el
número y la frecuencia de sus amigas y enemigas (palabras con
pronunciación desparecidas poco afectivas). Es decir, es importante
controlar las características del vecindario así como de la regularidad,
evidentemente, la apariencia visual de las palabras afectará a los tiempos
que se necesitan para lograr un acceso directo, por lo que debemos controlar
este fenómeno cuando buscamos los efectos de la regularidad. Una vez
controlado(a), la regularidad y la consistencia sólo parecen afectar a
los tiempos de nombramiento y no a los tiempos decisión léxica.

Salva Herrera- MailTo : ssalva4@me.com


76
Tema 7 - Lectura
Por lo general, es más probable que se encuentren efectos de la
regularidad con los participantes que tienen que ser más
conservadores, como cuando se pone de relieve la precisión más que la
rapidez. La conclusión de que la regularidad en la tarea de
nombramiento podría ser problemática para el modelo de ruta dual,
pero tiene sentido si se produce una carrera entre la ruta directa y la
ruta indirecta: la pronunciación de las palabras comunes se recupera
directamente antes de que la ruta indirecta pueda construir una producción
conflictiva, dicho conflicto se produce cuando la ruta léxica es lenta,
como cuando se están recuperando palabras de baja frecuencia.

Glushko también descubrió que las palabras se comportan de forma


parecida a las palabras inexistentes en cuanto a los tiempos del
nombramiento. El nombramiento de una palabra regular se ve
ralentizado respecto al de una palabra de control de frecuencia similar
si la palabra puesta a prueba tiene vecinos irregulares.

Pronunciación de las palabras vecinas: en la actualidad se piensa que


tanto el número de amigos como el número de enemigos afecta a los
tiempos de nombramiento, Andrews identifico efectos del tamaño del
vecindario. Las respuestas a las palabras con grandes vecindarios eran
más rápidas que a las palabras con vecindarios más pequeños.

Por su parte Parkin identifico un continuo de la facilidad de pronunciación, todo


su trabajo sugiere que no es adecuado utilizar una división binaria entre
pronunciación es regulares e irregulares. Patterson y Morton proporcionaron
una clasificación satisfactoria pero compleja, esta clasificación refleja dos
factores, uno de ellos, la regularidad de la pronunciación respecto a las reglas
de correspondencia de ortografía a sonido, tenemos que tener en cuenta, no
sólo el que una palabra sea regular o irregular, sino también sus vecinos son
regulares o irregulares. En definitiva la regularidad de la pronunciación
de una palabra afecta a la facilidad con la que la nombramos. Además,
la pronunciación de los vecinos de la palabra pueden afectar su
nombramiento, y el número de amigos y enemigos afectan a la
facilidad con la que se nombra una palabra.

El papel del sonido para el acceso al significado: la mediación


fonológica: en una tarea de decisión de la categoría, los participantes
tienen que decidir si una palabra objeto que se presenta visualmente
pertenece o no a determinada categoría. Por ejemplo para la categoría un
tipo de fruta se responderá sí "pera" y no a "pera". Si la palabra “no” es un
homófono de la palabra “si” los participantes cometen un gran número
de errores de falsos positivos, es decir responderán si en vez de no.
Salva Herrera- MailTo : ssalva4@me.com
77
Tema 7 - Lectura
Parece que los participantes se confunden por el sonido de la palabra,
además, es el efecto más notable cuando los participantes tiene que
contestar rápidamente. Tardamos más en contestar a las palabras
homófonas en una tarea decisión léxica, supuestamente porque las
homófonos están provocando una confusión en el acceso léxico. Por
tanto, existe una considerable evidencia de que el reconocimiento de
una palabra puede estar influido por su fonología. El planteamiento
dominante es que esta influencia se debe a la ruta indirecta, un
planteamiento que se ha denominado perspectiva fonológica débil, así que
mayoría de los modelos escritos defienden esta perspectiva.

La alternativa, la perspectiva fonológica fuerte, por la que tenemos


fundamentalmente significado a través de sonido, se conoce como
mediación fonológica: la forma más extrema de esta idea es que no se
puede producir el reconocimiento visual de las palabras sin tener en
cuenta el sonido de las mismas.

Folk descubrió que las palabras homófonas se leían con una mayor
duración de la mirada, es decir, se procesaban como si fuera léxicamente
ambiguas, aunque la ortografía tendría que haberlo impedido. Este
resultado sólo se puede explicar si la fonología está interfiriendo de
alguna manera con el léxico semántico. Por otra parte Jared et al
demostraron que sólo se produce un acceso fonológico previo con las palabras
como formas de baja frecuencia, además concluyeron que los malos lectores
tienen más por probabilidades de tener que acceder a la fonología
para poder acceder a la semántica, mientras que los lectores expertos
activan fundamentalmente la semántica primero.

Taft y Van Graan utilizaron una tarea de clasificación semántica para


analizar la mediación fonológica. Los participantes tenían que decidir si las
palabras pertenecían o no una categoría de palabras con significados
indefinibles o a la categoría de nombres de pila abreviados. No hubo
diferencias en los tiempos decisión entre las palabras definibles regulares y las
palabras definibles irregulares. Aunque se demostró un efecto de regularidad
en una tarea de nombramiento de palabras. Lo que sugiere que no hace
falta acceder al sonido de una palabra para acceder a su significado.

Hay una serie de estudios que han intentado decidir entre la


perspectiva fonológica fuerte y débil, utilizando priming fonológico
enmascarado, se precede a las palabras objetivo con las palabras
primas inexistentes pero fonológicamente idénticas.

Salva Herrera- MailTo : ssalva4@me.com


78
Tema 7 - Lectura
La respuestas a las palabras objetivos son más rápidas y precisas que cuando
se precede con una prima sin relación alguna con la palabra objetivo, incluso
cuando las prima han sido enmascaradas lo cual sugiere que el estímulo
fonológico debe producirse de forma automática y extremadamente deprisa.
Aunque algunos investigadores interpretan el priming fonológico
enmascarado como un respaldo de la mediación fonológica otros
señalan que estos efectos son muy sensibles a las condiciones
medioambientales, y no siempre se encuentran de forma fiable.

Todos estos datos sugieren que el sonido de una palabra se suele


percibir en una etapa muy temprana, sin embargo hay una gran evidencia
que sugiere que la recodificación fonológica no puede ser obligatoria para
acceder al significado de la palabra.

Lectura en silencio y discurso interno: aunque parecen improbable que


tengamos que acceder al sonido antes de que al significado, si parece
que accedemos de forma rutinaria algún tipo de código fonológico tras
acceder el significado en la lectura en silencio. Los trabalenguas
requieren más tiempo para leerlos en silencio que las frases en las que
hay una variación las consonantes iniciales, esto sugiere que estamos
accediendo a cierto tipo de código fonológico cuando leemos.
Sin embargo, este discurso interno no puede implicar exactamente los
mismos procesos que discurso abierto porque podemos leer en silencio
mucho más deprisa, además, aunque la mayoría de la gente con una
sordera profunda lee muy mal, algunos leen bastante bien. Aunque esto
podría sugerir que la codificación fonológica es opcional, es probable que
estos lectores sordos capacitados estén convirtiendo las palabras
escritas en algún tipo de código de lenguaje de signos.

Por tanto, cuando leemos parece que accedemos a un código fonológico que
experimentamos como un discurso interno. Es decir, cuando accedemos a la
representación de una palabra en el lexicón, quedan disponibles todos sus
atributos incluido su sonido, además parece que discurso interno facilita
la comprensión, si se produce, la comprensión se ve afectada en todos
los materiales menos en los más sencillos.

El papel del significado al acceder al sonido: la mediación fonológica


significa que es posible que estemos accediendo al significado a través
de sonido. A veces, tenemos que acceder al significado antes de poder
acceder al sonido de una palabra, es el caso de las palabras que tienen
dos pronunciaciones diferentes.

Salva Herrera- MailTo : ssalva4@me.com


79
Tema 7 - Lectura
Strain y Peterson demostraron que la gente es particularmente lenta, y
cometemos errores, cuando leemos palabras excepcionales de baja
frecuencia con significados extractos, aunque un estudio posterior sugiere
que este efecto semántico podría deberse a una confusión con la edad de
adquisición, puesto que las palabras abstractas excepcionales de baja
frecuencia tienden a tener edades de adquisición más tardías.

¿Funciona la lectura rápida?: Los defensores de la lectura rápida afirman


que pueden aumentar su velocidad de lectura de una media de 200 hasta 350
palabras por minuto hasta 2000 palabras por minuto o incluso más, y
mantener así el mismo nivel de comprensión. Por desgracia, la mayor parte
de la investigación psicológica sugiere que esto no es cierto, ya que a
medida que aumentamos la velocidad de lectura por encima de lo
normal, disminuye la comprensión. Los movimientos oculares
constituye la clave de porque la lectura rápida confiere ventajas
limitadas, para procesar una palabra correctamente hace falta que su imagen
caiga cerca de la fóvea y permanezca ahí el tiempo necesario, la lectura rápida
no es más que una rápida revisión por encima de un escrito, esto no
significa que los lectores no saquen nada mirando por encima. Está
claro que si se hace primero lectura rápida y después una lectura
normal su nivel de comprensión y retención puede ser mejores a los
que obtendría si lee el texto de forma normal.

7.4 Evaluación de los experimentos sobre la lectura normal

Problemas con la ruta dual sencilla

1 Hay efectos léxicos de la lectura de palabras inexistentes, tendrían que leerse mediante
una ruta no léxica (insensible a la información léxica)

2 Existen efectos de la regularidad de la pronunciación al leer las palabras que deberían


ser leídas mediante una ruta léxica directa insensible a la recodificación fonológica

Los efectos de la regularidad surgen cuando las rutas directa e


indirecta producen una salida aproximadamente mismo tiempo, de
forma que se produce un conflicto entre la pronunciación irregular
propuesta por la ruta léxica y por la regular propuesta por la ruta
subléxica. Sin embargo, no está claro cómo puede explicar un modelo de
carrera los efectos léxicos de leer palabras inexistentes, tampoco está claro
cómo puede la semántica guíar el funcionamiento de la ruta directa. Asimismo
los lectores tienen cierto grado de control atencional o estratégico
sobre las rutas léxica y subléxica de forma que pueden prestar
atención de forma selectiva a la un tipo de información u otra.

Salva Herrera- MailTo : ssalva4@me.com


80
Tema 7 - Lectura
Zevin y Balota encontraron que las palabras primas inexistentes
producen una mayor dependencia del procesamiento léxico. Colhearht
et al sugirieron que el acceso léxico se realiza tan deprisa para las
palabras de alta frecuencia que hay poco margen para que se utilice
reprocesamiento subléxico pero con las palabras de baja frecuencia, o
en condiciones difíciles, las personas pueden prestar atención a una
ruta u otra.

7.5 Neuropsicología de los trastornos de la lectura en los adultos

Los trastornos de la lectura se conocen como dislexias, los trastornos


de escritura se denominan disgrafias, las lesiones en el cortéx del
hemisferio izquierdo producen una dislexia, pero la dislexia suele venir
acompañada de dificultades para procesar lenguaje hablado. Se puede
distinguir entre dislexias centrales y dislexias periféricas, por su parte las
dislexias periféricas incluyendo dislexia visual, dislexia atencional, la lectura
letra a letra y la dislexia negligente, todas perturban la obtención de
información visual de la página. Por su parte si el modelo de ruta dual
de la lectura es correcto, deberíamos esperar encontrar una doble
disociación de las dos rutas de lectura.

7.5.1 Dislexia superficial

La gente que padece una dislexia superficial tiene impedimento


selectivo en su capacidad de leer palabras irregulares (excepcionales)
es un tipo de dislexia central, por la que se suelen cometer errores de
excesos de regularización cuando los pacientes intentan leer palabras
irregulares en voz alta, también cometen errores con palabras homófonas,
por otra parte, su capacidad para las palabras regulares y palabras
inexistentes no se ve alterada. En términos de modelo dual estos
pacientes sólo pueden leer utilizando la ruta no léxica, la indirecta, es
decir, la dislexia superficial es un trastorno de la ruta de procesamiento
léxico. En estos pacientes no se vea afectada la comprensión del
significado de la palabra, sigue sabiendo lo que significa, incluso si no
pueden leer la palabra correctamente.

El caso más claro de que sea informado hasta la fecha es el de una paciente
conocida como MP, esta paciente mostraba una precisión perfectamente
normal en la lectura de las palabras inexistentes es decir su ruta no léxica
estaba totalmente preservada, sin embargo no era el mejor caso de estudio de
la dislexia superficial, porque podían leer algunas palabras irregulares, esto
significa que su ruta léxica debía estar parcialmente intacta, esto evidencian la
dificultad de encontrar casos puros de doble disociación.
Salva Herrera- MailTo : ssalva4@me.com
81
Tema 7 - Lectura
Si los pacientes estuviesen leyendo utilizando una ruta no léxica, no
esperaríamos que las variables léxicas afectasen en la probabilidad de éxito de
la lectura, los pacientes también cometen confusiones homófonas, así es
posible que la dislexia superficial no sea una categoría unitaria
diferenciándose entre dislexia superficial tipo I y tipo II. Los casos
más puros conocidos como pacientes de tipo I muestra una gran
precisión a nombrar palabras regulares y pseudopalabras. Otros
pacientes conocidos como tipo II también muestran trastornos la
lectura de palabras regulares e irregulares, es posible que la lectura de
los pacientes tipo II esté afectada por variables léxicas, los pacientes tipo II
deben tener otro trastorno adicional de la ruta no léxica, pero el
modelo de ruta dual puede no obstante seguir explicando este patrón.

7.5.2 Dislexia fonológica

Las personas que padecen una dislexia fonológica tienen un retraso


selectivo en la capacidad de leer palabras inexistentes pronunciables,
denominadas pseudopalabras. Tienen más problemas para leer las
palabras irregulares que las regulares, estos síntomas sugieren que estos
pacientes sólo pueden leer utilizando la ruta léxica y que por tanto la
dislexia fonológica es un trastorno de la ruta de procesamiento no
léxico. Al igual que sucede con el paciente de dislexia superficial,
todavía no se ha encontrado el paciente perfecto. En el caso de los
pacientes que pueden pronunciar algunas palabras inexistentes, la lectura de
estas palabras mejora si se trata de pseudohomófonas, las palabras de baja
frecuencia y bajar imaginabilidad también se leen mal, aunque ni la
frecuencia ni la imaginabilidad parecen tener un papel excesivamente
importante por sí mismas, estos pacientes, a veces cometen lo que se
conoce como errores de derivación.

Errores que se producen en la dislexia fonológica

De derivación Viendo una palabra como familiar gramatical en vez de la palabra objetivo
por ejemplo leen “desempeño” en vez de “desempeñando”

Visuales Por los que se le una palabra como si fuera otra con una apariencia visual
parecida, por ejemplo leen “perform” como “perfume”

Deterioro del Pacientes que lden peor las palabras inexistentes complejas que las
procesamiento palabras inexistentes sencillas, su deterioro está en el análisis sintáctico
ortográfico grafémico

Deterioro del Pacientes que leen mejor las palabras pseudohomófonas que las no
procesamiento pseudohomófonas, y que no se ven influidos por la complejidad ortográfica
fonológico

Salva Herrera- MailTo : ssalva4@me.com


82
Tema 7 - Lectura
Hay distintos tipos de dislexia fonológica se ha sugerido que la dislexia
fonológica puede deberse a un deterioro o bien del procesamiento
ortográfico o bien del fonológico.

A partir de estos datos ha surgido un modelo de procesamiento subléxico en tres


fases

1 una fase de análisis de grafemas: divide la serie de letras en grafemas

2 una fase de conversión de escritura a sonido: asigna fonemas a los grafemas

3 en la fase de difusión fonética: ensamblan los sonidos en una representación


fonológica

Hay pacientes cuyo comportamiento se explica mejor en términos de un deterioro de alguna


de estas fases

Las personas afectadas por la dislexia fonológica muestran complejos


problemas fonológicos que no tiene nada que ver con la ortografía. La
visión alternativa es que la dislexia fonológica es solamente una faceta
de un trastorno general del procesamiento fonológico, este trastorno se
manifiesta normalmente en el desempeño de tareas no relacionadas con la
lectura, como la creación de rimas, la escritura de palabras inexistentes. Una
importante evidencia a favor de esta hipótesis, es que la dislexia fonológica
nunca se observa sin que exista un déficit fonológico más general. Esta
idea de que la dislexia fonológica esta provocada por un déficit
fonológico general es central en explicación conexionista de la
dislexia, visión que se ha impuesto en los últimos años.

7.5.3 Dislexia profunda

En muchos sentidos, la dislexia profunda se parece a la dislexia


fonológica. Los pacientes tienen una gran dificultad para leer palabras
inexistentes, tienen dificultad considerable en la lectura de palabras
funcionales gramaticales, sin embargo, la característica definitoria de la
dislexia profunda es la existencia de errores semánticos en la lectura o
paralexias semánticas por las que se produce una palabra con
significado parecido al de la palabra objetivo en vez de producirse dicha
palabra. La imaginabilidad de una palabra es un determinante
importante en la probabilidad de éxito en la lectura cuando aparece
una dislexia profunda, cuanto más fácil es crearse una imagen mental en la
palabra, más fácil es leerla.

Salva Herrera- MailTo : ssalva4@me.com


83
Tema 7 - Lectura
Coltheart ofreció una lista con 12 síntomas que suelen mostrar estos
pacientes, empero, estos síntomas tienden a producirse en muchos pacientes,
no parece que sea imprescindible que se produzcan, unos pocos pacientes
cometen errores semánticos pero muy pocos cometen errores visuales.
Estos pacientes sugieren que es improbable que hayan único déficit
subyacente.

Coltheart ofreció una lista con 12 síntomas en sujetos con dislexia profunda

Cometen errores semánticos

Cometen errores visuales

Sustituyen las palabras funcionales incorrectas por la palabra objetivo

Cometen errores de derivación

No pueden pronunciar palabras inexistentes

Muestran efecto de la imaginabilidad

Tiene más fácil para leer los sustantivos que los objetivos

Leen más fácilmente los objetivos que los verbos

Tiene más problemas paralelos palabras funcionales que las palabras de contenido

Tienen problemas para escribir

Tienen problemas en la memoria auditiva corto plazo

Su capacidad de lectura depende del contexto de una palabra

Shallice afirmó que hay tres subtipos de dislexia profunda

profunda plantea dificultades para llegar a representaciones semánticas exactas de las


de entrada palabras durante la lectura, la comprensión auditiva es superior a la de la
lectura

Profunda Déficit de comprensión auditiva, además de dificultades con la lectura


central

Profunda Estos pacientes pueden procesar las palabras hasta llegar a su


de representaciones semánticas, pero después tienen dificultades para
producció producir el producto fonológico adecuado.
n

Sin embargo la práctica puede resultar difícil asignar pacientes a estos tres subtipos

Hipótesis del hemisferio derecho: es posible que los pacientes de dislexia


profunda no siempre utilicen el hemisferio izquierdo para leer, por el contrario,
la gente que padece dislexia profunda podría utilizar un sistema de
lectura basado en el hemisferio derecho que está normalmente
suprimido.

Salva Herrera- MailTo : ssalva4@me.com


84
Tema 7 - Lectura

Esta hipótesis que está respaldada por la observación de que cuanto


más lesionado esta el hemisferio izquierdo, más aguda es la dislexia
profunda, además, el desempeño de la lectura de los pacientes de
dislexia profunda se parece al de los pacientes con un cerebro dividido
cuando se presentan palabras al campo visual izquierdo, es decir controlado
por hemisferio derecho. Bajo estas condiciones, también cometen paralexias
semánticas y tienen una ventaja para las palabras concretas. Sin embargo a
pesar de estos puntos a su favor, la hipótesis nunca ha logrado una
aceptación generalizada, en parte, esto se debe a que se considera que
se trata de una hipótesis negativa en tanto en cuanto, si fuera
correcta, la dislexia profunda no nos diría nada sobre la lectura
normal, por otro lado los disléxicos leen mejor que los pacientes con
cerebro dividido, por ultimo, la ventaja del hemisferio derecho para las
palabras concretas no se suelen encontrar.

Resumen de la investigación sobre dislexia profunda: la cuestión central


es si los síntomas que se producen conjuntamente, es porque tienen la misma
causa subyacente o no, hasta ahora parece que así es. En términos del
modelo de la ruta dual, tendría que haber una lesión tanto en el
sistema semántico como de la ruta no léxica. El modelo de la ruta dual
explica rápidamente la dislexia superficial fonológica por tanto, resulta
razonable hacer inferencias sobre la lectura normal a partir de estos pacientes.
Sin embargo existen ciertas dudas sobre si podemos hacerlo en el caso de la
dislexia profunda, dado que es considerada una hipótesis negativa. La
dislexia profunda sugiere que normalmente, podemos leer de alguna
manera a través del significado, es decir utilizamos la representación
semántica de una palabra para observar su fonología.

7.5.4 Lectura no semántica

WLP tenía una capacidad muy deteriorada para recuperar el significado de las
palabras escritas, por ejemplo, es incapaz de hacer correspondencia entre los
nombres escritos los animales y las fotografías. Podía leer estas palabras en
voz alta casi perfectamente cometiendo únicamente errores menores, también
podía leer la palabra irregulares y palabras inexistentes, en definitiva, WLP
podía leer palabras sin comprender su significado, este caso sugiere
que debemos tener una ruta de acceso directo de la ortografía a la
fonología que no pasa por la semántica.

Salva Herrera- MailTo : ssalva4@me.com


85
Tema 7 - Lectura
7.5.5 Resumen de la interpretación de las Dislexias adquiridas

Un modelo de ruta dual explica la dislexia superficial como un


trastorno de la ruta de acceso léxico (directa) y explica dislexia
fonología como un trastorno de la ruta de codificación fonológica no
léxica. La existencia de la lectura no semántica sugiere que el sencillo
modelo de ruta dual requiere un refinamiento, en concreto, la ruta
directa debe ser dividida en dos. Debe haber una ruta de acceso
directo no semántica, que recupere la fonología dada la ortografía pero
no pasa por la semántica y una ruta acceso directo semántica que pasa
por la semántica y nos permite elegir los sonidos adecuados para las
palabras homógrafas no homófonas. En la lectura no semántica, la ruta
directa semántica ha sido suprimida pero la ruta directa no semántica esta
intacta. En Español se da la dislexia fonológica y la profunda, pero no la
superficial.

7.6 Modelos de nombramiento de las palabras

Tanto modelo clásico de ruta dual como el modelo de ruta única adolecen de una serie de
problemas

existen efectos léxicos de las palabras inexistentes y efectos de regularidad de


las palabras reales y, por tanto la lectura no puede ser simplemente una
cuestión de conversión automática de hacemos a fonemas, ademas los modelos
1
de ruta única, por su parte no parecen poder explicar la pronunciación de
palabras inexistentes y todavía está por demostrar cómo afecta los efectos del
vecindario la pronunciación de la palabra

cualquier modelo también debería ser capaz de explicar el patrón de disociaciones que
se encuentra en la dislexia, aunque la dislexia superficial y la dislexia fonológica
2
indican que son necesarios dos mecanismos de la lectura, otros desordenes
sugieren que no bastan estos por sí solos

7.6.1 El modelo de ruta dual revisado

Morton y Patterson describieron un modelo de tres rutas

ruta Primero: se encuentra la ruta no léxica para ensamblar las pronunciaciones a


no partir de la conversión subléxicas de grafema a fonema. La ruta no léxica está
léxica compuesta por dos subsistemas

mecanismo de conversión de grafema a fonema estándar y un subsistema


del cuerpo que utiliza la información sobre las correspondencias entre
rimas ortográficas y fonológicas. Se necesita este subsistema para explicar
los efectos léxicos de la pronunciación de las palabras inexistentes

Ruta la ruta directa se divide en ruta directa semántica y no semántica


directa

Salva Herrera- MailTo : ssalva4@me.com


86
Tema 7 - Lectura
Los efectos léxicos de las palabras inexistentes y los efectos de la regularidad
de las palabras reales se explican por una comunicación de doble sentido entre
la ruta léxica y la no léxica. Los dos subsistemas de la ruta no léxica
también dan al modelo una mayor potencia. En este sentido son posibles
dos tipos de interacciones, 1)interferencia durante la recuperacion y, 2) el
conflicto en la resolución de múltiples formas fonológica estás la recuperación.

Postulados del modelo de tres rutas de Morton y Patterson

La dislexia superficial es la pérdida de la capacidad de lograr un contacto directo


entre el lexicón ortográfico

la dislexia fonológica es la perdida de la ruta indirecta,

la lectura no semántica es una perdida de las rutas semanticoléxicas

la dislexia profunda sigue siendo bastante misteriosa.

Los modelos con múltiples rutas son cada vez más complejos a medida que
vamos averiguando más sobre el proceso de lectura, en el modelo de
múltiples niveles de Norris, se combinan distintos niveles de
información de ortográfica y sonidos, incluyendo fonema, rima, y
correspondencias a nivel de la palabra en una red de activación
interactiva para determinar la pronunciación final de una palabra.

La versión más reciente del modelo dual es el modelo de ruta dual en


cascada DRC. Este modelo es un modelo computacional basado en la
arquitectura del modelo de ruta actual, aunque realmente se basa en el
modelo de tres rutas. El modelo utiliza el procesamiento en cascada en tanto
en cuanto se produce una activación a nivel de la letra, la activación pasa nivel
de la palabra. El modelo computacional puede simular el desempeño
tanto de las tareas decisión léxica como en las de nombramiento,
mostrando los efectos adecuados de frecuencia, regularidad,
pseudohomófonos, vecindario y priming. La regularidad es ahora una
motivación central del modelo, se tarda más en pronunciar las palabras
irregulares que la reculares porque la ruta léxica y no léxica producen
pronunciaciones contrapuestas. El modelo explica la dislexia superficial
haciendo que otras entradas en el léxico ortográfico este menos
disponibles, y por último explica la dislexia fonológica lesionando la
ruta de conversión de grafemas a fonema.

En el modelo de suma Hiilis y Caramaza la única ruta directa es la lectura


mediante la semántica. La idea es que sí el sistema semántico no está
totalmente obstaculizado, se combina, o se suma, la activación de la
ruta subléxica con la activación provenientes de la ruta semántica
directa lesionada para garantizar la pronunciación correcta.

Salva Herrera- MailTo : ssalva4@me.com


87
Tema 7 - Lectura
7.6.2 el modelo de analogías

El modelo de analogías que surgió cuando se hizo patente la


importancia de los efectos léxicos en la lectura de palabras
inexistentes y de las diferencias entre palabras. Es una forma de modelo
de ruta única que proporciona un mecanismo explícito para cómo
pronunciamos las palabras inexistentes. Postula que pronunciamos las
palabras inexistentes y las palabras nuevas mediante analogía con
otras palabras, así cuando se presenta una palabra se activan sus
vecinos y todos ellos influyen sobre su pronunciación, de igual forma
una palabra inexistente se pronuncia por analogía. Para poder nombrar por
analogía, hay que encontrar palabras candidatas que contengan los
cimientos ortográficos pertinentes, tener la representación fonológica
de los segmentos y ensamblar la fonología completa.

Las primeras versiones de los modelos de analogía tiene una serie de problemas.

Primero: no dejan claro como se segmenta el elemento de entrada de forma adecuada.

Segundo: hace previsiones incorrectas sobre cómo deberían pronunciarse algunas palabras
inexistentes, particularmente problemáticas son las palabras inexistentes basadas en
bandas. La teoría del analogía también parece hacer predicciones incorrectas sobre cuánto
tardamos en cometer errores de regularización.

Tercero: no está claro cómo explican las disociaciones que se encuentran en la dislexia
adquirida, no obstante el modelo de las analogías fue un precursor de los modelos
conexionistas de la lectura.

7.6.3 Modelos conexionistas

El modelo de lectura de Seidenberg y McClelland: el modelo SM comparte


muchas características del modelo de activación interactiva de reconocimiento
de las letras, el modelo SM proporciona una explicación de la forma en
la que los lectores reconocen las series de letras como palabras y las
pronuncian. La lectura y el habla implican tres tipos de códigos:
ortográfico, de significado y fonológico. Estos códigos que están
conectados mediante conexiones de retroalimentación, la forma del
modelo ha dado lugar a su nombre de modelo triangular, la
característica clave del modelo es que sólo hay otra ruta de la
fotografía a la fonología, no hay una ruta que implique reglas de
correspondencia de grafema a fonema, el modelo tiene tres niveles y
cada uno está compuesto por unidades simples. Una característica
importante que de este tipo de modelo es que las ponderaciones de las
conexiones no son determinadas por el modelado, sino que son
aprendidas.

Salva Herrera- MailTo : ssalva4@me.com


88
Tema 7 - Lectura
Utiliza un algoritmo conocido como propagación hacia atrás, este
algoritmo implica una lenta reducción de la distancia entre el producto
deseado el producto real.

Seidenberg y McClelland, demostraron que el modelo se ajustaba a los datos


de los seres humanos en una amplia gama de palabras de entrada al modelo,
el modelo SM utiliza un mecanismo único para ver palabras inexistentes y
excepcionales. Sólo hay un conjunto de unidades ocultas, y sólo utilizan un
proceso para nombrar las palabras regulares, las excepcionales, y las palabras
nuevas. Según este modelo, la memoria léxica no consiste en entradas
para cada palabra individual, los vecinos ortográficos no influyen sobre
la pronunciación de una palabra directamente en el momento en el que
se está procesando. Por el contrario los efectos de la regularidad
quedan reflejados en las ponderaciones de las conexiones en la
simulación que van variando a medida que se va aprendiendo. Asimismo el
procesamiento léxico implica la activación de la información, y no es un
suceso de todo o nada.

Evaluación del modelo SM Original: Coltheart et al, criticaron importantes


aspectos del modelo SM, en concreto formularon seis preguntas sobre la
lectura que debe responder cualquier explicación de la misma:
¿Como leen en voz alta las excepciones los lectores expertos?
¿Cómo leen los lectores expertos las palabras insistentes en voz alta?
¿Como hacen juicios de decisiones léxicas visuales los participantes?
¿Cómo surge la dislexia superficial, la fonológica, la evolutiva?
Los autores afirmaron continuación que el modelo S.M. Solo respondía
a la primera de las preguntas.

Por otra parte Besner et al proporcionó una crítica del modelo SM


Primero: afirmó que en cierto sentido, el modelo sigue teniendo un léxico
un, en el que en vez de una palabra correspondiera a una unidad,
corresponde un patrón de activación. Segundo: señalaron que el
modelo lee las palabras inexistentes bastante mal, peor que un lector
experto, para defenderse los autores del SN <afirmaron que el modelo sólo
estaba entrenado con 2987 palabras, frente a las 30.000 palabras que conoce
la gente y que eso podría ser responsable de la diferencia, por tanto, el
modelo simula la ruta léxica directa bastante mejor de lo que simulada
ruta indirecta de grafema a fonema. Por ello cualquier deterioro (de las
ruta directa) dará una mejor explicación de la dislexia superficial.

Salva Herrera- MailTo : ssalva4@me.com


89
Tema 7 - Lectura
El modelo conexionista revisado PMSP: el modelo conexionista revisado
funciona mucho mejor para pronunciar palabras inexistentes y tomar
decisiones léxicas que el original, el modelo llamado PSMP utiliza
representaciones más realistas de los elementos de entrada y salida.
El modelo SM original tenía un mal desempeño con las palabras
inexistentes. En el modelo PMSP revisado las letras y los fonemas activan las
mismas unidades independientemente del contexto. Un modelo matemático
demostró que una respuesta a la entrada de una serie de letras es una función
que depende positivamente la frecuencia de exposición, positivamente la suma
de las frecuencias, y negativamente la suma de las frecuencias de las palabras
enemigas.

Acceso semántico: evidentemente, el objetivo es comprender el


significado las palabras. El modelo PMSP simula el lado del triángulo
correspondiente a la ortografía-fonología. Según el modelo podemos
acceder a la semántica a través de los caminos uno directo ortografía-
semántica y uno indirecto ortografía-fonología-semántica, lo que también
se ha denominado mediación fonológica. En el modelo completo, todas
las partes del sistema funcionan de manera simultánea y contribuyen a
la activación del significado. La conclusión clave es que la semántica
influye claramente en la lectura normal y en la lectura deteriorada.

El modelo de Harm y Seidenberg es una ejecución completa del modelo


triangular, el modelo esta entrenado para producir el patrón correcto
de la activación en conjunto de características semánticas dada una
entrada ortográfica. Sin embargo, incluso si la vía ortografía-fonéticas-
semántica es más lenta, siempre contribuiría a la salida final.

El modelo triangular explica la dislexia fonológica con un trastorno de


las representaciones fonológicas: esta es la hipótesis de trastorno
fonológico. Se ha modelizado la dislexia profunda lesionando a los
tractos semánticos: el modelo lesionado muestra cómo pueden surgir
síntomas aparentemente dispares de la dislexia profunda a partir de un tipo de
lesión. Las palabras más imaginables quedan relativamente a salvo
porque tienen representaciones semánticas más ricas.

Salva Herrera- MailTo : ssalva4@me.com


90
Tema 7 - Lectura

7.7 Modelos con las conexionistas desde la dislexia

7.7.1 Modelización de la dislexia profunda

Patterson y Mcclelland lesionaron artificialmente la red, tras la fase de


aprendizaje destruyendo las unidades ocultas o las ponderaciones
entre las conexiones, el resultado reflejaba el de una persona con
dislexia superficial, sin embargo esta explicación presenta varios problemas.

Problemas del modelo “lesionado” de Patterson y Mcclelland

El modelo original de los autores era relativamente malo produciendo palabras inexistentes
antes de ser lesionado, se podría decir que el modelo original funcionaba como un paciente
con dislexia fonológica. Sin embargo, los pacientes con dislexia superficial no tienen
problemas para leer palabras inexistentes

El modelo no hace realmente un exceso de regularización, sólo combina el sonido vocal de


las palabras

Behram y Bub demostraron que el desempeño del paciente con dislexia superficial con
palabras irregulares variaban en función de la frecuencia de las palabras. Interpretaron este
efecto de la frecuencia como un problema para los modelos coleccionistas

Patterson et al fueron muy explícitos en la simulación de la dislexia superficial, su modelo no


incluye la dislexia fonológica

Análisis de la participación semántica en la lectura:


El modelo revisado PSMP es, por fin, una mejor explicación de la
dislexia, Patterson et al propusieron que la integridad de la representaciones
léxicas dependen de su interacción con el sistema semántico, hablaron de la
hipótesis del pegamento semántico: la representaciones semánticas
unen a la representaciones como como pegamento. Los pacientes se ven
obligados a recurrir a la ruta subléxica o de lectura mediante correspondencias
Grafema fonema, lo que provoca errores de dislexia superficial. Además tienen
problemas para repetir las palabras irregulares cuyo significado han perdido si
el sistema está suficientemente estresado pero puede repetir listas de palabras
que significado esta. El modelo de PSMP demostró que la causa de la
dislexia superficial es el deterioro o daño de la vía semántica
participante en la lectura, así mismo el modelo revisado tienen en
cuenta las diferencias individuales entre las personas, y muestra como
una pequeña diferencia de estrategias de lectura puede provocar
distintas consecuencias tras una lesión cerebral.

Salva Herrera- MailTo : ssalva4@me.com


91
Tema 7 - Lectura
7.7.2 Modelización de la dislexia fonológica

El modelo triangular es la mejor explicación conexionista de la dislexia


fonológica, ve a la lectura como un proceso que se produce entre las
tres rutas conceptualizadas en el modelo SM original, ortográfica a
fonológica, ortográfica a semántica y semántica a fonológica. Éste
modelo se basa la hipótesis de trastornos fonológico, que establece Gladys,
afirma que el déficit fonológico se produce debido a dificultades en la
representaciones a nivel fonológico, más que la conversión grafema fonema.
Las personas con dislexia fonológica siguen pudiendo leer palabras
porque se puede acceder a sus representaciones fonológicas a través
del nivel semántico.

7.7.3 Modelización de la dislexia profunda

Hinton Shallice lesionaron otro modelo conexionista para simular la dislexia


profunda, se entrenó a su modelo mediante propagación hacia atrás para que
relacionara la pronunciación de las palabras con una representación del
significado de las mismas. La representación semántica subyacente de
una palabra se especifica como un patrón de activación en todas las
unidades características semánticas. Esto da lugar a un espacio
semántico más rico y donde hay fuertes atractores, se puede considerar que
una tractor es como un punto en el espacio semántico al que se ven
atraídos los estados vecinos de la red.

Los resultados de los estudios demostraron que cuanto más cerca


estaba la lesión del sistema semántico más efecto tenía. Así las lesiones
modifican el espacio semántico de forma que las palabras con un parecido
visual se verán atraídas a distintos atractores semánticos.

Esta explicación de Hilton y Shallice es importante para los neuropsicólogos


cognitivos por diversas razones

Prefiere un mecanismo explícito por el que las características de la dislexia profunda pueden
derivarse de un modelo de lectura normal

Demuestra que la lesión no tiene una importancia fundamental, esto se debe que
las características en cascada de estas redes, los efectos de las lesiones en un
punto de la red pueden pasar rápidamente a otros lugares circundantes

Demuestra porque los síntomas que anteriormente se consideraba conceptualmente


independientes tienen que producirse necesariamente de manera conjunta, los errores
semánticos visuales pueden provenir de la misma lesión

reaviva así la importancia de los síndromes como concepto neuropsicológico, si los síntomas
se producen conjuntamente debido a una lesión de determinado sistema, tiene sentido
buscar sus ocurrencias conjuntas.

Salva Herrera- MailTo : ssalva4@me.com


92
Tema 7 - Lectura

7.8 Comparación de los modelos

Modelo sencillo de la ruta dual Modelos de analogía Modelización conexionista

Explicación inadecuada de la Su funcionamiento detallado es Proporciona modelo de ruta


lectura y requiere, al menos una vago y no parece poder explicar única explícito que cubre la
ruta léxica adicional a través de todos los datos mayoría de los hechos
la semántica imaginable. Cuanto fundamentales. Su contribución
más complejo es el modo modelo ha sido plantear el reto de que
mayor es la preocupación por la sólo se necesita una ruta para
idea de que estén introduciendo leer palabras reales e
rutas de manera arbitraria para inexistentes, y que los efectos de
explicar determinados hechos la regularidad en la
pronunciación se deben a la
regularidad es estadísticas de las
palabras de un idioma

Modelo conexionista triangular Modelo de ruta dual y cascada

No existe división de trabajo; pone de relieve la Existe división de trabajo de la ruta léxica y la ruta
consistencia de las rimas y de otras unidades, lo léxica ; según este modelo deberían ser fáciles de
que constituye un concepto estadístico; no serían pronunciar las palabras regulares y consistentes
fáciles de pronunciar las palabras regulares
inexistentes; este modelo puede explicar las
diferencias individuales de la pronunciación de
palabras inexistentes

Salva Herrera- MailTo : ssalva4@me.com


93
Tema 7 - Lectura

Tema 9 - Comprensión del habla

7.1 Reconocimiento del Habla

Podemos distinguir el código pre-léxico, que es la representación del


sonido, utilizada antes de la intensificación de la palabra (código post-
léxico), que sólo esta disponible tras el acceso al lexicón. Una parte
importante de la comprensión del reconocimiento del habla consiste en
especificar la naturaleza del código pre-léxico.

7.1.1 ¿Por qué es tan difícil la percepción del habla?

Hay diferencias entre la percepción del habla y la palabra escrita, la más


importante es que las palabras habladas se presentan únicamente de forma
breve, mientras que las escritas permanecen y pueden ser revisadas una y
otra vez, al contrario que las habladas que solo hay una oportunidad de
reconocerla, ademas no hay una segmentación tan fácil en el habla como
el la la lectura. A pesar de estas dificultades, somos bastante buenos
reconociendo palabras, siendo el proceso automático, y obligado, es
decir cuando oímos, no podemos negarnos a no comprender, cuando se da a
las personas una secuencia de sonidos, como un siseo, un pitido, etc., solo
pueden distinguir en la secuencia los sonidos a una velocidad de unos 15
sonidos/s, sin embargo cuando son palabras habladas se puede llegar
hasta 20 fonemas/s, y podemos identificar las palabras habladas en
un contexto a partir de los 200ms después de su comienzo, por encima
de esto, las palabras habladas parecen tener una ventaja sobre los
sonidos cuando se oyen con sonido circundante (ruido).

Miller y Heise concluyen que cuanto mayor era la información transmitida por
la palabra mayor tenia que ser la señal respecto del ruido para que los
participantes la distinguiesen igual de bien, por su parte Bruce demostró
que, con ruido de fondo, las palabras en un contexto significativo se
reconocen mejor que las palabras fuera de contexto, y que
necesitamos casi dos veces mas de tiempo para reconocer una palabra
si se presenta aislada. En resumen, es evidente que existe una cierta
ventaja en el reconocimiento del habla en el contexto en comparación a fuera
del mismo, y con los sonidos que no son habla.

Salva Herrera- MailTo : ssalva4@me.com


94
Tema 7 - Lectura
Señales acústicas y segmentos fonéticos: las propiedades acústicas de
los fonemas no son fijas, varían en función del contexto e incluso en
función del ritmo con el que se hable. Este tipo de variabilidad hace que la
identificación de fonemas sean una tarea muy compleja, puesto que no
pueden ser identificados mediante comparación de patrones.

Si nos fijamos en la señal acústica física, y los sonidos que transmite la señal,
resulta evidente que la relación es compleja, Miller y Jusczyck señalaron que
esta complejidad surge debido a dos características fundamentales, y
dichas características se conocen como el problema de la segmentación y el
problema de la invarianza.

El problema de la invarianza: la invarianza acústica se produce


debido a que los detalles de la realización de un fonema varían e
función del contexto, esto significa que los fonemas adoptan parte de
las propiedades de sus vecinos, proceso conocido como asimilación. Es
decir se producen efectos con la coarticulación, en tanto en cuanto, cuando
producimos un sonido, el aparato fonador se acaba de mover para producir
otro sonido, y esta preparada para cambiar de nuevo, en el siguiente sonido,
de tal forma que se produce una especie de unión entre el sonido actual,
el anterior y el siguiente. La coarticulación tiene ventajas, tanto para el
habla como la para escucha, aunque esto presenta la aparente desventaja
de que los fonemas varían ligeramente en función de los vecinos, también
tiene la ventaja de que podemos recopilar información no solo del sonido
actual sino del posterior y del anterior, lo que proporciona cierta
información del contexto sonoro.

El problema de la segmentación: no resulta fácil separar los


sonidos del habla, puesto que se producen juntos, y dicho problema no
se aplica solo a los sonidos dentro de las palabras sino que también a las
palabras dentro de las frases. Una restricción o vía para segmentar, es
que preferimos segmentar el habla de forma que cada segmento
corresponda a una palabra (restricción por palabra posibles), así cualquier
segmentación que de lugar a palabras imposibles, como consonantes
aisladas, queda descartada. Otra estrategia que desarrollamos para
segmentar depende de nuestra exposición a determinado idioma,
estrategia de segmentación métrica, en este tipo de segmentación los
participantes reconocen las sílabas fuertes de las débiles. El experimento de
Cutler et al, las personas bilingües en ingles y francés segmentaban en
función de su idioma primario o dominante: así las personas con ingles
dominante segmentaban basándose en la acentuación, mientras que
los del francés mostraron una segmentación silábica, pero solo con el
material el francés.
Salva Herrera- MailTo : ssalva4@me.com
95
Tema 7 - Lectura
En definitiva, es como si la segmentación quedara prefijada a una edad
temprana, y no se siguiese desarrollando, por tanto todas las personas
bilingües son monolingües desde el punto de vista de la segmentación.

Percepción categórica: Clasificamos los sonidos del habla como un


fonema u otro, no existe un término medio, este fenómeno se conoce
como percepción categórica, un ejemplo de ello es el tiempo de comienzo
de la voz, VOT, en las consonantes sonoras como la /p/ las cuerdas vocales
empiezan antes a vibrar que en las consonantes sordas como la /b/, en las que
se producen un retraso de 60ms, de hecho clasificamos los sonidos en
sordos o sonoros, y esto pueden variar en función del momento de a
clasificación y del sujeto, incluso los sujetos pueden estar sesgadas
hacia un extremo u otro. Se puede causar el cansancio de los
detectores de características de la percepción categórica, exponiendo
al sujeto de forma reiterada a un sonido, por ejemplo /p/, cambiando
así la percepción hacia la /b/, dicha técnica se denomina adaptación
selectiva. Las delimitaciones entre las categorías no están fijas, sino
que son sensibles a factores contextuales como el ritmo del habla, este
fenómeno no es necesariamente aprendido, dado que los bebés también
son sensibles al ritmo, y son capaces de identificar la duración relativa de
los componentes del habla en función del ritmo.

Al principio los investigadores creyeron que los sujetos eran incapaces


de distinguir entre miembros ligeramente distintos de una misma
categoría, sin embargo a la luz de los datos esto no parece que sea así,
de hecho los participantes son sensibles a estas sutilezas sonoras, por
tanto recientemente se ha dudado de la percepción categórica. Es posible
que muchos fenómenos de la percepción del habla se describan mejor
desde un punto de vista de la percepción continua que discreta no
categórica. No obstante la idea sigue presente entre los psicolingüistas.

El carácter de código pre-léxico: Savin y Bever (1970) pidieron a los


participantes que en cuanto oyesen una determinada unidad que era, o bien un
único fonema, o una sílaba, los participantes respondían mas lentamente
a los fonemas objetivo que a las sílabas objetivo, y concluyeron que la
identificación, es posterior a la percepción de las sílabas, propusieron
que los fonemas no son perceptivamente reales al modo que lo son las
sílabas. Solo podemos reconocer las palabras, en base a una unidad
mas fundamental, como la sílaba. Por su parte Foss y Swinney pusieron
en duda esta conclusión, afirmando que la tarea de monitorización de
fonemas y sílabas utilizada por Savin et al no recurría directamente al
proceso de percepción.

Salva Herrera- MailTo : ssalva4@me.com


96
Tema 7 - Lectura
Estos autores propusieron una teoría de código dual, donde el habla
utiliza tanto un código pre-léxico (fonético) y un código post-léxico
(fonémico), el pre-léxico se completa directamente a través de la
percepción acústica, mientras que le post-léxico se deriva de las
informaciones que emanan de las unidades superiores como las
palabras. En la tarea de monitorización de fonemas, Foss y Blank
demostraron que los tiempos de monitorización de fonema, ante
palabras reales e irreales era prácticamente el mismo, así los
participantes deberían estar respondiendo con el código pre-léxico, pues
no hay post-léxico para las palabras inexistentes, también determinaron
que la frecuencia de las palabras objetivo no afecta al tiempo en la
monitorización del fonema. Por otra parte, la manipulación del contexto
semántico de una palabra hace que las personas respondan a partir del
condigo post-léxico.

Foss y Blank afirmaron que las personas responden con el código pre-
léxico cuando se facilita la tarea de monitorización del fonema, pero con
el código post-léxico cuando la tarea es difícil (palabra objetivo menos
probable en función del contexto) sin embargo, posteriormente no
encontraron respaldo experimental al modelo propuesto, concluyeron
que, por lo general, las personas contestan en una tarea de
monitorización del fonema a partir del código pre-léxico, y solo en
circunstancias excepcionales utilizan el post-léxico, dichos resultados
sugieren que los fonemas forman parte del pre-léxico.

En resumen, existe una controversia sobre si necesitamos o no


identificar fonemas antes de reconocer una palabra, la mayoría de los
datos sugieren que no tenemos que culminar la identificación del
fonema antes de que se pueda empezar a reconocer la palabra.

9.1.2 Papel del contexto en la identificación de los sonidos

El efecto del contexto en el reconocimiento del habla tiene una


importancia central, si se puede demostrar que la palabra en la que se
produce un sonido, puede influir sobre el reconocimiento de dicho
sonido, entonces se habrá demostrado que existe una influencia de
arriba abajo en la percepción del sonido, y que la percepción del habla
es, en parte, un proceso interactivo. La primera evidencia relevante
parte de la percepción categórica de los sonidos que varían a lo largo
de un continuo, por ejemplo aunque /p/ y /b/ difieren en los VOT entre 0 y
60ms, los sonidos entre medias serán asignados a una u otra categoría,
y el contexto de las palabras afecta al lugar donde se encuentra la
delimitación.
Salva Herrera- MailTo : ssalva4@me.com
97
Tema 7 - Lectura
Es decir los participantes están dispuestos a poner un sonido en una categoría
en la que no la pondrían normalmente, si el contexto influye en el sonido
ambiguo, este fenómeno se conoce como cambio en la identificación
léxica, así el contexto está influenciando sobre la categorización de los
sonidos. Las conclusiones utilizando esta técnica desarrolladas por Connine y
Clifton, refuerzan aun mas el argumento de que el conocimiento léxico está
disponible para la percepción categórica de estímulos ambiguos. Los estudios
posteriores, utilizando una técnica llamada detección de la señal,
también sugieren que el cambio de la identificación léxica en una parte
de la percepción categórica es exclusivamente perceptivo, la TDS
proporciona un medio para describir la identificación de los estímulos
imperfectamente discriminables. Connine determinó que el contexto de
la frase, se comporta de distinta forma del contexto léxico, en concreto,
tiene un efecto análogo al del efecto postperceptivo.

Una conclusión psicolingüística clásica, es la conocida como


restauración de fonema, prueba de la participación del contexto en la
identificación del sonido, así Warren y Warren, presentaron frases a
los participantes donde se había cortado un fragmento de 0,12s de la
frase, no obstante los participantes no pudieron detectar la falta del
sonido, es decir, aprecia que restauraban el fonema, y afirmaban que el
fonema suprimido se restaura, incluso aun siendo conscientes de que
realmente faltaba. El efecto se siguen encornado incluso cuando se
suprime una gran parte de la palabra, Warren et al afirmaron que los
participantes están utilizando importación semántica en su procesamiento del
habla, asimismo si en vez de omitir, se produce, un sonido, un pitido, o
una tos, e efecto perdura, sin embargo la sustitución de un fonema
suprimido por un breve silencio, se detecta fácilmente y no da lugar a
efecto de restauración. Aunque a primera vista parece que la percepción del
habla esta limitada por una unidad de nivel superior, no esta claro como se
produce esta reestructuración, Fodor se pregunto si la
reestructuración se produce en el nivel de procesado fonológico, o en
uno superior, así es posible que los participantes, simplemente
adivinen cual es el fonema.

Hay evidencias de que en ciertas circunstancias, la restauración de los


fonemas es un autentico efecto perceptivo, Samuel analizó los efectos de
añadir ruido en vez de limitarse a sustituir el segmento por un ruido, así si la
restauración se produce a nivel perceptivo. Los participantes pensaran que
oyen un fonema y un ruido, por otra parte, si el efecto es posterior a la
percepción, debería haber una buena discriminación entre las dos condiciones.
Samuel concluyó que el contexto léxico da lugar a una autentica
restauración del fonema, y que el efecto era pre-léxico.
Salva Herrera- MailTo : ssalva4@me.com
98
Tema 7 - Lectura
Por otra parte afirmó que el contexto de la frase no afecta al
reconocimiento de fonema y solo afecta al procesamiento post-léxico.
Samuel analizo al sugerencia de que las personas se limitan a adivinar
en fonema, en vez de restaurarlo, y a primera vista, su estudio sugiere que,
los fonemas restaurados pueden actuar como auténticos fonemas y
causar por tanto adaptación. Por su parte Morais y Kolinsky propusieron
dos representaciones distintas de los fonemas, sistema inconsciente
(actúa en el reconocimiento y la producción del habla) y el sistema
consciente (desarrollado en el contexto del desarrollo de la
alfabetización tanto la escritura como la lectura).

El conjunto de los datos, sugieren que el contexto arriba-abajo tiene,


en el mejor de los casos, un papel limitado en a identificación de
sonidos, en concreto, hay poca evidencia de que el contexto de la frase
afecte al procesamiento del habla.

9.1.3 El curso temporal del reconocimiento del habla

Los términos reconocimiento del habla y acceso al léxico se utilizan para hacer
referencia a distintos procesos, así podemos identificar tres fases de la
identificación: contacto inicial, selección léxica, y reconocimiento de la palabra.

Fase de contacto inicial: el reconocimiento de una palabra empieza en esta


fase, cuando se da cierta representación mental de la entrada sensorial,
y esta hace un primer contacto con el léxico. Cuando las entradas
léxicas comienzan a encontrar correspondencias, de alguna manera
cambian a activadas, y dicha activación es cosa de todo o nada o bien de
activación relativa a propiedades de las unidades (palabras) como su
frecuencia.

Fase de selección: en esta fase la activación se acumula hasta que se


selecciona una entrada léxica, siendo el reconocimiento de la palabra,
el final de la fase de selección. En el caso mas sencillo el punto de
reconocimiento corresponde con el punto de singularidad, donde la
secuencia de las palabras son ya idiosincracias de si mismas, y no
concurrentes con ninguna otra, con frecuencia el reconocimiento se
retrasa mas allá del punto de singularidad e incluso podríamos
reconocer esta palabra antes del punto de singularidad, en contextos
muy sesgados. El punto avanzado, donde esto ocurre se le llama punto
de aislamiento, así al llegar a punto de aislamiento, el sujeto ha
aislado ya un candidato, pero sigue monitorizando la entrada
sensorial, hasta alcanzar un punto de confianza, denominado punto de
reconocimiento.
Salva Herrera- MailTo : ssalva4@me.com
99
Tema 7 - Lectura
Reconocimiento de la palabra: el acceso al léxico hace referencia al
punto donde es accesible toda la información de la palabra, tras su
reconocimiento, el proceso de integración que se produce a
continuación marca el inicio del proceso de comprensión, donde se
integran las propiedades semánticas y sintácticas de la palabra.

La frecuencia tiene un efecto mucho más temprano en el


reconocimiento de la palabra hablada, un análisis detallado demostró que
la frecuencia de las palabras es importante desde las primeras etapas
de procesamiento, y que estos efectos persisten durante mucho
tiempo.

9.1.4 Efectos del contexto en el reconocimiento de las palabras

El contexto es toda información que no se encuentra en la señal


sensorial inmediata, la naturaleza del contexto que se está analizando
depende también del nivel de análisis, por ejemplo podemos tener un
contexto a nivel de palabra que opera en el fonema, y un contexto a
nivel de frases que opera en la palabra, las cuestiones implicadas son
complejas, incluso si hay algunos efectos del contexto, todavía habría que
determinar que contexto tiene efecto. En este sentido hay dos posturas
opuestas en cuanto al papel del contexto en el reconocimiento, por un lado la
postura autónoma, y por otro lado la interaccionista.

La postura autónoma: afirma que el contexto no puede tener efectos


previos al reconocimiento, solo puede contribuir a la evaluacion e
integración del resultado del procesamiento léxico, no a su generación,
sin embargo esto modelos se permiten un flujo lateral de la información.

La postura interaccionista: estos modelos permiten que los distintos


tipos de información interactúen entre si, en concreto, se puede
producir una retroalimentación de los niveles posteriores del PI a los
niveles anteriores, por ejemplo la información sobre el significado de
la frase o del contexto pragmático podría afectar a la percepción.

Sin embargo habría que considerar modelos autónomos e interactivos


como dos de los extremos de un continuo de modelos, mas que como
los dos polos de una dicotomía. Puede que en los modelos interactivos
haya algunas limitaciones en la interacción posible, por ejemplo el
contexto puede proponer candidatos a los que podría corresponder el estimulo
(la palabra) de la que haya el procesamiento sensorial, o bien puede que el
contexto se limite a descartar candidatos y no a proponerlos.

Salva Herrera- MailTo : ssalva4@me.com


100
Tema 7 - Lectura
Una fuerte evidencia en favor de la interacción es si el contexto tiene un efecto
antes o durante las fases de acceso y selección, en un modelo autónomo, el
contexto solo puede afectar cuando la palabra a emergido.

Frauenfelder et al, distinguieron entre dos tipos de contexto, no estructural y


estructural.
Contexto no estructural: puede ser considerado como información
proveniente de mismo nivel de PI en el que se esta procesando
actualmente, un ejemplo es la facilitación del contexto intraléxico (medico-
enfermera), que se pueden explicar en términos de relaciones dentro
del mismo nivel del PI, y por tanto no tiene que incumplir el principio
de autonomía.

Contexto estructural: afecta a la combinación de palabras en unidades


de nivel superior, e implica un mayor nivel de información, es un
procesamiento de arriba-abajo, hay una serie de posibles tipos de contexto
estructural, contexto léxico, contexto de la frase y sintáctico, los tipos de
contexto estructurado mas interesantes son los basados en el
significado, donde se distinguen dos tipos, semántico e interpretativo.
El contexto estructural semántico: se basa en los significados de la
palabras, y hay una gran evidencia de que este contexto afecta al
procesamiento de las palabras.
El contexto estructural interpretativo: implica mas información de
nivel superior, como la información pragmática, la información del
discurso, y el conocimiento del mundo.

Hay cierta evidencia de que el contexto no lingüístico puede afectar al


reconocimiento de las palabras, Spivey-Knowlton et al determinaron que el
contexto visual puede facilitar el reconocimiento de la palabra hablada, por
ejemplo en las palabras candy y candle suenan parecidas hasta mas o menos
la mitad de las mismas, así siguiendo la instrucción “toma la vela”, los
participantes volvían mas rápidamente los ojos hacia el objeto mencionado,
cuando solo había una vela en la escena que cuando había una vela y un
caramelo, es decir cuando no había ningún objeto que generase confusión, los
participantes identificaban el objeto antes de oír el final de la palabra, este
efecto sugiere que le contexto estructural interpretativo puede afectar al
reconocimiento de las palabras.

9.2 Modelos de reconocimiento de las palabras

Antes de que podamos acceder al lexicón, tenemos que traducir el resultado de


los nervios auditivos a un formato adecuado, la percepción del habla se ocupa
de esta primera fase del procesamiento.
Salva Herrera- MailTo : ssalva4@me.com
101
Tema 7 - Lectura
Los primeros modelos del reconocimiento analizaron la posibilidad de
hacer correspondencias entre patrones, sin embargo es sabido que en
el habla hay demasiada variación, las personas hablan diferente en cuanto
a su dialecto, su tono básico, a la velocidad básica y otras muchas variables,
por tanto el numero de patrones seria ingentemente inverosímil. Así por lo
general en psicolingüística estos modelos no se consideran posibles.

Análisis de síntesis:
Uno de los primeros modelos de la percepción del habla era el análisis de
síntesis, la base de este modelo, es que reconocemos el habla mediante
referencia a las acciones necesarias para producir un sonido, la idea
que aquí subyace, era que cuando oímos hablar producimos o
sintetizamos una serie de sonidos del habla hasta que encontramos
una correspondencia con lo que oímos, el sintetizador crea la mejor
conjetura inicial restringida por las pistas acústicas de entrada, y
después intenta minimizar las diferencias.

Este planteamiento tiene varias ventajas

Utiliza nuestra capacidad para producir el habla y para abordar el reconocimiento

Asume fácilmente las diferencias entre hablantes

Es fácil demostrar como podrían tener efecto las restricciones de todos los niveles, el
sintetizador solo genera candidatos posibles (nunca generaría sonidos ilegítimos en un
idioma)

Una variante del modelo, es la teoría del motor, la cual propone que el
sintetizador del habla, modeliza un aparato articulatorio y los
movimientos motores de la persona que habla, y computa cuales son
los movimientos que serian necesarios para crear el sonido percibido.

Los modelos de análisis por síntesis adolecen de dos problemas


sustanciales, por un lado no hay una forma evidente de traducir la
hipótesis articulatoria, al mismo formato que el habla, y por otro lado,
esta el hecho de que somos extremadamente buenos reconociendo
palabras que son improbables en el contexto, lo que sugiere que el
reconocimiento de palabras es un proceso, generalmente, regido por
los datos. En resumen Clark y Clark afirmaron que esta teoría esta
infraespecificada y tiene poco poder predictivo, no obstante, en los
últimos años las teorías motores de la percepción han experimentado
cierta resurgencia.

Salva Herrera- MailTo : ssalva4@me.com


102
Tema 7 - Lectura
Aunque el análisis por síntesis no puede ser toda la explicación de la
percepción del habla, si que se parece que los procesos motores
desempeñan algún papel.

9.2.1 El modelo de cohortes

Propuesto por Marslen-Wilson et al, cuya idea central es que cuando oímos
hablar, generamos una posible cohorte de candidatos, a continuación
se va eliminado elementos hasta que solo queda uno, es necesario
distinguir entre la primera versión del modelo, que permitía una mayor
interacción y una versión posterior en la que el procesamiento era mas
autónomo y el sistema de reconocimiento estaba capacitado para
recuperarse si los datos estaban degradados.

En el modelo hay tres fases, fase de acceso, fase de selección y fase de


integración.
Fase de acceso: se utiliza la representación perceptiva para activar
los elementos léxicos, y generar un conjunto de datos posibles, la
cohorte, el principio de la palabras es muy importante para generar
dicha cohorte.
Fase de Selección: en esta fase sólo se elige a un elemento del
conjunto.
Fase de Integración: en las que se utilizan las propiedades
semánticas y sintácticas de la palabra elegida.

Al igual que el modelo de Logogén de Morton, el modelo original de


cohorte se basa en un acceso directo, paralelo e interactivo, pero
mientras que los logogenes acumulaban pasivamente la evidencia, las
palabras de la cohorte buscan activamente ser eliminadas, en concreto,
a medida que vamos oyendo fragmentos adicionales de la palabra se van
eliminado candidatos. Es en torno a este punto de singularidad, en
donde se produce la actividad de procesamiento mas intensa. Es
importante señalar que el punto de reconocimiento, no tiene por que
coincidir con el punto de singularidad.

En la primera versión del modelo, en el punto de reconocimiento, el


contexto podría ser los suficientemente fuerte como para eliminar todas las
palabras, por tanto se reconocería la palabra antes de alcanzar el punto
de singularidad, como ya se ha dicho, esta primera versión era muy
interactiva, y el coste de todo ello es que, a veces, un sesgo contextual
puede llevar a engaño.

Salva Herrera- MailTo : ssalva4@me.com


103
Tema 7 - Lectura
En el modelo revisado, el contexto sólo afecta a la fase de integración,
el modelo tiene una prioridad abajo arriba, lo que significa que el
contexto no puede restringir cuales son los elementos que conforman
la cohorte inicial, esta prioridad abajo arriba es una prioridad de la primera y
las posteriores versiones, pero en la versión posterior no se puede utilizar
el contexto para eliminar candidatos.

Otra modificación importante, es que la eliminación de candidatos deja


de ser una cuestión de todo o nada, por tanto si se pierde la
información o esta esta degradada no se impide que se pueda incluir el
elemento en la cohorte, esto es coherente con el hecho de que podemos
superar distorsiones, aun produciéndose en el inicio de la palabra (con lo que
se generan las cohortes), por tanto en el modelo revisado el grado de
solapamiento es elevado, aunque el principio de las palabras siga
siendo muy importante para generar la cohorte. En este modelo revisado,
la falta de evidencia de algunas palabras candidatas hace que el nivel de
activación vaya decayendo, sin embargo esta se puede reavivar si se
vuelven a dar las condiciones de parecido con el objetivo, por tanto el
contexto dispone pero no propone.

El contexto de la frase no puede invalidar la hipótesis de la percepción,


y solo tiene un efecto tardío cuando un candidato esta empezando a
emerger como probable ganador, la frecuencia de la palabra afecta a
nivel de activación inicial en las primeras etapas del acceso al léxico.

Pruebas experimentales del modelo de cortes:


Experimento de Marslen-Wilson cuenta con tres variables de interés

Magnitud de la Entre la palabra objetivo y la palabra errónea. Esta discrepancia se


discrepancia media en función de una serie de características distintivas alternadas
en el error

Restricción léxica Reflejaba el número de candidatos disponibles en distintas posiciones de


una palabra manipulando la posición de la sílaba en la que se localizaba
el error (Primera o tercera)

Contexto La palabra objetivo era continuación probable o improbables del inicio de


la frase, podía ser de restricción alta o de restricción baja

La técnica de sombreado: se utiliza para analizar cómo interactúan la sintaxis y la


semántica en el reconocimiento de palabras, así cuanto más distorsionado está un
sonido más probable es que se obtenga una repetición exacta

Conclusión 1 Las restauraciones más fluidas se hacían con distorsiones leves, de la última
sílaba y cuando era predecible por el contexto, restricción alta

Salva Herrera- MailTo : ssalva4@me.com


104
Tema 7 - Lectura

Conclusión 2 La mayoría de reproducciones más exactas con una mayor distracción se


daban cuando la palabra estaba poco restringido por el contexto, se
restricciones adecuada, se restaura la fluidez mejor, aunque las desviaciones
sea muy grandes

Conclusión 3 Los autores interpretaron los resultados como una demostración de que la
percepción inmediata ese producto tanto de la entrada perceptiva de abajo
arriba como de las restricciones contextuales de arriba abajo

Conclusión 4 Tanto análisis sintáctico como semántico empieza muy poco después de haber
empezado a escuchar la frase, no se aplaza hasta haberla escuchado entera

Escucha de pronunciación es errores

En esta tarea los participantes escuchan un discurso donde hay un sonido


distorsionado. Los participantes son más sensibles a los cambios al principio de las
palabras

Los fragmentos que se corresponden con el inicio de una palabra son una prima
casi tan perfecta como la palabra misma, por otra parte los fragmentos de la prima
produce muy poca imprimación

Tarea de activación paulatina

Esta tarea consiste en revelar progresivamente más fragmentos de una palabra, con
ella se pueden identificar los puntos de aislamiento, esta tarea muestra la
importancia del contexto adecuado

Este tipo de estudios demuestra que las palabras candidatas se generan de forma que son
compatibles con la representación perceptiva hasta cierto punto, pero no con el contexto

Imprimación multimodal

El contexto no influye en la generación de palabras candidatas, pero si puede


eliminarlas

Este tipo de imprimación permite medir los efectos del contexto en distintos
momentos del reconocimiento de una palabra, Zwitserlood demostró que el contexto
puede ayudar a elegir las palabras candidatas semánticamente adecuadas antes de alcanzar
el punto de reconocimiento de la palabra

El experimento de Van Petten

Resultados sugieren que la integración semántica puede empezar cuando los sistemas tienen
información completa sobre la identidad de la palabra, los estudios con potenciales
evocados en el N400, han demostrado que todas las palabras tienen, con máximo,
activación a los 400 ms de haber empezado el estímulo

Influencia de las vecinas léxicas: los datos sugieren que el tamaño de las
cohortes ( cantidad de candidatas) si es relevante y afecta al curso
temporal del reconocimiento de palabras.

Salva Herrera- MailTo : ssalva4@me.com


105
Tema 7 - Lectura
Luce et al concluyeron que la estructura de un vecindario de una
palabra afecta a la velocidad y precisión en el reconocimiento auditivo
de la palabra en una serie de tareas, entre las que se incluyen
identificación de palabras y una tarea de decisión léxica auditiva. El numero
de las características de las competidoras, como su frecuencia, es importante,
por ejemplo somos menos capaces de reconocer palabras de gran
frecuencia que a su vez poseen un vecindario con palabras de gran
frecuencia también, que palabras con un menor vecindario o vecinas
de menor frecuencia. Luce et al afirman que el numero de
competidoras, densidad de vecindario, influye sobre la decisión, así se
tardará mas tiempo en identificar a las palabras con muchas vecinas y
se producirán mas errores debido a la competencia.

El vecindario fonológico no es el único que afecta, también el ortográfico


afecta a reconocimiento auditivo, aunque en este caso de forma
facilitadora. Es decir se identifican mas deprisa las palabras habladas
con muchas vecinas de parecido visual que las que tienen pocas
vecinas.

Evaluacion del modelo de cohortes: el modelo ha cambiado


sustancialmente a lo largo de los años, y a la luz de los datos mas
recientes pone menor énfasis en el papel del contexto. En la primera
versión, el contexto no podía afectar al acceso pero si a las fases de
selección e integración, en la versión posterior, el contexto no podía
afectar a la selección pero si a la integración, asimismo en la versión
revisada los elementos no están apagados ni encendidos, sino que
tiene un nivel de activación proporcional a la bondad del ajuste entre el
elemento y la entrada acústica, esto permitiría una decaída paulatina de
las candidatas mas que la eliminación inmediata (modelo original), por
tanto se puede ver como el modelo revisado no distinguen entre
activación provisional o definitiva.

Un problema de este modelo (que persiste en todas las versiones) es


su dependencia del conocimiento de cuando empiezan las palabras, sin
tener un mecanismo explícito para identificar el inicio de las mismas.

9.2.3 TRACE

TRACE es un modelo muy interactivo de reconocimiento de palabras


habladas, derivado del modelo conexionista de Mcclelland y Rumelhart, la
característica mas importante es que pone de relieve el papel del
procesamiento arriba abajo (el contexto) en el reconocimiento de las
palabras habladas.
Salva Herrera- MailTo : ssalva4@me.com
106
Tema 7 - Lectura
Segun el TRACE, el contexto léxico puede ayudar directamente al
proceso perceptivo-acústico y la información por encima del nivel de la
palabra puede influir directamente sobre el procesamiento de la
misma. TRACE es un modelo conexionista, y por tanto, esta compuesto de
múltiples unidades simples de procesamiento conectadas entre si, que se
ordenan en tres niveles, lo cual supone un procesamiento temprano y
muy sofisticado de la señal acústica, el nivel de las unidades de entrada
corresponde con las características fonológicas, que están conectadas a las
unidades de fonemas, que a su vez están conectadas a las unidades de salidas
que se corresponden con las palabras. Las unidades de entrada están
provistas de energía, y esta energía se propaga por la red, con el
resultado de que a final, solo queda activa una unidad de salida, la
palabra objetivo. Las unidades en distintos niveles son mutuamente
excluyentes y con conexiones excitadoras, ademas son bidireccionales, es
decir la información fluye entre niveles de un a otro, y viceversa. Sin embargo
dentro de los propios niveles hay conexiones (e) inhibidoras, de tal forma
que una vez que se ha activado una unidad, esta tiende a inhibir a sus
competidoras del mismo nivel, se pone de relieve la competencia dentro
del mismo nivel. El modelo muestra como el conocimiento léxico puede
ayudar a la percepción, en él se produce una percepción categórica, a
consecuencia del proceso de inhibición dentro del propio nivel, entre las
unidades de fonemas.

El modelo TRACE explica los efectos de aposición en el reconocimiento de las


palabras (los sonidos al inicio de las palabras desempeñan un papel
muy relevante) porque la entrada se va desvelando a lo largo del tiempo, de
forma que los sonidos del principio de la palabra contribuyen mucho
mas a las estimaciones que los sonidos del final de las palabras.

Evaluacion del TRACE: el modelo trata muy bien los efectos del
contexto, puede operar con cierta variabilidad acústica, y explica
fenómenos como el de la restauración del fonema, y la coarticulación,
en general da una excelente explicación de los efectos del contexto
léxico, y opera extremadamente bien con el ruido, presente en el
lenguaje natural. Al igual que todos los modelos informáticos, TRACE
presenta la ventaja de ser explícito, sin embargo presenta varios
problemas, hay muchos parámetros que se pueden manipular en el modelos,
es demasiado potente, en tanto en cuanto se puede acomodar a
cualquier resultado, ademas la forma en la que el modelo trata el
tiempo, simulándolo como porciones discretas es poco verosímil. En este
sentido la obra de Massaro es importante en cuanto que demuestra que es
posible recree predicciones falseables sobre los modelos conexionistas como el
TRACE.
Salva Herrera- MailTo : ssalva4@me.com
107
Tema 7 - Lectura
Pero el principal problema del TRACE es que se basa en la idea de que
el contexto afecta arriba-abajo al proceso de reconocimiento, el grado
en el que influye es controvertido, en concreto, existe también evidencia
experimental en contra de los tipos de procesamiento arriba abajo
típicos del TRACE, los efectos del contexto solo se observan realmente
con estímulos degradados desde el punto de vista de la percepción. Por
tanto, a primera vista los datos de McClelland respaldan el modelo interactivo
mas que el modelo autónomo, parece que el lexicón esta influenciado sobre
todo por un efecto pre-léxico(compensación), sin embargo hay explicaciones
de los datos compatibles con el modelo autónomo, así primero, al final resulta
que no es necesario emplear el conocimiento léxico, algunas secuencias de
fonemas son simplemente mas probables. Pitt y McQueen encontraron efectos
de la compensación de la coarticulación en la clasificación de consonantes
oclusivas cuando iban precedidas de sonidos fricativos ambiguos al final de
palabras inexistentes, puesto que el elemento anterior era una palabra
inexistente no cabía la posibilidad del conocimiento léxico. El hecho de que se
siguiese identificando una compensación sugiere que se estaba utilizando
conocimiento secuencial sobre cuales son los fonemas que se producen juntos.
TRACE tampoco ofrece un buen rendimiento para detectar los errores
de pronunciación, la mala pronunciación, tiene un efecto adverso claro
sobre el rendimiento.

Se pueden contrastar los modelos de toma única con los modelos de tomas
múltiples, como el modelo TRACE, donde son dos las fuentes de información,
el análisis pre-léxico almacenado y mantenido de la palabra, y la entrada léxica
de una palabra, compiten por el resultado, se deberían maximizar los efectos
del lexicón sobre el procesamiento de un fonema cuando las personas prestan
atención a la toma léxica, y debería quedar minimizados cuando prestan
especial atención a la toma pre-léxica, este patrón es exactamente el que se
ha hallado, y los modelos de toma única como el TRACE tienen problemas para
explicar este efecto.

En una revisión sobre los efectos del contexto en el reconocimiento de habla,


Norris y McQueen afirmaron que la retroalimentación arriba abajo no
pueden mejorar la precisión del reconocimiento, solo puede acelerar el
procesamiento, es por tanto un intercambio con la precisión. Finalmente
existe evidencia empírica contra otro supuestos del modelo, así no se
encontró ninguna evidencia de inhibición de arriba abajo en los fonemas en
una tarea que implicaba la monitorización de los fonemas inesperados al final
de una palabra en comparación con palabras inexistentes de control, TRACE
predice que una vez que se ha accedido a la palabra, los fonemas que
no están en la misma deberían ser objeto de inhibición de arriba-
abajo.
Salva Herrera- MailTo : ssalva4@me.com
108
Tema 7 - Lectura
En resumen TRACE tiene éxito a la hora de explicar una serie de
fenómenos del reconocimiento del habla, y resulta particularmente
bueno para explicar los efectos del contexto, su debilidad estriba en
que, el grado en el que sus predicciones están respaldadas por los
datos es cuestionable.

9.2.4 Otros modelos conexionistas

Las redes recientes utilizan conexiones recurrentes de la capa oculta a un


contexto para almacenar información del estado anterior de la red, esta
modificación permite, a las redes, codificar información sobre el tiempo.
Ofrecen una explicación mucho mas verosímil del carácter basado en el tiempo
del procesamiento del habla que un modelo TRACE, que utiliza unidades
basadas en tiempos fijos, y por tanto tiene mas problemas para asimilar las
variaciones del ritmo del habla.

Comparación de modelos:

El modelo de Gaskell y Marslen-Wilson es muy parecido al modelo SHORTLIST


de Norris, ambos modelos difieren del modelo TRACE al utilizar menos la
inhibición arriba abajo y utilizar mas la información de abajo arriba. Todos los
modelos del reconocimiento de la palabra consideran que el
reconocimiento del habla incorpora un elemento entre la palabra
objetivo y sus vecinos, por desgracia, la mayor parte de las
investigaciones ha demostrado, o bien la facilitación, o bien ningún
efecto de priming de los elementos fonológicamente relacionados, en vez de
la inhibición esperada. Finalmente, utilizamos otro tipo de información
cuando comprendemos el habla, este efecto sugiere que la percepción del
habla es el resultado de las mejores conjeturas de todo el sistema de
percepción, utilizando múltiples fuentes de información entre las que
el habla suele ser la mas importante.

9.3 Neuropsicología del reconocimiento

En los adultos con una perturbación de las funciones del lenguaje


posterior a una lesión cerebral, suele ser bastante frecuente que se
tengan dificultades en el reconocimiento del habla, las lesiones pueden
afectar a la mayoría de los niveles de proceso de reconocimiento del habla,
incluyendo al acceso a los códigos pre-léxico y post-léxico. Por ejemplo una
lesión cerebral puede afectar a las primeras etapas del procesamiento
acusticofonético de las características como el tiempo de comienzo de la voz,
o las etapas posteriores que implican la identificación de sonidos en
función de estas características.
Salva Herrera- MailTo : ssalva4@me.com
109
Tema 7 - Lectura

La evidencia neuropsicológica sugiere que las vocales y las


consonantes se procesan en sistemas distintos, por ejemplo el paciente
AS producía errores fundamentalmente con las consonantes, incluso cuando se
tenia en cuenta factores que podían llevar a engaño como el grado de
sonoridad. Los pacientes con sordera de la palabra pura pueden hablar,
leer, y escribir con bastante normalidad, pero no pueden comprender
el habla, a pesar de oír perfectamente, tampoco pueden repetir el
habla y una comprensión auditiva extremadamente pobre, asimismo
tiene dificultades en tareas como la diferenciación de las consonantes oclusivas
entre si. Una variante muy poco frecuente, se conoce como la sordera
del significado de las palabras, los pacientes muestran os síntomas de
la sordera de la palabra pura, pero pueden repetir el habla.

Resumen Tema 7

Podemos reconocer mas deprisa y de forma mas eficiente un discurso con significado de lo
que podemos reconocer sonidos que no pertenecen al mismo

Los sonidos van juntos (el problema de la segmentación) y varían en función del contexto en
el que se producen (el problema de la invarianza)

La forma en la que segmentamos el habla depende del idioma en que hablemos

Utilizamos una serie de estrategias para segmentar el habla: la segmentación en función de


la acentuación es particularmente en ingles

Las consonantes se clasifican por categorías, pero no esta claro cuando surge este efecto en
la percepción, porque los oyentes son sensibles a las diferencias entre los sonidos dentro de
una categoría

El lexicón es nuestro diccionario mental

El código pre-léxico es la representación de sonidos que se utiliza para acceder al lexicón

Existen controversia entre si los fonemas se representan directamente en el código pre-


léxico, o por el contrario se construyen después de que accedamos al lexicón

Los estudios sobre los efectos de la coarticulación de las palabras y las palabras inexistentes
sugieren que se utiliza una representación fonética de nivel inferior para acceder
directamente al lexicón

El cambio de intensificación léxica de los fonemas ambiguos varia en función del contexto
léxico

Ha habido un gran debate sobre si el cambio de intensificación léxica y los efectos de la


restauración del fonema, son auténticamente efectos perceptivos o por el contrario, reflejan
un procesamiento posterior

Se puede dividir el reconocimiento de las palabras en frases de contacto inicial, selección


léxica, y reconocimiento de la palabra

El punto de singularidad de una palabra hablada se produce cuando el flujo de sonidos se


puede distinguir finalmente sin ambigüedades de todas las demás palabras

Salva Herrera- MailTo : ssalva4@me.com


110
Tema 7 - Lectura

Reconocemos la palabra en su punto de reconocimiento, el punto de reconocimiento no tiene


por qué se el punto de singularidad

Salva Herrera- MailTo : ssalva4@me.com


111
Tema 10 - Comprensión de la estructura de las frases

Tema 10 - Comprensión de la estructura de las


frases

10.1 introducción

Cuando accedemos a la entrada léxica de una palabra, tenemos


disponibles dos grandes tipos de información: la información sobre el
significado y la información sobre los papeles sintácticos y temáticos
que puede desempeñar. El objetivo de la interpretación es asignar
papales temáticos a las palabras de la frase que se esta procesando: Quien
le esta haciendo que a quien.

Una de las ideas mas importantes de los papeles temáticos proviene


de un análisis de la estructura del argumento y del verbo. Es probable
que las personas identifiquen las frases como parecidas a partir del
verbo principal mas que a partir del sujeto de la misma, siendo
especialmente importante la estructura del argumento. Para asignar papales
temáticos tenemos que computar la estructura semántica de la frase,
un proceso conocido como análisis sintáctico.

Deberíamos diferenciar entre modelos autónomos e interactivos del análisis sintáctico, y


modelos de una y dos fases

según los modelos interactivos, otras fuentes de información pueden influir sobre
el procesador sintáctico, en una fase temprana.

En los modelos de una fase se utiliza tanto la semántica coma la sintáctica para
conseguir la representación sintáctica de una sola vez.

En los modelos de dos fases la primera fase se considera invariablemente como


una fase autónoma de procesamiento táctico, la información semántica sólo se
puede utilizarse en la segunda fase, por tanto la pregunta sobre el número de fases es
realmente la misma que determinar si el analista sintáctico es modular o interactivo

10.2 La ambigüedad estructural

Resulta difícil discernir las operaciones del procesado cuando todo funciona
bien, por ello la mayor parte de la investigación sobre el análisis
sintáctico ha implicado una ambigüedad sintáctica, dado que esta
provoca dificultades en el procesamiento. Hay varios tipos de ambigüedad que
implican a mas de una palabra dentro de la frase, y la mas compleja son las
ambigüedades estructurales asociadas con el análisis sintáctico.

Salva Herrera- MailTo : ssalva4@me.com


112
Tema 10 - Comprensión de la estructura de las frases
La grabación de los movimientos oculares ha sido particularmente
importante en el estudio del análisis sintáctico, la mayor parte de la
evidencia demuestra que no pasamos mas tiempo leyendo la parte
ambigua de las frases que las partes no ambiguas, pero a menudo si
pasamos mas tiempo leyendo la parte de desambiguación.

La cuestión central en el análisis sintáctico es cuando se utilizan distintos tipos de


información, en principio hay dos arboles de análisis sintáctico alternativos que se
pueden construir para una frase dada

modelo de podríamos construir uno con una base puramente sintáctica y


representación decidir a continuación con la información semántica si este árbol tiene
en serie sentido o no

procesamiento podríamos construir todas las representaciones sintácticas


autónomo en posibles de forma paralela, utilizando exclusivamente
paralelo información sintáctica y después utilizar la información
semántica para elegir la mas adecuada

modelo podríamos utilizar información semántica de las fases anteriores


interactivo para guiar el análisis sintáctico de forma que solo pudiésemos
construir representaciones semánticamente plausibles, quedando
el nivel de activación restringido por esa plausibilidad

La ambigüedad permanente, también llamad global, cuando llega al final


de la frase, esta sigue existiendo, por el contrario, con la ambigüedad
local o temporal, esta queda desambiguada, gracias al material
posterior (región de desambiguación). Las frases que llevan a engaño
son las herramientas favoritas de los investigadores del análisis
sintáctico.

Hay evidencia de que una puntuación adecuada, como la inserción de


comas, puede reducir, que no eliminar, la magnitud del efecto del
engaño mejorando la sensibilización del lector a la estructura de la locución.
En la vida real, las personas dan pistas prosódicas que desambiguan
información y los oyentes son sensibles a dicha información (las personas
cuando hablan tienden a poner énfasis en el OD, e insertan pautas similares a
la puntuación), análogamente las muletillas influyen en la forma en la
que la gente interpreta las frases engañosas. Cuando se hace una
interjección (decir “eh”) antes de una locución nominal no ambigua, los
oyentes tienen mas probabilidades de pesar que la locución nominal es el
sujeto de una nueva cláusula, mas que objeto de la anterior. Las muletillas
por tanto, pueden ayudar, pero solo cuando están en el lugar correcto.

Salva Herrera- MailTo : ssalva4@me.com


113
Tema 10 - Comprensión de la estructura de las frases
Sin embargo no significa que quienes hablan siempre pretenden dar
estas pistas con el propósito explícito de ayudar al oyente (hipótesis
de diseño para la audiencia), los hablantes no siempre son conscientes
de estar emitiendo estas pistas, y tienden a producirlas, incluso
cuando no hay ninguna audiencia. Así la prosodia y las pausas reflejan
probablemente las necesidades de planificación del hablante como una
fuente de información del oyente.

Experimentamos engaño

Según el modelo autónomo en serie experimentamos el efecto del engaño porque la


representación sintáctica singular que estamos construyendo en función de la
sintaxis resulta incorrecta

sin embargo según el modelo autónomo en paralelo una representación esta mucho
mas activa que las otras debido a la potencia de las pistas sintácticas, pero resulta
incorrecta

y según el modelo interactivo varias fuentes de información respaldan el análisis mas que
su alternativa, sin embargo, la información posterior es incoherente con los niveles de
activación iniciales ( que no responde al input, ¡¡¡¡que manera del liarla coño!!!)

10.3 Primeros estudios sobre el análisis sintáctico

Los primeros modelos de análisis sintáctico se basan en la teoría de


Chomsky de la gramática transformadora, en concreto los psicólogos
pusieron a prueba la idea de que la comprensión de las frases implicaba
la recuperación de su estructura profunda.

10.3.1 prueba psicolingüística de la teoría lingüística de Chomsky

Cuando se publicó por primera vez el trabajo de Chomsky había un gran


optimismo de que también ofrecería una explicación de los procesos implicados
en la producción y la comprensión de las estructuras sintácticas, en particular
hubo dos ideas que atrajeron de forma especial, la teoría derivativa de la
complejidad, DTC: cuanto más compleja es la derivación sintáctica
formal de una frase, cuantas mas transformaciones se ha producido en
ella, mas complejo es el procesamiento psicológico necesario para
comprenderla y producirla, lo cual debería ser detestable con una medida
adecuada como el TR, la segunda idea, el principio psicológico de la
autonomía de la sintaxis: lleva mas lejos la afirmación de Chomsky de que
las reglas sintácticas deben estar especificadas independientemente,
de forma que los procesos sintácticos operan de forma independiente
de otros procesos, lo cual significa que los procesos sintácticos deben ser
independientes de los procesos semánticos.

Salva Herrera- MailTo : ssalva4@me.com


114
Tema 10 - Comprensión de la estructura de las frases
Chomsky distinguió entre transformaciones opcionales y obligatorias,
siendo las obligatorias las que sin ellas la frase no tiene sentido
( genero, numero, etc.) y las opcionales son todas las demás, asimismo
Chomsky definió un subconjunto de frases que denomino frases nucleares,
aquellas a las que solo se le han aplicado transformaciones
obligatorias (en ingles, la forma activa, afirmativa y declarativa).

Miller y McKean contrastaron la idea de que cuantas mas transformaciones


hay en una frase, mas difícil es procesarla, analizando los TR, estos autores
concluyeron que el tiempo que se tardaba en deshacer una
transformación de las frases para volver a la nuclear tenia una relación
lineal con el numero de transformaciones, lo cual se interpretó como
un respaldo a la realidad psicológica de la gramática transformacional.
Otros experimentos realizados en la misma época, respaldan esta misma idea,
Melher descubrió que cuando los participantes cometían errores
recordando las frases, tendían a hacerlo en el sentido de olvidar las etiquetas
de transformación, en vez de añadirlas, es como si los sujetos recordasen
las frases en forma nuclear mas que la transformación.

Problemas en la interpretación psicológica de la gramática


transformacional, GM: las tareas que respaldaban la realidad psicologia de la
GM utilizaban todas las medias indirectas del procesamiento del lenguaje, así
si pedimos a los participantes de forma directa que deshagan las
transformaciones, no es sorprendente que tarden mas tiempo en
función del numero de ellas, sin embargo esto no quiere decir que se
haga esta tarea de forma rutinaria para comprender el lenguaje, las
mediciones de memoria no son mediciones conectadas con lo que esta
ocurriendo en el procesamiento de la frase, en el mejor de los casos
reflejaría un efecto secundario.

Slobin realizó un experimento parecido al original, de transformación de Miller


et al, Slobin analizó el procesamiento de lo que se denomina frases
pasivas reversibles (en la que se pueden invertir el sujeto y el objeto, y
mantiene el sentido) e irreversibles ( sin sentido tras la inversión). En el caso
de la irreversible, puede determinar cual es el sujeto de la frase y cual es el
objeto utilizando únicamente pistas semánticas, con una pasiva reversible
tiene que hacer cierto trabajo sintáctico, Slobin determinó que los
resultados de Miller y McKean, solo se podrían obtener en el caso de
las pasivas reversibles, por tanto el análisis sintáctico de
transformación parece necesario cuando no hay suficientes pistas
semánticas para determinar el significado de la frase de otra manera, este
resultado implica que la teoría derivativa de la complejidad no siempre
funciona.
Salva Herrera- MailTo : ssalva4@me.com
115
Tema 10 - Comprensión de la estructura de las frases
Ademas la conclusión de Slobin de que la profundidad del
procesamiento sintáctico se ve afectada por consideraciones
semánticas como la reversibilidad, también atacan a la autonomía de
la sintaxis.

En conjunto estos datos, implican que lo que observamos depende de


los detalles de las tareas utilizadas, pero que tanto los factores
sintácticos como los semánticos tienen efecto sobre la dificultad de las
frases.

En resumen, las primeras afirmaciones que respaldaban las ideas de la


complejidad derivativa que se vertían desde la teoría de Chomsky, eran
en el mejor de los casos prematuras. Los enfoques lingüísticos nos han
proporcionado una útil terminología para hablar sobre la sintaxis, ademas la
GM de Chomsky también tuvo una importante influencia sobre la forma
en la que se pensaba que se produce el procesamiento sintáctico
psicológico, pero a pesar de su promesa inicial, los experimentos
proporcionaron poco respaldo a la realidad psicológica de la GM, pero
Chomsky afirmo que las teorías lingüísticas describen nuestra
competencia lingüística mas que nuestro rendimiento lingüístico, es
decir que la GM es una descripción de nuestro conocimiento de la
competencia, y las restricciones sobre la adquisición del lenguaje, mas
que una explicación de los procesos implicados.

10.3.2 los primeros trabajos de la psicolingüística sobre el análisis


sintáctico

Para los piremos psicolingüistas que todavía estaba influenciados por


la GM, como la de la autonomía de la sintaxis, el proceso de comprensión
del lenguaje era algo sencillo, primero identificamos las palabras en función
de los datos de la percepción, el reconocimiento y el acceso al lexicón nos
proporcionan acceso a la categoría sintáctica de las palabras, así solo cuando
se ha analizado por completo cada una de las cláusulas empezamos
finalmente a construir una representación semántica de la frase, se
suele decir que la sintaxis propone y la semántica dispone. El enfoque
mas sencillo considera que la sintaxis es un modulo de procesamiento
independiente o autónomo.

¿Que tamaño tienen las unidades de análisis sintáctico?


Jaravella demostró que los oyentes solo empiezan a buscar en la memoria los
detalles de los elementos constitutivos sintácticos cuando se ha pasado de la
delimitación de una frase.

Salva Herrera- MailTo : ssalva4@me.com


116
Tema 10 - Comprensión de la estructura de las frases
Una vez se ha procesado la frase, la memoria literal de la misma se
disipa, por tanto la frase es una unidad de procesamiento fundamental,
mas allá de la misma, resulta que la cláusula también es una unidad
importante, una cláusula es una parte de una frase tiene tanto un sujeto
como un predicado. La gente considera que es mas fácil leer de linea en
linea si cada linea se corresponde con un elemento constituyente
principal, cuando se recuerdan las palabras se produce un efecto de
delimitación de la cláusula: es mas fácil recordar las palabras de una
cláusula que se esta procesando actualmente, independientemente de
numero de palabras, la carga del procesamiento es máxima al final de
la cláusula, y las fijaciones de los ojos son mas largas en la ultima
palabra de una cláusula.

Una de las primeras técnicas para analizar el tamaño de la unidad


sintáctica, fue la técnica de desplazamiento del clic, la idea básica es
que la unidades fundamentales se resisten a una interrupción
(terminamos lo que estamos haciendo, y después procesamos otro material),
los participantes oían un discurso por un oído, y en determinados
momentos por el otro ido se les pasaba un clic, incluso si el clic se pasa
en medio de un constituyente, debería ser percibido al final de la
delimitación, debería parecer que los clics migraban, esto es justo lo
que se observo. Lo cual sugiere que la cláusula es una unidad
fundamental en el procesamiento perceptivo y sintáctico.

Sin embargo esta interpretación es prematura, la tarea de los


participantes es una tarea compleja: tienen que percibir la frase,
analizarla, comprenderla, recordarla y dar respuesta, por tanto la migración
del clic se podría dar en cualquiera de estos momentos, Rever y Anderson
realizaron una variante de esta técnica en la que los participantes
escuchaban frases en las que realmente no había ningún clic, y se les
pedía que dijesen donde lo habían oído, y los participantes siguieron
poniendo los clics en las delimitaciones de los constituyentes, lo cual
sugiere que la migración se produce en la fase de respuesta. Tampoco
estaba claro si la entonación y las pausas son tan poco importantes en la
determinación de las delimitaciones estructurales como se afirmaba
originalmente. Por tanto, estos primeros estudios reflejan probablemente
las operaciones de la memoria, mas que las operaciones del
procesamiento sintáctico, ahora hay acuerdo en torno a que el análisis
sintáctico es un proceso incremental: intentamos construir estructura de
palabra en palabra, es decir, no permanecemos inactivos esperando a que
acabe a cláusula, esto ha sido refrendado por muchos estudios.

Salva Herrera- MailTo : ssalva4@me.com


117
Tema 10 - Comprensión de la estructura de las frases
No solo es incremental, sino que intentamos predecir lo que viene acto
seguido, incluso la gente anticipa las propiedades de las palabras, por
ejemplo se puede utilizar la estructura del argumento de un verbo para
anticipar el tema posterior, por ejemplo el verbo “beber” requiere que el OD
sea algo bebible, por tanto desde ese punto la gente solo presta atención a las
cosas bebibles. Es decir la gente hace movimientos oculares hacia los
probables objetos posteriores.

En resumen, el procesador del lenguaje opera de forma incremental,


construye rápidamente un análisis sintáctico para un fragmento de
una frase, asignándole una interpretación semántica, y relacionando
esta interpretación con el conocimiento de las palabras, cualquier
retraso en este proceso suele ser muy leve. El análisis incremental
tiene mucho sentido desde el punto de vista del PI.

Estrategias de análisis sintáctico basadas en las pistas de la estructura


superficial:
La estructura superficial de las frases proporciona una serie de pistas
evidentes sobre la representación sintáctica subyacente. Un enfoque
evidente consiste en utilizar estas pistas y una serie de estrategias sencillas
que nos permitan computar la estructura sintáctica. El ejemplo mas sencillo es
cuando vemos u oímos un determinante como “el” o “un”, sabemos
que acaba de empezar una locución nominal, un segundo ejemplo
parte de la observación de que la estructura común de sustantivo-
verbo-sustantivo, suele corresponder con lo que se denomina estructura
ortodoxa, sujeto-verbo-objeto, SVO, de hecho si utilizamos esta estrategia,
podemos avanzar mucho en la comprensión, es lo que se conoce como
estrategia de la frase ortodoxa. Primero probamos con las estrategias mas
sencillas y si no funcionan probamos con otras.

Dos primeras explicaciones:


Kimball también afirmo que la estructura superficial proporciona pistas que nos
permiten desvelar la estructura sintáctica subyacente, propuso 7 principios del
análisis sintáctico.

Principios de Kimball

El análisis sintáctico es un proceso de arriba-abajo, excepto cuando aparece


1
una conjunción como “y”

Asociación a la derecha:se relacionan perfectamente las nuevas palabras con el nodo


2 mas bajo posible de la estructura conseguida hasta el momento, menor carga de la
memoria

Salva Herrera- MailTo : ssalva4@me.com


118
Tema 10 - Comprensión de la estructura de las frases

Nuevos nodos: las palabras funcionales indican el comienzo de una nueva


3
locución

4 El procesador sólo puede trabajar con dos nodos de frases en un momento dado

El principio de cierre afirma que el procesador prefiere cerrar la locución lo


5
antes posible

Estructura fija: una vez que se ha cerrado la locución, resulta muy costoso
6 reabrirla y reorganizar los constituyentes, este principio ilustra la dificultad con
las frases que llevan a engaño

El principio de procesamiento: cuando se cierra una locución, sale de la


memoria a corto plazo y pasa a una segunda fase del procesamiento semántico
7
mas profundo, por lo que los detalles de sobre la estructura de una frase
decaen rápidamente.

Los principios de Kimball hacen un buen trabajo a la hora de explicar


una serie de propiedades del procesador, sin embargo hay algunos
problemas con algunas de las estrategias, por ejemplo, el papel de las
palabras funcionales en el análisis sintáctico podría no ser tan esencial
como creía Kimball, la investigación sobre la fijación de los ojos demuestra
que es posible no siempre miramos directamente a algunas palabras
funcionales.

Frazier y Fodor simplificaron la explicación de Kimball proponiendo un


modelo que denominaron maquina de embutidos, porque divide el
lenguaje entrante en algo similar a una ristra de salchichas, es un modelo de
análisis sintáctico de dos fases. La primera: esta fase se denomina
empaquetador preliminar de locuciones, PPP, este PPP va seguido de un
supervisor de estructura de la frase, SSS, el PPP tiene una ventana de
visión limitada a unas seis palabras, el supervisor ensambla los
paquetes producidos por el empaquetador, pero no puede deshacer su
trabajo. La idea de la limitada longitud del PPP, y que una segunda fase
(SSS) no puede deshacer el trabajo ya realizado, está operacionaliza el
principio de procesamiento (7) de Kimball (principio de
procesamiento). El PPP sólo puede utilizar el conocimiento sintáctico y utiliza
heurísticas sintácticas, como preferir estructuras sintácticamente mas
sencillas, sin embargo la maquina de embutidos no puede explicar la
preferencia de la asociación a la derecha (2, Kimball) en algunas
frases de 6 palabras.

Salva Herrera- MailTo : ssalva4@me.com


119
Tema 10 - Comprensión de la estructura de las frases
Fodor y Frazier añadieron un nuevo principio que gobierna el desempeño
de la maquina, que afirma que la asociación a la derecha actúa cuando
la asociación mínima no puede determinar donde debe ir un elemento
constituyente, la maquina de embutido evolucionó hasta convertirse en
uno de los modelos mas influyentes de análisis sintáctico, el modelo de
vía muerta.

10.4 Procesamiento de la ambigüedad

Uno de los principales focos del trabajo actual sobre el análisis


sintáctico consiste en intentar comprender como procesamos la
ambigüedad sintáctica.

10.4.1 Modelos de vía muerta Vs modelos basados en restricciones

Hay dos modelos que han dominado las investigación sobre el análisis
sintáctico, el modelo de vía muerta es un modelo autónomo en dos
fases, mientras que el modelo basado en restricciones es un modelo
interactivo en una fase, la elección entre ambos dependen de lo pronto
que se pueda demostrar que el contexto, la frecuencia y otra
información semántica, influyen sobre el análisis sintáctico.

El modelo de vía muerta: según este modelo el análisis se produce en dos


fases, en la primera, el procesador solo utiliza la información sintáctica,
la adjudicación inicial solo esta determinada por las preferencias sintácticas
dictadas por los principios de la adjudicación mínima y el cierre tardío, si los
resultados de este primer análisis no son adecuados, entonces se pasa
en un segundo análisis, a revisar el árbol sintáctico construido.

En el modelo de vía muerta sólo se puede utilizar información temática


sobre los papeles semánticos en la segunda fase del análisis. Los dos
principios que guían la primera adjudicación son adjudicación mínima:
se debe adjuntar el material al marcador de la locución que se esté
construyendo, utilizando el menor numero de nodos posible. El segundo
principio es el cierre tardío: se debe incorporar el material entrante en
la cláusula o locución que se esta procesando actualmente. Si entre
estos dos principios se produce un conflicto, predomina la adjudicación
mínima.

Salva Herrera- MailTo : ssalva4@me.com


120
Tema 10 - Comprensión de la estructura de las frases
Modelo basado en restricciones: ha sido el modelo interactivo
dominante, y ha ganado gran popularidad, según este enfoque, el
procesador utiliza múltiples fuentes de información sintáctica,
semántica, del discurso y basada en la frecuencia, denominada en conjunto,
restricciones. La construcción (el árbol) mas respaldada por estas
restricciones es la mas activa en la red. Asimismo se genera una vía
muerta cuando el análisis correcto de una ambigüedad local recibe
escasa activación.

10.4.2 Evidencia de la autonomía del procesamiento sintáctico

El modelo de vía muerta afirma que podemos resolver la ambigüedad


utilizando la asignación mínima y el cierre tardío, sin ayuda semántica.

La evidencia de la neurociencia sugiere que los procesamientos


semántico y sintáctico son independientes. Breedin y Saffran describieron
un paciente, DM, que tenia una perdida considerable del conocimiento
semántico debido a una demencia, le resultaba muy difícil encontrar
relación entre la imagen de un objeto y otra imagen adecuada, sin embargo su
defecto semántico, no tenia ningún efecto aparente sobre el sistema
sintáctico, dado que tuvo un rendimiento muy bueno en tareas de detección
de errores sintácticos (gramaticales), tampoco tenia problema a la hora de
asignar los papales semánticos en una frase, podía identificar que era llevado
por el tigre en “ el tigre lleva a Juanito”.

Los estudios de las imágenes del cerebro también resultan útiles, en concreto
el estudio de potenciales relacionados con sucesos, ERP, se encontró que la
onda N400 es particularmente sensible al procesamiento semántico,
así el N400 se produce 400 ms tras una palabra anómala, también se
identificó una oleada positiva a los 600 ms del incumplimiento
sintáctico. Se pueden utilizar estas anomalías para cartografiar, el
curso temporal del procesamiento sintáctico y semántico. Estos ERPs
sugieren que el procesamiento sintáctico y el semántico son procesos
distintivos.

Estos experimentos sugieren que la primera fase del análisis sintáctico


es miope y no utiliza información semántica o temática. Análogamente
Ferreira y Herderson analizaron los datos de los movimientos oculares
y la lectura de ritmo libre de palabra a palabra de frases ambiguas,
concluyendo que la información del verbo no afecta al análisis inicial
sintáctico, aunque es posible que guíe la segunda fase.

Salva Herrera- MailTo : ssalva4@me.com


121
Tema 10 - Comprensión de la estructura de las frases
Podemos manipular la relación semántica de sustantivos y verbos en
contextos en los que son, o bien adecuados sintácticamente o bien
inadecuados sintácticamente, y los resultados siguieren que el análisis
sintáctico precede al análisis semántico y es independiente del mismo.
Crain y Steedman utilizan una tarea de evaluación gramatical
acelerada para demostrar que un contexto semántico inadecuado
puede eliminar las vías muertas. En esta tarea los participantes ven una
serie de palabras y tienen que decidir a la mayor brevedad posible si esta serie
de palabras es correcta gramaticalmente o no. Los sujetos tienen mas
probabilidades de identificar erróneamente las frases que llaman a engaño
como incorrectas, que en el caso de las que no lleven a engaño. Los autores
afirmaron que no hay nada parecido a un contexto totalmente neutro
incluso cuando la frase parece no tener contexto, los participantes
incorporan conocimientos y expectativas, afirmando entonces que se
pueden entender todas las preferencias del análisis sintáctico desde el punto
de vista semántico.

La dificultad semántica se basa en la cantidad de información que hay


que suponer: cuantos mas supuestos hay que hacer, mas difícil resulta
producir la frase. Es decir, si el procesador se encuentra con una locución
nominal definida en ausencia de cualquier contexto, solo se postula una
entidad (por ejemplo “un caballo”), y por tanto no hay necesidad de
modificador, es mas, si hay alguno se provocaran dificultades en el
procesamiento.

Altman y Steedman pusieron de relieve que el procesador construye


una representación sintáctica de forma paulatina, de palabra en
palabra. En cada palabra se generan en paralelo interpretaciones
sintácticas alternativas, y continuación se toma una decisión en base
al contexto, los autores lo denominaron interacción débil, frente a una
interacción fuerte en la que el contexto guía de hecho el proceso de
análisis, de forma que solo se genera una alternativa. Este enfoque se
conoce como teoría referencial del análisis sintáctico: el procesador
construye un análisis en paralelo y utiliza el contexto del discursos
para desambiguarlo de forma inmediata, y es justo esta naturaleza
inmediata la que diferencia a la teoría referencial de los modelos de
vía muerta.

Salva Herrera- MailTo : ssalva4@me.com


122
Tema 10 - Comprensión de la estructura de las frases
Las teorías basadas en restricciones y las basadas en la vía, son
similares en tanto en cuanto que cada una niega que el análisis
sintáctico este limitado a utilizar información sintáctica. Pero en las
teorías basadas en restricciones se utilizan todas las fuentes de de
información semántica incluyendo el conocimiento del mundo para
desambiguar, sin embargo en la teoría referencial solo es importante la
complejidad referencial dentro del modelo del discurso. Los resultados
sugerirían que se utiliza de inmediato la información semítica-referencial, pero
que el conocimiento mas general del mundo tarda mas en estar disponible,
ademas el conocimiento del mundo dependía de la memoria de trabajo,
mientras que los principios referencia-semánticos no.

Los análisis sugirieron que los principios referenciales se utilizan de inmediato


para resolver la ambigüedad y la información sobre la plausibilidad semántica
de las interpretaciones se utiliza mas tarde, sin embargo la teoría referencial
no puede ser una explicación exhaustiva del análisis sintáctico porque
sólo se puede aplicar a ambigüedades que involucren locuciones
nominales sencillas y complejas. No obstante la idea de que la
información del discurso puede ser utilizada para influir sobre las
decisiones del análisis sintáctico es un elemento esencial de las teorías
basadas en las restricciones.

Según la teoría referencial, la resolución de las ambigüedades en el


contexto dependen de si se puede encontrar un referente único, el
contexto puede sesgar al procesador hacia una vía muerta o alejarlo
de la misma. Cuando la información sintáctica provoca ambigüedad y es
posible una vía muerta, el procesador procede a construir una representación
sintáctica a partir de la mejor conjetura semántica, se obtiene mas
evidencia a favor de los modelos basados en restricciones de la
conclusión de que se pueda utilizar información temática para eliminar
el efecto de la vía muerta. Una idea importante en los modelos
basados en restricciones es la del sesgo del verbo, esta idea afirma que
aunque algunos verbos pueden aparecer en distintas estructuras sintáctica,
son mas comunes en unas que en otras, las frecuencias relativas de las
interpretaciones alternativas de los verbos predicen sin la gente tendrá
dificultades o no para comprender las cláusulas relativas reducidas, así aunque
el verbo pude aparecer con completemos en las frases, lo mas común es que
vayan seguidos de un OD, estos verbos son aquellos en los que la continuación
mas frecuente es el OD, y los verbos de completemos son aquellos en los que
la continuación mas frecuente es una oración complementaria.

Salva Herrera- MailTo : ssalva4@me.com


123
Tema 10 - Comprensión de la estructura de las frases
Según los modelos basado en restricciones, la información de sesgo
del verbo está disponible de forma inmediata en cuanto se reconoce el
mismo, se determinó que los verbos con un sesgo hacia las oraciones
complementarias, no provocan dificultades en el procesamiento,
mientras que si lo hacían los verbos con un sesgo hacia el OD.

El sesgo del verbo guía a los lectores a una interpretación de los


verbos con una interpretación complementaria, esta información esta
disponible muy deprisa, cuando se llega a la palabra que sigue al verbo,
ademas la información del sesgo del verbo interactúa con la posibilidad de que
un sustantivo temporalmente ambiguo sea un OD. Este resultado se explica
mejor con los modelos basados en restricciones, puesto que, según el
modelo de vía muerta, no debería haber ningún efecto temprano de la
verosimilitud y del sesgo del verbo.

En los modelos basados en restricciones se termina resolviendo la


ambigüedad sintáctica mediante competencia, las restricciones activan
distintos análisis en distinta medida: si dos o mas análisis están activos la
competencia es fuerte y el procesamiento difícil, se resuelve la
competencia acomodándose en una cuenca de atracción en una red de
atractores. McRae et al propusieron un modelo conexionista de
resolución de la ambigüedad denominado competencia-integración, la
competencia entre estructuras desempeña un papel fundamental en el
proceso de análisis sintáctico que comprueba esencialmente su estructura
preferida tras cada nueva palabra, la evidencia a favor de los modelos de
competencia en paralelo, proviene de los estudios que demuestran que
cuanto mas compromiso asume la gente con la elección de un análisis
sintáctico, mas difícil es que se recupere, efecto llamado digging-in o
enterramiento. Cuando se ha enterrado las interpretaciones
alternativas (incluyendo las correctas) están menos activadas. Otra faceta
importante de los modelos basados en restricciones es que la
ambigüedad sintáctica y léxica se resuelve de forma parecida debido a
la importancia que tienen las restricciones léxicas en el análisis sintáctico.

Parte de la dificultad de diferenciar entre las teorías autónomas e


interactivas basadas en restricciones provienen de la dificultad de
obtener pruebas de que está ocurriendo en las primeras fases de la
comprensión. El análisis del movimiento del los globos oculares
sugeriría que la gente procesa las instrucciones de forma incremental,
moviendo los ojos hacia los objetos inmediatamente después de la instrucción
relevante.

Salva Herrera- MailTo : ssalva4@me.com


124
Tema 10 - Comprensión de la estructura de las frases
La mejor evidencia de la independencia del análisis sintáctico del
semántico proviene de la lectura de los estudios de frases con breves
ambigüedades sintácticas en las que los oyentes tienen claras preferencias
por determinadas interpretaciones, incluso cuando el contexto lingüístico
anterior respalda una interpretación alternativa.

Los estudios de RMf demuestran que el cerebro procesa las frases


ambiguas y no ambiguas de distinta manera, se muestran niveles
superiores de activación cerebral con las ambiguas pero también
durante la lectura de estructuras mas complejas y estructuras no
preferidas, ademas y en contra de los resultados, de los tiempos de lectura,
se mostraba una mayor activación al leer frases frases ambiguas cuando se
resolvía la ambigüedad a favor de la construcción sintáctica preferida, en
concreto, el are de Broca podría estar implicada en la generación de
marcos sintácticos abstractos, la de Wernicke, por su parte, en la
interpretación y elaboración de estos marcos con información
semántica. Estas conclusiones son mas consistentes con los modelos en
paralelo donde se mantienen abiertos múltiples análisis al mismo tiempo.

Diferencias mutilingüísticas en la adjudicación:


Cuetos y Mitchell analizaron el grado en que las personas que hablan
ingles y español utilizan la estrategia de cierre tardío para interpretar el
mismo tipo de frases, concluyeron que, aunque se podían explicar las
interpretaciones de los angloparlantes mediante el cierre tardío, no
era así para los hispanohablantes. Estos resultados sugieren que es posible
que el cierre tardío no sea una estrategia general común a todos los idiomas,
por el contrario las preferencias de análisis sintáctico podrían reflejar la
frecuencia de las distintas estructuras dentro de un idioma, estas diferencias
mutilingüísticas ponen en duda la idea de que el cierre tardío sea un
principio generado por el proceso que confiere ventajas a la persona
que esta intentando comprender la frase. Frazier propuso que el cierre
tardío es ventajoso porque si se mantiene abierto un elemento
constituyente todo el tiempo que sea posible, se evita el coste de
procesamiento al tener que cerrarlo, abrirlo y volver a cerrarlo.

Se pueden explicar los resultados de estas investigaciones de tres formas


distintas, primera: es posible que no se produzca un cierre tardío debido a
ventajas, y que la elección de la estrategia sea fundamentalmente una elección
arbitraria en distintos idiomas, segunda: el cierre tardío podría tener una
ventaja y podría ser la estrategia habitual, pero en algunos idiomas es posible
que dominen otras, tercera: como defienden los modelos basados en
restricciones, el análisis sintáctico no utiliza en absoluto los principios
lingüísticos.
Salva Herrera- MailTo : ssalva4@me.com
125
Tema 10 - Comprensión de la estructura de las frases

Lo modelos basados en restricciones incluyen un elemento


probabilístico, un ejemplo es el modelo probabilista es la hipótesis de
afinación: según la cual se pone de manifiesto la exposición al idioma,
las decisiones del análisis sintáctico están influidas por la frecuencia
con la que se utilizan los análisis alternativos, dicho de otra forma, la
gente resuelve las ambigüedades de la misma forma que ha tenido
éxito en el pasado. Las preferencias de la adjudicación pueden variar de
un idioma a otro, y de un individuo a otro, e incluso en un mimo
sujeto.

10.4.4 Comparación de las teorías de vía muerta y las teorías basadas en


restricciones

¿Cuando interactúa la sintaxis con la semántica en el análisis sintáctico? Esta


ha resultado ser la pregunta central en el análisis sintáctico. En los modelos
de dos factores en serie como la vía muerta, el análisis inicial esta
restringido utilizando únicamente la información sintáctica y las
preferencias, y una segunda fase utilizando la información semántica.
En los modelos basados en restricciones en paralelo, se activan
múltiples análisis desde el principio, y se usa la información sintáctica
como la no sintáctica para activar las representaciones alternativas, no
hay un gran consenso sobre cual de los dos modelos es mejor. Las
distintas tácticas parecen dar distintas respuestas, así los defensores del
modelo vía muerta, afirman que los efectos que respaldan a los modelos de
restricciones, surgen por que la segunda fase de análisis empieza muy deprisa,
así cualquier activación observada se esta produciendo en esta fase, que
empieza en un momento muy temprano del PI, por tanto los experimentos
tienen fallos metodológicos y que no consiguen explicar todos los datos
disponibles. Por otra parte, los defensores de los modelos basados en
restricciones afirman que los investigadores que prefieren el modelo de vía
muerta utilizan técnicas que no son lo suficientemente sensibles, o que las
restricciones no sintácticas utilizadas son demasiado débiles.

Teoría de la vía muerta: se puede describir como un modelo de elección


fija en dos fases. Modelos basados en restricciones: son modelos de
elección variable en una fase, se resuelve la antigüedad sintáctica
mediante una competencia.

Salva Herrera- MailTo : ssalva4@me.com


126
Tema 10 - Comprensión de la estructura de las frases
Van Gompel et al: analizaron cómo resolvemos la ambigüedad, sólo un
modelo de elección variable en dos fases puede explicar este patrón de
resultados, el modelo de carrera sin restringir.

Modelo de carrera sin restringir

Se utilizan todas las fuentes de información tanto sintácticas como semánticas, para elegir
entre estructuras sintácticas alternativas

Las alternativas se construyen en paralelo en una carrera en la que el ganador es el


análisis que se construye más deprisa y se adopta como interpretación sintáctica
del fragmento

En contra de las teorías basadas en restricciones sólo se adopta un análisis de cada


vez

Si el análisis es inconsistente con la información posterior, el procesador tiene que


volver a analizar, a un coste considerable

También es un modelo dos fases

Es un modelo de elección variable, puesto que el análisis inicial se ve afectado por las
características particulares del fragmento de la frase

La conclusión crítica y sorprendente que este modelo explica es que, a veces, las
frases ambiguas son menos difíciles que las frases no ambiguas

Algunos investigadores creen ahora que la gente utiliza heurísticos sencillos al


procesar lenguaje, además de un procesamiento sintáctico detallado y
completo.

10.4.5 Procesamiento de la ambigüedad sintáctica por categorías

Un tipo de ambigüedad léxica de particular importancia para el


procesamiento de la sintaxis es la ambigüedad léxica por categorías,
por la que una palabra puede estar en mas de una categoría sintáctica. Este
tipo de ambigüedad proporciona una prueba útil de la idea de que la
ambigüedad léxica y la sintáctica son facetas de una misma cosa y se
procesan de manera análoga.

Según los modelos de fases en serie, como la teoría de la vía muerta,


la ambigüedad léxica es bastante distintiva de la sintáctica, porque las
representaciones léxicas ya están computadas, pero las representaciones
sintácticas deben computarse. La ambigüedad léxica y semántica se resuelven
de la siguiente forma: se generan en paralelo interpretaciones semánticas
alternativas, y se elige rápidamente un significado a partir del contexto y de la
frecuencia del mismo, la ambigüedad sintáctica se resuelve con el modelo de
vía muerta en tanto solo se construye un análisis en un momento dado, si
resulta incorrecto será necesario volver a analizar.

Salva Herrera- MailTo : ssalva4@me.com


127
Tema 10 - Comprensión de la estructura de las frases
La ambigüedad léxica por categorías se resuelve mediante un
mecanismo de retraso, la ventaja de esta estrategia de retraso es que
ahorra una gran cantidad de computación porque normalmente la palabra
siguiente a la de la ambigüedad léxica por categorías, proporciona la solución
así Frazier y Rayner propusieron que cuando el procesador se
encuentra con la ambigüedad inicial se produce muy poco análisis, por
el contrario, se retrasa el procesamiento hasta que llega la
información desambiguadora.

Según las teorías basadas en restricciones, tampoco hay diferencia


real entre la ambigüedad léxica-semántica y la léxica por categorías,
en cada caso, se activan las alternativas en paralelo en función de la fortaleza
del apoyo que reciben de múltiples fuentes de información.

Según el modelo de retraso, incluso un fuerte sesgo semántico no debería


afectar a la resolución inicial, por que se retrasan todas las decisiones hasta
que se alcanza la región de desambiguación: los tiempos de lectura deberían
ser los mismos independientemente de que el sesgo esté respaldado o no.
Según el modelo basado en restricciones, un fuerte sesgo semántico
debería tener un efecto inmediato. Los resultados que se han obtenido
respaldan la idea del modelo de restricciones, por tanto el sesgo tiene
un efecto inmediato.

10.5 Brechas, retrasos y dependencias sin limitar

Brecha: una parte vacía de la construcción sintáctica que esta relacionada con
un rellenador, que es lo que rellena a la brecha.

El análisis sintáctico de las frases sugiere que, en ocasiones, se ha movido o


borrado un elemento constituyente. Las brechas y rasgos pueden ser
importantes en el análisis sintáctico de las frases, hay cierta evidencia de que
rellenamos las brechas cuando nos las encontramos, así primero los rasgos
tensan la memoria: el elemento desplazado tiene que ser mantenido en la
memoria hasta que se alcanza el rastro, segundo, se puede detectar el
procesamiento de rastro midiendo la actividad eléctrica de cerebro,
y tercero, todos los idiomas parecen una estrategia de rellenador reciente por
la que, en casos de ambigüedad, se rellena la brecha con el rellenador mas
reciente gramaticalmente reciente.

Una posibilidad es que cuando el procesador detecta una brecha la rellena con
el elemento mas activo y esta preparado para volver a analizar si es necesario
( estrategia del rellenador activo), otra posibilidad es que el procesador
detecte una brecha, al rellene con un rellenador que es el elemento
Salva Herrera- MailTo : ssalva4@me.com
128
Tema 10 - Comprensión de la estructura de las frases
constituyente despeado potencial mas reciente (estrategia del rellenador
mas reciente), esto retrasa el proceso lo que lleva a tiempos de lectura mas
lentos. Estas dos estrategias pueden resultar difíciles de distinguir, pero en
cada caso, la detección del rastro desempeña un papel importante en el
análisis sintáctico.

Por otra parte, hay oras investigaciones que sugieren que los rastros no son
importantes en el procesamiento conectado, McKoon, et al no lograron
reproducir los estudios que demuestran que los rasgos pueden primar a sus
antecedentes. Un planteamiento alternativo a la idea de que activamos los
filtros cuando llegamos a la brecha es que la interpretación esta impulsada por
los verbos, mas que por la detección de las brechas, de forma que postulamos
argumentos esperados de un verbo en cuanto llegamos a él. Por lo que Boland
et al, concluyeron que la postulación y el rellenado de las brechas es inmediata
e impulsada por los verbos. El análisis de los tiempos de lectura demostró que
los participantes detectaban las anomalías antes de la brecha, los estudios de
ERP confirman la detección de la anomalía asociada con el verbo. En resumen,
la mayor parte de la evidencia sugiere que los rellenadores se postulan
activando la estructura del argumento de los verbos.

10.6 Neurociencia del análisis sintáctico

Los déficits de análisis sintáctico pueden no siempre resultar evidentes, por


que la gente suele recurrir a las pistas semánticas para obtener el significado,
el déficit se hace patente cuando se eliminan estas pistas y el paciente se ve
obligado a recurrir al procesamiento sintáctico. Hay cierta evidencia de que las
funciones sintácticas tienen lugar en determinadas partes del cerebro
dedicadas en exclusiva a estas funciones.

10.6.1 Habilidades de comprensión de los afásicos agramaticales

El desorden del procesamiento sintáctico que sigue a una lesión en el área de


Broca se denomina agramatismo, cuya característica mas evidente es un
deterioro de la producción del habla. Sin embargo muchas personas con
agramatismo también tienen dificultades para comprender frases
sintácticamente complejas. Estos pacientes tienen especialmente problemas
para comprender construcciones pasivas reversibles y construcciones con
objeto relativo, cuando no hay pistas semánticas. Una explicación de los
problemas que tienen estos individuos es que la lesión cerebral ha deteriorado
la capacidad de analizar sintácticamente, son incapaces de acceder
Salva Herrera- MailTo : ssalva4@me.com
129
Tema 10 - Comprensión de la estructura de las frases
correctamente a los elementos gramaticales, otra idea es que esta dificultad se
debe a que no se procesan correctamente los rastros sintácticos, y los nodos
terminales de los arboles sintácticos que se corresponden con las palabras
funcionales no están formados de la manera adecuada.

Grodzinsky estableció la hipótesis de la supresión del rastro, esta afirma


que la gente que tiene un déficit de compresión agramatical, tiene problemas
para computar la relación entre los elementos de una frase que se han
desplazado mediante una transformación gramatical. Un problema de este
planteamiento es que la evidencia de la existencia de los rastros en el análisis
sintáctico es cuestionable.

Cierta evidencia en contra de la idea de que los agramáticos tienen cierta


discapacidad del análisis sintáctico, proviene de la tarea de valoración de la
corrección gramatical, la cual consiste en preguntar a la gente si una serie de
palabras constituyen una frase gramaticalmente correcta o no. Parece que
estos pacientes pueden computar la estructura constituyente de una frase,
pero tienen problemas para utilizar esta información, se demostró que los
agramáticos podían aislar los argentemos del verbo principal de frases que
contenían materiales extraños pero tenia problemas utilizando la sintaxis para
asignar papeles temáticos. Estos estudios redundan en la idea de que tienen
conocimiento sintáctico pero no son capaces de utilizarlo.

Por el contrario la hipótesis de las correspondencias es la idea de que la


perturbación de la comprensión se produce porque, a pesar de que los
procesos de análisis sintáctico de bajo nivel están intactos, los agramáticos
están limitados en lo que pueden hacer con los resultados de estos procesos,
en concreto tienen problemas para asignar papeles temáticos. Algunos tipos de
pacientes, que cabria esperar encontrar no han sido hallados, en particular
nadie a descrito el caso de una persona que conozca los significados de las
palabras pero sea incapaz de asignarlos a papeles temáticos.

Un planteamiento distinto postula que el déficit de la comprensión sintáctica se


debe a un deterioro de la memoria general, el patrón del deterioro observado
depende del grado de reducción de la capacidad del lenguaje y de la
complejidad estructural de la frase que se esta procesando.
En particular, estos recursos computacionales limitados implican que las
personas que tienen un déficit de comprensión sintáctica padecen una
disponibilidad de materiales restringida. En otras palabras, las personas que
tienen un déficit de comprensión sintáctica se encuentran únicamente en un
extremo de un continuo de una capacidad ejecutiva central comparadas con la
población no clínica. El conocimiento sintáctico sigue intacto, pero no se puede
utilizar adecuadamente debido a esta deterioro de la memoria de trabajo.
Salva Herrera- MailTo : ssalva4@me.com
130
Tema 10 - Comprensión de la estructura de las frases

Los elementos gramaticales no se procesan en partes del cerebro con una


dedicación exclusiva, y son particularmente vulnerables al deterioro global
cognitivo, la evidencia a esta idea procede de los autoinformes “los demás
hablan demasiado deprisa” y análogamente que un habla mas pausada les
facilita la comprensión sintáctica, en algunos pacientes afásicos. Así la falta de
tiempo o un rápido deterioro del procesamiento sintáctico podrían jugar un
pape causal en el déficit de comprensión sintáctico y en la producción
agramatical. Esta es una idea que ha provocado una gran cantidad de debate,
resulta rebatible el grado en que el déficit de comprensión esta relacionado con
los recursos computacionales limitados. Caplan y Waters señalaron que una
rápida presentación podría influir con la percepción de las palabras mas que
con el procesamiento sintáctico, además, los pacientes con EA con una
capacidad de memoria de trabajo restringida muestran un pequeño efecto de
la complejidad sintáctica, pero graves efectos de la complejidad semántica. En
definitiva parece que una reducción general de la capacidad de memoria de
trabajo no puede provocar el déficit sintáctico en el agramatismo.

Las palabras contenido son sensibles a la frecuencia en una tarea de decisión


léxica, pero no las palabras funcionales. Los pacientes agramaticales son
sensibles a la frecuencia de las palabras funcionales, así como a la frecuencia
de las palabras de contenido, esto se debe a que la lesión implica que las
palabras funcionales ya no pueden ser afectadas por un conjunto especial de
procesos y deben ser acedadas como otras palabras de contenido. Tal vez las
dificultades de comprensión de estos pacientes se deban a la dificultad de
activar las palabras funcionales.

10.6.2 Deterioro del procesamiento automático o atencional

Tyler proporcionó cierta evidencia de que al menso algunos déficit en algunos


pacientes surge debido a un deterioro del procesamiento atencional, analizo la
comprensión afásica de anomalías sintácticas y semánticas, comparando el
rendimiento medio con un indicador conectado (monitorizando determinada
palabra) con el rendimiento medio con un indicador desconectado, y sus
conclusiones sugieren que los procesos de análisis sintácticos automáticos
estaban intactos, pero los atenciones estaban deteriorados, se trata de una
cuestión compleja que ha incitado una gran cantidad de investigación.

Salva Herrera- MailTo : ssalva4@me.com


131
Tema 10 - Comprensión de la estructura de las frases
10.6.3 Evaluación de los trabajos sobre neuropsicología del análisis
sintáctico

Gran parte del trabajo tiene un carácter técnico, y esta relacionado con las
teorías lingüísticas de la representación sintáctica, también es improbable que
haya una única causa para la diversidad de los déficits observados.

Friederici afirma que el procesamiento de las frases se produce en tres fases

fase I se forma la estructura sintáctica, iniciado a partir de la información sobre la


(100-300ms) categoría de las palabras

Fase II Los procesos léxico-sintácticos que tienen lugar, generan una asignación de
(300-500ms) papeles temáticos

Fase III Se integran los distintos tipos de información, afirmando que los procesos
(500-1000Ms) sintácticos y semánticos solo actúan en esta fase

Resumen Tema 10

Los primeros lingüistas recogieron dos ideas del trabajo original de Chomsky: la teoría de la
derivación de la complejidad, y la autonomía de la sintaxis

Los primeros experimentos respaldaban la idea de que cuantas mas transformaciones tenia
una frase, mas se tardaba en procesarla, sin embargo, los experimentos que usaron tareas
mas psicológicamente realistas no consiguieron reproducir estas conclusiones

Aunque la teoría lingüista influyó sobre las primeras explicaciones del análisis sintáctico, los
lingüistas y los psicolingüistas se alejaron de enseguida

La cláusula es una unidad importante del procesamiento sintáctico

En los modelos autónomos, solo se utiliza la información sintáctica para construir y elegir
distintas estructuras sintácticas alternativas, en los modelos interactivos se utiliza la
información no sintáctica en el proceso de selección

Los psicolingüistas han estudiado en particular la forma en la que comprendemos frases


ambiguas, como por ejemplo, las construcciones que llevan a engaño

Uno de los tipos de frases que llevan a engaño mas estudiados es la cláusula relativa
reducida, como el la bien conocida frase de “el caballo que corrió delate del granero cayó”

Lo primeros modelos del análisis sintáctico se centraban en las estrategias del análisis
sintáctico que utilizaban pistas sintácticas

Kimball propuso los 7 principios de análisis sintáctico de estructuras superficiales

La maquina de embutidos de Frazier y Fodor incluía un empaquetador preliminar de


locuciones y un supervisor de la estructura de la frase

Salva Herrera- MailTo : ssalva4@me.com


132
Tema 10 - Comprensión de la estructura de las frases

El principio de adjudicación mínima afirma que preferimos la construcción sencilla, donde por
sencillo se entiende que la estructura crea el numero mínimo de nodos sintácticos

El principio de cierre tardío afirma que preferimos asignar el material entrante a la cláusula o
locución que se esta procesando actualmente

Los idiomas pueden diferir en sus preferencias de adjudicación

El modelo de vía muerta para el análisis sintáctico sigue siendo un modelo en dos fases
donde solo la información sintáctica puede afectar a la primera fase

Salva Herrera- MailTo : ssalva4@me.com


133
Tema 11 - El significado de las palabras

Tema 11 - El significado de las palabras

11.1 introducción

La derivación de un significado es el objetivo último del procesamiento del


lenguaje, y el significado es el inicio del proceso de producción.
Tulving diferenció el contenido de la memoria episódica del contenido de la
memoria semántica (donde se “aloja” el conocimiento general del mundo).

La MS se desarrolla a partir de episodios, o se abstrae a partir de los mismos,


que son sucesos que se pueden repetir en muchas ocasiones, se ha visto como
el diccionario mental se conoce como lexicón, y de forma parecida el almacén
de conocimientos se conoce como la enciclopedia mental, es mas resulta
evidente que existe una gran conexión entre ambos, la neuropsicología revela
importantes disociaciones en este sentido, así ya se ha visto como palabras y
sus significados pueden estar disociados.

La idea del significado esta estrechamente relacionado con las categorías, un


concepto determina como se relacionan las cosas entre si o como se
clasifican , en definitiva un concepto es una representación mental de una
categoría, así pues los conceptos especifican de alguna manera la pertenencia
a una categoría. Todas las palabras tienen un concepto subyacente, pero no
todos los conceptos pueden expresarse con una única palabra.

Rosch afirmó que la forma en la que clasificamos el mundo no es arbitraria,


sino que esta determinada por características importantes de nuestro sistema
cognitivo, primero: las categorías que formamos esta determinadas por la
forma en la que percibimos la estructura del mundo, así la formación de las
categorías esta determinado, al menos en parte, por factores biológicos de los
que se sabe poco, segundo: la estructura de las categorías podría estar
determinada por una economía cognitiva, EC, esto significa que la MS se
organiza del tal forma que se evitan duplicidades excesivas, también es posible
que tengamos que diferenciar entre miembros de una categoría con mas
frecuencia que entre miembros de otra. Otra desventaja de la EC puede ser un
incremento del tiempo de recuperacion, puesto que tenemos que buscar en
nuera memoria donde se almacenan los hechos pertinentes.

Debería ser evidente que el estudio del significado requiere capturar la forma
en la que las palabras hacen referencia a cosas que pertenecen todas a la
misma categoría y tienen algo en común, y sin embargo, son distintas de los
elementos que no pertenecen a dicha categoría.

Salva Herrera- MailTo : ssalva4@me.com


134
Tema 11 - El significado de las palabras

Las relaciones jerárquicas entre categorías son una forma clara en que se
pueden relacionar las palabras en cuanto al significado, pero hay otras formas
que son igualmente importantes, así la semántica es algo mas que
asociaciones de palabras, las palabras pueden estar relacionadas (yate, barco)
sin necesidad de estar asociadas, por lo que cualquier teoría sobre el
significaos de las palabras no puede recurrir sencillamente a la asociación
entre palabras. Las palabras con significados parecido tienden a producirse en
contextos parecidos, Lund y Burgess demostraron que las palabras con un
parecido semántico son intercambiables en una frase, y esta continua teniendo
sentido, mientras que los pares de palabras que solo están asociados, su
intercambio, generaría frases sin sentido. Las asociaciones surgen entre
palabras que se producen juntas con regularidad, mientras que las relaciones
semánticas surgen de contextos compartidos y relaciones de nivel superior,
una tarea de investigación sobre la semántica consiste en capturar la forma en
la que se pueden compartir esos contextos.

La semántica también es el interfaz entre el lenguaje y el resto de la


percepción y la cognición, Jackendoff propuso dos restricciones sobre la teoría
general de la semántica, la restricción gramatical: afirma que deberíamos
preferir una semántica que serian generalizaciones arbitrarias sobre la sintaxis
y el lexicón. Algunas teorías basadas en la lógica inculpen esta restricción,
dicha restricción afirma que la semántica y la sintaxis deberían estar
relacionadas de forma sensata. Por otro lado la restricción cognitiva: afirma
que hay un nivel de representación en el que la semántica debe tener un
interfaz con otras representaciones psicológicas, como las que derivan de la
percepción. Los modelos conexionistas, en particular, muestran como se puede
cumplir esta restricción.

11.2 Enfoques clásicos de la semántica

La denotación de una palabra es su significado central, esencial. Las


connotaciones de una palabra son todas sus implicaciones secundarias o
asociaciones emocionales o evaluativas, dicho de otro modo, la gente se
muerta de acuerdo en las denotaciones pero en cuanto a las connotaciones de
una palabra se pueden definir en función de cada individuo.

La teoría del significado: a cual afirma que las palabras significan aquello
que a lo que hacen referencia, es una de las mas antiguas y se conoce como la
teoría referencial del significado, sin embargo, hay dos grandes problemas con
esta teoría. Primero: no esta nada claro como trata esta teoría a los
conceptos abstractos, segundo: existe una disociación entre palabra y las
cosas a las que puede hacer referencia.
Salva Herrera- MailTo : ssalva4@me.com
135
Tema 11 - El significado de las palabras

La intensión se refiere al sentido de una palabra, su especificación abstracta


que determina como se relaciona su significado con el de otras palabras, por
su parte la extensión se refiere a aquello que representa la palabra en el
mundo, es decir todos los objetos designados por esta intensión. Los
especialistas en lógica, ha desarrollado este enfoque semántico formal de
creación de modelos lógicos del significado creando complejos sistemas de
significado conocidos como semántica del modelo teórico, dada la
importancia de la verdad en estas teorías, a veces se las conoce como
semántica del modelo teórico.

11.3 Redes semánticas

Uno de los enfoques de procesamiento mas influyentes sobre el significado se


basa en la idea de que el significado de una palabra viene dado por la forma a
la que se acopla a la red de los demás significados, así algunas de las teorías
primigenias, desde Aristóteles, pasando por los conductistas, pensaban que el
significado se deriva de la asociación de una palabra. Sin embargo esto
enseguida resulto insuficiente, dado que la asociación por sí misma no tenia
suficiente potencia como para poder capturar todas las facetas del significado,
en una red asociativa no hay estructura, y no hay relación entre las palabras,
jerarquía ni economía. En una red semántica se obtiene este poder adicional
haciendo que las conexiones de los elementos hagan algo, es decir, en una red
semántica, los vínculos entre los propios conceptos tienen significado.

11.3.1 El modelo de Collins y Quillian

Este trabajo surgió de un intento de desarrollar un compresor de lenguaje


eseñable para ayudar en la traducción informática entre idiomas. Una red
semántica es particularmente útil en términos de categoría natural, se trata de
palabras que pertenecen a la naturaleza y a sus miembros. El esquema
atribuye una importancia fundamental a su carácter inminentemente
jerárquico. Se trata de un método muy económico para almacenar
información, en la red los nodos están conectados por vínculos que especifican
la relación entre los nodos conectados : el vínculo mas común es ES UN que
significa que el nodo de nivel inferior es un tipo de nodo de nivel superior, los
atributos se almacenan en el nivel mas bajo posible.

Tarea de verificación de frase: una de las tareas mas importantes y


comúnmente utilizadas en las primeras investigaciones sobre la MS fue la de
verificación de frase, se presentan a los participantes hechos sencillos, y estos
tienen que apretar un botón sin la frase es cierta, y otro si es falsa. El TR es un

Salva Herrera- MailTo : ssalva4@me.com


136
Tema 11 - El significado de las palabras
indice de la dificultad de la decisión. Los datos de los primeros experimentos
sobre la verificación de la frase respaldaban al modelo de Collins y Quillian.
Problemas del modelo de Collins y Quillian: en seguida surgieron una
serie de problemas con este modelo, en primer lugar es evidente que no toda
la información se representa correctamente de forma jerárquica, un segundo
problema es que los materiales en la tarea de verificación de la frase que
parecen respaldar al modelo jerárquico confunden la distancia semántica con lo
que se denomina frecuencia conjunta, por ejemplo, pájaro y petirrojo aparecen
juntas en el lenguaje, se utilizan en la misma frase, con mucha mas frecuencia
de lo que se produce conjuntamente pájaro y animal, en la misma frase. Así
cuando se tiene en cuenta la frecuencia conjunta, se debilita la relación lineal
entre la distancia semántica y el tiempo.

Estas conclusiones sugieren que una interpretación alternativa de los


resultados de la verificación de la frase es que las frases que tienen unos
tiempos de verificación mas rápidos, contienen palabras que están
estrechamente asociadas. Otra posible confusión en los experimentos
originales de verificación de frase, es con el tamaño de la categoría, la clase
“animales” es, por definición, mayor que la clase “pájaro”, por lo que tal vez
hace falta mas tiempo para buscar en ella. Por último, la estructura de la MS
no siempre refleja la estructura de las categorías.

Otros problemas

Efecto del grado de relación :esto es, no rechazamos las afirmaciones inciertas con las
misma lentitud, cuanto mas relacionadas están dos cosas mas difícil es desenredarlas
incluso si no pertenecen a la misma clase.

Tampoco se responde a todas las afirmaciones ciertas en las que hay una misma distancia
semántica con la misma rapidez

Las listas de las características están correlacionadas con lo tiempos de clasificación:


podemos clasificar mas deprisa cada caso cuantas mas características comparte con un
concepto

En resumen, hay demasiadas conclusiones problemáticas de los experimentos


de verificación de frase como para aceptar el modelo de red jerárquica en su
formato original. Entre todos estos efectos problemáticos, los del prototipo y el
grado de relación, son especialmente importantes, las redes semánticas no
capturan el carácter gradual del conocimiento semántico.

Revisiones del modelo: Collins y Loftus propusieron una revisión del


modelos de Collins y Quillian, basada en la idea de propagación de la
activación, así la estructura de la red se hizo mas compleja, con vínculos entre
nodos que variaban en cuanto a distancia o potencia, así la estructura ya no

Salva Herrera- MailTo : ssalva4@me.com


137
Tema 11 - El significado de las palabras
era fundamentalmente jerárquica, aunque las relaciones jerárquicas siguen
formando parte de la red.
El acceso y el priming se producen a través de un mecanismo de propagación,
el problema de este modelo es que es muy difícil contrastarlo, resulta muy
difícil idear el tipo de experimento que pudiese falsario, no obstante la idea d
lea propagación ha resultado muy influyente en los modelos conexionistas.

11.4 Características semánticas

Otro enfoque de la MS considera que el significado de una palabra no esta


determinado por la posición de la palabra en una red de significados, sino por
la descomposición en unidades de dignificado mas pequeñas. Estas unidades
se conocen como características semánticas, atributos semánticos, o
marcadores semánticos. Las teorías que utilizan los marcadores semánticos se
suelen conocer como teorías descomposicionales, la alternativa a estas es que
cada palabra esta representada por su propio concepto y no se descompone
mas. Las características semánticas funcionan muy bien en algunos campos
sencillos en los que hay una clara relación entre los términos, uno de estos
campos, muy estudiado por los antropólogos, es el de los términos de
parentesco. Podemos llevar lejos la idea de las características semánticas y
presentar los significados de todas las palabras en función de las
combinaciones, es como si se convirtiesen en átomos de significado, es lo que
se conoce como primitivos semánticos. Este enfoque ha sido particularmente
influyen en la IA.

Se pueden analizar todos los verbos comunes en función de 12 acciones


primitivas que hacen referencia al movimiento de los objetos, las ideas y las
relaciones abstractas. Wilks describió un sistema semántico en el que se
pueden reducir seiscientas palabras en la simulación a combinaciones de tan
solo ochenta primitivas. La representación semántica y los papeles sintácticos
que pueden adoptar las palabras están íntimamente vinculados, en la misma
fecha Wierbicka afirmó que a pesar de su aparente diversidad, todos los
lenguajes naturales comparten un núcleo común de aproximadamente sesenta
primitivas conceptuales que existen en todos los idiomas. Por supuesto,
simplemente porque podemos reducir el significado de todas las palabras, a un
numero relativamente pequeño de primitivas no significa que esta sea la forma
en que representamos realmente los significados.

11.4.1 Primeras teorías descomposicionales

Una de las primeras teorías descomposicionales fue la Katz y Fodor, esta teoría
mostraba como se puede derivar el significado de una frase mediante la
combinación de características semánticas de cada palabra individual de la
Salva Herrera- MailTo : ssalva4@me.com
138
Tema 11 - El significado de las palabras
frase. Ponía de relieve al forma en la que los comprendemos las palabras
ambiguas.
Primero Katz y Fodor postularon una teoría descomposiciones de significado de
forma que se degradan los significados de las palabras individuales en la frase
en sus características semánticas constituyentes (marcadores semánticos),
segundo, la combinación de características entre palabras esta gobernada por
restricciones particulares denominadas restricciones de selección. Uno de los
problemas de este tipo de enfoque es que para la mayoría de las palabras, es
imposible proporcionar una lista exhaustiva de sus características.

11.4.2 Teorías de las listas de características y verificación de las frases

Las teorías descomposicionales del significado nos permiten hacer una lista de
significados de las palabras como listas de características semánticas. Rips et
al propusieron que hay dos tipos de características semánticas, las
características definitorias son esenciales al significado subyacente de una
palabra y están relacionadas con las propiedades que deben tener las cosas
para pertenecer a la categoría, las distintivas suelen ser válidas para todos
los casos de la categoría, pero no son necesariamente válidas.

Verificación de las frase y las teorías de la lista de características:


Según Rips la verificación de la frase implica hacer comparativa de las listas de
características que representan los significados de las palabras en dos fases.
Por ello, este enfoque se conoce como la teoría de la comparación de
características, en la primera fase, se compara la similitud característica
general de dos palabras, incluyendo las definitorias como las distintivas, así si
hay un gran solapamiento, responderemos “verdadero”, en caso contrario
“falso”. Sin embargo si la magnitud del solapamiento no es muy elevada ni
muy baja, entonces, tendremos que pasar a una segunda fase de
comparación, en la que solo se tendrán en cuenta las definitorias, lo cual
requiere mas tiempo, por lo que es necesaria la exactitud de correspondencia
entre las características para responder “verdadero”. La ventaja de la primera
fase es que, aunque la comparación no es detallada, es muy rápida, no
siempre tenemos que hacer comparaciones detalladas.

Un problema del modelo de la lista de características es que está muy


estrechamente relacionado con el paradigma de verificación de frases. Un
problema mas general es que muchas palabras no tienen características
definitorias evidentes. Smith y Medin ampliaron la modernizaron la teoría de
las características con el modelo probabilista de las características: en
este enfoque hay una importante distinción entre las descripciones centrales
(incluye las características definitorias esenciales del concepto) y los
procedimientos de identificación de un concepto (hacen referencia a aquellos
Salva Herrera- MailTo : ssalva4@me.com
139
Tema 11 - El significado de las palabras
aspectos del significado que están relacionados con la identificación de casos
particulares del concepto).
En una tara de verificación de frase, un caso particular es aceptado como un
caso particular de una categoría si supera determinada suma pondera crítica
de características. El modelo revisado tiene la ventaja de poner de relieve la
relación entre el significado e identificación y puede explicar todos los datos de
tiempos de verificación . Puesto que la identificación de un ejemplo de una
categoría solo implica la superación de un umbral , así las categorías que
tienen delimitaciones borrosas ya no son un problema.

11.4.3 Evaluacion de las teorías descomposicionales

Hay cierta evidencia a favor y en contra de las teorías descomposicionales, es


un área en la que resulta realizar experimentos. Hollan afirmó que es
imposible diseñar un experimento para distinguir entre una lista de
características y las teorías de una red semántica porque son formalmente en
tanto en cuanto es imposible encontrar una predicción que pueda diferenciar
entre ambas. Por tanto para todos los fines y propósitos, podemos considerar
que los modelos de redes son un tipo de modelo descomposiciones.

Por otra parte resulta difícil construir representaciones descomposicionales de


incluso algunas de las palabras mas comunes, algunas de las categorías no
tiene características definitorias evidentes que sean comunes a todos los
miembros. El ejemplo mas famoso de este caso fue propuesto por
Wittgenstein, quien se preguntó que es lo que tenían en común todos los
juegos, y por tanto, como habría de definirse un juego: no hay una clara
definición, por el contrario es como si hubiese muchos juegos distintos que
tienen un parecido familiar. Incluso cuando aparentemente se pueden definir
palabras, las características que encontramos no son particularmente
atractivas, o intuitivamente obvias, cabe suponer que se podría generar un
conjunto alternativo con la misma facilidad, además ni siquiera esta claro que
nuestras definiciones sean completas, a menudo es como si tuviésemos que
anticipar todas facetas posiblemente importantes del significado con
antelación. Por lo general, la interpretación del significado de una palabra es
muy sensible al acontecimiento de la palabra, podríamos sugerir que estos
problemas se resuelven haciendo inferencias mas que limitándose a acceder a
la MS, pero entonces el problema se complica. Finalmente tenemos mas
conocimiento sobre el significado de la palabra de que se puede representar
como una lista de características, se conocen además las relaciones de estas
características, así se dice que estas están intercorrelacionadas.

Salva Herrera- MailTo : ssalva4@me.com


140
Tema 11 - El significado de las palabras
Hay algunos problemas con los experimentos de Rips et al, el grado de relación
semántica y la familiaridad de los estímulos fueron confundidos en los
materiales experimentales originales.
Además Loftus demostró que, si se revierte el orden de los sustantivos de las
frases utilizadas en la tarea de verificación de frases, se encuentran efectos
que no se prevén en la teoría, por lo que la autora concluyó que el orden de
los sustantivos es importante.

Holyoak y Glass demostraron que la gente puede tener estrategias especificas


para desconfirmar las frases, como pesar en un contraejemplo, mas que
realizar una amplia computación. Finalmente, lo mas revelador, es que no es
fácil distinguir empíricamente entre características definitorias y distintivas, por
tanto el modelo (descomposicional) sigue sin explicar claramente la conclusión
de que algunas categorías tienen delimitaciones poco claras o borrosas.
Finalmente es importante recordar que as características semánticas, o
preventivas no tienen que tener contrapartidas lingüísticas directas, se pueden
utilizar ejemplos para identificarlas.

Obligatoriedad de la descomposición semántica: cuando vemos una


palabra, la recuperacion de sus características es un proceso automático, en la
explicación descomposicional, cuando se ve u se oye una palabra, a de
descomponerse de forma automática, o lo que es lo mismo, se extraer de
forma automática todos los casos particulares validos que están implicados en
su representación característica. La descomposición automática obligatoria es
una teoría cuya contrastación empírica resulta muy difícil, no obstante, Fodor y
Fodor et al, observaron que algunas palabras tienen un elemento implícito
negativo en su definición, los denominaron definitorios puros. Por otro lado,
los autores analizaron la representación de las palabras denominadas
causativas léxicas (verbos que aportan causas o nuevos estados), en un
análisis descomposicional estos verbos incluirían esta representación
semántica, por ejemplo, “matar” estaría representado por algo como “causar
muerte”, sin embargo Fodor et al, no encontraron ninguna diferencia en las
clasificaciones del grado de relación percibido, y por tanto, ninguna prueba de
que los participantes descompongan las causativas léxicas.

Gergel y Bever pusieron en duda esta conclusión, en concreto que el grado de


relación percibido de las palabras sea una función de su distancia estructural,
proporcionaron evidencia experimental para respaldar su afirmación,
concluyendo que no se puede utilizar la técnica de intuiciones sobre el grado
de relación de las palabras, para contrastar la complejidad subyacente relativa
de las representaciones semánticas. Algunos estudios han concluido que las
frases complejas que se creen que incluyen mas primitivos no son menos
fáciles de recordar o mas difíciles de procesar que frases mas sencillas que
Salva Herrera- MailTo : ssalva4@me.com
141
Tema 11 - El significado de las palabras
supuestamente incluyen menos primitivos, aunque Fodor et al afirmaron que la
complejidad semántica debería ralentizar el PI, lo mas probable es que lo
acelere.
Las características también proporciona margen para las interconexiones, las
frases que contienen características que facilitan las interconexiones entre sus
elementos se recuerdan mejor que las que no.

Aunque las tareas de la memoria no siempre proporcionan un reflejo preciso


de lo que está ocurriendo en el momento del PI, hay mas evidencia a favor de
la descomposición semántica, los individuos con afasia tienden a tener éxito en
la recuperacion de verbos con representaciones semánticas ricas en
comparación con las menos ricas. Los errores del habla de sustitución de
palabras semánticamente relacionadas siempre muestran una relación,
característica entre la palabra objetivo y las palabras que se producen.
Finalmente gran parte del trabajo sobre el desarrollo semántico se explica
mejor en términos de cierto tipo de representación de las características.

En resumen, es probable que representemos los significados de las palabras


como combinaciones de características semánticas, aunque es muy difícil
contrastar estas ideas, McNamara y Miller sugirieron que los niños pequeños
descomponen automáticamente las primeras palabras en primitivos semánticos
pero, a medida que se van haciendo mayores, las descomponen en
características esencialmente no primitivas, al final las propias palabras pueden
actuar como características en el sistema semántico.

11.5 Parecido familiar y clasificación

Uno de los principales problemas de la teoría descomposicional de la semántica


es que es muy difícil encontrar una lista de características semánticas para
muchas palabras, muchas categorías parecen definidas por un parecido
familiar entre los miembros mas que por la especificación de características.

11.5.1 Teoría de prototipos

Un prototipo es un miembro medio de una categoría, los miembros potenciales


de la categoría se identifican en función de lo mucho que se parecen al
prototipo o miembro medio de la categoría. El prototipo es el mero ejemplo de
un concepto, y suele ser un ejemplo compuesto inexistente, es un tipo especial
de esquema. Se entiende esquema como marco para organizar el
conocimiento, que se pude estructurar como una serie de ranuras mas
rellenadores, así un prototipo es un esquema con el que todas las ranuras se
han rellenado con valores medios. Las delimitaciones de las categorías no

Salva Herrera- MailTo : ssalva4@me.com


142
Tema 11 - El significado de las palabras
están claras, o son borrosas, hay una gran cantidad de evidencia empírica que
respalda la teoría de los prototipos frente a la teoría de las características.

Una serie de resultados demuestren la ventaja del PI de prototipos respecto a


los casos particulares, el tiempo de verificación de las frases es mas rápido
para los miembros prototípicos de una categoría, los miembros prototípicos
pueden sustituir a los nombres de las categorías en las frases, mientras que
los no prototípicos, no pueden hacerlo. Se aprenden ates la palabras de los
objetos típicos que las de los objetos atípicos.

Los prototipos comparten mas características con otros casos particulares de la


categoría, pero minimizan el solapamiento de las características con las
categorías relacionadas, ademas hay prototipos que poseen una ventaja sobre
los demás miembros, por ejemplo se considera como “mejor” numero impar 13
que 23 o 501, o “madre” como “mujer”, mas que “camarera”, por lo general
cuanto mas próximo esté un elemento al prototipo, mas fácil es procesarlo.

Las teorías de los prototipos no tienen por que ser inconsistentes con las
teorías de las características, las teorías basadas en las características tienen
la propiedad atractiva adicional de que pueden explicar como adquirimos
nuevos conceptos, simplemente combinando características ya existentes. Los
modelos de redes también pueden formar dos conceptos añadiendo nuevos
nodos a la red. Por otra parte, los nuevos conceptos son problemáticos para las
teorías no descomposicionales, ante esto Fodor ha sugerido que todos los
conceptos, incluidos los complejos, son innatos.

Niveles básicos: Rosch afirmo que el compromiso y la máxima capacidad de


información se dan en el nivel básico, el cual tiende a ser el nivel en el que
clasificamos y pensamos, salvo que haya una razón para no hacerlo, es decir
existe un nivel básico que es mas prominente desde el punto de vista
psicológico. El nivel básico es el que tiene los atributos mas distintivos y
proporciona un ordenamiento ajustado y económico desde el punto de vista de
la MS. Los objetos de nivel básico se diferencian enseguida unos de otros, pero
los objetos de niveles inferiores no se diferencian tan fácilmente entre si, no
obstante, lo objetos comparten, al mismo nivel, contornos perceptivos, se
parecen entre si mas de lo que se parecen a los miembros de otras categorías
similares. El nivel básico es la categoría mas general para la que se puede
formar una idea concreta de toda la categoría. Ademas es el nivel que tiene
mas posibilidades de ser utilizado de forma espontánea por los adultos y es el
nivel que aprenden antes los niños.

Salva Herrera- MailTo : ssalva4@me.com


143
Tema 11 - El significado de las palabras
Problemas del modelo de prototipo: Hampton señaló que no todos los tipos
de conceptos parecen tener prototipos, los conceptos abstractos en particular,
se ajustan difícilmente a este esquema.

El modelo de prototipos no explica por que no hay coherencia en las


categorías, además, el modelo de prototipos no puede explicar porque varían
sistemáticamente de lo típico en función del contexto. Cualquier teoría sobre la
clasificación que dependa de la similitud corre el riesgo de ser circular: los
elementos se encuentran en la misma categoría porque se parecen entre si, y
se parece entre si porque se encuentran en la misma categoría.

Es necesario explicar en que se parecen los elementos y las teorías de los


prototipos no lo hacen demasiado bien. Finalmente, la caracterización del nivel
básico como el mas fundamental psicológicamente no está tan clara, la
cantidad de información que podemos recuperar de los niveles subordinados
varía en función de nuestra pericia, no obstante, aunque la pericia aumenta el
conocimiento, el nivel básico origina sigue manteniendo su estatus privilegiado.

11.5.2 Teorías de los casos particulares (teoría de los ejemplares)

Un enfoque alternativo consisten en representar los ejemplares sin


abstracción: cada concepto representa un caso particular. Hacemos juicios
semánticos mediante comparaciones con los casos particulares concretos que
tenemos almacenados, este enfoque se conoce como la teoría de los casos
particulares, o teoría de los ejemplares.

El enfoque de los casos particulares proporciona una mayor riqueza informativa


a costa de la economía cognitiva. Resulta difícil diferenciar entre teorías de
prototipos y teorías de casos particulares, dado que muchos de los fenómenos
explicados por una teoría, también pueden ser explicados por la otra, ambas
predicen que la gente procesa a los miembros centrales de la categoría mejor
que a los miembros periféricos. Las teorías basadas en los casos particulares
predicen que los casos particulares concretos deberían afectar al
procesamiento de otros casos, independientemente de si están próximos o no
a la tendencia central, y esto es justo lo que se ha observado.

El poder de predicción de los modelos basados en ejemplares aumenta a


medida que aumenta los casos particulares conocidos, tanto las teorías teorías
basadas en la abstracción como las basadas en los casos particulares ha sido
puesta en practica por lo modelos conexionistas, y las basadas en casos
particulares proporcionan una explicación ligeramente superior. El principio de
ejemplificación podría ser una posible solución a este conflicto, según este
principio, una categoría incluye información detallada sobre un rango
Salva Herrera- MailTo : ssalva4@me.com
144
Tema 11 - El significado de las palabras
determinado de casos particulares, aunque se aplica claramente a la teoría de
los ejemplares, es posible incorporarlo a las teorías de los prototipos.

Nosofsky y Palmeri sugirieron que las decisiones sobre la pertenencia a una


categoría se toman recuperando casos particulares de la MS, en este caso,
cuanto mas casos particulares tenga almacenados, mas deprisa podrá
responder.

11.5.3 La teoría de las teorías

Ha emergido de los trabajos sobre la forma en que los niños presentan las
categorías naturales, así según la teoría de teorías la gente representa las
categorías como teorías en miniatura, la cuales describen los hechos sobre
estas categorías y sobre porque son coherentes los miembros. Se considera
que es muy parecida al tipo de teoría que utiliza un científico: las miniteorías
son conjuntos de creencias sobre los que se construyen los miembros
particulares de cada categoría, son como entradas de una enciclopedia. El
desarrollo de los conceptos a lo largo de la infancia es un argumento a favor
por el hecho de que un niño desarrolla teorías de categorías que se van
haciendo cada vez mas parecidas a las que usan los adultos.

11.5.4 Evaluacion de los trabajos

La batalla actual, se produce entre las teorías de los casos particulares y las
teorías de la teoría, las demás explicaciones pueden ser consideradas como
casos particulares de alguna de las dos, las teorías basadas en casos
particulares tienen dificultad para explicar como comprendemos los conceptos
novedosos, mientras que la teoría de la teoría lo hace bastante bien.

11.6 Combinación de conceptos

Rips señalo que las teorías basadas en los casos particulares tienen dificultades
obvias para proporcionar una explicación de como combinamos conceptos. Las
expresiones y frases novedosas nos permiten expresar un numero infinito de
conceptos novedosos cuya comprensión esta mucho mas allá de alcance de un
número finito de casos específicos que ya se hayan encontrado antes. La teoría
de las teorías tiene menos problemas para explicar la combinación de
conceptos, pero sigue teniendo algunas dificultades, Rips afirmó que las
miniteorías por sí solas no pueden explicar la forma en la que combinamos los
conceptos, deben estar combinadas con algún otro mecanismo, así Rips
propone un enfoque dual que combina las miniteorías con un simbolismo
atómico fijo para cada categoría “una entidad parecida a la palabra en el
lenguaje del pensamiento”. Un enfoque dual nos permite hacer un seguimiento
Salva Herrera- MailTo : ssalva4@me.com
145
Tema 11 - El significado de las palabras
de los cambios de las miniteorías y proporciona la capacidad de poder darse
cuenta de cuando entran en conflicto.

La interpretación que hace la gente de las expresiones novedosas pertenecen a una de las
tres categorías

Relación temática “un águila apresa a un petirrojo”

Vinculo de propiedad “un águila con el pecho rojo como un petirrojo”

Menos frecuente “canario petirrojo” hace referencia a ambos


Hibridación
elementos

La mayor parte de la investigación se ha centrado en las interpretaciones


temáticas y las propiedades, hay un supuesto general que afirma que la gente
prueba primero con una relación temática y solo si esta no logra generara la
combinación correcta prueba con una interpretación en función de las
propiedades, las interpretaciones en función de las propiedades parecen ser
poco comunes en los contextos comunicativos naturales. A gente prefiere
suponer que las combinaciones utilizan los significados habituales de sus
elementos constituyentes, esto se conoce como la estrategia del ultimo
recurso. Sin embargo Wisniewski y Love demostraron que, en determinadas
circunstancias, la gente prefiere comprender las combinaciones se sustantivos
en función de las propiedades, una gran similitud entre los constituyentes
facilita la producción de las relaciones de propiedades. A la gente también le
influye lo que se podría describir como un historial de combinaciones de un
sustantivo:la forma en la que se ha combinado anteriormente una palabra con
otra.

Asimismo una evidencia adicional de que la experiencia es importante es que


la exposición a un par de palabras relacionadas de forma similar hace que sea
mas fácil comprender un nuevo par de palabras. Por tanto la interpretación de
los nombres compuestos depende de una serie de factores incluyendo la
experiencia anterior, la similitud, y si existen relaciones plausibles entre
ambos, aunque es posible que exista un sesgo para comprenderlas en función
de las relaciones temáticas, no se puede decir en modo alguno que las
relaciones de propiedades sean poco frecuentes, y en algunas circunstancias
constituyan la estrategia preferida.

11.7 Procesamiento del lenguaje figurativo

Los seres humanos recurren en gran medida a un leguaje no literal o


figurativo, existen tres tipos fundamentales de el lenguaje figurativo.
La metáfora: cosiste en establecer una comparación o un parecido, la teoría
estándar que se procesa en tres fases, 1), derivamos el significado literal, 2),
Salva Herrera- MailTo : ssalva4@me.com
146
Tema 11 - El significado de las palabras
contrastamos el significado literal con el contexto para ver si es consistente
con el mismo, y 3), si el significado literal no tiene sentido dado el contexto,
buscamos un sentido metafórico alterativo.
Una predicción de este modelo es tres fases, es que la gente debería ignorar
los significados no literales de las afirmaciones siempre que el literal tenga
sentido, sin embargo hay cierta evidencia de que esto no resulta posible, por lo
que los significados no literales “siempre están presentes”, por ejemplo cuando
hay disponibles buenas interpretaciones metafóricas de afirmaciones literales
falsas “algunos trabajos son una cárcel”, la gente tarda mas tiempo en decidir
si estas frases son literalmente falsas, es decir, el significado metafórico parece
procesarse al mismo tiempo que el significado literal. El problema de este
planteamiento es que no todas las metáforas son literalmente falsas, Cacciari
et al concluyeron que las metáforas e interpretan mediante un análisis
pragmático de la misma manera que analizamos las implicaciones de una
conversación.

El modelo de inclusión en una clase afirma que las metáforas tienen la


intención de ser interpretadas literalmente como afirmaciones de pertenencia a
una categoría, por ejemplo, en la metáfora “esta mesa es una pocilga” se tiene
la intención de que se interprete mesa (el tema) como el miembro del vehículo
de la metáfora (pocilga), Jones y Estes confirmaron esta idea demostrando que
el priming con una metáfora aumenta la posibilidad de que una persona evalúe
el tema como un miembro real de a categoría del vehículo.

Los modismos: estos pueden ser considerados como metáforas congeladas,


mientras que hacemos metáforas a medida que hablamos, los modismos son
una una forma fija que se utilizan en general, “estirar la pata” o “perder los
estribos”. Gibbs, utilizando los tiempos de lectura, determino que los
participantes tardaban menos tiempo en comprender las aplicaciones
convencionales de los modismos que los usos literales, lo cual sugiere que la
gente analiza los sentidos idiomáticos de las expresiones antes de derivar la
interpretación literal no convencional. Sugirieron que la gente almacena los
modismos como elementos léxicos singulares.

¿Como se construyen las metáforas?: es evidente que hay un componente


creativo esencial, no obstante existen restricciones, el significado de las
palabras no puede ser, ni demasiado parecido, n demasiado distinto, las
palabras deben compartir un solapamiento característico adecuado pero menor,
la producción de las metáforas y los chistes es una faceta de nuestra habilidad
metalingüística de la que la sensibilización fonológica es solo un elemento mas.

Salva Herrera- MailTo : ssalva4@me.com


147
Tema 11 - El significado de las palabras

11.8 Neuropsicología de la semántica

Sólo porque una persona no pueda nombrar una palabra o un objeto no


significa que la representación semántica, de esa palabra, se haya perdido o
esté deteriorada. Es posible que no se pueda acceder a la fonología de una
palabra al tiempo que se sigue teniendo acceso a su representación semántica.
Estos mismos individuos pueden ser capaces de comprender la palabra en un
discurso, puede que sean capaces de producir la palabra en un discurso
espontáneo, ademas saben como utilizar el objeto al que designa, y agrupar
imágenes de forma adecuada, en estos casos los significados de las palabras
están bien conservados, es decir que los sujetos están teniendo problemas con
fases posteriores del PI, no obstante, hay algunos casos particulares en los que
la representación semántica está claramente deteriorada.

Shallice et al, analizaron cinco criterios que podía distinguir los problemas relacionados con
la perdida de la representación de los problemas para acceder a ella.

El rendimiento debe ser consistente en las distintas pruebas, si un elemento está


1 disponible en unas pruebas pero no en otras, la dificultad debe estar produiéndose en
el acceso

Tanto para los almacenes degenerados como para los trastornos del acceso, deberían
ser mas fácil obtener la categoría superior que nombrar el elemento, Warrington
propone que la destrucción de la MS se produce jerárquicamente, de forma que los
2
niveles inferirse se pierden antes que los superiores, dado que estos poseen
información mas general, por lo tanto, la información sobre los elementos de las
categorías superiores tiende a preservarse mejor que la de los casos particulares

Se deben perder antes los elementos de baja frecuencia, estos deben ser mas
3 susceptibles de una perdida, mientras que los problemas de acceso deberían afectar
de la misma forma a todos los niveles

El priming no debería seguir siendo eficaz, puesto que no se puede facilitar un


4
elemento perdido

Si se ha perdido el conocimiento, entonces el rendimiento debería ser independiente


5 del ritmo de presentación, mientras que las perturbaciones de acceso deberían ser
sensibles a la tasa de presentación del material

Para tener la seguridad de que se han perdido elementos de la MS debemos


observar al menso un fracaso consistente en el acceso a los elementos en
diversas tareas, sin embargo, ya se ha conseguido identificar claramente a una
serie de pacientes con un déficit de acceso semántico. Gotts y Plaut presentan
un modelo conexionista que sugiere que los déficits centrales y de acceso se
deben a distintos tipos de lesiones neurológicas subyacentes.
Salva Herrera- MailTo : ssalva4@me.com
148
Tema 11 - El significado de las palabras

Un tipo de implica a una lesión al sistema neuromodulatorio cuya función


habitual consisten en mantener y potenciar las señales neuronales, mientras
que el segundo implica una lesión del sistema neuronal que codifica la
información semántica, por tanto, la idea es que se produce anormalmente una
refractariedad, una reducción de la capacidad de utilizar el sistema semántico
de la misma manera durante cierto periodo de tiempo tras la respuesta inicial,
similar a la del periodo refractario en la activación neuronal.

11.8.1 ¿Cuantos sistemas semánticos existen?

La hipótesis del almacén unimodal, supone que solo existe un almacén, sin
embargo es posible que cada modalidad sensorial tenga su propio almacén, en
la practica, la preocupación se centra en la distinción de un almacén de
información visual semántica y un almacén de información verbal semántica.

Paivio, propuso la hipótesis del código dual de la representación semántica,


con un código perceptivo que codifica las características perceptivas de, y un
código verbal que codifica las facetas abstractas, no sensoriales de un
concepto. Cierto respaldo a favor de la hipótesis del código dual, son los
estudios de las imágenes cerebrales, las cuales demuestran que se procesan
de distinta manera las palabras concretas que las palabras abstractas.

La idea de múltiples almacenes semánticos o específicos de modalidades, por


la que el material verbal y el material no verbal están separados, ha
experimentado cierto resurgimiento gracias a los datos provenientes de los
pacientes con lesiones cerebrales. Primero, se ha identificado efectos del
priming, que se han determinado que están limitados por el material verbal, y
segundo, algunos casos de estudio muestran perturbaciones limitadas a una
sola modalidad sensorial, el paciente TOB tenia problemas para comprender los
nombres de los seres vivos, pero solo cuando se le presentaban oralmente, el
paciente EM, tenia un impedimento mucho mayor en las tareas verbales que e
las tareas visuales, y tercero, los pacientes con déficit semántico no siempre
tienen el mismo deterioro con el material verbal que con el visual.

Coltheart et al, propusieron que la MS está organizada en subsistemas, hay un


subsistema por cada modalidad por cada modalidad sensorial y un subsistema
para el conocimiento semántico no sensorial, este subsistema no sensorial, se
divide en varios susbsitemas para las distintas categorías, como por ejemplo
“vivos” y “no vivos”.

Salva Herrera- MailTo : ssalva4@me.com


149
Tema 11 - El significado de las palabras

Evaluación de los modelos con múltiples almacenes: se han ofrecido


explicaciones alternativas a estos estudios. Riddoch, Coltheart et al, afirmaron
que los pacientes que tienen un mejor rendimiento con el material verbal
podían tener un sutil impedimento del procesamiento visual complejo. Esta
idea esta respaldada por la conclusión de que las perturbaciones del
procesamiento de las imágenes son mayores para las categorías con muchos
miembros visualmente parecidos, por ejemplo frutas y verduras. Finalmente la
evidencia proviene de una anomia especifica a la modalidad en la que el
trastorno del nombramiento esta confiando a una sola modalidad, por ejemplo
en el trastorno conocido como afasia óptica, en la que los pacientes no pueden
nombrar estímulos presentados visualmente pero sin una anomia o agnosia en
general, son incapaces de nombrar los objetos presentados, pero sí si se
presentan en otra modalidad que no sea la visual. Por lo tanto, los nombres de
los objetos están preservados, es decir no hay una anomia o agnosia general.

La interpretación de estos datos resulta controvertida, la interpretación mas


evidente de la afasia óptica, es que podemos acceder a distintos almacenes
específicos a cada modalidad, aun habiendo sido borrado algún otro almacén.
Por supuesto debemos recordar la advertencia de que los distintos pacientes
muestran conductas diferentes, por lo que se debe ser cauto y no extraer
conclusiones excesivamente generales a partir de un único paciente.
Caramazza et al, afirmaron que hay cierta confusión sobre lo que significan los
términos semántica y almacenes semánticos cuando se utilizan en contextos
neuropsicológicos , y distinguieron cuatro versiones de a hipótesis de los
almacenes múltiples.

Las cuatro versiones de Caramazza et al

Explicación de los Se duplica un mismo sistema semántico para cada modalidad de


elementos de entrada entrada

Contenidos específicos Existe un almacén semántico por cada modalidad sensorial

Formato especifico a la Se parece al anterior, pero cada almacén esta en el formato del
modalidad elemento de entrada

La semántica visual y verbal hacen referencia a la información


Contexto especifico a la
adquirida en el contexto de objetos o palabras presentadas
modalidad
visualmente

Resulta difícil diferenciar entre estas hipótesis, pero parecen hacer tres
predicciones, 1), predicen que el acceso desde determinada modalidad siempre
activa primero el almacén semántico adecuado, 2), que la activación de las
Salva Herrera- MailTo : ssalva4@me.com
150
Tema 11 - El significado de las palabras
representaciones fonológicas y ortográficas está mediada por la semántica
verbal, y 3), predicen que solo se puede acceder directamente a la información
a través de la modalidad de entrada adecuada.
Caramazza et al, afirmaron que los datos no respaldaban las predicciones, y
propusieron el modelo OUCH ( hipótesis del contenido unitario organizado),
esta idea resulta atractivamente sencilla, pero el modelo OUCH no puede
explicar los casos de pacientes que tienen mas problemas con las imágenes
que con las palabras.

¿Como se puede explicar la afasia óptica? La afasia óptica demuestra que


el sencillo modelo ortodoxo del significado, no puede ser correcto porque en la
afasia la gente tiene acceso a la semántica y, por lo tanto, siempre debería ser
capaz de acceder al nombre, los modelos de múltiples almacenes específicos
de modalidad explican la afasia óptica postulando una desconexión entre la
semántica verbal y a visual, produciéndose el nombre correcto a partir del
acceso a la semántica verbal.

Caplan propuso un compromiso entre las teorías de almacenes múltiples y de


almacén unitario por el que solo hay un subconjunto de información semántica
dedicado a modalidades especificas, esto se ha convertido en la hipótesis de la
identificación semántica, un argumento en contra de dicha hipótesis es que la
paciente RM tiene unas capacidades semánticas mucho mejor preservadas de
los que se esperaría, puesto que tenía una discapacidad en tareas que
requerían la semántica verbal.

En resumen, la mayoría de los investigadores actuales, creen que existen


múltiples sistemas semánticos, y lo mas importante es que hay sistemas
diferenciados para la semántica visual y la semántica verbal.

11.8.2 Trastornos semánticos específicos de categoría.

Tal vez el fenómeno mas intrigante en este área sean los trastornos específicos
de la categoría, a veces las lesiones deterioran el conocimiento de ciertas
categorías y no de otras, JBR tenia un mero rendimiento en nombramiento de
objetos inanimados que de objetos animados, a primera vista sugiere que la
MS esta dividida en dos categorías “vivos” y “no vivos”, sin embargo JBR podía
nombrar partes del cuerpo, y no podía nombrar objetos musicales a pesar de
ser inanimados.

Las dificultades se producen en toda una serie de tareas incluyendo el


nombramiento de imágenes, la determinación de correspondencias entre
imágenes y nombres, las respuestas a preguntas y la realización de gestos

Salva Herrera- MailTo : ssalva4@me.com


151
Tema 11 - El significado de las palabras
adecuados al objeto. Se ha observado trastornos semánticos aún mas
específicos.

Trastornos específicos de categoría y cuestiones metodológicas: hay


una serie de problemas metodológicos para estudiar los trastornos semánticos
específicos de categoría, Funnell et al, informaron de un defecto
aparentemente especifico a la categoría, por el que SL padecía un déficit para
nombrar a los “no vivos”, sin embargo cuando tuvieron en cuata la familiaridad
del estimulo el déficit desaparecía. La mayoría de los experimentos utilizan
como materiales de estímulo un conjunto de dibujos de contornos en blanco y
negro, Snodgrasss et al demostraron que dentro de este conjunto, había mas
imágenes de objetos animados de baja frecuencia que inanimados de baja
frecuencia, en definitiva había pocas cosas no vivas de baja familiaridad y
pocos seres vivos de gran familiaridad.

Una conclusión es que es importante medir y tener en cuenta la familiaridad, la


complejidad característica visual y la similitud visual de las imágenes, por ora
parte, no podemos explicar todos los efectos específicos de la categoría con
estos problemas metodológicos, en la actualidad los estudios prestan atención
a tener en cuenta las potenciales variables generadoras de confusiones y, sin
embargo, se siguen produciendo déficit específicos de la categoría. Aun mas
importante, observamos una doble disociación entre las categorías de los seres
vivos y las cosas no vivas.

¿Que explica la disociación entre seres vivos y no vivos?

Que los distintos tipos de información semántica se localizan en distintos lugares del
cerebro, si esta explicación es correcta, entonces los trastornos específicos de categoría
1 son importantes porque revelan la estructura de las categorías tal y como están
representadas por el cerebro, por tanto diferenciación entre cosas no vivas y seres vivos
seria un principio organizativo fundamental de la MS.

Que las categorías que estén deterioradas comportan ciertas propiedades incidentales
que las hacen ser susceptibles de ser deterioradas o perdidas, Riddoch et al propusieron
2
que las categorías que tienden a perderse también tienden a incluir muchos elementos
parecidos que pueden crear confusiones.

Que las diferencias entre categorías están mediadas por alguna otra variable, de forma
3
que los elementos que se pierden comparten alguna propiedad mas abstracta.

La teoría sensoriofuncional: las cosas no vivas se diferencian entre si


fundamentalmente en cuanto a sus propiedades funcionales, mientras que los
seres vivos tienden a diferenciarse fundamentalmente en cuanto a sus
propiedades perceptivas. JBR, que habitualmente mostraba un déficit en el
caso de los seres vivos, también tenia un rendimiento pobre al nombrar
instrumentos musicales, piedras, y otros, cosas que se reconocen en general
Salva Herrera- MailTo : ssalva4@me.com
152
Tema 11 - El significado de las palabras
gracias a sus propiedades perceptivas (al igual que los seres vivos), dicha
organización también es consistente con la organización del cerebro que tiene
distintas vías de procesamiento para la información perceptiva o motriz.
Si los atributos visuales son mas difíciles de procesar que los funcionales,
entonces las categorías que dependen mas de estos serán mas susceptibles de
padecer una perdida, y esto explica porque observamos una perdida de
información sobre los seres vivos con mas frecuencia que una perdida de
información sobre tales cosas.

Efectos específicos de modalidad y específicos de categoría: Farah y


McClelland constituyeron un modelo conexionista y demostraron que la lesión
de un sistema de MS especifico a la modalidad podría provocar déficits
específicos de categoría, la arquitectura de su modelo comprendía tres
conjuntos de unidades, unidad de entrada, de producción verbal, y unidad de
memoria semántica, los autores concluyeron que las lesiones en las unidades
semánticas visuales deterioraban fundamentalmente el conocimiento de los
seres vivos, ademas cuando se había deteriorado una categoría, se perdía en
conocimiento de ambos tipos de atributos. La lesión del modelo provoca la una
perdida de apoyo entre las partes de la representación.

En resumen, la teoría sensoriofuncional afirma que el conocimiento de los


objetos animados se deriva fundamentalmente de la información visual,
mientras que el conocimiento de los objetos inanimados se deriva de la
información funcional, las cosas no vivas no tienen necesariamente mas
atributos funcionales que perceptivos, pero tienen mas que los seres vivos.

Retos para la teoría sensoriofuncional: Caramazza y Shelton, afirmaron


que que si la teoría sensoriofuncional fuera correcta, entonces un paciente con
dificultades con los seres vivos debería tener dificultades en tareas en tareas
que incluyan otro tipo de seres vivos, y ademas siempre tendría que tener
dificultades con categorías asociadas (instrumentos musicales, tejidos,
alimentos, piedras preciosas), los autores señalaron que no es así. La hipótesis
sensoriofuncional también parece predecir que la gente con un deterioro
selectivo de los seres vivos debería mostrar una dificultad desproporcionada
con las propiedades visuales. Ademas, las imágenes PET y fRMI sugieren que
el conociendo sobre los animales y las herramientas se almacena en lugares
separados e identificables en el cerebro.

Caramazza y Shelton también afirmaron que el concepto de información


funcional no está bien definido, y citan dos lineas de evidencias al respecto,
por un lado, los niños en los primeros meses de vida pueden diferenciar entre
seres vivos y no vivos, y por otro lado, los estudios de los lugares de las
lesiones y los estudios recientes, sugieren que la distintas partes del cerebro
Salva Herrera- MailTo : ssalva4@me.com
153
Tema 11 - El significado de las palabras
podrían estar dedicadas a procesar cosas no vivas y seres vivos. Los seres
vivos están asociados generalmente al lóbulo temporal, mientras que los no
vivos, la región dorsal de los lóbulos temporal, parietal y frontal.
Es demasiado pronto para evaluar estos enfoques alternativos, en la actualidad
la mayoría de los investigadores defiende la hipótesis sensoriofuncional, y
aunque los datos provenientes de las imágenes de animales y herramientas
podrían estar guardados en regiones distintas del cerebro, esto podría ser
debido a una dependencia de algún oro factor desconocido.

11.8.3 La estructura de la MS: datos de los estudios de la demencia

La demencia es un apelativo general de la decadencia generalizada del


funcionamiento cognitivo que se suele encontrar en edades avanzadas, las
causas ultimas son desconocidas, aunque es probable que factores genéticos y
entorno desarrollen un papel relevante, existen de esta demencia varios
subtipos, y el mas conocido es la enfermedad de Alzheimer, EA.

En la demencia la memoria y la información semántica son particularmente


proclives a los trastornos, un subtipo de demencia conocido como demencia
semántica, resulta particularmente interesante: en la demencia semántica la
perdida de información semántica es proporcionalmente mayor respecto de
otras funciones cognitivas, como la memoria episódica. Este trastorno hace
que sea útil para estudiar como representamos el significado. La EA y la
demencia semántica reflejan distintas lesiones en el cerebro, la demencia
semántica esta marcada por un atrofia de la región temporal anterior izquierda
del cerebro, mostrando un deterioro del nombramiento y una perdida del
significado de las palabras, pero una sintaxis preservada, la EA por su parte
afecta mas, en principio, al hipocampo.

Perturbaciones de la MS en la demencia: la gente con demencia suele


tener dificultades en tareas de fluidez en las categorías, en las que tiene que
estar listo el mayor numero de de elementos de determinada categoría,
ademas tienen problemas para hacer una lista de atributos que son
compartidos por todos los miembros, y para diferenciar entre elementos de la
misma categoría semántica, por ultimo, tienden a clasificar los elementos
como parecidos a elementos distintos mas que los participantes de control.

Dificultades para nombrar imágenes: los individuos que padecen una


demencia suelen tener problemas para nombrar las cosas, hay evidencia de
que le déficit semántico esté involucrado en el nombramiento de imágenes, la
mayoría de los errores de nombramiento en la demencia implica la producción
de elementos semánticos relacionados con la palabra objetivo. El desempeño
del nombramiento en la demencia se ve afectado en ocasiones por la variable
Salva Herrera- MailTo : ssalva4@me.com
154
Tema 11 - El significado de las palabras
semántica de la imaginabilidad, los pacientes suelen encontrar mas fáciles de
gran imaginabilidad que los de baja.

Hay cierta evidencia de que el procesamiento visual está deteriorado en la


demencia, y que los pacientes tienen problemas para recocer los objetos,
Webb y Kelly concluyeron que la claridad preceptiva del estimulo afectaba al
desempeño del nombramiento, aunque es improbable que las dificultades con
el procesamiento visual de los estímulos puedan explicar todos los problemas
del nombramiento, en concreto, muestran un claro déficit en as tareas que
implican los mismos materiales presentados en la modalidad auditiva. Dos
grandes lineas de evidencia sugieren que los individuos que padecen una
demencia también tienen un déficit a nivel fonológico. Por un lado tienen
dificultades particulares para nombrar objetos de baja frecuencia y segundo, el
priming fonológico de la palabra objetivo mejora su nombramiento, se han
planteado tres posibles conclusiones

Posibles conclusiones

Podría haber heterogeneidad entre los pacientes, así cada tipo de deterioro podría dar
1
lugar a un déficit del nombramiento

Podría haber múltiples lugares de deterioro dentro de cada paciente, de forma que la
2
demencia genera una perturbación de los sistemas perceptivo, semántico y léxico

Un único locus de deterioro podría provocar todos los deterioros observados, según esta
3 hipótesis, la lesión del sistema semántico da lugar, de alguna manera, a déficit
perceptivo y léxico, esta idea es respaldada por la modelización conexionista

La principal conclusión fue que las lesiones exclusivamente semánticas hacían


que la red fuese mas sensible a las manipulaciones en los niveles visuales y de
nombres, la lesión a nivel semántico implicaba que la red se hacia mas
sensible a la degradación visual de las unidades de entrada visual, la red
lesionada también tenia mas problemas para producir nombres de baja
frecuencia que de nombres de alta frecuencia.

En resumen el modelo de Tippett y Farah muestra que las lesiones de solo el


sistema semántico pueden explicar la variedad de trastornos semánticos,
visuales, y léxicos de la demencia.

11.8.4 Evaluacion de la investigación sobre la neuropsicología de la MS

En los últimos años los estudios de la neuropsicología de la semántica han


contribuido en gran medida a nuestra comprensión de este área, aunque sigue
existiendo un considerable desacuerdo en el campo, la neuropsicología ha
indicado cuales son las preguntas adecuadas.

Salva Herrera- MailTo : ssalva4@me.com


155
Tema 11 - El significado de las palabras

11.9 Enfoques conexionistas de la semántica

El conexionismo ha tenido un gran impacto en la MS, este enfoque no compite


necesariamente con otras teorías como la de los prototipos: un caso particular
de una categoría puede provocar un patrón de activación en las unidades
semánticas, y otro causara otro patrón similar. Podemos hablar de prototipo
que define a una categoría como el patrón de activación medio de todos los
casos particulares.

11.9.1 Microcaracterísticas semánticas

En los modelos conexionistas, la representación semántica no tiene una


correspondencia con una unidad semántica concreta, sino con un patrón de
activación de las unidades semánticas, por ejemplo, en el modelo de Tippett y
Farah. Una microcaracterística es una unidad activa individual, y dichas
unidades están implicadas en procesos de bajo nivel mas que el procesamiento
simbólico explícito. Los modelos conexionistas suponen que la memoria
semántica humana está basada en microcaracterísticas, el prefijo “micro” se
añade a la modelización computacional para destacar su carácter de bajo nivel.
Median entre la percepción, la acción y el lenguaje y no tienen necesariamente
ninguna contraparte lingüística directa. En apoyo de esta idea, hay evidencia
de que la pérdida de información semántica especifica puede afectar a un
conjunto de conceptos relacionados, por tanto, las microcaracterísticas
semánticas pueden codificar el conocimiento en un nivel muy bajo de la
representación, o de una forma muy abstracta sin correspondencia lingüista
directa.

En el modelo de dislexia profunda de Hinton y Shallice estaba el significado


estaba representado por un patrón de activación de una serie de unidades de
características semánticas o segmentos. Nadie afirma que estas características
semánticas sean necesariamente las que se utiliza, pero hay evidencia de que
se utiliza este tipo de enfoque con los datos del nombramiento de palabras de
Masson. Además, otro conjunto de unidades, denominadas unidades de
limpieza, modulan la activación de las unidades semánticas, estas
características permiten combinaciones de unidades semánticas que se
influyen entre sí, se puede considerar a la MS como un paisaje que tiene
muchas colinas y valles, el fondo de cada valle corresponde al significado de
determinada palabra, así las palabras que tienen un significado similar se
encontraran en valles que se hallan mas cercanos entre sí. Los fondos de los

Salva Herrera- MailTo : ssalva4@me.com


156
Tema 11 - El significado de las palabras
valles que se corresponden con los significados de las palabras concretas se
denominan atractores, y este tipo de red se denomina red de atractores.

11.9.1 Perdida del lenguaje en la EA: perdida de las microcaracterísticas

Si una enfermedad como la demencia provoca una perdida de las


microcaracterísticas, el efecto será una distorsión de espacio semántico, de
forma que es posible que se pierdan por completo algunos atractores
semánticos, y puede que otros queden inaccesibles para algunas tareas debido
a la erosión de las delimitaciones de las cuencas de los atractores, la lesión de
un conjunto de microcaracterísticas dará un lugar a un declive probabilista del
rendimiento. En función de la importancia de la micro perdida para
determinado elemento en determinado paciente, el patrón de rendimiento
observado variará en función de cada paciente y en cada tarea, y las distintas
tareas ofrecerán distintos resultados, dado que estas proporcionan distinta
cantidades de activación residual, así pues, aunque las micro se hayan perdido
de forma permanente en la demencia, cuando se pruebe experimentalmente
esta prueba, la perdida parecerá, en ocasiones, como perdida de información,
y ocasiones, que se trata de una dificultad de acceso.

11.9.2 Modelización de los trastornos específicos de categoría en la


demencia

Los modelos conexionistas de trastornos específicos de categoría son


interesantes porque nos dicen cosas tanto sobre el progreso de la enfermedad
como sobre la estructura de la memoria semántica. Los déficits específicos de
categoría son mas esquivos en la demencia, también está la cuestión de cual
es la categoría semántica mas proclive a un trastorno de la demencia,
Gonnerman et al, concluyeron que los pacientes muestran trastornos selectivos
en tareas que implican tanto seres vivos como objetos, dependiendo del grado
de gravedad de la enfermedad.

11.9.3 Análisis semántico latente

El conexionismo representa el significado mediante un patrón de activación


distribuido entre muchas características semánticas simples, en estos modelos,
las características están codificadas de primera mano: no son aprendidas, sino
que se construyen dentro de las asimilaciones. Los modelos conexionistas son
particularmente buenos para recoger las regularidades estadísticas en los
datos, por lo que es posible que podamos hacer una extracción a partir de
muchas exposiciones a las palabras. Un enfoque estrechamente relacionado
hace explícito el papel de la información, esta técnica se conoce como el

Salva Herrera- MailTo : ssalva4@me.com


157
Tema 11 - El significado de las palabras
análisis semántico latente, LSA. El LSA no necesita un conocimiento lingüístico
previo, por el contrario, un procedimiento matemático abstrae de dimensiones
de similitud de un gran cuerpo de elementos basado en el análisis del contexto
en el que se produce la palabra.
El LSA utiliza este análisis latente utiliza este contexto para adquirir
conocimientos sobre las palabras, a primera vista puede que estas
restricciones no parezcan particularmente potentes, las restricciones sobre la
concurrencia de las palabras proporciona un inmenso numero de
interrelaciones que facilitan el desarrollo semántico, el LSA aprende estas
interrelaciones mediante un mecanismo de inducción, en esencia, el algoritmo
intenta minimizar el numero de dimensiones necesarias para representar toda
la información sobre a concurrencia, este tipo de modelo se suele conocer
como el enfoque de memoria de alta dimensión, HDM.

El enfoque de tipo estadístico es muy bueno para explicar el aprendizaje tardío


del vocabulario, donde la instrucción directa es muy infrecuente, por el
contrario, inferimos los significados de las nuevas palabras a partir del
contexto, el análisis LSA, también muestra como podemos llegar a un acuerdo
sobre la utilización de las palabras sin un referente extremo, esta observación
resulta particularmente útil para explicar como adquirimos palabras que
describen experiencias intimas (mentales). Una critica a estos modelos HDM es
que se preocupan demasiado del contexto en el que se producen las palabras,
de forma, de forma que estas están relacionadas con otras, en vez de estar
relacionadas con otras, estos modelos tienen problemas para cubrir situaciones
novedosas.

11.9.3 Cimentación: conexión del lenguaje con el mundo

El lenguaje y el significado no constituyen un sistema cerrado, el significado es


una forma de crear correspondencias del lenguaje con el mundo exterior, el
algún momento, el sistema semántico tiene que interactuar con los sistemas
perceptivos: esta interacción se conoce como cimentación, Rogers et al,
describen un modelo conexionista de la MS que proporciona una explicación de
como están conectados el lenguaje y la percepción, construyen un modelo que
crea correspondencias entre las representaciones de los objetos especificas de
la modalidad y sus descripciones verbales, las representaciones semánticas
median entre estos dos tipos de representaciones de salida, el modelo aprende
a asociar entradas con salidas, las representaciones semánticas no tiene
porque codificar directamente características semánticas, solo tienen que ser lo
suficientemente buenos para hacer el trabajo. Como señalan Rogers et al, este
enfoque computacional, aunque parecido a grandes rasgos al modelo basado
en las características tiene varias ventajas, primero, ya no tenemos que
preocuparnos de cuales son las características que deberíamos utilizar y si son
Salva Herrera- MailTo : ssalva4@me.com
158
Tema 11 - El significado de las palabras
arbitrarias o no, dado que emergen por si solas, segundo, el modelo
computacional nos obliga a ser explícitos sobre como se realiza cada tarea
semántica o perceptiva, y tercero, el modelo proporciona una explicación de la
demencia semántica.
Este tipo de enfoque computacional no contradice la modelo HAL (hiperespacio
análogo al lenguaje), o al modelo LSA, en efecto todos estos enfoques
demuestran que extraemos y abstraemos información semántica de grandes
cuerpos de información, sin embargo el, aunque los modelos HAL, y LSA
dependen de entradas verbales, el enfoque computacional vincula la
información verbal con la perceptiva, la representación semántica es unitaria y
amodal, aunque las distintas modalidades proporcionan distintas entradas a la
representación semántica mediadora.

Resumen Tema 11

La semántica es el estudio del significado

La memoria episódica es la memoria de acontecimientos, y la MS es la del conocimiento


general

La asociación no puede explicar por si sola como se organiza la MS

La semántica es el interfaz entre le procesamiento del lenguaje y el resto de la cognición

La denotación es el significado principal de una palabra, y la connotación sus asociaciones

La referencia de una palabra (extensión) es aquello a lo que hace referencia en el mundo, y


su sentido (intensión) es el conecto subyacente que especifica como se relaciona con sus
referentes

Las redes semánticas codifican la información semántica en forma de redes vinculadas a


nodos vinculados

La red de Collins y Quillian pone de relieve las relaciones jerárquicas y la economía


cognitiva : intenta dar una explicación de los tiempos de verificación de las frases

Las redes jerárquicas no logran explicar los efectos de similitud y relación

Las redes de propagación de la activación pueden explicar los efectos de similitud y relación,
pero resulta difícil falsar la teoría

Se pueden descomponer el significado de las palabras en unidades mas pequeñas llamadas


características semánticas

La idea de que se pueden dividir los significados de las palabras en unidades mas pequeñas
se conoce como descomposición semántica

Katz y Fodor mostraron como se podían derivar los significados de las frases a partir de las
combinaciones de las características semánticas para cada palabra en la frase y, en
particular, como se podía utilizar esta información para elegir el sentido pertinente de las
palabras ambiguas

Las teorías de la lista de características explican los tiempos de verificación de las frases
postulando que comparamos listas de características definitorias y distintivas

Salva Herrera- MailTo : ssalva4@me.com


159
Tema 11 - El significado de las palabras

Un problema importante de las primeras características descomposicionales es que no


siempre es posible establecer las características necesarias para codificar el significado de
una palabra, es decir, no se definen fácilmente todas las palabras

Se ha realizado una serie de experimentos sobre si la descomposición semántica es


obligatoria:en conjunto, los resultados sugieren que así es

Un prototipo es una abstracción que representa al miembro medio de una categoría

El nivel básico de una categoría es aquel que ofrece la máxima información y que preferimos
utilizar salvo que haya una buena razón para lo contrario

En contraste con las teorías de abstracción, en las categorías basadas en los casos
particulares cada caso particular está representado a titulo individual, y se hacen
comparaciones con casos particulares concretos mas que con una tendencia central
abstracta

Es probable que tengamos distintos sistemas de memoria para la semántica viudal y verbal

Las categorías semánticas puede quedar afectadas de forma selectiva

Estos deterioros no se pueden no se pueden explicar como artificios metodologicos, ya que


se observa doble disociación

Según la teoría sensoriofuncional, los trastornos semánticos específicos de categoría de los


seres vivos y las cosas no vivas se deben a que los seres vivos están representados en
términos del componente perceptivo, y los no vivos en términos del conocimiento funcional

Según la hipótesis del conocimiento especifico de dominio, los trastornos semánticos


específicos de categoría de los seres vivos y las cosas no vivas surgen porque el
conocimiento sobre las cosas y los seres vivos se almacena en lugares distintos

La demencia es un deterioro progresivo del cerebro o que provoca un rendimiento


deteriorado en una serie de tareas: en la demencia semántica, el conociendo semántico esta
desproporcionadamente deteriorado

La gente con una probable EA tiene problemas para nombrar imágenes, y se puede explicar
en términos de un déficit semántico subyacente

En la modelización conexionista, el significado de las palabras esta representado como un


patrón de activación distribuido entre muchas características semánticas: este patrón
corresponde a un atractor semántico

Las características semánticas (denominadas micro semánticas, en el enfoque


computacional) no tienen porque tener correspondencia lingüística o perceptiva directa

Se puede explicar la demencia semántica como una perdida progresiva de características


semánticas

Los seres vivos tienden a estar representados por muchas características compartidas
internacionalmente mientras que las cosas no vivas tienden a estarlo por características
distintivas

El patrón de especificidad a la categoría que aparece en la demencia depende del grado de


gravedad de la misma

El análisis semántico latente muestra como se utiliza la información de la concurrencia para


adquirir conocimientos

Salva Herrera- MailTo : ssalva4@me.com


160
Tema 11 - El significado de las palabras

La Cimentación alude a la conexión existente entre los símbolos y las representaciones


perceptivas

Salva Herrera- MailTo : ssalva4@me.com


161
Tema 12 - Comprensión

Tema 12 - Comprensión

12.1 introducción

Uno de los temas centrales del estudio de la comprensión es si se trata


de un proceso constructivo o de un proceso mínimo. En la comprensión
construimos un modelo de lo que pensamos que se está comunicando.
Resulta útil diferenciar entre pensamiento semántico y referencial, en
el caso de pensamiento semántico trabajamos con la averiguación del
significado de las palabras y frases, sin embargo en el caso del pensamiento
referencial por el contrario tenemos que relacionar esa información
con un modelo que, o bien hace que se modifique la información, o
bien integra dicha información el modelo previo.

La mayor parte de las investigaciones se han realizado sobre la


comprensión de textos, una característica importante tanto del texto
como el discurso es que son coherentes.

Tipos de coherencia

Coherencia Hace referencia a la consistencia entre la persona y aquello de lo que se


referencial está hablando

Coherencia Hace referencia a la consistencia en el momento en que se producen los


temporal hechos

Coherencia de
Hace referencia a donde se producen los sucesos
localización

Coherencia Hace referencia al porque ocurrió sucesos, “se puso el abrigo al revés las
causal flores habían bien”, sería un ejemplo de falta de coherencia causal

12.2 Recuerdo de un texto: inferencias

Tanto las declaraciones de los testigos oculares como la memoria literal son
dos opciones relativamente poco fiables, el recuerdo sólo es preciso en
referencia al tema general de las conversaciones, y aunque algunos
datos si pueden ser ciertos, otros no lo son. A pesar de que las personas
creemos lo contrario, sólo recordamos la esencia de las conversaciones,
abstraemos la información y tenemos tendencia recordar cosas que no
ocurrieron nunca.
¿Que determina lo que olvidamos y lo que recordamos? Se ha
comprobado que las personas olvidamos rápidamente el orden de las
palabras, sólo nos quedamos con el significado.

Salva Herrera- MailTo :ssalva4@me.com


162
Tema 12 - Comprensión

El experimento de Sachs: se presenta a los participantes una historia


con palabras objetivo insertadas en ella, posteriormente se les pide
que las distingan de otras similares. Esta prueba fue realizada tras
diferentes intervalos temporales y los resultados sugieren que: la
capacidad para detectar los cambios en el orden de las palabras, así
como la sintaxis disminuye velozmente, somos capaces de recordar la
esencia, pero olvidamos rápidamente los detalles sobre su presentación.

Nuestra memoria empieza depurando los detalles de las últimas frases


que hemos escuchado, así es como se demostró en el experimento de
Jarvella.

Potter y Lombardi descubrieron que la imprimación sintáctica por el


material objetivo facilita lo que se mantiene la memoria inmediata.
Esto quiere decir que tendemos a utilizar las mismas estructuras y
palabras que se nos presentaron originalmente, sin embargo es
posible modificar la codificación. Esto es consistente con la idea de que el
recuerdo inmediato se genera con la representación de los significados en vez
de utilizar la memoria literal. No obstante en los detalles de la primera
presentación no siempre se pierden.

Varios estudios han demostrado que las conversaciones utilizadas en la


experimentación muestran notables diferencias con las conversaciones que se
presentan al natural, por ejemplo, utilizar sustantivos o pronombres
influye en la atención que se otorga al referente. En muchas ocasiones
somos capaces de recordar las palabras exactas si son importantes o si
nos afectan emocionalmente.

12.2.1 Importancia

Recordamos mejor lo que consideramos que son los aspectos más importantes
de una información, también las frases con contenido interactivo
(implicación personal). Según los estudios de movimientos oculares,
pasamos más tiempo leyendo lo que consideramos importante, pero
ello no implica que sea la causa de un mejor recuerdo. Muth y Glynn,
manipularon los tiempos de lectura haciendo que los participantes dedicas en
el mismo tiempo el material importante que los detalles relevantes, los
resultados sugirieron que se recordaba mejor los aspectos importantes, lo que
sugiere a su vez, que existe un efecto real del significado a la hora de
codificación de la información.

Salva Herrera- MailTo :ssalva4@me.com


163
Tema 12 - Comprensión
Cuanto más importante es una proposición, más probable es que se recuerde.
Así las teorías sobre procesamiento de texto deberían predecir porque
algunas ideas son más importantes que otras.

12.2.2 ¿Cuales unos efectos de conocimiento interior?

Bransford y Johnson pusieron de manifiesto que el contexto (dibujos)


hace comprender recordar mejor la información, el no saber de qué va
un texto, dificultará la comprensión influye en el recuerdo posterior, las
perspectivas pueden sesgar el contenido de la información que almacenamos,
en este sentido lo que influye en la recuperación de la perspectiva de
cuando se codificó información y no las posiciones posteriores,
asimismo el conocimiento previo facilita la comprensión y adquisición de nueva
información y permite crear asociaciones entre material nuevo y el antiguo,
potenciando nuestra memoria, además facilita su recuperación.

12.2.3 Inferencias

Cuando hacemos una inferencia, hacemos una derivación adicional de unos


hechos que ya sabemos, cosa que nos puede llevar a error.

Tipos de inferencia

Inferencia Se derivan de los significados de las palabras, por ejemplo Antonio


lógica es un cura. La inferencia sería Antonio es un hombre

O hacia atrás, este inferencias nos ayuda a relacionar la información


Inferencia
nueva y antigua, por ejemplo, a qué están haciendo referencia los
puente
sustantivos en una frase.

Inferencia Se refiere a cuando ampliamos lo que está en el texto con el conocimiento


elaborada general que ya tenemos

Según lo visto hasta ahora, se ha sugerido que debe ser muy difícil diferenciar
entre las inferencias que hacemos y lo que hemos hoy ido/leído/observado
realmente. Barclay y Franks demostraron que tras una breve demora no
se podía distinguir la frase objetivo de la inferencia válida que también
se les presentó en la fase de prueba. Sin embargo, cuando se cambia el
significado de la frase, si eran capaces de darse cuenta del cambio, en
estos casos sería una inferencia no válida, esto entronca con la primacía
del significado.

Salva Herrera- MailTo :ssalva4@me.com


164
Tema 12 - Comprensión
Cuando se hacen inferencias: es más probable que las personas que
comparten contexto hagan inferencias relacionadas con los elementos
importantes, más que con los detalles. Los personajes principales, sus
objetivos y las acciones relacionadas con argumento central suele considerarse
como elementos de mayor relevancia.

La visión constructivista: según los constructivistas el procesamiento de


texto está impulsado por la necesidad de saber, la persona se forma
objetivos cuando está leyendo o escuchando, y sobre ellos construye el
modelo que más tarde recordará.

El enfoque minimalista: según este enfoque, se sostiene que utilizamos


inferencias puente automáticamente y usamos al mismo tiempo
inferencias elaboradas, las suficientes como para mantener la
cohesión del discurso. La mayoría de estas se generan a la hora de recordar.
Por tanto el procesamiento de texto está impulsado por los datos.

Según varios estudios, las inferencias de puente se hacen de manera


automática pero no las elaboradas. Parece probable que las
inferencias puente solo se utilicen para la comprensión, para mantener
la cohesión, sin embargo las elaboradas se generan durante el
recuerdo y no de forma automática.

Garrod y Terras diferenciaron otros tipos de información

Como por ejemplo la frase: “los niños no dejan de escribir con


Factores léxicos tizas, la pizarra estaba llena de letras”. Utilizamos la inferencia
semánticos de que “las letras de la pizarra, las habían escrito los niños”. El
factor léxico semántico en este caso son “escribiendo con tizas”

Factor información Como por ejemplo tener un conocimiento previo de que los niños
contextual general de
suelen escribir en esa pizarra
antecedentes

Garrod y Terras basándose en resultados de varios estudios, propusieron un


modelo de dos etapas de cómo resuelve la gente los papeles abiertos en el
discurso:
Modelo de dos etapas de Garrod y Terras

Creación de Los elementos sugeridos por el contexto léxico se activa


vínculos automáticamente se vinculan al verbo

Se compara si el vínculo creado anteriormente, rellenador, encaja con


el contexto general. Esto se desarrolle con una combinación de
Resolución
proceso automático, abajo arriba, y un procesamiento contextual no
automático

Salva Herrera- MailTo :ssalva4@me.com


165
Tema 12 - Comprensión
Repercusiones prácticas de la investigación sobre inferencias:
Hay dos grandes áreas en las que las inferencias elaboradas o especialmente
importantes, los testimonios de los testigos oculares y los métodos de
publicidad. Según los trabajos de Loftus, las declaraciones de los
testigos oculares son poco fiables, pues la forma en la que se hacen las
preguntas interfiere en la generación de un nuevo recuerdo.
Es mas, aunque se advierta de ello los participantes, esta latencia parece que
no influye los resultados. También se ha constatado que las personas nos
cuesta diferenciar entre implicación y afirmación en los anuncios
publicitarios, no obstante si se nos indica, antes de la presentación, la
tarea parece estar facilitada.

12.3 Referencia, correferencia y ambigüedad

Conceptos básicos

Referencia Aquello a lo que se dirigen las cosas

Correferencia Dos o más locuciones nominales con una misma referencia

Antecedente El referente de la anáfora

Expresión lingüística relacionada exclusivamente con el antecedente, “Ana


Anáfora está encantada con su desayuno, a ella le encantan las tostadas”. Aquí el
antecedente sería “Ana” y la anáfora seria “ella”.

Las personas debemos averiguar a que hacen referencia las anáforas,


esto es conocido como resolución de la ánfora, y se trata de una
inferencia hacia atrás para mantener la cohesión del texto o de
discurso oído.

12.3.1 Cómo resolvemos ambigüedad anafórica

En los casos en los que sólo hay un antecedente posible, la resolución


de la anáfora se hace de manera directa, sin embargo cuando hay más
de un antecedente posible decimos que la anáfora es ambigua, y
utilizamos estrategias para resolverla.

Estrategias de resolución

Función Preferimos unir las anáforas y los referentes que tienen la misma
paralela importancia

Depende del significado real de la palabra o de su poder en una


frase. Si encontramos un antecedente congruente la relación se hace
Estrategias de
de forma automática, si por el contrario es incongruente,
significado
necesitamos más tiempo utilizamos la atención para lograr una
coherencia (integración tardía)
Salva Herrera- MailTo :ssalva4@me.com
166
Tema 12 - Comprensión

Dependen de los posibles referentes que encontramos en el modelo


Estrategias de del texto. Normalmente suele ser más fácil de localizar los
discurso antecedentes que están más cerca de sus referentes, muchas veces
emergente eliminamos las posibles alternativas utilizando los conocimientos
previos (inferencia elaborada).

Se dice que los elementos que están en el foco de atención explícito


están en primer plano, y han sido mencionados en el texto precedente.
Los pronombres que tiene el antecedente de primer plano se leen más
rápidamente. Almor propuso que el procesamiento para la resolución
de anáfora viene determinado por la carga de información, esta
información debe servir o bien para identificar al antecedente o bien para
aportar información sobre el mismo, cuando es información repetitiva y no
aporta aspectos novedosos resulta difícil de interpretar.

Badeck y Straub afirmaron que todas las pistas potenciales


contribuyen a la elección del antecedente adecuado. Los autores proponen
un modelo de restricción paralelo interactivo en el que hay múltiples
restricciones que influyen sobre la activación de las entidades
candidatas, cuanto más conflicto existe, más candidatos ahí, y más
posibles son cada una de ellas, por lo que más difícil será la elección del
antecedente.

12.3.2 Accesibilidad

Algunos elementos son más accesibles que otros, somos más rápidos
recuperando el referente de los antecedentes más accesibles, en este
sentido se ha hablado de los hipótesis.

Hipótesis de la búsqueda restringida: la búsqueda inicial de referentes


está restringida a los conocimientos comunes que tienen los participantes
la conversación. Según esta hipótesis las cosas que se encuentran en el
terreno común tienen más accesibilidad.

Hipótesis de la búsqueda sin restringir: la búsqueda de referentes no sólo


tienen cuenta los conocimientos de los participantes, los resultados los
experimentos apoyan esta hipótesis.

La información o personajes que se menciona antes en un texto son


más accesibles que los que se mencionan en segundo lugar, la
explicación constructivista de este efecto este con la primer
información creamos un marco de referencia, y posteriormente vamos
integrando en él los siguientes componentes.

Salva Herrera- MailTo :ssalva4@me.com


167
Tema 12 - Comprensión
Lo reciente es lo importante cuando se está desarrollando la
estructura, si se nos pregunta inmediatamente después, la proximidad
facilita la tarea, pero si por el contrario transcurre un intervalo
temporal, la primera mención es lo más importante y tiene un efecto
más duradero.

El contrato entre lo dado y lo nuevo: hay una mayor facilidad en la


asimilación cuando la frase hace referencia y contiene idea semejantes
a la antecedente, esto no ocurre cuando hay que inferir la relación.

La teoría de centrado, desarrollada por los modelos de inteligencia


artificial, mantiene que cada expresión de un discurso coherente tiene
único centro que mira hacia atrás, que se relaciona con la expresión
anterior, y uno o más centros que miran hacia adelante y que ofrecen
vínculos potenciales con la siguiente expresión.

12.4 Modelos de representación y procesamiento de textos

12.4.1 Modelos de red proposicional de representación de texto

Se puede representar el significado de un texto mediante una red en la


que las intersecciones representen el significado de las palabras y las
conexiones sus relaciones. Estos modelos primero analizan las frases
como proposiciones, además tienen un valor de verdad, es decir
podemos decir si es verdadero falso, por otro lado, están conectados entre
sí en redes proposicionales.

Modelo de Anderson y Bower: anteriormente denominado HAM, actualmente se denomina


ACT

Incluyen un modelo de activación propagador de la memoria semántica, combinando


posteriormente con sistema de producción para ejecutar operaciones de nivel superior

Ofrece una buena explicación de recuperación de hechos en historias breves,


cuantos más hechos hay asociados con concepto, más lenta es la recuperación de
cualquiera de estos hechos, lo que se denomina efecto ventilador

Cuando se presenta un estímulo, la activación se propaga a todos sus asociados

Hay un límite a la cantidad de activación total, de tal forma que cuantos más elementos se
propaga, menos activación puede recibir cada elemento individual

Teoría del enfoque conceptual: Sanck

Es otro modelo de red por el que se puede descomponer el significado en pequeñas unidades
atómicas, que están relacionadas entre sí mediante una red.

Salva Herrera- MailTo :ssalva4@me.com


168
Tema 12 - Comprensión
Evaluación de los modelos de red proposicional:
No hay acuerdo sobre los tipos de papeles y conexiones exactas que hay que
utilizar, por otro lado estos modelos muestran como se podría
representar el conocimiento, pero tienen poco que decir sobre cómo o
cuándo hacemos inferencias, o como se mantienen algunos elementos
en el primer plano. Por último no son adecuados por sí solos como un
modelo de comprensión, pero si constituyen la base de los modelos más
complejos.

12.4.2 Gramáticas de historias

Así como las frases, las historias poseen una regla sobre la estructura de los
sintagmas, por ejemplo, cuando poseen un contexto es posible un episodio.
Según esta gramática las personas suelen dar importancia a los
elementos de una historia según su posición jerárquica y se pasa más
tiempo leyendo las frases que están en la parte alta de la estructura.
Cuando se cambia el orden de la gramática de las historias, poniendo el
principio al final por ejemplo, la comprensión es mucho más difícil.

Evaluación de las gramáticas de historias:


Un problema es lograr un acuerdo sobre cuáles deberían ser sus elementos,
reglas y elementos terminales. Éstas teorías tampoco aportan nada sobre
la comprensión por lo que actualmente no son influyentes.

12.4.3 Teorías basadas en esquemas

Esquema: paquete de conocimientos organizados que nos permite extraer


sentido del nuevo conocimiento, lo que implica que todo es más que la suma
de las partes. Proporciona un medio para organizar el conocimiento, y
explica porque recordamos la esencia del texto, pero no aclara como
hacemos inferencias o porque a veces recordamos la información de
forma literal.

Guiones: el guión es un tipo de esquema especial que representa


nuestro conocimiento de acciones rutinarias y secuencias familiares
repetitivas. Permiten hacer planes e inferencias elaboradas. Los
elementos centrales de guión se comprenden más fácilmente que los
que están en la periferia, aunque los centrales no se haya mencionado
explícitamente. Las distracciones que interrumpen el propósito del guión
deben ser más prominentes que los sucesos rutinarios, y por lo tanto
se recuerda mejor. Los acontecimientos que son irrelevantes para el
propósito presentan una probabilidad de recuerdo muy baja.

Salva Herrera- MailTo :ssalva4@me.com


169
Tema 12 - Comprensión
Schunk afirma que la memoria es una estructura dinámica impulsada
por sus fallos, los guiones estarían formados por varios paquetes de
organización en la memoria denominados escenas, y que están
relacionados con un determinado objetivo. Estas escenas constituyen
el interior de la memoria, a nivel superior encontramos los puntos de
organización temática que se ocupan de la información abstracta
independiente del contexto.

Hay evidencia experimental de esta organización en paquetes, se ha


constatado la imprimación independientemente de que hubiese sido
presentada la información para la historia objetivo buen otra distinta, sin
embargo esto no ocurría cuando, en las historias, el paquete de organización
se correspondía con diferentes esquemas.

Evaluación de los enfoques basados en esquemas guiones:


Se les acusa de no ser más que nuevas descripciones de los datos, Ross
y Bower sugirieron que los esquemas tienen una capacidad organizadora
que va más allá de sus elementos constituyentes, pero que aún está
por demostrar. No está claro cómo se activan determinados guiones. Los
esquemas no puede proporcionar todavía una explicación completa del
procesamiento de texto. Tienen poco que decir sobre cómo se hacen
las inferencias, como se resuelve las anáforas o cuáles son los
elementos que se ponen en primer plano.

12.4.4 Modelos mentales

Las personas crean modelos de lo que ven, leen u oyen, si la


información está representado en un modelo análogo al que se
representa se dice que se corresponde con un modelo mental. Mientras
que los esquemas contienen información abstraía sobre muchos casos
particulares, los modelos mentales constituyen un prototipo específico
para representar toda la información a partir de los datos en general. Estos
modelos crean imágenes mentales, que incluyen información sobre la posición,
la accesibilidad a la memoria depende más de donde estén ubicados
espacialmente, que de las proposiciones hipotéticas que se podría
utilizar para representar esas posiciones. No obstante estos modelos son
multidimsionales y aportan cinco tipos de datos: espacial, causa y temporal
sobre los objetivos de las personas, e información sobre las características de
las personas y objetos, cada información se codificar de forma independiente.
Este enfoque de los modelos mentales es una visión constructivista
extrema.

Salva Herrera- MailTo :ssalva4@me.com


170
Tema 12 - Comprensión
Actualización del modelo: el procesamiento de textos es dinámico, a
medida que se incorpora nueva información, se debe ir actualizando el
conocimiento. Según el modelo del aquí y ahora de Zwaan y Madden la
información es relevante. Según el modelo de resonancia de los
mismos autores los datos nuevos resuenan con toda la información
que hay en la memoria, y no se puede evitar la activación pasiva del
material antiguo aunque no sea relevante, solamente se necesario que
esté relacionado de alguna forma. El tiempo es un determinante muy
importante en la construcción del modelo mental: el tiempo relativo puede
afectar a la accesibilidad de las entidades, cuanto más largos sean los
intervalos entre la hora y el pasado referido, más tiempo necesitan las
personas para acceder a él, sin embargo este efecto sólo se observa
entre eventos consecutivos. Prestamos mayor atención a las expresiones
que nos informan de un tiempo relativo, las locuciones como “más tarde” o
“dos días después” se conoce como marcadores de segmentación, y su
función es informar de una discontinuidad temporal y/o potencial cambio
de tema. Cuando leemos la primera fase tras un cambio de tema,
tardamos más, esto es conocido como el efecto delimitación, sin
embargo este efecto se puede evitar si usamos marcadores de
segmentación.

12.4.5 Modelo de construcción-interacción de Kintsch

Éste modelo combina aspectos de los enfoques de redes, de los basados


en esquemas y modelos mentales. Construimos una representación de
una historia con dos entradas, la propia historia y los objetivos de
lector, estos objetivos están representados por un esquema llamado
objetivo. La representación se hace a base de diagramas de coherencia y se
construye jerárquicamente, y tienen tanto una microestructura como una
macroestructura.

Conceptos básicos

Red de proposiciones conectadas, las proposiciones están


Microestructura
relacionadas semánticamente cuando comparten argumentos.

Nivel de descripción superior, los esquemas relevantes se


recuperan, en paralelo, de la memoria largo plazo. Hay macro reglas
Macroestructura que se utilizan para hacer inferencias, para borrar proposiciones
de la microestructura o unir proposiciones, un ejemplo es cuando
estas macro reglas se usan para rellenar huecos en un texto

Salva Herrera- MailTo :ssalva4@me.com


171
Tema 12 - Comprensión

Fases en el procesamiento de texto

Se activan los significados de las palabras, se forman las


Fase de
proposiciones y se hacen las inferencias. Las fases iniciales de
construcción
procesamiento son de abajo-arriba

Fase de Se integra la red de elementos relacionados una estructura


integración coherente, cualquier contradicción se resolverá en esta frase

Evaluación del modelo construcción-integración:


El modelo explica muchas evidencias experimentales, cuanto mayor es
el nivel de una proposición mayor es la probabilidad de su recuerdo,
además se confunden las inferencias con el material original porque se
codifican juntos. El modelo explica también las diferencias entre los
buenos y malos lectores, así como los efectos de la legibilidad y la dificultad
de texto. La participación de los microprocesos predice el rendimiento
de los lectores menos expertos y tienen una mayor influencia en la
respuestas a las preguntas, reconocimiento y localización el texto. Por último
la participación de los macroprocesos predice el rendimiento de los
lectores más hábiles, y tienen una mayor influencia en la integración
atención a largo plazo. Éste modelo también predice la calidad de la
memoria para el texto y la influencia de conocimiento previo.

Comparativa de los modelos

tiene una serie problemas, resulta difícil ponerse de acuerdo con cuáles son
gramática de
las categorías terminales y no terminales y cuáles deberían ser las reglas
las historias
de la gramática

redes
proporcionales aunque proporcionan constructores útiles, no son suficientes, explico como
y los modelos para explicar todos los fenómenos de procesamiento de textos
de esquemas

El modelo de construcción- integración, es el más detallado y


modelo de prometedor, y el que más atención a recibido, combina lo mejor de
Kintsch los enfoques basados en esquemas y los basados en redes para construir
una teoría bien especificada de los modelos mentales

12.5 Diferencias individuales en las habilidades de comprensión

Las personas menos habilidosas al procesar un texto hacen menos inferencias


cuando procesan un texto o un discurso, una medida útil para la capacidad
de memoria de trabajo es el alcance de la lectura, está relacionado con la
capacidad de responder preguntas en los textos, la precisión de la resolución
de los pronombres y con mediciones generales de inteligencia verbal. Las
personas más hábiles en la compresión son buenos en eliminar el
material irrelevante, y discriminar los homónimos.
Salva Herrera- MailTo :ssalva4@me.com
172
Tema 12 - Comprensión
En este sentido hay que diferenciar entre inhibición y eliminación, la
eliminación es la atenuación de la activación, mientras que la
inhibición es el bloqueo de la activación. La eliminación requiere que el
material esté activado para que se pueda suprimir. Hay evidencias de
que la gente joven es más eficaz a la hora de relacionar ideas en el
texto, así como muestran una mayor facilidad para eliminar el material
irrelevante.

12.6 Como ser mejor lector

Uno de los mejores métodos se llamado método PQ4R, el cual permite


procesar material más profundamente y reflexionar sobre sus implicaciones,
además de maximizar la retención memorística.

12.7 La neuropsicología del procesamiento de texto y el discurso

Se sabe mucho menos de la pisconeurología de la comprensión de texto, que


de otras áreas de lenguaje, ya que este procesamiento depende diversas
interacciones y no todas están relacionadas específicamente con lenguaje
implica una gran parte del córtex.

Conocimientos actuales

Los individuos, afasia receptiva tienen problemas en la comprensión del significado de las
palabras

La gente con trastornos del procesamiento sintáctico tiene problemas para analizar las frases
sintácticamente

Algunos pacientes con la fase de Wernicke tienen problemas para mantener la coherencia del
discurso

Los niños con trastorno específico de lenguaje tienen problemas para comprender los
cuentos de hacer inferencias

Las personas que tienen lesiones cerebrales en el hemisferio derecho tienen problemas para
comprender los chistes y hacer inferencias adecuadas

Los niños con desorden semántico - pragmático tienen problemas para seguir las
conversaciones ya que no pueden representar el estado mental de los demás

La memoria a corto plazo afecta a la capacidad de comprender un texto o discursos

La demencia reduce la capacidad de comprensión y de mantener una conversación coherente

Salva Herrera- MailTo :ssalva4@me.com


173
Tema 13 - Producción del lenguaje

Tema 13 - Producción del lenguaje

13.1 Introducción

El proceso de producción de la clase clasifica en conceptualización, formulación y codificación

es el nivel más alto, implica lo que se va decir. Durante este proceso


las personas hablan, conciben una intención y eligen la información
relevante ya sea de la memoria o del propio entorno, para preparar la
construcción de la expresión pretendida. El producto de la
conceptualización es un mensaje preverbal, esto se conoce como el
nivel del mensaje de representación, y en cierta medida es el nivel
El proceso de olvidado en la producción del lenguaje, tal y como afirmé
conceptualización Wittgenstein, hablar sobre la intención y el significado induce a un
“agarrotamiento mental”. Levelt diferenció el proceso de
conceptualización en macroplanificación (implica la elaboración de
un objetivo comunicativo en su objetivos y la recuperación de la
información), y la microplanificación (implica asignar la forma
proposicional correcta a los grupos de información y decidir sobre
cuestiones como cuál es el tema o centro atención)

implican introducir la representación conceptual a forma lingüística, la


Los procesos de formulación tiene dos componentes lexicalización (en laproducción
formulación del habla, pasar de la semántica al sonido), y la planificación
sintáctica (juntar las palabras para hacer la frase)

Los procesos de
ejecución o procesos implican convertir las palabras en sonidos en el orden
codificación correcto, la velocidad correcta y la prosodia adecuada
fonológica

Las técnicas empleadas en el estudio de la producción consigo las siguientes


análisis de transcripciones de cómo eligen los sujetos lo que y como decir,
simulaciones informáticas, análisis de pausas y los errores o lapsus linguae y,
en los últimos años los estudios experimentales sobre el nombramiento de
imágenes.

13.2 Errores de la vida: información que proporciona

Hasta hace poco tiempo los estudios se basaba en el análisis de errores, el


habla está llena de errores como el retruécano que implica cambiar las
consonantes iniciales entre las palabras. El método para estudiar errores
consiste en pedir al sujeto que hable y cuando comete un error, parar y
preguntarle que quería decir realmente. El problema es un posible sesgo del
observador, sin embargo este es escaso, son muy frecuentes los errores de
sustitución de palabras y de sustitución y anticipación de sonidos.
Salva Herrera- MailTo :ssalva4@me.com
174
Tema 13 - Producción del lenguaje

Fromkin afirmó que la existencia de errores que implicaban determinada


unidad, demuestra que estas unidades son sociológicamente reales.

13.2.1 información que aporta los errores en el habla

Las mayúsculas indican que le pases primario y la cursiva es secundario, lo


primero que conservar esqueletos es de la frase no cambia con el otro, lo que
sugiere que le pases se genera de forma independiente de las palabras
concretas utilizadas. El modelo de Garrett se basa en el análisis detallado de
ciertos ejemplos, por otra parte Levelt et al afirmaron que se había puesto
demasiado énfasis en los árboles, que es necesario respaldar el análisis de los
errores contactos experimentales. Si estos dos enfoques proporcionan
resultados contradictorios, deberíamos poner chiste los datos experimentales,
ya que los datos sobre los errores sólo nos están dando información sobre un
procesamiento anómalo.

En este sentido es posible hacer tres afirmaciones: 1) un modelo completo


debería ser capaz de explicar tanto los datos de los errores del habla con los
experimentales, 2) las líneas de evidencia científica convergen en vez de
ofrecer resultados contradictorios, 3) es posible simular experimentalmente los
errores de lado reducidos de manera espontánea, y estas simulaciones
experimentales dando lugar a la misma conclusión que los errores naturales.
Por último es el que salió señalar que, en ocasiones corregimos nuestros
errores de la vida, lo que demuestra que estamos controlando que decimos.
Sin embargo a menudo, nunca nos damos cuenta de haber cometido un error,
la idea del monitor desempeña un papel importante en el modelo de WEAVER+
+ de la producción del habla.

Errores de nombramiento: los errores de nombramiento nos surgen


probablemente de que la gente se precipite en la preparación, pues el caso del
nombramiento de una preparación suficiente de la palabra o de no poder
comprobar los nombres pétalos objetos. La gente tiene mirar a los objetos
cuando se está preparando para nombrarlos, si los errores surgieran de una
preparación predecir precipitada, la gente debería pasar menos tiempo
mirando es objeto sin embargo, esto no es así. Por el contrario, pasa el mismo
tiempo mirando a un referente antes después de expresar un error que pasa
antes decir correctamente el nombre.

El modelo de Garrett de producción del habla: el autor defendió que


producimos el habla mediante una serie de niveles de procesamiento discretos
en serie que no interactúan entre sí, el modelo diferencia dos fases
fundamentales en la planificación sintáctica.
Salva Herrera- MailTo :ssalva4@me.com
175
Tema 13 - Producción del lenguaje
El nivel funcional: en este nivel todavía no están representados cita
meter orden de las palabras, se especifica y asigna el contenido semántico las
palabras al sujeto y objeto, en este nivel se eligen las palabras de contenido.
Nivel posiciones: se ordenan las palabras, en este nivel selecciones
palabras funcionales.

Evidencia a favor del modelo de producción de Garrett:


Los moros en los hígados pueden ser directivos o reflexivos, se comete el error
de mover el porcentaje libre pero se deja almorcé maridado se denomina
encallamiento del fonema.

El análisis de los errores sugiere que

Cuando hablamos creamos un plan sintáctico o marco para una frase que se compone de
ranuras en las que se insertan las palabras de contenido, los intercambios de palabras se
producen cuando se ponen las palabras de contenido en una ranura equivocada

Sólo se intercambian palabras del mismo nivel de procesamiento, palabras funcionales por
palabras funcionales y de contenido por otros de contenido, esto indica que ambos tipos de
palabras prominente vocabularios computacional mente distintos que se procesan en
distintos niveles

Los errores de intercambio de palabras implica palabras de contenido están restringidas por
factores sintácticos, los errores de sonido están restringidos por la distancia

Evaluación del modelo de Garrett:


El modelo explica mucha evidencia empírica sobre los errores del habla, sin
embargo hay facetas en las que el modelo no es correcto.

Aspectos contradictorios

No está clara que la producción de la relación porque son ser, hay cierta evidencia de que se
produce un procesamiento local paralelo, puesto que encontramos errores de combinación
de palabras que se tienen que explicar por el hecho de que se estén recuperando
simultáneamente dos o más palabras de lexicón

Se observan dos tipos de errores de inclusión cognitiva, 1) el nivel de mensaje puede


entrometerse la expresión y 2) en los niveles de procesamiento inferiores y errores internos
no planificados

Bock concluyó que la disponibilidad de palabras afecta a la planificación sintáctica, lo que de


nuevo sugiere que los niveles de procesamiento intercaló con la planificación sintáctica

La diferenciación entre palabras de contenido y funcionales se confunde con frecuencia

Estas conclusiones sugieren que los niveles de procesamiento no puede ser independientes
entre sí, sino que deben interactuar, lo cual impulsar modelos interactivos de lexicalización

Salva Herrera- MailTo :ssalva4@me.com


176
Tema 13 - Producción del lenguaje

13.3 Planificación sintáctica

Bock et al analizaron los procesos sintácticos y una de sus conclusiones es que


el orden de las palabras en el habla esta determinado por una serie factores
interactivos entre sí, por lo general los experimentos demuestran que
componente designación del papel gramatical de la planificación sintáctica está
controlado por factores semánticos-conceptuales, más que por las propiedades
de las palabras como su longitud. Los estudios de movimiento ocular indican
que la mirada es un indicador fiable de lo que la gente está pensando y
planificando.

13.3.1 Imprimación sintáctica

La repetición de la estructura sintáctica se denomina imprimación estructural o


persistencia sintáctica. La imprimación sintáctica es pacificadora, se ha
observado en la comprensión la producción y bidireccionalmente en la
comprensión y producción.

Imprimación estructural: sugiere que se puede separar el significado de la


forma, porque podemos imprimar las estructuras de las frases de forma
independiente de su significado.
Persistencia sintáctica: es un aspecto más general de la imprimación
simpática, por el que el procesamiento determinada estructura sintáctica
influye en el procesamiento de las frases que se presentan posteriormente.

Estudios imprimación sintáctica: demuestran que los hablantes utilizan


terminado orden las palabras si la frase prima utiliza dicho orden, la magnitud
de la imprimación o depende del tiempo verbal o de otros aspectos
superficiales sino que depende de la estructura sintáctica superficie suya
gente. Se llama refuerzo léxico a la repetición del verbo. La imprimación
sintáctica también afecta algo más que la memoria corto plazo y puede tener
cierto componente de aprendizaje a largo plazo

La imprimación estructural: puede mantenerse hasta con 10 frases


intermedias.

El modelo conexionista de Bock: el modelo conexionista de producción de


frases que Bock explica la imprimación estructural, en la producción se usan
dos tipos de información 1) estadística (para predecir lo que viene a
continuación) y, 2) información semántica sobre el mensaje que se va decir y
los sucesos. Este modelo tiene dos ventajas por un lado estudio recientes dicen
que el significado tiene cierto efecto sobre la imprimación, y por otro el modelo
puede explicar el resultado gracias a la ruta basada en el significado.
Salva Herrera- MailTo :ssalva4@me.com
177
Tema 13 - Producción del lenguaje

Funciones de la imprimación sintáctica

Permite coordinar y alinear la información entre hablantes

Se debe a un aprendizaje implícito de cómo usa la gente la sintaxis

Cómo abordar las dependencias: los errores de concordancia de números


son bastantes comunes en el área, no depende tanto de la proximidad
superficiales sustantivo respeto de negro como de su proximidad en la
estructura sintáctica subyacente. Según Bock et al se necesitan dos procesos
para garantizar la concordancia de número, marcado (una especificación del
número que estamos de cosas de las que se está hablando) y adaptación
morfológica (evitar el mercado teniendo en cuenta la morfología del sujeto).
La concordancia de número podría implicar distintos procesos para pronombres
y verbos, los verbos están controlados por el número gramatical (implica
proceso sintáctico) y los pronombres por lo que se conoce como número
nacional (la perspectiva inicial cambiante que tiene el hablante del número de
cosas implicadas, que implica proceso léxico).

¿Es incremental la planificación sintáctica?: Meyer concluyó que el tipo


que el tiempo que tarda los participantes en empezar hablar era más largo
cuando el elemento distracción estaba relacionado semánticamente con el
primer o segundo sustantivo. Este resultado sugiere que preparamos el
significado de oraciones cortas y elegimos las palabras adecuadas antes de
hablar, pero sólo recuperamos el sonido de la primera palabra.

Smith y Wheeldon hicieron que los participantes describieran imágenes en


movimiento, observando latencias de inicio más largas para las frases de una
única cláusula con una locución nominal compleja que para frases similares con
una locución con una locución simple. Esto sugiere que no se planifica todo
estructura sintáctica, de forma anticipada, cuando la gente empieza hablar a
completado el acceso al Lema (un nivel de representación de una palabra entre
su representación semántica y fonológica, está especificada sintéticamente,
pero todavía no contiene información a nivel de sonidos), para la primera
locución de una expresión y empezado a procesar el resto.

Schnur, Costa y Caramazza concluyeron que el tiempo para empezar a producir


una frase era más rápido en presencia de un distractor fonológico relacionado,
esto sugiere que la planificación fonológica tiene bastante anticipación y puede
cruzar los límites entre opciones. La planificación sintáctica es incremental,
vamos calificando sobre la marcha, cuando hablamos mantenemos múltiples
componentes de la frase en la memoria, planificamos y hablamos de manera
simultánea y lo hacemos sobre la marcha, más que planificar un fragmento de
una vez y sólo producido cuando se ha culminado la producción.
Salva Herrera- MailTo :ssalva4@me.com
178
Tema 13 - Producción del lenguaje
Reducción de la morfología: forma regulares e irregulares, existe un
modelo que afirma que tenemos una regla para las versiones regulares y
aprendemos de morenas excepciones irregulares que almacenamos en nuestro
lexicón, en este sentido cabe afirmar que existe evidencia neural de dicho
patrón, el mecanismo salón regla generales estaría ubicado en la parte
delantera del hemisferio izquierdo, y un lexicón de almacén de los verbos
irregulares situado en la regiones más posteriores.

13.4 Lexicalización

La lexicalización que se proceso de producción del habla porque convertimos


los pensamientos que su que hacer las palabras en sonidos, desde la
representación semántica de la palabra del contenido a su sonido.

Fases en la lexicalización: la lexicalización tiene dos etapas, selección léxica


basada en el significado, en la selección de la palabra y codificación fonológica.
Levelt en su teoría de los lemmas afirma que cada palabra está representada
por un lema, el lema está especificado sintáctica y semánticamente pero no
morfológicamente. En la primera fase de especificación en forma abstracta es
la selección del lema. En la segunda fase de especificación de forma fonológica
concreta de la palabra se conoce como selección de la forma fonológica o les
lexema, que es la forma fonológica de una palabra en un formato en el que
está representada la fonología.

El acceso la sintaxis léxica se produce antes de que se produzca el acceso a la


forma fonológica.

Evidencia de los errores del habla:


Fray y Cutler crean un modelo de cómo producimos palabras y como hacemos
sustituciones, diferencia dos tipos terrores del habla de sustitución de toda la
palabra, sustituciones semánticas y sus secciones basadas en la forma o
malapropismos (un tipo de revelarla en el que se sustituye la palabra objetivo
por una palabra con sonido familiar), estos dos tipos de errores sugiere que los
procesos de producción y comprensión usan el mismo léxico pero en sentidos
opuestos. Los elementos del lexicón se ordenan fonológicamente, de modo que
las palabras que tienen un sonido similar están más próximos.

Durante la producción se accede al léxico atravesando una red semántica o


árbol de decisión, los errores semánticos se producen cuando se está
recorriendo el árbol de decisión, los errores fonológico se produce cuando se
elige la forma fonológica final. La idea es que las sustituciones fonológica si
semántica se produce como resultado de los errores en las distintas partes del
proceso de recuperación de la palabra.
Salva Herrera- MailTo :ssalva4@me.com
179
Tema 13 - Producción del lenguaje
Butterworth explicó la recuperación de las palabras en dos fases, primero una
entrada en el léxico semántico que ofrecen indicador a una entrada en el léxico
fonológico separado, para estos autores, los procesos semánticos y
psicológicos son independientes. Aunque los errores de sustitución de palabras
respaldan por lo general al modelo de los fases, no dicen nada sobre la
existencia de lemas amorales especificados sintácticamente.

Evidencia experimental:
La evidencia experimental de la división del acceso al léxico en dos fases
providente por un lado descripción desde la sencillez, y por otro lado la
investigación sobre imprimación por repetición en la lexicalización, la
imprimación por repetición se produce por el refuerzo de las conexiones entre
los lemas y las formas cronológicas.

Kempel y Huijbers afirmaron que la gente no empieza hablar hasta que se ha


identificado totalmente contenido que se va a expresar, no producimos la
primera palabra hasta que no hemos accedido a todos los lemas. Tanto las
formas psicológicas como el significado tienen que estar activados para que se
produzca la imprimación por repetición en la producción. La evidencia a favor
de los dos fases, proviene de una fase de activación semántica temprana en la
selección léxica, y de una fase posterior de la activación fonológica, en
definitiva, proviene de estudios de pertenencias entre palabras imágenes.

El paradigma de la interferencia semántica: los sujetos debe nombrar


imágenes en los que se superponen palabras de distracción que tienen que
ignorar, los tiempos de los nombramientos son más largos cuando existe una
relación entre imagen y palabra.

Evidencia de la neurociencia: Levelt et al afirman que a traducir palabras


activan secuencialmente distintas regiones del cerebro, la selección conceptual
se asocia con la activación de la parte intermedia de la circunvolución temporal
media izquierda, el acceso al código fonológico está asociado al área de
Wernicke y la codificación fonológica de preparación de sílabas y sonidos y
prosodia se asocia con la creación de la de Broca.

Evidencia del fenómeno de la punta de lengua: el estado de tenerlo en la


punta de la lengua, es una dificultad temporal observada en el acceso léxico,
las otras palabras que vienen a la cabeza se llaman intérpoles. Este fenómeno
nos indica que se puede ser consciente del significado de una palabra sin serlo
de sus sonidos constituyentes y, además, que la representaciones fonológica
es no son entidades unitarias. Existen dos hipótesis que tratan de explicar
dicho fenómeno.

Salva Herrera- MailTo :ssalva4@me.com


180
Tema 13 - Producción del lenguaje
Hipótesis de la activación parcial: en la que los elementos-objetivos no
están accesibles porque tienen una representación débil en el sistema,
conexiones débiles entre sistema semántico y zoológico. La causa este
fenómeno es el déficit en la transmisión de la creación de nivel semántico
fonológico, la evidencia esta hipótesis se sustenta en que los bilingües sufren
más este fenómeno.

La hipótesis del bloqueo: o interferencia en que el elemento objetivo esta


suprimido por un competidor más fuerte, la tarea de bloqueo fonológico nos
deja ver que se produce el fenómeno cuando hay una vecina fonológica, no
semántica, Harley y Bown demostraron que es más probable que se produzca
fenómeno de punta de la lengua con palabras de baja frecuencia con pocos
vecinos mágicos cercanos.

El fenómeno de punta de lengua parece mejor explicado y más con que una
forma más convincente desde la hipótesis de la activación parcial, además se
explica como el éxito de la primera fase de la lexicalización el fracaso de la
segunda fase. La información sintáctica y la fonológica son independientes.

Problemas del modelo de lemas: hay poco acuerdo en la existencia de


lemas como nivel de representaciones amorales sintácticamente especificados
que media entre los conceptos y las formas lógicas, la producción de
homófonos no es una evidencia favor clara del modelo de los dos fases. En
resumen aunque hay discrepancias entre naturaleza de las dos fases y hasta
qué punto hay lemas amorales sin tácticamente especificados, hay un
consenso de que la recuperación léxica se produce en dos fases, fase
semántico-léxica seguido de una fase léxico-fonológica.

13.4.1 ¿Es interactiva la lexicalización?

La interacción implica la influencia del nivel sobre otro esta idea comprende a
su vez dos conceptos:

Discreción temporal: el argumento porque los niveles de procesamiento se


solapan se conoce como procesamiento en cascada, si se solapan las fases,
puede haber muchos candidatos activos en la segunda fase y la activación
caerá en cascadas hasta el nivel fonológico. El resultado es que según la
hipótesis de solapamiento, tenemos filtraciones entre los niveles, de forma que
se activan fue lógicamente los lemas no objetivo.
Flujo de información inverso: parte de que la información de un nivel
inferior sin produce en el nivel anterior, el solapamiento y el flujo información
inverso son facetas distintas de la interacción, los errores del habla evidencien
un solapamiento u interacción entre las dos fases.
Salva Herrera- MailTo :ssalva4@me.com
181
Tema 13 - Producción del lenguaje
El curso temporal de la lexicalización: procesamiento discreto en
cascada:
Se sabe que tardamos 600 ms en empezar a decir una palabra cuando vemos
un objeto, además la evidencia proviene de los errores del habla establece que
sí se da solapamiento entre las dos fases.

Los modelos independientes o modulares establecen que antes de decir la


palabra objetivo sólo queda activo un elemento antes de empezar acceder a
las formas fueron lógicas. Los modelos interactivos o de solapamiento,
establece que antes de decir la palabra objetivo puede estar activos cualquier
número de elementos.

El experimento de Levelt sobre el efecto de la imprimación mediana demuestra


que no se solapan ni literatura, según el modelo interactivo si debería
producirse la imprimación mediada, y según el modelo independiente no
debería producirse. Peterson y Savoy si que encuentran una imprimación
mediada. En resumen, se demuestra que la selección de la palabra precede a
la codificación fonológica y que si hay solapamiento. Se encontrado poca
evidencia totalmente favor del modelo de independencia de las dos fases. Sólo
el modelo en cascada te dice claramente el resultado encontrado de que los
tiempos de nombramientos o más breves para las palabras entre las personas
bilingües. Según el modelo en cascada, la activación cae en cascada de los de
los nodos léxicos no seleccionados, y el resultado de esta activación adicional
de los segmentos fonológicos es que se acelera el nombramiento.

¿Existe una retroalimentación en la lexicalización?:


Los modelos basados en los datos sobre los consideran la producción del habla
como un proceso interactivo que implica retroalimentación, ya que los errores
de del habla dan evidencia en las restricciones múltiples, como un sesgo léxico
y efectos de la similitud.

Sesgos y efectos de la similaridad

Sesgo de la
Tenencia que los errores produzca secuencias de fonemas familiares
familiaridad

Tendencia de que los errores de la vela a nivel de los sonidos, como los
Sesgo léxico retruécanos, den lugar a una palabra más que una palabra inexistente, con
más frecuencia de la que se produciría por pura suerte.

Efectos de la Cuando el error es más parecido a la palabra objetivo según determinado


similitud criterio, de lo que sería por pura suerte

Situaciones La intrusión está relacionada tanto semánticamente como fue lógicamente


mezcladas con la palabra objetivo

Salva Herrera- MailTo :ssalva4@me.com


182
Tema 13 - Producción del lenguaje
Flujo de información horizontal: en el flujo de lo información vertical como
hemos visto la evidencia empírica respalda el modelo en cascada, las palabras
están activas simultáneamente múltiples niveles información. La producción
del habla es incremental, vamos planificando a medida que vamos hablando.
Sin embargo con el flujo información horizontal se indica que unas palabras
afectan a otras de la misma frase, este flujo horizontal nos permite escribir con
humor, lirismo, chistes poesía.

13.4.2 El modelo de la lexicalización de activación interactiva

Los teóricos creen que se puede describir la legitimación mediante modelos de


propagación de la activación.

Modelo interactivo de la producción del habla de Dell: Dell propuso un


modelo interactivo de lexicalización basado en el mecanismo de propagación
de la activación, se introducen los elementos en marcos en cada nivel de
procesamiento. Las unidades de procesamiento especifican las unidades
sintácticas, morfológicas y fonológicas de las palabras. Así desde el nivel frase,
la activación se propaga hacia bajo descodifican los elementos en función de
sus propiedades sintácticas hasta un nivel morfológico y un nivel fonológico. En
cada nivel se introducir el elemento de mayor activación en la ranura activa en
el marco.

El modelo explica los errores del habla, ya que puede hacer activas varias
unidades en cada nivel al mismo momento, si hay suficiente ruido aleatorio, un
elemento puede ser sustituido por otro. Hay realimentación entre los niveles,
la realimentación entre el léxico del fonológico da lugar al sesgo léxico y a las
restricciones de similitud.

13.4.3 Evaluación del trabajo sobre la lexicalización

Existe un consenso de que la lexicalización en la producción del habla se


produce en dos fases, también de que la información cae en cascada entre
niveles y los datos son consistentes con los modelos en cascada no discretos.

13.5 Codificación fonológica

El principal problema de la codificación fonológica consiste en garantizar que


los sonidos de las palabras salen en el orden y la prosodia adecuada existe
para ello dos explicaciones:

Salva Herrera- MailTo :ssalva4@me.com


183
Tema 13 - Producción del lenguaje
La codificación fonológica: se basa en la distinción entre estructura y
contenido, las estructuras lingüísticas crean marcos con ranuras y luego
recuperamos el contenido para rellenar estas ranuras. En el mecanismo de
escáner-fotocopiadora se recuperan los segmentos de sonidos por separado de
este marco y se insertan en la ranuras correspondientes en un marco silábico.

La cola competitiva: es un modelo conexionista, donde los elementos a


introducir forma una cola ordenada controlada por los procesos de activación e
inhibición, dos unidades de control, una de iniciación y otra al final. Los sonidos
del principio de una palabra tiene fuertes conexiones con la unidad que
controla el inicio de la palabra y, los sonidos al final la tiene la unidad contable
final de la secuencia.

Dell utilizó una red conexionista llamada red recurrente para asociar palabras
con sus representaciones fonológicas, una secuencia sin representación
explícita de la distinción de estructura y contenido con objetivo de aprender
secuencias. Esto lo consigue mediante una capa adicional de enviar este
contexto que almacenan información de los estados anteriores de la red.

13.5.1 Codificación fonológica en el modelo de lemmas y el papel de las


sílabas en la codificación fonológica

Levelt et al idearon el modelo de codificación fonológica WEAVER++, un


modelo discreto en dos fases sin interacción entre niveles, los conceptos eligen
a los lemas potenciando nivel de activación del concepto que domina al Lema,
la activación se propaga por la red con la restricción de no permitir un proceso
cascada, de modo que la activación de la correspondiente palabra sólo empieza
cuando se ha seleccionado un único lemma. Se recupera un código fonológico
por cada lema, según el luego los conocemos para formar sílabas, la sílaba no
se emociona y léxico sino que se crea sobre la marcha. La composición de las
sílabas, forman el último paso de la codificación, la codificación fonética, donde
se forman los detalles de los sonidos y actuar como elemento de entrada del
aparato articulatorio.

Silabario y mental: almacén de gestor silábico es muy practicados que


impulsa la articulación, a medida que se produce la silibificación, se recupera
los correspondientes patrones y barcos para ser ejecutados.

13.5.2 Frecuencia de la planificación

Tenemos que preparar la palabra fonológica antes empezar hablar, la palabra


fonológica es la unidad prosódica más pequeña del habla, es una sílaba
acentuada fuerte y cualesquiera otras sílabas asociadas no acentuadas.
Salva Herrera- MailTo :ssalva4@me.com
184
Tema 13 - Producción del lenguaje
El tiempo en preparar una frase depende del número de palabras con lógicas
en la frase.

13.6 El análisis de vacilaciones

El análisis de las vacilaciones se ocupa de la distribución de las pausas


u otras faltas de fluidez, una pausa sin rellenar es un momento de
silencio, una vacilación rellenada es una pausa rellena con sonidos
como “eh”, una repetición un falso comienzo una observación como
“vale o ¿sabes?”.

13.6.1 Pausas antes de palabras individuales

Goldman-Eisler concluyó que se producen vacíos entre giros de la


conversación, lo cual se conoce como pausas de cambio. Además de los
errores de recuperación podemos deducir un modelo en dos fases de
acceso léxico de la producción, 1) una especificación semántica de lo
que queremos decir y 2) una recuperación fonológica. Parece que la
pausa refleja el éxito en la primera fase y un retraso en la segunda
fase, esto es similar al efecto de punta de la lengua, el cual es un
ejemplo extremo de pausas de microplanificación (recuperación de
palabras difíciles) en contraposición a macroplanificación (planificación
de la sintaxis y del contenido de una frase).

13.6.2 Pausas y planificación de la frase

Goldman-Eisler afirmó que en algunas pausas planificamos el contenido


de lo que estamos a punto de decir, las pausas adicionales sirven para
hacer una planificación adicional. La planificación no abarca frases enteras
porque los tiempos de reacción al tono no era más largos al final de las frases,
lo que sugiere que la gente no está planificando la fase siguiente final de
la anterior. Se afirma que lo que se planifica exactamente durante las
pausas es fundamentalmente la semántica más que la sintáctica, el
autor afirmó que el tiempo de las pausas no se vea afectado por la
complejidad sintáctica, por lo que concluye que la planificación es
fundamentalmente semántica. Esta conclusión es actualmente muy
controvertida.

Butterworth defendió que un ciclo corresponde una idea, las personas miran
menos a sus oyentes en la planificación y mantienen mayor contacto
visual en la fase de ejecución, se tiende a utilizar gestos más tónicos para
dar mas énfasis en la fase vacilante y gestos más y icónicos, relacionados con
objeto asociado, en la fase fluida.
Salva Herrera- MailTo :ssalva4@me.com
185
Tema 13 - Producción del lenguaje
13.6.3 Evaluación de la investigación sobre la falta de fluidez

Algunas faltas fluidez tienen otra función que la de indicar dificultad


temporales del procesamiento, a veces, se usan para facilitar la tarea del
oyente. Godo et al proporcionan evidencia experimental de que las
vacilaciones pueden ser utilizadas para lograr cierta meta interactiva,
además de reflejar la carga cognitiva del hablante. Los distintos tipos de
pausas podrían tener distinta causa, las micropausas reflejan dificultades
de la articulación, aunque se han puesto en duda esta perspectiva.
Aunque los primeros trabajos demostraron que las pausas refleja una
planificación semántica, esta idea está muy lejos estar clara. Es probable que
sean reflejo de dificultades en la microplanificación y en la
macroplanificación. Además puede darse conflicto entre macroplanificación y
microplanificación, si pasamos mucho tiempo en la macroplanificación habrá
menos recursos para la microplanificación, lo que genera un incremento de
pausas y reducción de la fluidez.

13.7 Neuropsicología de la producción del habla

13.7.1 Afasia

Las vías de los procesos implicados a decir una palabra que se han oído
presentan una activación primero en el área de Wernicke (temporal), que pasa
a través del fascículo arquato hasta el área broca (frontal).

Afasias

Habla no fluida, vacilante, lenta, poca entonación o disprosódia y


Afasia de
dificultad de particular o apraxia. También incapacidad de ordenar las
Broca
palabras y dificultad con la secuencia de unidades de lenguaje

Frases bien formadas, con gran número de elementos y prosodia


Afasia de normal pero la comprensión es mala y hay dificultad de encontrar los
Wernicke contenidos fundamentales, con muchas sustituciones y palabras
inventadas

Afectada el habla espontánea, el nombramiento y la repetición de


Afasia global
palabras

Afasia
Trastornos del lenguaje por lesión del hemisferio derecho
cruzada

La repetición esta trastornada pero no la producción y la comprensión


existen dos tipos Afasia de conducción de reproducción, donde la
Afasia de repetición es mala por una mala codificación fonológica. Y Afasia de
conducción conducción de la memoria corto plazo, donde la repetición es mala por
el trastorno de la memoria corto plazo de los elementos de la entrada
auditiva

Salva Herrera- MailTo :ssalva4@me.com


186
Tema 13 - Producción del lenguaje

Se trata de la perturbación de lenguaje tras la lesión cerebral con


repetición buena pero mal rendimiento en otras facetas de lenguaje
existen dos tipos la afasia sensorial transcortical, en la cual está
Afasia
trastornada la comprensión, la producción es fluida y puede incluso
transcortical
incluir la jerga pero la repetición de relativamente buena. Y la Afasia
transcortical motora donde la comprensión y la repetición son muy
buenas pero hay poca producción del habla espontánea

Afasia de Broca Afasia de Wernicke

Comprensión del habla relativamente Sordera pura para las palabras, dificultad en la
buena comprensión de las palabras

Anomia, agramatismo, errores de


Habla fluida pero sin sentido
pronunciación

Lesión del área de broca del lóbulo frontal


izquierdo y en las partes contiguas de Lesión de la vida Wernicke, dentro del lóbulo
lóbulo frontal la sustancia blanca temporal izquierdo
subcortical

En la actualidad se considera más útil la distinción entre afasia fluida (habla


fluida pero vez sin sentido) y afasia no fluida. O distinguir entre los que
pueden comprender y los que no. Todos los pacientes incluso los afásicos
agramaticales de Broca, tienen dificultad para encontrar palabras, lo
que se denomina anomia.

13.7.2 Agramatismo

Los agramatismos son un tipo de afasia que se caracteriza por un


trastorno del procesamiento sintáctico y tienen tres componentes:
déficit de construcción de frases (capacidad disminuida de producir
palabras en orden correcto), algunas partes de la frase se presentan
mejor que otras (mejor preservadas las palabras de contenido, peor
preservadas las palabras funcionales y terminación de las palabras), y
dificultad para comprender frases sintácticamente complejas.

Por lo tanto, si un déficit es significativo, deberíamos encontrar que el déficit


construcción de frases, la pérdida de elementos gramaticales y el déficit de
comprensión sintáctica deberían producirse siempre juntos.

13.7.3 Explicaciones del agramatismo:

Dificultad de articulación: es posible que dejen de lado las palabras


funcionales debido a la dificultad de articulación.

Salva Herrera- MailTo :ssalva4@me.com


187
Tema 13 - Producción del lenguaje
Sin embargo esta explicación no es convincente puesto que en el
agramatismo también hay déficit de construcción de frases de
comprensión sintáctica en la mayoría de los casos.

Teorías que buscan una única causa a los tres componentes: una
sugerencia es que el área de broca sea responsable del procesamiento
de las palabras funcionales y otros elementos gramaticales. Hay
diferencias entre las palabras funcionales y de contenido, nunca se producen
sustituciones intercambiándose entre sí y se presentan mediante diferentes
rutinas de procesamiento.

Según la hipótesis del único déficit fonológico: omiten elementos que son
componentes no acentuados de las palabras fonológicas. Por ello las palabras
de contenido quedan preservadas, y se pierden los afijos y las palabras
funcionales. Sin embargo hoy esta hipótesis no explica el déficit de
construcción de la frase ni los patrones de disociación encontrados,
sólo explicaría la pérdida de elementos gramaticales. Por otro lado la
idea de que las palabras funcionales y de contenido se procesan en el diferente
es cuestionable.

Para Stemberger la causa del agramatismo es la versión extrema de los


errores del habla normal, en los sujetos gramaticales hay un aumento del
ruido aleatorio y del umbral necesario para que se produzca el acceso.
Para Harley la causa del agramatismo implica marcos gramaticales mal
construidos y que se pueden explicar por excesivas sustituciones.

Estas explicaciones no explican todas las características del agramatismo.

Por su parte Schwartz relacionó en agramatismo con el modelo de la Garrett, ,


afirma que no se consigue ningún marco de la frase y no se puede recuperar
ningún elemento gramatical, no explica el déficit comprensión que según esta
hipótesis surgiría de la lesión de otros sistemas.

13.7.4 Afasia de la jerga

La afasia de la jerga es un tipo de afasia fluida extrema en la que la


sintaxis está intacta pero el habla esta marcada por gran dificultad
para encontrar las palabras, se enfadan cuando la gente no comprende
lo que dice. La dificultad de encontrar palabras está marcada por las
sustituciones de contenido o parafasias y palabras inventadas o
neologismos.

Salva Herrera- MailTo :ssalva4@me.com


188
Tema 13 - Producción del lenguaje
13.7.5 Anomia

Es un trastorno de recuperación de los nombres de los objetos, todos


los tipos de afasia tienen cierto grado de anomia. La anomia léxico-
semántica se explica como una dificultad para recuperar la
representación fonológica cuando se ha accedido al Lemma.

Anomia léxico-semántica: implica problema al recuperar el lemma en la


especificación semántica, supone una incapacidad para usar la
representación semántica para elegir el lemma pertinente por ejemplo se ven
personas que pueden nombrar a los miembros de una categoría semántica
mejor que a los de otra categoría semántica.

Anomia fonológica: implica problema al recuperar la forma fonológica


de una palabra tras haber accedido a su lemma, es similar al fenómeno de
punta de la lengua.

Evaluación de la investigación sobre la anomia: la existencia de los


tipos de anomia respalda la idea de separación de procesamiento
semántico y el fonológico en la producción del habla. La mejor evidencia
de dos fases en la lexicalización viene del estudio de pacientes anómicos en
idiomas que usa el género.

13.7.6 Modelización conexionista de la afasia

La modelización conexionista se ha centrado en las dificultades de la recuperación léxica,


Harley y MacAndrew constataron cuatro hipótesis

Martin y propusieron que un incremento patológico del ritmo de disminución provoca


Saffran más parafrasias y neologismos

afirmó que la perdida de conexiones inhibidoras dentro de un mismo


nivel provocaría un procesamiento trastornado, si había unidades
Harley léxicas implicadas, se produciría neologismos y parafrasias, mientras
que si se perdieron las conexiones entre unidades sintácticas se
producirían parapragmatismos

afirmó que los errores normales del habla se debían al ruido de una red de
Stemberg activación interactiva, es posible que los errores afásicos se deba a un
excesivo ruido aleatorio

Miller y afirmaron que los neologismos se deben al debilitamiento de las


Ellis conexiones entre unidades semánticas léxicas

Salva Herrera- MailTo :ssalva4@me.com


189
Tema 13 - Producción del lenguaje
Harley y MacAndrew concluyeron que desconexiones semántico léxicas
debilitadas se ajusta mejor a los datos de los errores, el debilitamiento del
valor del parámetro que gobierna el ritmo de propagación de la activación de
las unidades semánticas a las léxicas, suele dar lugar a que los elementos
léxicos competitivos con la palabra objetivo tengan un nivel de activación
elevado análogo al de la palabra objetivo.

En la actualidad, el modelo computacional de afasia más exhaustivo se


basa en el modelo de producción de Dell. Se afirmó que los errores
semánticos de la repetición de palabras (disfasia profunda, analogía
afásica de la dislexia profunda, incapacidad de repetir palabras
inexistentes y errores sistemáticos en la repetición semántica de
palabras singulares) y las parafrasias formales (sustitución en el habla
de una palabra que suena como otra) en la producción se deben a un
incremento patológico de la tasa a la que decae la activación de las
unidades.

Los trabajos de modelización sugieren que el rendimiento los


pacientes con un acceso léxico trastornado se explica mejor con la
alteración de dos parámetros, la ponderación semántica y la
ponderación fonológica. No hay acuerdo sobre el grado de ajuste del
modelo computacional a los datos, para que sea considerado un un buen
modelo.

13.7.7 evaluación de la contribución de la investigación sobre afasia a la


comprensión del procesamiento normal

Los pacientes con lesiones en la área Broca, tienen dificultad para


producir las formas gramaticales pero localizan las palabras de forma
adecuada y presenta una tendencia a omitir cosas.
Por otro lado los pacientes con lesiones en el área de Wernicke, tienen
dificultad para encontrar palabras pero la sintaxis está relativamente bien
conservada, además presentan tendencia a sustituir cosas.

Según Dick, la gramática no se localiza sólo en el área de broca sino


que usa otras muchas regiones.

13.8 Escritura y agrafía

El lenguaje escrito está más integrado y es más complejo sintácticamente que


la palabra, según Hayes y Flower existen tres fases en la escritura.

Salva Herrera- MailTo :ssalva4@me.com


190
Tema 13 - Producción del lenguaje
Planificación: se definen los objetivos, se generan ideas y se recupera la
información de la memoria a largo plazo organizándose un plan de lo
que se va a escribir. Esta fase es la que mejor diferencia a los buenos
de los malos escritores, los buenos escritores, manipular la
información, no son la transmiten, son más flexibles al cambio y tiene
más habilidad para construir relatos adecuados. Los escritores noveles
cometen un gran error (confundir la generación y planificación de
ideas con su traducción un formato de texto, de forma que la restricciones
de texto actúan en una fase demasiado temprana).

Traducción: se produce el lenguaje hablado a partir de la


representación en la memoria, se lleva el plan a frases.

Revisión: se lee y edita lo escrito, los buenos escritores generan frases más
largas y crean textos seductores.

13.8.1 Neuropsicología de la escritura

La teoría de la mediación fónica de Luria afirmaba que al escribir


primero recuperamos los sonidos de las palabras y después
producimos la palabra escrita. Los datos neurosicológico dicen que
esto es falso, ya que hay pacientes que pueden deletrear palabras que no
pueden pronunciar, luego no parece necesario tener un discurso interno
para escribir.

Disgrafía: problema de escritura debido a la lesión cerebral, existen dos tipos,


disgrafía fonológica (puede deletrear palabras, pero no palabras inexistentes)
y disgrafía superficial (puede deletrear palabras inexistentes, pero regulariza
las palabras irregulares).

Salva Herrera- MailTo :ssalva4@me.com


191
Tema 14 - Como utilizamos el lenguaje

Tema 14 - Cómo utilizamos el lenguaje

14.1 Introducción

En estudio de la pragmática hoy decimos se ocupa de cómo hacemos las


cosas con el lenguaje, de como averiguamos el propósito de lo que nos
dicen. El estudio de la pragmática se puede dividir en dos temas están
entrelazados entre sí: 1) como vamos, como hablantes, más allá del
significado literal de lo que nos hicimos, para hacer inferencias, Clark
llama capas a este tipo de comportamiento, en la práctica, el lenguaje
tiene múltiples capas de significado. 2) podemos analizar cómo
mantenemos conversaciones, para lograrlo, tenemos que colaborar.

14.2 Inferencias en la conversación

Las inferencias desempeñan un papel importante la conversación y en el texto.


Hacemos inferencias, no sólo lo que dice la gente, sino también de cómo lo
dice, e incluso de lo que no dice. En la conversación tenemos un recurso
adicional, podemos preguntar otra persona, ya que es la conversación un acto
cooperativo.

14.2.1 Actos de hablar: Austin y Searle

Según Austin y Searle cada vez que hablamos realizamos un acto de


hablar (una expresión definida en términos de las intenciones del hablante en
el efecto que tiene sobre el oyente). Austin partió del objetivo de explorar
las frases que incluían verbos de acción, estos verbos realizan un acto por
su propia expresión, estas circunstancias se conocen como condiciones
dichosas. Austin afirmó que todas las frases son de acción, aunque la mayoría
lo sea de forma indirecta.

Fuerzas de las frases según Austin

Fuerza locutiva El significado literal de la expresión

Fuerza ilocutiva Lo que el hablante está intentando conseguir con lo que dice

El efecto que tiene la expresión sobre las acciones y creencias


Fuerza prelocutiva
del oyente

Salva Herrera- MailTo :ssalva4@me.com


192
Tema 14 - Como utilizamos el lenguaje

Categorías del acto de habla según Searle

La persona que al estar aseverando transmite su creencia de que la


Representativo
afirmación es verdadera

Directivo El hablante está intentando conseguir que la gente haga algo

Comprometedores El hablante se compromete a un curso de acción futura

Expresivo El hablante desea revelar su estado psicológico

Declarativo El hablante comenta un nuevo estado

Tipos de acto del habla

Acto del hablar Son expresiones directas en las que la intención del hablante se
directo revelaran en sus propias palabras

Requieren cierto trabajo por parte del oyente, el hecho de que las
Acto de habla expresiones sean indirectas desempeña una función, es un
indirecto mecanismo importante para trasmitir cortesía en una
conversación

14.2.2 Como tener una conversación: las máximas de Grice

En las conversaciones, los hablantes y oyentes cooperan para que la conversación sea
significativa y tenga sentido. Para eso tiene que hacer su contribución a la conversación
cuando se requiere, tal y como se requiere, esto se logra aplicando al principio
cooperativo las Máximas de Grice

Hacer que las contribuciones sean todo lo informativas que se


Máxima de la cantidad
requiere, pero no más

Máxima de la calidad Hacer que la contribución sea verdadera

Acerca la contribución sea relevante para el objetivo de la


Máxima de la relevancia
conversación

Máxima de la forma Hacer que la contribución sea clara

En este sentido cabe destacar que Sperber y Wilson afirmaron que lo


fundamental es la relevancia, que las demás se pueden reducir a esta. Sin
embargo, normalmente intentamos extraer un sentido de las conversaciones
que parecen desviarse de estas máximas. Suponemos que en general el
hablante está cumpliendo en principio cooperativo. Otros autores
propusieron que, en las conversaciones, los hablantes hacen
conjuntamente pactos conceptuales sobre los nombres que van a
utilizar, los pactos conceptuales son dinámicos, funciona con el tiempo y
se pueden simplificar incluso cambiar.

Salva Herrera- MailTo :ssalva4@me.com


193
Tema 14 - Como utilizamos el lenguaje
El hemisferio derecho del cerebro desempeña un papel importante
dentro de unas facetas pragmáticas del lenguaje, está implicado en el
procesamiento no literal. Los pacientes con lesión del hemisferio
derecho tienen problemas para comprender los chistes, los modismos,
las metáforas y los proverbios.

14.3 La estructura de la conversación

Dos planteamientos distintos para analizar la forma en la que sus títulos conversaciones

El análisis del Utiliza métodos generales, pretende descubrir las unidades básicas
discurso el discurso y las reglas que las relacionan

El análisis de la Es mucho más empírico, pretende descubrir los entresijos de la


conversación conversación sin aplicar reglas

En una conversación se establece un ritmo de turnos en los que las personas


se van intercambiando. Este aspecto de conversación se conoce con el nombre
de tomar turnos, los turnos varían en longitud y puede contener más de una
idea. Otras personas pueden hablar durante el turno de otra persona,
en forma de comunicación de canal trasero, haciendo ruidos, diciendo
palabras son gestos para demostrar que la gente sigue escuchando.

Sacks et al propusieron que la unidad mínima de construcción de turnos con la


que se construyen un turno viene terminada por la estructura sintáctica y
semántica, y por el tipo de integración de la expresión. La mirada es
importante, tendemos a mirar hacia nuestros oyentes cuando estamos
llegando al final de un turno.

Wilson y Wilson propusieron un modelo más biológico del control de la


toma de turnos, afirmaron que durante una conversación se sincronizan
osciladores endógenos en los cerebros del que habla y del oyente, los
osciladores endógenos son grupos de neuronas que se disparan juntas de
forma periódica y actúan como relojes en el cerebro.

14.4 Colaboración en un diálogo

Las conversaciones son actividad de colaboración, los hablantes colaboran con


los oyentes para garantizar que se comprenden sus expresiones. La idea de
que hablantes particularizan sus expresiones a las representaciones
particulares de los destinatarios se conoce como diseño en función de
la audiencia.

Salva Herrera- MailTo :ssalva4@me.com


194
Tema 14 - Como utilizamos el lenguaje
Pickering y Garrod hablan del proceso de alineación, proceso de
intentar hacer coincidir la representaciones del hablante y del oyente.
Afirma que la alineación se produce por medio del cuatro tipos de mecanismos
fundamentalmente automáticos imprimación, diferencia, utilización de
expresiones rutinarias y monitorización y reparación de lo producido. Tal vez
el mecanismo de alineación más importante sea la imprimación, la
imprimación de palabras y estructuras sintácticas garantiza que las
representaciones lingüísticas quedan alineadas a diversos niveles.
Éstos autores ponen énfasis en la forma en la que los oyentes hacen
predicciones en las conversaciones, sobre todo en circunstancias difíciles.

Ferreira et al concluyeron que los hablantes monitorizan lo que dicen y


pueden, en ocasiones, detectar y evitar la ambigüedad lingüística
antes de producirla, los hablantes son mucho mejores resolviendo la
ambigüedad no lingüística que la ambigüedad lingüística. La
producción del habla se lleva a cabo con lemmas elegidos rápidamente
que se producen cuanto antes.

14.5 Sonido y división

El estudio de la forma en que interactuamos con el mundo visual requiere una


sofisticada tecnología de análisis del movimiento pupilar. El estudio del mundo
visual ha adquirido tanta importancia porque proporciona una herramienta
para estudiar cómo comprendemos el lenguaje y el habla. Aunque los
adultos utilizan mucho el mundo visual, los niños lo hacen en mucho
menor grado.

14.5. Utilización de la información visual en la comprensión

Aunque los lectores adultos recurren fundamentalmente a la


información léxica para generar estructuras sintácticas alternativas,
los oyentes adultos utilizan en gran medida el mundo visual que tienen
delante. En concreto, la gente puede utilizar información referencial de
la escena visual que está mirando para superar sesgos léxicos muy
potentes. Los resultados demuestran que el procesamiento de lenguaje
tienen cuenta de inmediato el contexto relativo no lingüístico, van en
contra de los modelos en los que las decisiones sintácticas iniciales están
guiadas exclusivamente por la información sintáctica.. Tendemos a mirar
aquello a lo que está mirando la persona que habla, los movimientos
oculares del oyente termina correspondiéndose con los movimientos
oculares del hablante, se mueven sobre la escena de la misma manera,
pero como retraso de dos segundos.

Salva Herrera- MailTo :ssalva4@me.com


195
Tema 15 - La escritura del sistema lingüístico

Tema 15 - La escritura del sistema lingüístico

15.1 Introducción

Caplan, describió cuatro características fundamentales del sistema de


procesamiento de lenguaje, basados en la explicación clásica sobre
modularidad de Fodor (la mente está construida a partir de módulos
discretos, estos módulos de la mente se corresponden a estructuras
neurales identificables), quien afirmó que los módulos están
encapsulados informativamente, así cada módulo sólo asume una
representación concreta como elemento de entrada, y sólo proporciona
un tipo de salida, por ejemplo módulos sintácticos no aceptan una entrada
directa del nivel acústico. Muchos investigadores consideran que un
sistema modular es más económico, hemos visto que el lenguajes muy
modular, que se puede localizar estos módulos en regiones particulares
del cerebro, sin embargo el grado de encapsulación es un dato más
controvertido.

Los procesos dentro de un módulo son obligatorios y automáticos, en


este sentido, no podemos dejar de leer una palabra y acceder a su
significado tal y como ocurre en la tarea Stroop. Los procesos de
lenguaje suelen quedar a nivel inconsciente, los procesos de nivel
inferior, no son tratables con una introspección consciente. Caplan
observó que la mayor parte del procesamiento de lenguaje, se produce
de manera automática. El grado en el que interactuamos con el lenguaje es
un controvertido, sabemos que cuanto más temprano se da un proceso
de procesamiento, será más probable que sea autónomo.

15.2 Cuáles son los modelos de lenguaje

Cuando vemos u oímos una frase, tenemos que reconocer o producir las
palabras y descodificar o codificar la sintaxis de la frase. Todas estas tareas
implican modelos específicos de lenguaje, en la actualidad poco se sabe
sobre la relación entre el codificador el descodificador sintáctico,
aunque la evidencia sugiere que son distintos.

El sistema semántico conceptual es responsable de organizar y


acceder a nuestro conocimiento del mundo y de interactuar con el
sistema perceptivo, la mayoría de los investigadores piensa que los
significados de las palabras se descomponen en características semánticas.

Salva Herrera- MailTo :ssalva4@me.com


196
Tema 15 - La escritura del sistema lingüístico
Hemos visto que los casos de estudio neurosicológico demuestran que una
lesión cerebral puede afectar de forma selectiva a los componentes lenguaje,
de esta forma algunos pacientes tienen acceso léxico intacto pero un
procesamiento sintáctico trastornado, y viceversa. El patrón de actuación en
pacientes de Parkinson (regiones posteriores) y Alzheimer (regiones
frontales) es diferente, lo que ha llevado a los investigadores ha
concluir que los casos particulares se almacenan en un lexicón mental
(posteriores) en una parte del cerebro mientras que las reglas
gramaticales (frontales) generales se procesan en otro lugar.

Existen enormes diferencias entre procesamiento de lenguaje en las


modalidades visual y auditiva, las demandas temporales de reconocimiento
de la palabra hablada y visual son muy distintas. Normalmente tenemos
menos tiempo acceso a un estímulo auditivo, es más difícil encontrar
efectos de la frecuencia de reconocimiento en el lenguaje hablado que
en el reconocimiento de la palabra visual.

En circunstancias normales los sistemas de lectura y escucha se


desarrollan conjuntamente, excepto en los niños muy pequeños, en los
que existe una correlación muy elevada entre comprensión oral y
comprensión escrita. Los datos sugieren que el reconocimiento del
habla está impulsado por los datos, siendo un proceso de abajo-arriba, en
el reconocimiento del habla tenemos que obtener el significado lo más
rápidamente posible. En la producción del habla tenemos que ser
precisos, producir cada palabra por completo y construir cada representación
sintáctica con detalle.

15.2.1 Discurso interno

Es evidente que discurso interno está producido por el sistema de


producción de la habla, se detiene justo antes de una articulación. Con
frecuencia la lectura provoca el discurso interno.

15.3 ¿Cuantos lexicones existen?

Algunos investigadores creen que hay múltiples sistemas de memoria


semántica, uno para cada modalidad de entrada. Las características
periféricas deben ser distintas en función de la modalidad. La explicación
más detallista afirma que sólo hay un lexicón, que se utiliza para las
cuatro tareas tales como leer, escuchar, escribir y hablar. Es posible que
tengamos cuatro lexicón para cada tarea o dos, uno para lenguaje escrito que
todo lenguaje hablado.

Salva Herrera- MailTo :ssalva4@me.com


197
Tema 15 - La escritura del sistema lingüístico
La respuesta a cuántos lexicones existen depende de como definamos nuestros
términos, si por lexicón queremos decir el diccionario mental completo,
sólo puede haber uno, aunque quizás exista una serie subsistemas y
almacenes periféricos. Si por lexicón queremos decir un sistema
discreto pero para acceder a la semántica podríamos tener varios.

15.3.1 Datos experimentales

Según Fay y Cutler se han interpretado los errores de sustitución de


palabras, como la evidencia de que se accede a un único lexicón desde
la producción o desde la comprensión del habla. Hemos visto que los
malapropismos (sustitución de palabras por otras de igual sonido) se
pueden explicar desde un modelo de lexicalización interactivo en dos
fases.

La mayoría de los datos van en contra la existencia de un único lexicón que se


utilizaría para el reconocimiento como para la producción

Demostraron que el reconocimiento taquistoscópico de una palabra impresa, se


facilita por la lectura anterior en voz alta delante esta palabra. Mientras que el
Winnick y
nombramiento de la imagen con la producción de una palabra en respuesta a
Daniel
una definición, no facilitar reconocimiento posterior. Así que imprimación es
mayor en la modalidad visual que la modalidad auditiva

Afirmó que los almacenes de Logogén eran específicos a la modalidad,


Shallice, McLeod y Lewis descubrieron que el tener que monitorizar una lista de
Morton
palabras presentadas auditivamente creaba poca interferencia con la lectura en
voz alta de dichas palabra.

La evidencia favorece la perspectiva de que los lexicones de la producción y la


Dell
comprensión son distintos

En este sentido Allport y Funnell afirmaron que tal vez no necesitamos


lexicones de separados, si no sólo los vías de acceso distintas a un
mismo lexicón. No parece económico tener cuatro vías de acceso para
leer que escribir hablar y escuchar, y tener cuatro sistemas semánticos. El
ordenamiento más aceptable es que hay distintos sistemas léxicos, los
procesos de lenguaje se dirigen al principio del procesamiento y no
vuelven a converger hasta más tarde.

Los datos experimentales con pacientes que padecen lesiones


cerebrales, sugieren que el reconocimiento de la palabra hablada y
visual recurre a mecanismos distintos. Hay almacenes entrada y salida
diferentes, que tal vez comparta algunos mecanismos subléxicos.

Salva Herrera- MailTo :ssalva4@me.com


198
Tema 15 - La escritura del sistema lingüístico
15.3.2 Datos neuropsicológicos y arquitectura léxica

Hay muchas disociaciones neuropsicológicas entre la lectura, la escritura y


reconocimiento de la palabra visual y hablada. Los datos neurosicológicos
respaldan que hay cuatro lexicones diferentes, para escribir para hablar y
para el reconocimiento de la palabra visual y hablada, aunque es evidente
que debe haber una comunicación entre dichos sistemas. En el centro
del modelo de la estructura general del sistema lingüístico, se
encuentra un sistema en el que se almacenan los significados de las
palabras, que tiene una comunicación con otros procesos, se trataría
del sistema semántico.

Hablar implica pasar del sistema de la semántica, a un almacén de los


sonidos de las palabras, es el almacén de la salida fonológica. La
comprensión del lenguaje requiere análisis auditivo del discurso
entrante, para poder acceder a las formas almacenadas de las palabras
habladas, este es el almacén de la entrada fonológica.

Patologías relacionadas con el lenguaje

Los pacientes tienen dificultades para recuperar los nombres de los objetos,
Anomina
pero muestran una comprensión perfecta de las palabras

Los pacientes no pueden entender lo que se les dice, no pueden


Sordera pura
repetir un discurso, sin embargo pueden hablar, leer y escribir con
de las palabras
relativa facilidad

Sordera del
Algunos pacientes mantiene intacta la repetición, sin embargo este
significado de
trastorno es muy poco frecuente
la palabra

Estos casos, demuestra que la repetición de la palabra no tiene que depender del
acceso al léxico

15.3.3 Bosquejo de un modelo

La lectura recurre a un numero de rutas, cuyo número es


controvertido. Por su parte los modelos conexionistas sugieren que se
deben combinar las rutas léxicas directas e indirectas.

Allport y Funnell afirmaron que no podemos tener un lexicón independiente


que medie entre sistemas, las parafasias semánticas (sustitución de
palabras al hablar por otra de la misma clase, por ejemplo perro por
gato), de pacientes con dislexia profunda descartan cualquier modelo en el
que la traducción a un código fonológico, sea una condición necesaria
para acceder al código semántico.

Salva Herrera- MailTo :ssalva4@me.com


199
Tema 15 - La escritura del sistema lingüístico

Tenemos que almacenar la palabra mientras que pronunciamos sus


sonidos o escribimos sus letras en orden, esto implica que
necesitamos amortiguadores analógicos ortográficos (almacén temporal
para guardar los fonemas que acaba de ser introducidos o están a punto de ser
introducir producidos). Podemos escribir palabras inexistentes al dictado, por lo
que debe existir una conexión entre el amortiguador de la salida fonológica y el
amortiguador de la salida ortográficas que proporciona reglas de sonidos a
letras.

Algunos autores piensan que se utilizan distintos sistemas semánticos


para las palabras y los objetos, por lo que es posible que tengamos
que dividir el sistema semántico en dos. Hay cierta evidencia partir del
estudio de la demencia del paciente DT que puede nombrar objetos y
caras sin pasar por la semántica. En este caso tenemos que incorporar una
ruta original del sistema de reconocimiento visual de los objetos, que evita la
semántica, para llegar al almacén de la pronunciación fonológica. No hay
ninguna conexión directa entre el almacén de entrada ortográfica y almacén de
salida ortográfica.

15.4 El lenguaje y la memoria corto plazo

El lenguaje desempeña un papel importante en la memoria corto plazo


y el contenido de esta, suele ser de carácter lingüístico. Baddley y Hitch
determinaron el conjunto de estructuras implicadas como memoria de trabajo,
esta memoria de trabajo comprende un ejecutivo central (desempeño
papel importante en la integración y comprensión semántica, es un sistema
atencional), un almacén visoespacial ( para almacenar corto plazo
información espacial), y un bucle fonológico (desempeña un papel en los
procesos fonológico de lenguaje).

El alcance de la lectura pone de manifiesto el rendimiento en una serie de


indicadores de comprensión, la gente le u oye conjuntos de frases sin
relacionar y tras cada conjunto, intenta recordar la última palabra de
cada frase. El alcance en la lectura es el conjunto de mayor tamaño
para el que un participante puede recordar todas las últimas palabras,
viene determinado por el tamaño o la eficacia de la capacidad la
memoria trabajo. Está correlacionado con la capacidad de responder a
preguntas sobre textos, decisión de la resolución de pronombres y, con
indicadores de inteligencia verbal.

Salva Herrera- MailTo :ssalva4@me.com


200
Tema 15 - La escritura del sistema lingüístico
15.4.1 La memoria corto plazo verbal y el procesamiento léxico

La eficacia del bucle fonológico se mide con tareas de memoria auditiva a corto
plazo, miden nuestro recuerdo de dígitos y palabras en diversas maneras.

Tareas de memoria auditiva

Tarea de repetición de dos palabras El sujeto tiene que repetir pares de palabras

Tarea de repetición de una única El sujeto tiene que repetir palabras o dígitos únicos en
palabra voz alta

Tarea del alcance de las El sujeto tiene que decir si dos listas son iguales o
correspondencias distintas

La persona oye una secuencia de palabras o dígitos y


Tarea del alcance de apuntar después tiene que apuntar secuencias de imágenes
que correspondan a esos elementos

Una reducción de tamaño del almacén fonológico a consecuencia de


una lesión cerebral, debería tener repercusiones para el
procesamiento de lenguaje, pero las consecuencias son menos
drásticas porque podemos acceder a las propiedades sintácticas y
semánticas de las palabras con rapidez. Un trastorno de bucle
fonológico obstaculiza la capacidad de repetir palabras inexistentes, el
grado en que los trastornos de la memoria fonológica a corto plazo van
acompañados trastornos en la repetición del habla resulta muy controvertido.

Los trastornos de la memoria fonológica a corto plazo podría implicar


una lesión en el amortiguador fonológico de entrada, o del amortiguador
fonológico de salida, pero no del procesamiento fonológico.

La gravedad del trastorno de la memoria auditiva corto plazo afectará


en función de lenguaje, un alcance reducido a 1-2 elementos, puede
tener consecuencias de reprocesamiento del lenguaje. Para alcances
de 2-3 elementos el procesamiento de una única palabra suele estar
intacto, pero el rendimiento con secuencias más largas de palabras, puede
estar afectado.

Martín, Leach y Barth propusieron que los amortiguadores de la memoria para


el procesamiento fonológico, léxico semántico contienen los elementos de las
estructuras de la memoria largo plazo, una lesión en las representaciones
semánticas tendrá consecuencias para el mantenimiento de la
representaciones léxicas. Asimismo Martín y Saffran analizaron la capacidad de
repetición, en un paciente de afasia sensorial transcortical, ST, no podía repetir
más de dos palabras sin perder información sobre los elementos anteriores.
Salva Herrera- MailTo :ssalva4@me.com
201
Tema 15 - La escritura del sistema lingüístico
Los individuos con trastorno semántico, no puede mantener elementos al
principio de una secuencia, estos elementos se pierden al no existir
retroalimentación entre los procesos fonológico y los semánticos. Éstos autores
encontraron asociaciones parecidas en la ocurrencia de déficit de lenguaje que
aparecen enfermedades como la demencia y se deben a una pérdida paulatina
de las microcaracterísticas semánticas.

15.6 Cimentación: conexión de lenguaje con el mundo

El significado es una forma de crear correspondencias de lenguaje con el


mundo externo, en algún momento, el sistema semántico tiene que
interactuar con los sistemas perceptivos, esta interacción se conoce
veces con el nombre de cimentación. Rogers et al describen un modelo
que proporciona una explicación de cómo están conectados en
lenguaje y la percepción, su modelo crea correspondencias entre
representaciones de los objetos especificas a la modalidad y sus
descripciones verbales. La representaciones semánticas median entre estos
dos tipos de representaciones de salida.

Ventajas del modelo de Rogers

No tenemos que preocuparnos sobre cuáles son las características que deberíamos
utilizar si son arbitrarias o no

El modelo computacional nos obliga ser explícitos sobre cómo se realiza cada tarea
semántica o perceptiva

El modelo proporciona una explicación de la demencia semántica

El modelo no contradice modelo HALE (hiperespacio análogo al lenguaje) o al modelo


ASL, todos ellos demuestran que extraemos y abstraemos información semántica
de grandes cuerpos de información

Aunque los modelos HAL o ASL dependen de entradas verbales, este enfoque computacional
vincula la información verbal con la perspectiva, el modelo computacional también vincula el
procesamiento semántico con la neuropsicología

El modelo se parece el modelo de OUTH (la representación semántica es unitaria y a


mortal), en efecto, la memoria semántica podría ser considerada más bien como
sistema que media entre distintos sistemas perceptivos, más que como un almacén
de hechos proporcionales. La regiones anteriores de los lóbulos temporales desempeñan
un papel particularmente importante en este proceso

Salva Herrera- MailTo :ssalva4@me.com


202

También podría gustarte