Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes Lenguaje PDF
Apuntes Lenguaje PDF
1.1 Introducción
Una sencilla definición podría ser, un sistema de símbolos y reglas que nos
permiten comunicarnos, los símbolos son objetos que designan objetos, las
palabras son símbolos.
Los estudios sobre lesiones incluyen los análisis de los efectos que tienen los
daños cerebrales sobre el desempeño, y que han hecho enormes
contribuciones a la compresión de como se relacionan los procesos psicológicos
con el cerebro, uno de estos enfoques en la neuropsicología cognitiva.
Ademas Shallice afirmó también que la neuropsicología cognitiva ha ido demasiado lejos en
cuanto a tres ideas
1 Hace que se preste atención a los procesos que se producen dentro de las
cajas de los modelos mas clásicos
2.1 Introducción
Fonética Fonología
Un fonema es una unidad básica de Existen tres tipos de fonética articulatoria (como
sonido de un determinado idioma. se hacen los sonidos), auditiva ( o perceptiva,
pone de relieve como se perciben los sonidos) y,
acústica (propiedades físicas del sonido).
Se dice que dos fonos, son una Dos palabras de un idioma que sólo se diferencien
expresión de un mismo fonema, en un en un sonido son pares mínimos
determinado idioma si la diferencia
entre ambos nunca marca una
diferencia de significado en las palabras,
por otro lado los fonos distintos que se
comprenden como el mismo fonema en
un idioma se denomina alófonos.
Sonidos producidos
Vocales Las vocales se generan con un flujo de aire relativamente libre, la naturaleza
de la vocal viene determinada por la forma en que la lengua modifica el flujo
de aire, así se pueden clasificar las vocales en función de la posición de la
lengua, elevada, media, inferior.
Se pueden combinar dos tipos de vocales para crear un diptongo, ademas
mientras pronunciación de las consonantes es relativamente constante en los
distintos dialectos (del ingles) la de las vocales puede variar mucho.
Las carteristas de las palabras y las sílabas que pueden contener mas
de un fonema, como el tono, la acentuación y el ritmo, se denomina
características suprasegmentales, asimismo la acentuación varia dentro de
una palabra, puesto que unas silbas reciben más énfasis que otras, así la
acentuación y el tono determinan el ritmo, y los idiomas difieren en
cuanto al ritmo.
En inglés por ejemplo, aunque se puede utilizar el tono para atraer la atención
a una palabra o para transmitir más información, las palabras no cambian de
significado, sin embargo en algunos idiomas como el nigerino Nupe, si lo
hacen.
funcionales tienden a ser cortas, y se utilizan con muchas frecuencia, sobre las cuales
recae el trabajo gramatical, se les suele llamar elementos de clase cerrada
3 Un componente sintáctico que se ocupaba del orden de las palabras, a su vez este
componente se dividía en dos subcomponentes un conjunto de reglas básicas y las
transformaciones
Ha habido una serie de cambios importantes en las versiones mas recientes de la teoría
5 La teoría revisada permite interponer unidades intermedias entre los sustantivos y los
sintagmas nominales, y entre los verbos y las locuciones verbales
La teoría del autómata también revela algo sobre la dificultad de la tarea que
tiene un niño a la hora de aprender a hablar. El estudio de los distintos
tipos de gramática y de los dispositivos necesarios para producirla
forma parte de la lingüística matemática o teoría computacional,
denominada teoría del autómata. Un autómata es un dispositivo que
incluye una gramática y puede producir frases coherentes con la
misma, parte de una entrada, realiza unas operaciones y genera una
salida, el tipo de autómata más sencillo que conocemos es un dispositivo
de estado finito, se trata de un sencillo dispositivo que pasa de un estado a
otro en función de su estado actual y de la entrada actual, y produce lo
que se conoce como lenguaje Tipo 3.
Tipos de autómatas
Autómata de Mas potente que un dispositivo de estado finito dado que tiene
empujar hacia arriba memoria, sin embargo esta es limitada, y es un tipo de memoria
donde sólo se puede recuperar el último elemento, Tipo 2 de
lenguaje
Autómata limitado Lenguaje Tipo 1, con memoria limitada, pero de la que se puede
linealmente recuperar cualquier información
3 Rápido desvanecimiento
4 Intercambiabilidad
5 Retroalimentación completa
6 Especialización
7 Semántica
8 Arbitrariedad
9 Discrecionalidad
10 Desplazamiento
11 Tradición
12 Apertura
13 Dualidad de modelo
15 Reflexivilidad
16 Capacidad de aprenderse
5 La recursión, frases que incluyen ejemplos de sí mimas, esto nos permite construir
un infinito número de frases con un finito número de reglas
Simios Niños
No puede rechazar las frases mal formadas Puede rechazar las frases mas formadas
No se utilizan los símbolos como referencia Se utilizan los símbolos como referencia
Hemos visto que la recursión (por las frases pueden incluir frases del mismo
tipo) es una característica esencial del lenguaje humano, no hay
ninguna evidencia de que los simios puedan utilizar reclusión. Los
monos pueden aprender gramáticas muy sencillas, pero no pueden
aprender gramáticas más sofisticadas, semejantes a las humanas, que
utilizan estructuras jerárquicas en las que existen dependencias a larga
distancia entre las palabras, así se puede enseñar a los monos gramáticas
inventadas sencillas pero son incapaces de aprender gramáticas artificiales
mucho más sofisticadas con una jerarquía. La generación de una estructura
jerárquica como esta depende de la capacidad de utilización de la
recursión, que sólo los humanos pueden utilizar. Hauser y Chomsky
llegan incluso afirmar que la recursión es el único componente de
lenguaje exclusivamente humano, Pinter y Jackendoff discrepan de
esta afirmación extrema, y afirman que FOXP2 es exclusivo de los
humanos y está implicado el control del habla y de lenguaje, pero no
parece estar implicado en la recursión, por otro lado el idioma piraha
del Amazonas no parece utilizar ninguna recursión y sin embargo es
evidentemente un lenguaje humano.
Modelo declarativo-procedimental:
Ullman (2004) propuso un modelo llamado DP, declarativo-procedimental,
de como se relacionaba el lenguaje con el cerebro, afirmando que el
lenguaje depende de dos sistemas, por un lado el diccionario mental, el
lexicón, el cual depende del sistema de memoria declarativa, basado
en el lóbulo temporal izquierdo, y otro lado la gramática mental, que
depende fundamentalmente de la memoria procedimental, basa en un
sistema integrado por los lóbulos frontales, los ganglios basales, y el
cerebelo, en esencia esta distinción hace referencia a las diferencias entre las
reglas lingüísticas y las palabras. Otra idea importante es que el
procesamiento del lenguaje utiliza, sistemas y procesos que no le son
exclusivos.
En resumen, algunas partes del cerebro son mas importes que otras para las
funciones del lenguaje, pero resulta difícil localizar procesos concretos en
regiones concretas o estructuras especificas, lo mas probable es que
haya implicadas múltiples rutas tanto en la comprensión como en la producción
del lenguaje.
La hipótesis de la Afirma que los dos hemisferios son similares en lo que respecta
equipotencialidad lenguaje, madurando el hemisferio izquierdo para especializarse
las funciones del lenguaje
La explicación Esta explicación aúna los dos extremos, afirmando que los dos
emergentista hemisferios de cerebro se caracterizan al nacer por sesgos
innatos en los tipos de procesamiento de información que no
son específicos de procesamiento de lenguaje, de forma que
hemisferio izquierdo está mejor adecuado para ser dominante,
aunque los dos hemisferios desempeñan un papel importante
en la adquisición del lenguaje.
Genie era una niña aparentemente normal al nacer, pero fue sometida a
privación lingüística, desde los 20 meses, hasta que fue puesta en custodia de
la protectora cuando tenía 13 años y nueve meses. El caso de Genie viene a
demostrar que es posible aprender un lenguaje fuera del período
crítico, pero que la sintaxis parece tener cierto papel privilegiado, la
cantidad de lenguaje que se puede aprender tras un período crítico
parece muy limitada. Lenneberg descartó el caso dado el trauma
emocional extremo que había parecido la niña, además, no hay acuerdo
sobre si la niña parecía algún tipo de retraso anterior a su confinamiento.
Las principales diferencias entre los modelos son el grado en que las
restricciones subyacentes al periodo crítico son lingüísticas o mas generales, y
el grado en el que el momento de la adquisición está controlado
genéticamente, a través del conexionismo, la explicación de la
maduración ha tenido recientemente más atención.
Como poco, los niños tienen que aprender a escuchar y aprestar cierta
atención cuando se está hablando. Existe cierta evidencia de que dicha
competencia aparece una edad muy temprana.
Salva Herrera- MailTo : ssalva4@me.com
38
Tema 3 - Los fundamentos del lenguaje
Schaeffer propuso que el origen de que se tomen turnos proviene de la
alimentación, también observo que madres y bebes rara vez vocalizan en la
misma situación. Snow comprobó que las madres responden las
vocalizaciones, como si sus bostezos fueron también expresiones. De
ahí que los precursores de la conversación existen una temprana edad
y puede surgir de otras actividades. Trevarthen descubrió que los bebés
responden de distinta manera a las personas, incluyendo saludos con la mano
lo que denomino prehabla: pequeños movimientos de la boca, como un
precursor de la del acto de hablar. No hay duda de que al final de los seis
meses son patentes los precursores de las habilidades sociales y
conversacionales, y que los bebés han desarrollado capacidad de
obtener respuestas comunicativas.
El desarrollo está marcado por mucha mas repetición de la que se identifica en videntes,
sintáctico además la utilización de frases repetidas se prolonga mas en el desarrollo.
Por otro lado se produce un retraso en la realización de algunas
preguntas y el uso de auxiliares, sin embargo este hecho viene
marcado por el lenguaje de sus cuidadores, los cuales adaptan el
mismo a las necesidades de los niños y en el que predominan las
denominaciones espontáneas
En resumen, los niños ciegos tienen un desarrollo distinto a los niños videntes en
cuanto al lenguaje, sin embargo lo que no está claro que una deficiencia en el
procesamiento cognitivo provoca una deficiencia en el procesamiento sintáctico, por ello
3 No se puede concluir que el primer lenguaje de los niños ciegos sea menos
funcional
4 Se puede concluir que los niños ciegos usan más el lenguaje y tienen una
memoria verbal mayor que los niños videntes
Una visión mas débil aun, es que el lenguaje es necesario para adquirir muchos
conceptos, influyendo en la cognición
Otra visión es que no existe relación alguna, si bien el lenguaje sirve para expresar
pensamientos
6.0 Introducción
La creación de imágenes,
Decisión léxica
Clasificación
La identificación taquistoscópica
Tal y como se puede ver en este modelo la atención y los saltos sacádicos
están separados y tienen distintas fuentes de control por un lado la
familiaridad y por otro lado la identificación. El procesamiento lingüístico
puede afectar a los movimientos oculares, en el modelo, los procesos de
nivel superior intervienen en un impulso general hacia adelante sólo
cuando el análisis ha sido incorrecto.
Con patrón Letras, partes aleatorias de letras, Sus efectos crean interferencias a
en general un estímulo estructurado nivel de las letras y limita el
tiempo disponible para procesar
Por lo general se responde más deprisa a las palabras que las palabras
inexistentes, las palabras inexistentes más inverosímiles se rechaza
más deprisa que las palabras inexistentes más verosímiles.
Imprimación son aquellas palabras que siguen tenido una relación en cuanto su
semántica significado con la palabra objetivo, pero que no se produce como
no palabras asociadas, la palabra pan y la palabra tarta son un ejemplo de
asociativa par de palabras con relación semántica pero no asociadas, zorro y camello,
ambas palabras pertenecen a la categoría de animales, por tanto están
relacionadas semánticamente sin embargo no tiene ninguna asociación
Van Petten, analizó los potenciales relacionados con los acontecimientos ERP,
de frases semánticas anómalas, una ventaja de la técnica ERP es que
permite examinar el curso temporal del reconocimiento de las
palabras antes de que se de una respuesta explícita. Los efectos de
contexto léxico y de la frase eran diferenciales en todos los datos de ERP, y los
efectos el contexto de la frase era más prolongados.
Los estudios más recientes han concluido que los efectos imprimación
morfológica son independientes de la similitud del significado, es
decir, no hay diferencia entre los efectos de imprimación de las
derivaciones semánticamente transparentes y opacas en varios
idiomas incluyendo inglés. Estos resultados sugieren que la imprimación
morfológica se tiene, por lo general, debido a la estructura morfológica y no a
un solapamiento semántico entre elementos similares.
Preguntas fundamentales
Tipos de palabras
Palabras homónimas Son palabras con distintos significados pero que suena igual
Polisémicas Son las más interesantes, tiene múltiples significados como por
ejemplo, banco.
Modelos de Predice que el contexto anterior tendrá un efecto sobre el acceso inicial
Acceso de la palabra ambigua en la condición condición positiva, pero no la
reordenado condición negativa o la neutra, por tanto la condición clave es la
positiva, que favorece el significado subordinado pero también es consistente
con significado dominante
Tema 7 - Lectura
7.1 Introducción
Tipos de palabras
Folk descubrió que las palabras homófonas se leían con una mayor
duración de la mirada, es decir, se procesaban como si fuera léxicamente
ambiguas, aunque la ortografía tendría que haberlo impedido. Este
resultado sólo se puede explicar si la fonología está interfiriendo de
alguna manera con el léxico semántico. Por otra parte Jared et al
demostraron que sólo se produce un acceso fonológico previo con las palabras
como formas de baja frecuencia, además concluyeron que los malos lectores
tienen más por probabilidades de tener que acceder a la fonología
para poder acceder a la semántica, mientras que los lectores expertos
activan fundamentalmente la semántica primero.
Por tanto, cuando leemos parece que accedemos a un código fonológico que
experimentamos como un discurso interno. Es decir, cuando accedemos a la
representación de una palabra en el lexicón, quedan disponibles todos sus
atributos incluido su sonido, además parece que discurso interno facilita
la comprensión, si se produce, la comprensión se ve afectada en todos
los materiales menos en los más sencillos.
1 Hay efectos léxicos de la lectura de palabras inexistentes, tendrían que leerse mediante
una ruta no léxica (insensible a la información léxica)
El caso más claro de que sea informado hasta la fecha es el de una paciente
conocida como MP, esta paciente mostraba una precisión perfectamente
normal en la lectura de las palabras inexistentes es decir su ruta no léxica
estaba totalmente preservada, sin embargo no era el mejor caso de estudio de
la dislexia superficial, porque podían leer algunas palabras irregulares, esto
significa que su ruta léxica debía estar parcialmente intacta, esto evidencian la
dificultad de encontrar casos puros de doble disociación.
Salva Herrera- MailTo : ssalva4@me.com
81
Tema 7 - Lectura
Si los pacientes estuviesen leyendo utilizando una ruta no léxica, no
esperaríamos que las variables léxicas afectasen en la probabilidad de éxito de
la lectura, los pacientes también cometen confusiones homófonas, así es
posible que la dislexia superficial no sea una categoría unitaria
diferenciándose entre dislexia superficial tipo I y tipo II. Los casos
más puros conocidos como pacientes de tipo I muestra una gran
precisión a nombrar palabras regulares y pseudopalabras. Otros
pacientes conocidos como tipo II también muestran trastornos la
lectura de palabras regulares e irregulares, es posible que la lectura de
los pacientes tipo II esté afectada por variables léxicas, los pacientes tipo II
deben tener otro trastorno adicional de la ruta no léxica, pero el
modelo de ruta dual puede no obstante seguir explicando este patrón.
De derivación Viendo una palabra como familiar gramatical en vez de la palabra objetivo
por ejemplo leen “desempeño” en vez de “desempeñando”
Visuales Por los que se le una palabra como si fuera otra con una apariencia visual
parecida, por ejemplo leen “perform” como “perfume”
Deterioro del Pacientes que lden peor las palabras inexistentes complejas que las
procesamiento palabras inexistentes sencillas, su deterioro está en el análisis sintáctico
ortográfico grafémico
Deterioro del Pacientes que leen mejor las palabras pseudohomófonas que las no
procesamiento pseudohomófonas, y que no se ven influidos por la complejidad ortográfica
fonológico
Coltheart ofreció una lista con 12 síntomas en sujetos con dislexia profunda
Tiene más fácil para leer los sustantivos que los objetivos
Tiene más problemas paralelos palabras funcionales que las palabras de contenido
Sin embargo la práctica puede resultar difícil asignar pacientes a estos tres subtipos
WLP tenía una capacidad muy deteriorada para recuperar el significado de las
palabras escritas, por ejemplo, es incapaz de hacer correspondencia entre los
nombres escritos los animales y las fotografías. Podía leer estas palabras en
voz alta casi perfectamente cometiendo únicamente errores menores, también
podía leer la palabra irregulares y palabras inexistentes, en definitiva, WLP
podía leer palabras sin comprender su significado, este caso sugiere
que debemos tener una ruta de acceso directo de la ortografía a la
fonología que no pasa por la semántica.
Tanto modelo clásico de ruta dual como el modelo de ruta única adolecen de una serie de
problemas
cualquier modelo también debería ser capaz de explicar el patrón de disociaciones que
se encuentra en la dislexia, aunque la dislexia superficial y la dislexia fonológica
2
indican que son necesarios dos mecanismos de la lectura, otros desordenes
sugieren que no bastan estos por sí solos
Los modelos con múltiples rutas son cada vez más complejos a medida que
vamos averiguando más sobre el proceso de lectura, en el modelo de
múltiples niveles de Norris, se combinan distintos niveles de
información de ortográfica y sonidos, incluyendo fonema, rima, y
correspondencias a nivel de la palabra en una red de activación
interactiva para determinar la pronunciación final de una palabra.
Las primeras versiones de los modelos de analogía tiene una serie de problemas.
Segundo: hace previsiones incorrectas sobre cómo deberían pronunciarse algunas palabras
inexistentes, particularmente problemáticas son las palabras inexistentes basadas en
bandas. La teoría del analogía también parece hacer predicciones incorrectas sobre cuánto
tardamos en cometer errores de regularización.
Tercero: no está claro cómo explican las disociaciones que se encuentran en la dislexia
adquirida, no obstante el modelo de las analogías fue un precursor de los modelos
conexionistas de la lectura.
El modelo original de los autores era relativamente malo produciendo palabras inexistentes
antes de ser lesionado, se podría decir que el modelo original funcionaba como un paciente
con dislexia fonológica. Sin embargo, los pacientes con dislexia superficial no tienen
problemas para leer palabras inexistentes
Behram y Bub demostraron que el desempeño del paciente con dislexia superficial con
palabras irregulares variaban en función de la frecuencia de las palabras. Interpretaron este
efecto de la frecuencia como un problema para los modelos coleccionistas
Prefiere un mecanismo explícito por el que las características de la dislexia profunda pueden
derivarse de un modelo de lectura normal
Demuestra que la lesión no tiene una importancia fundamental, esto se debe que
las características en cascada de estas redes, los efectos de las lesiones en un
punto de la red pueden pasar rápidamente a otros lugares circundantes
reaviva así la importancia de los síndromes como concepto neuropsicológico, si los síntomas
se producen conjuntamente debido a una lesión de determinado sistema, tiene sentido
buscar sus ocurrencias conjuntas.
No existe división de trabajo; pone de relieve la Existe división de trabajo de la ruta léxica y la ruta
consistencia de las rimas y de otras unidades, lo léxica ; según este modelo deberían ser fáciles de
que constituye un concepto estadístico; no serían pronunciar las palabras regulares y consistentes
fáciles de pronunciar las palabras regulares
inexistentes; este modelo puede explicar las
diferencias individuales de la pronunciación de
palabras inexistentes
Miller y Heise concluyen que cuanto mayor era la información transmitida por
la palabra mayor tenia que ser la señal respecto del ruido para que los
participantes la distinguiesen igual de bien, por su parte Bruce demostró
que, con ruido de fondo, las palabras en un contexto significativo se
reconocen mejor que las palabras fuera de contexto, y que
necesitamos casi dos veces mas de tiempo para reconocer una palabra
si se presenta aislada. En resumen, es evidente que existe una cierta
ventaja en el reconocimiento del habla en el contexto en comparación a fuera
del mismo, y con los sonidos que no son habla.
Si nos fijamos en la señal acústica física, y los sonidos que transmite la señal,
resulta evidente que la relación es compleja, Miller y Jusczyck señalaron que
esta complejidad surge debido a dos características fundamentales, y
dichas características se conocen como el problema de la segmentación y el
problema de la invarianza.
Foss y Blank afirmaron que las personas responden con el código pre-
léxico cuando se facilita la tarea de monitorización del fonema, pero con
el código post-léxico cuando la tarea es difícil (palabra objetivo menos
probable en función del contexto) sin embargo, posteriormente no
encontraron respaldo experimental al modelo propuesto, concluyeron
que, por lo general, las personas contestan en una tarea de
monitorización del fonema a partir del código pre-léxico, y solo en
circunstancias excepcionales utilizan el post-léxico, dichos resultados
sugieren que los fonemas forman parte del pre-léxico.
Los términos reconocimiento del habla y acceso al léxico se utilizan para hacer
referencia a distintos procesos, así podemos identificar tres fases de la
identificación: contacto inicial, selección léxica, y reconocimiento de la palabra.
Análisis de síntesis:
Uno de los primeros modelos de la percepción del habla era el análisis de
síntesis, la base de este modelo, es que reconocemos el habla mediante
referencia a las acciones necesarias para producir un sonido, la idea
que aquí subyace, era que cuando oímos hablar producimos o
sintetizamos una serie de sonidos del habla hasta que encontramos
una correspondencia con lo que oímos, el sintetizador crea la mejor
conjetura inicial restringida por las pistas acústicas de entrada, y
después intenta minimizar las diferencias.
Es fácil demostrar como podrían tener efecto las restricciones de todos los niveles, el
sintetizador solo genera candidatos posibles (nunca generaría sonidos ilegítimos en un
idioma)
Una variante del modelo, es la teoría del motor, la cual propone que el
sintetizador del habla, modeliza un aparato articulatorio y los
movimientos motores de la persona que habla, y computa cuales son
los movimientos que serian necesarios para crear el sonido percibido.
Propuesto por Marslen-Wilson et al, cuya idea central es que cuando oímos
hablar, generamos una posible cohorte de candidatos, a continuación
se va eliminado elementos hasta que solo queda uno, es necesario
distinguir entre la primera versión del modelo, que permitía una mayor
interacción y una versión posterior en la que el procesamiento era mas
autónomo y el sistema de reconocimiento estaba capacitado para
recuperarse si los datos estaban degradados.
Conclusión 1 Las restauraciones más fluidas se hacían con distorsiones leves, de la última
sílaba y cuando era predecible por el contexto, restricción alta
Conclusión 3 Los autores interpretaron los resultados como una demostración de que la
percepción inmediata ese producto tanto de la entrada perceptiva de abajo
arriba como de las restricciones contextuales de arriba abajo
Conclusión 4 Tanto análisis sintáctico como semántico empieza muy poco después de haber
empezado a escuchar la frase, no se aplaza hasta haberla escuchado entera
Los fragmentos que se corresponden con el inicio de una palabra son una prima
casi tan perfecta como la palabra misma, por otra parte los fragmentos de la prima
produce muy poca imprimación
Esta tarea consiste en revelar progresivamente más fragmentos de una palabra, con
ella se pueden identificar los puntos de aislamiento, esta tarea muestra la
importancia del contexto adecuado
Este tipo de estudios demuestra que las palabras candidatas se generan de forma que son
compatibles con la representación perceptiva hasta cierto punto, pero no con el contexto
Imprimación multimodal
Este tipo de imprimación permite medir los efectos del contexto en distintos
momentos del reconocimiento de una palabra, Zwitserlood demostró que el contexto
puede ayudar a elegir las palabras candidatas semánticamente adecuadas antes de alcanzar
el punto de reconocimiento de la palabra
Resultados sugieren que la integración semántica puede empezar cuando los sistemas tienen
información completa sobre la identidad de la palabra, los estudios con potenciales
evocados en el N400, han demostrado que todas las palabras tienen, con máximo,
activación a los 400 ms de haber empezado el estímulo
Influencia de las vecinas léxicas: los datos sugieren que el tamaño de las
cohortes ( cantidad de candidatas) si es relevante y afecta al curso
temporal del reconocimiento de palabras.
9.2.3 TRACE
Evaluacion del TRACE: el modelo trata muy bien los efectos del
contexto, puede operar con cierta variabilidad acústica, y explica
fenómenos como el de la restauración del fonema, y la coarticulación,
en general da una excelente explicación de los efectos del contexto
léxico, y opera extremadamente bien con el ruido, presente en el
lenguaje natural. Al igual que todos los modelos informáticos, TRACE
presenta la ventaja de ser explícito, sin embargo presenta varios
problemas, hay muchos parámetros que se pueden manipular en el modelos,
es demasiado potente, en tanto en cuanto se puede acomodar a
cualquier resultado, ademas la forma en la que el modelo trata el
tiempo, simulándolo como porciones discretas es poco verosímil. En este
sentido la obra de Massaro es importante en cuanto que demuestra que es
posible recree predicciones falseables sobre los modelos conexionistas como el
TRACE.
Salva Herrera- MailTo : ssalva4@me.com
107
Tema 7 - Lectura
Pero el principal problema del TRACE es que se basa en la idea de que
el contexto afecta arriba-abajo al proceso de reconocimiento, el grado
en el que influye es controvertido, en concreto, existe también evidencia
experimental en contra de los tipos de procesamiento arriba abajo
típicos del TRACE, los efectos del contexto solo se observan realmente
con estímulos degradados desde el punto de vista de la percepción. Por
tanto, a primera vista los datos de McClelland respaldan el modelo interactivo
mas que el modelo autónomo, parece que el lexicón esta influenciado sobre
todo por un efecto pre-léxico(compensación), sin embargo hay explicaciones
de los datos compatibles con el modelo autónomo, así primero, al final resulta
que no es necesario emplear el conocimiento léxico, algunas secuencias de
fonemas son simplemente mas probables. Pitt y McQueen encontraron efectos
de la compensación de la coarticulación en la clasificación de consonantes
oclusivas cuando iban precedidas de sonidos fricativos ambiguos al final de
palabras inexistentes, puesto que el elemento anterior era una palabra
inexistente no cabía la posibilidad del conocimiento léxico. El hecho de que se
siguiese identificando una compensación sugiere que se estaba utilizando
conocimiento secuencial sobre cuales son los fonemas que se producen juntos.
TRACE tampoco ofrece un buen rendimiento para detectar los errores
de pronunciación, la mala pronunciación, tiene un efecto adverso claro
sobre el rendimiento.
Se pueden contrastar los modelos de toma única con los modelos de tomas
múltiples, como el modelo TRACE, donde son dos las fuentes de información,
el análisis pre-léxico almacenado y mantenido de la palabra, y la entrada léxica
de una palabra, compiten por el resultado, se deberían maximizar los efectos
del lexicón sobre el procesamiento de un fonema cuando las personas prestan
atención a la toma léxica, y debería quedar minimizados cuando prestan
especial atención a la toma pre-léxica, este patrón es exactamente el que se
ha hallado, y los modelos de toma única como el TRACE tienen problemas para
explicar este efecto.
Comparación de modelos:
Resumen Tema 7
Podemos reconocer mas deprisa y de forma mas eficiente un discurso con significado de lo
que podemos reconocer sonidos que no pertenecen al mismo
Los sonidos van juntos (el problema de la segmentación) y varían en función del contexto en
el que se producen (el problema de la invarianza)
Las consonantes se clasifican por categorías, pero no esta claro cuando surge este efecto en
la percepción, porque los oyentes son sensibles a las diferencias entre los sonidos dentro de
una categoría
Los estudios sobre los efectos de la coarticulación de las palabras y las palabras inexistentes
sugieren que se utiliza una representación fonética de nivel inferior para acceder
directamente al lexicón
El cambio de intensificación léxica de los fonemas ambiguos varia en función del contexto
léxico
10.1 introducción
según los modelos interactivos, otras fuentes de información pueden influir sobre
el procesador sintáctico, en una fase temprana.
En los modelos de una fase se utiliza tanto la semántica coma la sintáctica para
conseguir la representación sintáctica de una sola vez.
Resulta difícil discernir las operaciones del procesado cuando todo funciona
bien, por ello la mayor parte de la investigación sobre el análisis
sintáctico ha implicado una ambigüedad sintáctica, dado que esta
provoca dificultades en el procesamiento. Hay varios tipos de ambigüedad que
implican a mas de una palabra dentro de la frase, y la mas compleja son las
ambigüedades estructurales asociadas con el análisis sintáctico.
Experimentamos engaño
sin embargo según el modelo autónomo en paralelo una representación esta mucho
mas activa que las otras debido a la potencia de las pistas sintácticas, pero resulta
incorrecta
y según el modelo interactivo varias fuentes de información respaldan el análisis mas que
su alternativa, sin embargo, la información posterior es incoherente con los niveles de
activación iniciales ( que no responde al input, ¡¡¡¡que manera del liarla coño!!!)
Principios de Kimball
4 El procesador sólo puede trabajar con dos nodos de frases en un momento dado
Estructura fija: una vez que se ha cerrado la locución, resulta muy costoso
6 reabrirla y reorganizar los constituyentes, este principio ilustra la dificultad con
las frases que llevan a engaño
Hay dos modelos que han dominado las investigación sobre el análisis
sintáctico, el modelo de vía muerta es un modelo autónomo en dos
fases, mientras que el modelo basado en restricciones es un modelo
interactivo en una fase, la elección entre ambos dependen de lo pronto
que se pueda demostrar que el contexto, la frecuencia y otra
información semántica, influyen sobre el análisis sintáctico.
Los estudios de las imágenes del cerebro también resultan útiles, en concreto
el estudio de potenciales relacionados con sucesos, ERP, se encontró que la
onda N400 es particularmente sensible al procesamiento semántico,
así el N400 se produce 400 ms tras una palabra anómala, también se
identificó una oleada positiva a los 600 ms del incumplimiento
sintáctico. Se pueden utilizar estas anomalías para cartografiar, el
curso temporal del procesamiento sintáctico y semántico. Estos ERPs
sugieren que el procesamiento sintáctico y el semántico son procesos
distintivos.
Se utilizan todas las fuentes de información tanto sintácticas como semánticas, para elegir
entre estructuras sintácticas alternativas
Es un modelo de elección variable, puesto que el análisis inicial se ve afectado por las
características particulares del fragmento de la frase
La conclusión crítica y sorprendente que este modelo explica es que, a veces, las
frases ambiguas son menos difíciles que las frases no ambiguas
Brecha: una parte vacía de la construcción sintáctica que esta relacionada con
un rellenador, que es lo que rellena a la brecha.
Una posibilidad es que cuando el procesador detecta una brecha la rellena con
el elemento mas activo y esta preparado para volver a analizar si es necesario
( estrategia del rellenador activo), otra posibilidad es que el procesador
detecte una brecha, al rellene con un rellenador que es el elemento
Salva Herrera- MailTo : ssalva4@me.com
128
Tema 10 - Comprensión de la estructura de las frases
constituyente despeado potencial mas reciente (estrategia del rellenador
mas reciente), esto retrasa el proceso lo que lleva a tiempos de lectura mas
lentos. Estas dos estrategias pueden resultar difíciles de distinguir, pero en
cada caso, la detección del rastro desempeña un papel importante en el
análisis sintáctico.
Por otra parte, hay oras investigaciones que sugieren que los rastros no son
importantes en el procesamiento conectado, McKoon, et al no lograron
reproducir los estudios que demuestran que los rasgos pueden primar a sus
antecedentes. Un planteamiento alternativo a la idea de que activamos los
filtros cuando llegamos a la brecha es que la interpretación esta impulsada por
los verbos, mas que por la detección de las brechas, de forma que postulamos
argumentos esperados de un verbo en cuanto llegamos a él. Por lo que Boland
et al, concluyeron que la postulación y el rellenado de las brechas es inmediata
e impulsada por los verbos. El análisis de los tiempos de lectura demostró que
los participantes detectaban las anomalías antes de la brecha, los estudios de
ERP confirman la detección de la anomalía asociada con el verbo. En resumen,
la mayor parte de la evidencia sugiere que los rellenadores se postulan
activando la estructura del argumento de los verbos.
Gran parte del trabajo tiene un carácter técnico, y esta relacionado con las
teorías lingüísticas de la representación sintáctica, también es improbable que
haya una única causa para la diversidad de los déficits observados.
Fase II Los procesos léxico-sintácticos que tienen lugar, generan una asignación de
(300-500ms) papeles temáticos
Fase III Se integran los distintos tipos de información, afirmando que los procesos
(500-1000Ms) sintácticos y semánticos solo actúan en esta fase
Resumen Tema 10
Los primeros lingüistas recogieron dos ideas del trabajo original de Chomsky: la teoría de la
derivación de la complejidad, y la autonomía de la sintaxis
Los primeros experimentos respaldaban la idea de que cuantas mas transformaciones tenia
una frase, mas se tardaba en procesarla, sin embargo, los experimentos que usaron tareas
mas psicológicamente realistas no consiguieron reproducir estas conclusiones
Aunque la teoría lingüista influyó sobre las primeras explicaciones del análisis sintáctico, los
lingüistas y los psicolingüistas se alejaron de enseguida
En los modelos autónomos, solo se utiliza la información sintáctica para construir y elegir
distintas estructuras sintácticas alternativas, en los modelos interactivos se utiliza la
información no sintáctica en el proceso de selección
Uno de los tipos de frases que llevan a engaño mas estudiados es la cláusula relativa
reducida, como el la bien conocida frase de “el caballo que corrió delate del granero cayó”
Lo primeros modelos del análisis sintáctico se centraban en las estrategias del análisis
sintáctico que utilizaban pistas sintácticas
El principio de adjudicación mínima afirma que preferimos la construcción sencilla, donde por
sencillo se entiende que la estructura crea el numero mínimo de nodos sintácticos
El principio de cierre tardío afirma que preferimos asignar el material entrante a la cláusula o
locución que se esta procesando actualmente
El modelo de vía muerta para el análisis sintáctico sigue siendo un modelo en dos fases
donde solo la información sintáctica puede afectar a la primera fase
11.1 introducción
Debería ser evidente que el estudio del significado requiere capturar la forma
en la que las palabras hacen referencia a cosas que pertenecen todas a la
misma categoría y tienen algo en común, y sin embargo, son distintas de los
elementos que no pertenecen a dicha categoría.
Las relaciones jerárquicas entre categorías son una forma clara en que se
pueden relacionar las palabras en cuanto al significado, pero hay otras formas
que son igualmente importantes, así la semántica es algo mas que
asociaciones de palabras, las palabras pueden estar relacionadas (yate, barco)
sin necesidad de estar asociadas, por lo que cualquier teoría sobre el
significaos de las palabras no puede recurrir sencillamente a la asociación
entre palabras. Las palabras con significados parecido tienden a producirse en
contextos parecidos, Lund y Burgess demostraron que las palabras con un
parecido semántico son intercambiables en una frase, y esta continua teniendo
sentido, mientras que los pares de palabras que solo están asociados, su
intercambio, generaría frases sin sentido. Las asociaciones surgen entre
palabras que se producen juntas con regularidad, mientras que las relaciones
semánticas surgen de contextos compartidos y relaciones de nivel superior,
una tarea de investigación sobre la semántica consiste en capturar la forma en
la que se pueden compartir esos contextos.
La teoría del significado: a cual afirma que las palabras significan aquello
que a lo que hacen referencia, es una de las mas antiguas y se conoce como la
teoría referencial del significado, sin embargo, hay dos grandes problemas con
esta teoría. Primero: no esta nada claro como trata esta teoría a los
conceptos abstractos, segundo: existe una disociación entre palabra y las
cosas a las que puede hacer referencia.
Salva Herrera- MailTo : ssalva4@me.com
135
Tema 11 - El significado de las palabras
Otros problemas
Efecto del grado de relación :esto es, no rechazamos las afirmaciones inciertas con las
misma lentitud, cuanto mas relacionadas están dos cosas mas difícil es desenredarlas
incluso si no pertenecen a la misma clase.
Tampoco se responde a todas las afirmaciones ciertas en las que hay una misma distancia
semántica con la misma rapidez
Una de las primeras teorías descomposicionales fue la Katz y Fodor, esta teoría
mostraba como se puede derivar el significado de una frase mediante la
combinación de características semánticas de cada palabra individual de la
Salva Herrera- MailTo : ssalva4@me.com
138
Tema 11 - El significado de las palabras
frase. Ponía de relieve al forma en la que los comprendemos las palabras
ambiguas.
Primero Katz y Fodor postularon una teoría descomposiciones de significado de
forma que se degradan los significados de las palabras individuales en la frase
en sus características semánticas constituyentes (marcadores semánticos),
segundo, la combinación de características entre palabras esta gobernada por
restricciones particulares denominadas restricciones de selección. Uno de los
problemas de este tipo de enfoque es que para la mayoría de las palabras, es
imposible proporcionar una lista exhaustiva de sus características.
Las teorías descomposicionales del significado nos permiten hacer una lista de
significados de las palabras como listas de características semánticas. Rips et
al propusieron que hay dos tipos de características semánticas, las
características definitorias son esenciales al significado subyacente de una
palabra y están relacionadas con las propiedades que deben tener las cosas
para pertenecer a la categoría, las distintivas suelen ser válidas para todos
los casos de la categoría, pero no son necesariamente válidas.
Las teorías de los prototipos no tienen por que ser inconsistentes con las
teorías de las características, las teorías basadas en las características tienen
la propiedad atractiva adicional de que pueden explicar como adquirimos
nuevos conceptos, simplemente combinando características ya existentes. Los
modelos de redes también pueden formar dos conceptos añadiendo nuevos
nodos a la red. Por otra parte, los nuevos conceptos son problemáticos para las
teorías no descomposicionales, ante esto Fodor ha sugerido que todos los
conceptos, incluidos los complejos, son innatos.
Ha emergido de los trabajos sobre la forma en que los niños presentan las
categorías naturales, así según la teoría de teorías la gente representa las
categorías como teorías en miniatura, la cuales describen los hechos sobre
estas categorías y sobre porque son coherentes los miembros. Se considera
que es muy parecida al tipo de teoría que utiliza un científico: las miniteorías
son conjuntos de creencias sobre los que se construyen los miembros
particulares de cada categoría, son como entradas de una enciclopedia. El
desarrollo de los conceptos a lo largo de la infancia es un argumento a favor
por el hecho de que un niño desarrolla teorías de categorías que se van
haciendo cada vez mas parecidas a las que usan los adultos.
La batalla actual, se produce entre las teorías de los casos particulares y las
teorías de la teoría, las demás explicaciones pueden ser consideradas como
casos particulares de alguna de las dos, las teorías basadas en casos
particulares tienen dificultad para explicar como comprendemos los conceptos
novedosos, mientras que la teoría de la teoría lo hace bastante bien.
Rips señalo que las teorías basadas en los casos particulares tienen dificultades
obvias para proporcionar una explicación de como combinamos conceptos. Las
expresiones y frases novedosas nos permiten expresar un numero infinito de
conceptos novedosos cuya comprensión esta mucho mas allá de alcance de un
número finito de casos específicos que ya se hayan encontrado antes. La teoría
de las teorías tiene menos problemas para explicar la combinación de
conceptos, pero sigue teniendo algunas dificultades, Rips afirmó que las
miniteorías por sí solas no pueden explicar la forma en la que combinamos los
conceptos, deben estar combinadas con algún otro mecanismo, así Rips
propone un enfoque dual que combina las miniteorías con un simbolismo
atómico fijo para cada categoría “una entidad parecida a la palabra en el
lenguaje del pensamiento”. Un enfoque dual nos permite hacer un seguimiento
Salva Herrera- MailTo : ssalva4@me.com
145
Tema 11 - El significado de las palabras
de los cambios de las miniteorías y proporciona la capacidad de poder darse
cuenta de cuando entran en conflicto.
La interpretación que hace la gente de las expresiones novedosas pertenecen a una de las
tres categorías
Shallice et al, analizaron cinco criterios que podía distinguir los problemas relacionados con
la perdida de la representación de los problemas para acceder a ella.
Tanto para los almacenes degenerados como para los trastornos del acceso, deberían
ser mas fácil obtener la categoría superior que nombrar el elemento, Warrington
propone que la destrucción de la MS se produce jerárquicamente, de forma que los
2
niveles inferirse se pierden antes que los superiores, dado que estos poseen
información mas general, por lo tanto, la información sobre los elementos de las
categorías superiores tiende a preservarse mejor que la de los casos particulares
Se deben perder antes los elementos de baja frecuencia, estos deben ser mas
3 susceptibles de una perdida, mientras que los problemas de acceso deberían afectar
de la misma forma a todos los niveles
La hipótesis del almacén unimodal, supone que solo existe un almacén, sin
embargo es posible que cada modalidad sensorial tenga su propio almacén, en
la practica, la preocupación se centra en la distinción de un almacén de
información visual semántica y un almacén de información verbal semántica.
Formato especifico a la Se parece al anterior, pero cada almacén esta en el formato del
modalidad elemento de entrada
Resulta difícil diferenciar entre estas hipótesis, pero parecen hacer tres
predicciones, 1), predicen que el acceso desde determinada modalidad siempre
activa primero el almacén semántico adecuado, 2), que la activación de las
Salva Herrera- MailTo : ssalva4@me.com
150
Tema 11 - El significado de las palabras
representaciones fonológicas y ortográficas está mediada por la semántica
verbal, y 3), predicen que solo se puede acceder directamente a la información
a través de la modalidad de entrada adecuada.
Caramazza et al, afirmaron que los datos no respaldaban las predicciones, y
propusieron el modelo OUCH ( hipótesis del contenido unitario organizado),
esta idea resulta atractivamente sencilla, pero el modelo OUCH no puede
explicar los casos de pacientes que tienen mas problemas con las imágenes
que con las palabras.
Tal vez el fenómeno mas intrigante en este área sean los trastornos específicos
de la categoría, a veces las lesiones deterioran el conocimiento de ciertas
categorías y no de otras, JBR tenia un mero rendimiento en nombramiento de
objetos inanimados que de objetos animados, a primera vista sugiere que la
MS esta dividida en dos categorías “vivos” y “no vivos”, sin embargo JBR podía
nombrar partes del cuerpo, y no podía nombrar objetos musicales a pesar de
ser inanimados.
Que los distintos tipos de información semántica se localizan en distintos lugares del
cerebro, si esta explicación es correcta, entonces los trastornos específicos de categoría
1 son importantes porque revelan la estructura de las categorías tal y como están
representadas por el cerebro, por tanto diferenciación entre cosas no vivas y seres vivos
seria un principio organizativo fundamental de la MS.
Que las categorías que estén deterioradas comportan ciertas propiedades incidentales
que las hacen ser susceptibles de ser deterioradas o perdidas, Riddoch et al propusieron
2
que las categorías que tienden a perderse también tienden a incluir muchos elementos
parecidos que pueden crear confusiones.
Que las diferencias entre categorías están mediadas por alguna otra variable, de forma
3
que los elementos que se pierden comparten alguna propiedad mas abstracta.
Posibles conclusiones
Podría haber heterogeneidad entre los pacientes, así cada tipo de deterioro podría dar
1
lugar a un déficit del nombramiento
Podría haber múltiples lugares de deterioro dentro de cada paciente, de forma que la
2
demencia genera una perturbación de los sistemas perceptivo, semántico y léxico
Un único locus de deterioro podría provocar todos los deterioros observados, según esta
3 hipótesis, la lesión del sistema semántico da lugar, de alguna manera, a déficit
perceptivo y léxico, esta idea es respaldada por la modelización conexionista
Resumen Tema 11
Las redes de propagación de la activación pueden explicar los efectos de similitud y relación,
pero resulta difícil falsar la teoría
La idea de que se pueden dividir los significados de las palabras en unidades mas pequeñas
se conoce como descomposición semántica
Katz y Fodor mostraron como se podían derivar los significados de las frases a partir de las
combinaciones de las características semánticas para cada palabra en la frase y, en
particular, como se podía utilizar esta información para elegir el sentido pertinente de las
palabras ambiguas
Las teorías de la lista de características explican los tiempos de verificación de las frases
postulando que comparamos listas de características definitorias y distintivas
El nivel básico de una categoría es aquel que ofrece la máxima información y que preferimos
utilizar salvo que haya una buena razón para lo contrario
En contraste con las teorías de abstracción, en las categorías basadas en los casos
particulares cada caso particular está representado a titulo individual, y se hacen
comparaciones con casos particulares concretos mas que con una tendencia central
abstracta
Es probable que tengamos distintos sistemas de memoria para la semántica viudal y verbal
La gente con una probable EA tiene problemas para nombrar imágenes, y se puede explicar
en términos de un déficit semántico subyacente
Los seres vivos tienden a estar representados por muchas características compartidas
internacionalmente mientras que las cosas no vivas tienden a estarlo por características
distintivas
Tema 12 - Comprensión
12.1 introducción
Tipos de coherencia
Coherencia de
Hace referencia a donde se producen los sucesos
localización
Coherencia Hace referencia al porque ocurrió sucesos, “se puso el abrigo al revés las
causal flores habían bien”, sería un ejemplo de falta de coherencia causal
Tanto las declaraciones de los testigos oculares como la memoria literal son
dos opciones relativamente poco fiables, el recuerdo sólo es preciso en
referencia al tema general de las conversaciones, y aunque algunos
datos si pueden ser ciertos, otros no lo son. A pesar de que las personas
creemos lo contrario, sólo recordamos la esencia de las conversaciones,
abstraemos la información y tenemos tendencia recordar cosas que no
ocurrieron nunca.
¿Que determina lo que olvidamos y lo que recordamos? Se ha
comprobado que las personas olvidamos rápidamente el orden de las
palabras, sólo nos quedamos con el significado.
12.2.1 Importancia
Recordamos mejor lo que consideramos que son los aspectos más importantes
de una información, también las frases con contenido interactivo
(implicación personal). Según los estudios de movimientos oculares,
pasamos más tiempo leyendo lo que consideramos importante, pero
ello no implica que sea la causa de un mejor recuerdo. Muth y Glynn,
manipularon los tiempos de lectura haciendo que los participantes dedicas en
el mismo tiempo el material importante que los detalles relevantes, los
resultados sugirieron que se recordaba mejor los aspectos importantes, lo que
sugiere a su vez, que existe un efecto real del significado a la hora de
codificación de la información.
12.2.3 Inferencias
Tipos de inferencia
Según lo visto hasta ahora, se ha sugerido que debe ser muy difícil diferenciar
entre las inferencias que hacemos y lo que hemos hoy ido/leído/observado
realmente. Barclay y Franks demostraron que tras una breve demora no
se podía distinguir la frase objetivo de la inferencia válida que también
se les presentó en la fase de prueba. Sin embargo, cuando se cambia el
significado de la frase, si eran capaces de darse cuenta del cambio, en
estos casos sería una inferencia no válida, esto entronca con la primacía
del significado.
Factor información Como por ejemplo tener un conocimiento previo de que los niños
contextual general de
suelen escribir en esa pizarra
antecedentes
Conceptos básicos
Estrategias de resolución
Función Preferimos unir las anáforas y los referentes que tienen la misma
paralela importancia
12.3.2 Accesibilidad
Algunos elementos son más accesibles que otros, somos más rápidos
recuperando el referente de los antecedentes más accesibles, en este
sentido se ha hablado de los hipótesis.
Hay un límite a la cantidad de activación total, de tal forma que cuantos más elementos se
propaga, menos activación puede recibir cada elemento individual
Es otro modelo de red por el que se puede descomponer el significado en pequeñas unidades
atómicas, que están relacionadas entre sí mediante una red.
Así como las frases, las historias poseen una regla sobre la estructura de los
sintagmas, por ejemplo, cuando poseen un contexto es posible un episodio.
Según esta gramática las personas suelen dar importancia a los
elementos de una historia según su posición jerárquica y se pasa más
tiempo leyendo las frases que están en la parte alta de la estructura.
Cuando se cambia el orden de la gramática de las historias, poniendo el
principio al final por ejemplo, la comprensión es mucho más difícil.
Conceptos básicos
tiene una serie problemas, resulta difícil ponerse de acuerdo con cuáles son
gramática de
las categorías terminales y no terminales y cuáles deberían ser las reglas
las historias
de la gramática
redes
proporcionales aunque proporcionan constructores útiles, no son suficientes, explico como
y los modelos para explicar todos los fenómenos de procesamiento de textos
de esquemas
Conocimientos actuales
Los individuos, afasia receptiva tienen problemas en la comprensión del significado de las
palabras
La gente con trastornos del procesamiento sintáctico tiene problemas para analizar las frases
sintácticamente
Algunos pacientes con la fase de Wernicke tienen problemas para mantener la coherencia del
discurso
Los niños con trastorno específico de lenguaje tienen problemas para comprender los
cuentos de hacer inferencias
Las personas que tienen lesiones cerebrales en el hemisferio derecho tienen problemas para
comprender los chistes y hacer inferencias adecuadas
Los niños con desorden semántico - pragmático tienen problemas para seguir las
conversaciones ya que no pueden representar el estado mental de los demás
13.1 Introducción
Los procesos de
ejecución o procesos implican convertir las palabras en sonidos en el orden
codificación correcto, la velocidad correcta y la prosodia adecuada
fonológica
Cuando hablamos creamos un plan sintáctico o marco para una frase que se compone de
ranuras en las que se insertan las palabras de contenido, los intercambios de palabras se
producen cuando se ponen las palabras de contenido en una ranura equivocada
Sólo se intercambian palabras del mismo nivel de procesamiento, palabras funcionales por
palabras funcionales y de contenido por otros de contenido, esto indica que ambos tipos de
palabras prominente vocabularios computacional mente distintos que se procesan en
distintos niveles
Los errores de intercambio de palabras implica palabras de contenido están restringidas por
factores sintácticos, los errores de sonido están restringidos por la distancia
Aspectos contradictorios
No está clara que la producción de la relación porque son ser, hay cierta evidencia de que se
produce un procesamiento local paralelo, puesto que encontramos errores de combinación
de palabras que se tienen que explicar por el hecho de que se estén recuperando
simultáneamente dos o más palabras de lexicón
Estas conclusiones sugieren que los niveles de procesamiento no puede ser independientes
entre sí, sino que deben interactuar, lo cual impulsar modelos interactivos de lexicalización
13.4 Lexicalización
Evidencia experimental:
La evidencia experimental de la división del acceso al léxico en dos fases
providente por un lado descripción desde la sencillez, y por otro lado la
investigación sobre imprimación por repetición en la lexicalización, la
imprimación por repetición se produce por el refuerzo de las conexiones entre
los lemas y las formas cronológicas.
El fenómeno de punta de lengua parece mejor explicado y más con que una
forma más convincente desde la hipótesis de la activación parcial, además se
explica como el éxito de la primera fase de la lexicalización el fracaso de la
segunda fase. La información sintáctica y la fonológica son independientes.
La interacción implica la influencia del nivel sobre otro esta idea comprende a
su vez dos conceptos:
Sesgo de la
Tenencia que los errores produzca secuencias de fonemas familiares
familiaridad
Tendencia de que los errores de la vela a nivel de los sonidos, como los
Sesgo léxico retruécanos, den lugar a una palabra más que una palabra inexistente, con
más frecuencia de la que se produciría por pura suerte.
El modelo explica los errores del habla, ya que puede hacer activas varias
unidades en cada nivel al mismo momento, si hay suficiente ruido aleatorio, un
elemento puede ser sustituido por otro. Hay realimentación entre los niveles,
la realimentación entre el léxico del fonológico da lugar al sesgo léxico y a las
restricciones de similitud.
Dell utilizó una red conexionista llamada red recurrente para asociar palabras
con sus representaciones fonológicas, una secuencia sin representación
explícita de la distinción de estructura y contenido con objetivo de aprender
secuencias. Esto lo consigue mediante una capa adicional de enviar este
contexto que almacenan información de los estados anteriores de la red.
Butterworth defendió que un ciclo corresponde una idea, las personas miran
menos a sus oyentes en la planificación y mantienen mayor contacto
visual en la fase de ejecución, se tiende a utilizar gestos más tónicos para
dar mas énfasis en la fase vacilante y gestos más y icónicos, relacionados con
objeto asociado, en la fase fluida.
Salva Herrera- MailTo :ssalva4@me.com
185
Tema 13 - Producción del lenguaje
13.6.3 Evaluación de la investigación sobre la falta de fluidez
13.7.1 Afasia
Las vías de los procesos implicados a decir una palabra que se han oído
presentan una activación primero en el área de Wernicke (temporal), que pasa
a través del fascículo arquato hasta el área broca (frontal).
Afasias
Afasia
Trastornos del lenguaje por lesión del hemisferio derecho
cruzada
Comprensión del habla relativamente Sordera pura para las palabras, dificultad en la
buena comprensión de las palabras
13.7.2 Agramatismo
Teorías que buscan una única causa a los tres componentes: una
sugerencia es que el área de broca sea responsable del procesamiento
de las palabras funcionales y otros elementos gramaticales. Hay
diferencias entre las palabras funcionales y de contenido, nunca se producen
sustituciones intercambiándose entre sí y se presentan mediante diferentes
rutinas de procesamiento.
Según la hipótesis del único déficit fonológico: omiten elementos que son
componentes no acentuados de las palabras fonológicas. Por ello las palabras
de contenido quedan preservadas, y se pierden los afijos y las palabras
funcionales. Sin embargo hoy esta hipótesis no explica el déficit de
construcción de la frase ni los patrones de disociación encontrados,
sólo explicaría la pérdida de elementos gramaticales. Por otro lado la
idea de que las palabras funcionales y de contenido se procesan en el diferente
es cuestionable.
afirmó que los errores normales del habla se debían al ruido de una red de
Stemberg activación interactiva, es posible que los errores afásicos se deba a un
excesivo ruido aleatorio
Revisión: se lee y edita lo escrito, los buenos escritores generan frases más
largas y crean textos seductores.
14.1 Introducción
Fuerza ilocutiva Lo que el hablante está intentando conseguir con lo que dice
Acto del hablar Son expresiones directas en las que la intención del hablante se
directo revelaran en sus propias palabras
Requieren cierto trabajo por parte del oyente, el hecho de que las
Acto de habla expresiones sean indirectas desempeña una función, es un
indirecto mecanismo importante para trasmitir cortesía en una
conversación
En las conversaciones, los hablantes y oyentes cooperan para que la conversación sea
significativa y tenga sentido. Para eso tiene que hacer su contribución a la conversación
cuando se requiere, tal y como se requiere, esto se logra aplicando al principio
cooperativo las Máximas de Grice
Dos planteamientos distintos para analizar la forma en la que sus títulos conversaciones
El análisis del Utiliza métodos generales, pretende descubrir las unidades básicas
discurso el discurso y las reglas que las relacionan
15.1 Introducción
Cuando vemos u oímos una frase, tenemos que reconocer o producir las
palabras y descodificar o codificar la sintaxis de la frase. Todas estas tareas
implican modelos específicos de lenguaje, en la actualidad poco se sabe
sobre la relación entre el codificador el descodificador sintáctico,
aunque la evidencia sugiere que son distintos.
Los pacientes tienen dificultades para recuperar los nombres de los objetos,
Anomina
pero muestran una comprensión perfecta de las palabras
Sordera del
Algunos pacientes mantiene intacta la repetición, sin embargo este
significado de
trastorno es muy poco frecuente
la palabra
Estos casos, demuestra que la repetición de la palabra no tiene que depender del
acceso al léxico
La eficacia del bucle fonológico se mide con tareas de memoria auditiva a corto
plazo, miden nuestro recuerdo de dígitos y palabras en diversas maneras.
Tarea de repetición de dos palabras El sujeto tiene que repetir pares de palabras
Tarea de repetición de una única El sujeto tiene que repetir palabras o dígitos únicos en
palabra voz alta
Tarea del alcance de las El sujeto tiene que decir si dos listas son iguales o
correspondencias distintas
No tenemos que preocuparnos sobre cuáles son las características que deberíamos
utilizar si son arbitrarias o no
El modelo computacional nos obliga ser explícitos sobre cómo se realiza cada tarea
semántica o perceptiva
Aunque los modelos HAL o ASL dependen de entradas verbales, este enfoque computacional
vincula la información verbal con la perspectiva, el modelo computacional también vincula el
procesamiento semántico con la neuropsicología