Está en la página 1de 88

1

TEMARIO

ADQUISICIÓN

DE

CONOCIMIENTO
2

Tema 1- Orígenes del conocimiento humano

¿Qué significa SER HUMANO?

Los homínidos anatómicamente modernos somos el corolario de cerca de seis


millones de años de evolución genotípica y fenotípica, que se inició en el continente
africano, considerado la cuna de la humanidad. La única especie que no procede de este
continente es la Neanderthalensis que surgió en Euroasia.

Existen pequeños detalles que sumados nos van diferenciando del resto de seres
vivos.

• Bipedestación: andar sobre dos piernas. Desde hace 6 millones de años,


posiblemente por cambios de hábitat y clima en el continente africano
probablemente. Esto genera una liberación de las manos y y pasan a tener
funciones muy importantes.
• Disminución del pronatismo facial: la mandíbula se nos ha ido yendo hacia dentro.
• Reducción de los caninos
• Crecimiento espectacular del cerebro: El cerebro se pliega sobre sí mismo y los
axones se acortan y se multiplican, por lo que hay muchas más neuronas.
Aparecen muchas más funciones.
• Desarrollo cultural: Los humanos tenemos un componente social y la sociedad
nos permite muchas funciones.

¿Qué capacidades cognitivas subyacen a lo humano?

• Memoria, lenguaje y planificación: Capacidad para almacenar información.


Existe una obligación dentro de nuestros genes a comunicarnos. A lo largo e la
historia, el lenguaje se ha ido precisando y concretando. Nos permite nombrar
cosas que no están presentes.
• Habilidad simbólica. Nos permite encontrar explicaciones a las cosas y una
causalidad, algo muy importante en los seres humanos. Gracias a ello podemos
encontrar regularidades en el ambiente. Algo también fundamental es la capacidad
de predecir. La habilidad analógica es la capacidad de transferir la información
entre procesos. Esto le da elasticidad al conocimiento.
• Facultad de comprender. Es un mecanismo fundamental. El conocimiento es el
mecanismo de comprensión final de las cosas.
• Aprendizajes básicos. Los aprendizajes se dan dentro de un contexto social. El
aprendizaje cooperativo consiste en realizar aquello más eficientes y
complementarias con los otros seres humanos. El imitativo es una imitación de
3

lo que realiza otra persona. La imitación también puede ser a partir de lo verbal.
• Contexto cultural donde se produce el cúmulo de conocimientos que se conservan
y se amplían sucesivamente, produciendo un contexto donde se produce y
promueve el conocimiento.
• Implican mecanismos biológicos, psicológicos y sociales independientes entre
sí.

Los descubrimientos en Atapuerca

El ser humano existe desde hace unos 400.000 años. Una de las fuentes de
conocimientos más importantes para llevar a cabo el estudio de la evolución son los
Descubrimientos de Atapuerca, que están contribuyendo de forma muy específica al
conocimiento de la evolución del género Homo, tanto biológica como culturalmente. La
mayor parte de sus depósitos son fosilíferos y cubren un lapso de tiempo que oscila entre
un millón de años y unos doscientos mil años atrás.

• Sima de los huesos (320.000): Restos de homínidos que hacen suponer que en ese
momento existían ritos a cerca de la muerte. Supone el testimonio ceremonial
funerario más antiguo conocido de la especie de homínidos. También se han
descubierto dos huesos hioides y un cráneo entero que permite establecer
hipótesis acerca del lenguaje y el habla. Se ha admitido que las áreas de Broca y
Wernicke están más desarrolladas en los primitivos Homo. Los fósiles en edad
infantil encontrados están muy poco representados, mientras los juveniles lo están
en gran cantidad (80%). Una interpretación está relacionada con la complejidad
social de estas comunidades (Arsuaga y cols. 1998). Buena alimentación y
profilaxis debía de utilizarse para reducir la muerte de las crías. También, la
estrategia del grupo debía ir encaminada a la protección y cuidado de los recién
nacidos y niños-“cuidado social”. Por lo tanto, las muertes aparecían
sistemáticamente cuando los jóvenes salían del control social del grupo.
• Galería-Covacha: Se han descubierto restos de homínidos entre los que destacan
restos craneales cuya cronología se sitúa entre 350.000 y 170.000 años.
• Gran Dolina: Aquí se han encontrado los depósitos más antiguos. Se encontraron
diversos fragmentos craneales datados con una antigüedad de
800.000 años. La combinación de caracteres que muestran estas piezas es única
y ha justificado la designación de una nueva especie dentro del género Homo, el
Homo antecesor. Esta especie proviene del Homo ergaster y constituye el tronco
común de los Neanderthales y los homínidos anatómicamente modernos. Estos
descubrimientos confirman la presencia humana en el sur del continente europeo
hace cerca de un millón de años.
4

Estas aportaciones extraídas de la Sierra de Atapuerca arrojan una nueva luz sobre
el debate acerca de dónde venimos y de dónde procede nuestro conocimiento ya que
ofrecen más datos sobre la evolución biológica y cultural de la humanidad de lo que se
conocían hasta ahora. El descubrimiento del Homo antecesor es importante ya que se
considera el responsable del sustrato biológico que más tarde daría lugar a adquisiciones
más consistentes del umbral de la complejidad tales como el lenguaje articulado, el uso
del fuego, el enterramiento de los muertos, el vestido o el arte.

Atapuerca también recoge datos sobre la existencia de la recolección de semillas y


plantas y de la caza, así como del canibalismo.

La herencia biológica: La evolución del cerebro humano

Los cerebros no fosilizan, por lo que todo lo que podemos saber acerca de la
evolución del cerebro humano se obtiene de pruebas bastante indirectas. Kaas (2002) ha
resumido muy bien tres maneras diferentes de obtener información relevante para
comprender la posible evolución del cerebro humano.

• A través del registro fósil para hacer una idea de la evolución del tamaño, la forma
y sus proporciones. Una primera conclusión es que tanto la forma como el tamaño
del cerebro de los primeros mamíferos, se mantuvo invariante durante mucho
tiempo. Hace 65 millones de años, los mamíferos comenzaron a diversificarse.
Aparecieron entonces los mamíferos con cerebros más grandes y un voluminoso
neocórtex que evolucionaron de forma independiente en varias líneas
genealógicas. Una de las líneas más interesantes es la de los primates. Los
primeros se diferenciaron hace unos 50 millones de años. Los simios se
diversificaron en tres ramas: monos del Viejo Mundo, monos del Nuevo Mundo y
los monos antropomorfos. El linaje humano se separa de los antropomorfos. La
aparición del Homo habilis, Homo Erectus y Homo sapiens supone una
duplicación del volumen cerebral. La mayor parte concierne al neocórtex. Es la
expansión de la región prefrontal la que nos distingue como humanos y nos
permite planificar y valorar las consecuencias de nuestro comportamiento social,
adquirir nuevas habilidades cognitivas y ejecutar parte del pensamiento simbólico
necesario para el lenguaje.

• Estudios comparativos de la organización y función de los cerebros de los


mamíferos actuales. En nuestra especie, el neocórtex interviene en percepción,
cognición, conciencia y memoria. Se subdivide en un gran número de áreas (Más
de 50 o 100). Algunas de estas áreas se aprecian en monos, y otras son exclusivas
de nuestra especie. Como producto de la evolución del neocórtex, las áreas
corticales se amplían comenzando a dividirse en regiones más pequeñas
denominadas módulos o columnas. Una ventaja es que estos módulos pueden
modificar o añadir funciones a las ya establecidas. Ocurre que
5

una misma área puede tener distintos módulos según a la especie a la que se
refiera. Parece plausible que a medida que las especies primitivas de primates
mejoraron su procesamiento visual, la disponibilidad de un cerebro cada vez
mayor también les permitió mejorar en otro tipo de procesos.

• Consideraciones teóricas sobre la forma en la que pueden cambiar los cerebros a


medida que aumentan de volumen. Parece lógico pensar que debe existir una
proporción entre el peso y tamaño del cuerpo con el cerebro. En el caso humano,
los cerebros son mucho mayores de lo que les corresponde a su tamaño corporal.
El aumento de volumen se obtiene a base de incrementar el número de células.
Sin embargo, esto conlleva algunos inconvenientes funcionales. Si el número de
neuronas aumenta de manera progresiva a lo largo de la evolución, entonces
también debe aumentar el número de conexiones por neurona, o añadir unas pocas
neuronas gigantes, con grandes distancias de conexión. Una de las ventajas de
incrementar el número de áreas corticales es la posibilidad de procesar la
información en más pasos y, por ende, la posibilidad de obtener resultados más
complejos. Pero las conexiones largas y costosas de los cerebros de gran tamaño
también pueden reducirse agrupando áreas cerebrales con funciones relacionadas,
de manera que las áreas que tengan que conectarse más a menudo lo hagan por los
caminos más cortos. De esta manera, funciones complejas como el lenguaje pasan
a depender fundamentalmente de un hemisferio. Esta nueva disposición cerebral
de reducir al máximo las conexiones permite encontrar soluciones generales al
problema de tener un cerebro de gran tamaño.
En resumen, las pruebas que proporcionan los estudios comparativos de la
organización del cerebro en primates y otros mamíferos contemporáneos sugieren
que los mamíferos primitivos, con un neocórtex poco desarrollado, tenían un
número reducido de áreas corticales. Los primates más primitivos no solo se
distinguían por poseer cerebros mayores, sino por una organización cerebral
particular. Los seres humanos modernos no solo tienen cerebros más grandes, sino
que junto a las características básicas del cerebro primate incluyen
especializaciones propias de los linajes antropomorfos y homínido.

Emoción y Conocimiento

Estas especializaciones propias del cerebro en los linajes antropomorfo y


homínido han desarrollado cerebros capaces también de construir modelos internos del
mundo para interaccionar de manera flexible con un entorno cambiante. Estos modelos
suelen poseer dos componentes básicos: una representación del entorno interno y
representaciones del entorno exterior. Parte de esas representaciones mentales
corresponden a las emociones. Las emociones implican la relación entre ciertos estados
orgánicos presentes o futuros y estados previos de referencia, que
6

sirven para relacionar los cambios en el estado orgánico con la supervivencia y el


bienestar del organismo. Las emociones implican diversas funciones del sistema nervioso
que relacionan las representaciones del entorno exterior con su valor e importancia para
el organismo. Por lo tanto, las emociones pueden entenderse como estados internos, de
los organismos superiores que regulan de manera flexible sus interacciones con el entorno
y sus relaciones sociales. Aparecen asociadas a comportamientos más básicos como las
respuestas a las recompensas y castigos, que sirven para regular la homeostasis y la
interacción del organismo con el entorno.

Pero las emociones también están asociadas a comportamientos sociales


complejos, a estados como la culpa, los celos y la vergüenza, que cumplen funciones
similares respecto al entorno social. Las bases neuronales de estas emociones son muy
poco conocidas y podrían ser exclusivas de los seres humanos. Después de estudios
llevados a cabo, se ha propuesto que el hemisferio derecho contiene módulos para la
computación de influencias no verbales, que podrían haber evolucionado como apoyo a
la cognición social. Suele distinguirse entre procesos que preceden y que pueden
desencadenar una emoción, y los procesos subsiguientes que componen el estado
emocional.

Los procesos que componen una emoción, no solo están distribuidos en el espacio,
sino que también lo están en el tiempo. Las respuestas emocionales complejas tienen
varias consecuencias que a su vez evolucionan de forma compleja en el tiempo. En primer
lugar, implican directamente y modulan indirectamente la conducta automática y
planificada del organismo a todos los niveles. En segundo lugar, el cerebro percibe y
representa de forma detallada estos cambios del organismo y del estado mental, lo que
origina la experiencia consciente de las emociones o “sentimientos”. Por último, la
conducta emocional, del organismo, puede afectar al estímulo que desencadenó la
respuesta emocional, y generar, un bucle retroactivo con el entorno, cuyo objetivo es
aumentar la homeostasis, la supervivencia y el bienestar del organismo.

La amígdala, las áreas de la corteza relacionadas con el procesamiento


somatosensorial del hemisferio derecho y la corteza ventromedial prefrontal están
implicadas en la asociación de la percepción de estímulos en situaciones emocionalmente
relevantes. Es plausible pensar que esas tres estructuras tengan un papel crucial en la
adquisición o el recuerdo de conocimientos o conductas pertinentes.

La herencia cultural

La investigación más reciente sobre antropología y paleontología sugiere que


durante los últimos 2 millones de años la línea de lo humano no muestra signos de un
cambio significativos respecto a los grandes monos. Se asume que el primer signo de
7

características únicas en su especie emerge sólo con el Homo erectus hace millón y medio
de años y del Homo sapiens hace apenas 100.000 años. El Homo Sapiens aporta nuevas
habilidades cognitivas y productos que de ella se derivan. En un breve periodo de alrededor
de unos 5000 años, lo útiles lícitos comienzan a diferenciarse de una centuria a otra y de
una región a otra, dando lugar a lo que podría denominarse una “revolución cultural”. Según
Tomasello (1999), pueden distinguirse tres momentos principales:

• Se produce una plétora de nuevas herramientas de piedra adaptadas a fines


específicos, en la que cada grupo de especie genera su propia industria de uso de
la herramienta, resultando eventualmente en algunas áreas la creación de
materiales muy bien elaborados.
• Se inicia el uso de los símbolos para comunicarse y para estructurar su vida
social, incluyendo no solo símbolos lingüísticos sino también símbolos artísticos
en la superficie de piedras o pinturas dentro de las cavernas. Puntualmente se
desarrolla el lenguaje escrito, monedas, notación matemática y arte.
• Nuevos tipos de prácticas y organizaciones sociales entre las que se incluyen
desde el ritual más ceremonial de la muerte hasta la domesticación de animales y
el cultivo de plantas y en algunos grupos de forma puntual, la formalización de
instituciones religiosas, educativas y comerciales

Una posible explicación a este fenómeno alude a un mecanismo no biológico, quizás


el único conocido hasta ahora, que podría enlazar estos tipos de cambios en la conducta
en tan corto plazo de tiempo. Nos referimos a la transmisión social o cultural que funciona
con escalas de tiempo de lo que lo haría la evolución orgánica. De manera general,
podríamos afirmar que la transmisión cultural supone un proceso evolutivo moderado que
permite a los organismos individuales salvar mucho tiempo y esfuerzo, explotando el
conocimiento ya existente y las habilidades de la especie. Hay comportamientos que
incluyen todo lo que los padres pueden generar a través de modelos de acción que se
transmiten de generación en generación a través de la instrucción o del aprendizaje
imitativo. Cabe por tanto plantearse una hipótesis razonable, que es que todo el arsenal
de habilidades cognitivas y productos que están disponibles en los humanos más
modernos sea el resultado de algún tipo o modo de especie única o modos de transmisión
cultural.

- La evolución cultural acumulativa

Hay algo muy característico y es que las tradiciones culturales y los artefactos que
hemos generado los humanos, se han producido como consecuencia de modificaciones
acumuladas en el tiempo, cosa que otras especies no han hecho. A esto se le denomina
evolución cultural acumulativa (Tomasello, 1999). Ninguna de las prácticas sociales o
de los artefactos más complejos, fueron inventadas de una sola vez y en un momento
único. Una vez se inventa un versión primitiva, se va modificando a lo largo del
tiempo por otros individuos o grupos de individuos.
8

Estas modificaciones son aprendidas y utilizadas por los demás y se produce el


“Efecto rueda” (Tomasello, Kruger y Ratner, 1993). Por tanto, el proceso de la evolución
cultural requiere no sólo una invención creativa, sino lo más importante, que se pueda
transmitir de manera eficaz, de tal forma que el nuevo artefacto o práctica inventado,
preserve su forma nueva y mejorada, al menos hasta que se realice una mejora o
modificación posterior.

Esto lleva a pensar que los humanos poseemos una habilidad muy especial para
aprender. Tomasello y cols. (1993) han identificado esta facultad con el aprendizaje
cultural humano que se manifiesta bajo amplísimas formas de aprendizaje social. Estos
autores resaltan tres formas básicas: aprendizaje imitativo, aprendizaje instructivo y
aprendizaje colaborativo. Estas tres manifestaciones son poderosas ya que constituyen
formas de transmisión cultural especialmente precisas y formas de colaboración creativa
e inventiva muy especial.

- El mecanismo de la comprensión en el contexto social y cultural

Lo más reseñable de la teoría de Tomasello es que estas tres formas de aprendizaje


cultural son posibles gracias a una forma muy especial de cogniciónsocial: la habilidad
de los organismos individuales para comprender a su misma especie, a sus
semejantes. Esta comprensión permite al individuo aprender a través del otro. Esta
comprensión de los otros como algo propio es crucial en el aprendizaje cultural humano,
ya que los utensilios y prácticas sociales, conllevan invariablemnte tactar con entidades
fuera de sí mismos.

Los niños deben llegar a comprender el significado intencional del uso de la


herramienta o el símbolo práctico. En algunos trabajos (Tomasello y Call. 1997),
consideraron que los niños con tan solo nueve meses eran ya capaces de prestar atención
o imitar a sus congéneres. Esta nueva emergencia de actividades parece representar la
emergencia ontogénica de identificarse con otras personas y comprenderla como
agentes intencionales. Ahora bien, su desarrollo completo llega de manera gradual
cuando el niño emplea activamente diversos tipos de herramientas culturales cuya
comprensión le permite llegar a dominar, fundamentalmente el lenguaje.

Tomasello considera que, en un primer nivel, la comprensión es común a todos los


primates. Los niños utilizan su herencia primate perceptual y motora, y desarrollan ese
primer nivel de comprensión. A pesar de que algunas observaciones sugieren que
primates no humanos son capaces de comprender a sus congéneres de manera similar a
la humana, es arrolladora la evidencia empírica que atribuye sólo a estos últimos la
facultad de comprender a sus congéneres como agentes intencionales tanto como a sí
mismos. Arrolladora también es la evidencia de esta facultad se desarrolla dentro
de un contexto cultural. Esta comprensión también incluye la dirigida a una meta, que
se produce en el niño alrededor de un año.
9

Como podemos ver en la siguiente tabla, según Tomasello, el proceso de la


comprensión psicosocial que se inicia en el neonato y se alcanza de pleno en el niño de
corta edad, se produce mediante la articulación de tres componentes:

Comprendiendo Comprendiendo Comprendiendo


el input el output el estado de la
perceptual conductual meta
La comprensión
de los otros como Mirada Conductas [Dirección]
seres animados
(bebés)
La comprensión
de los otros como
agentes Atención Estrategias Metas
intencionales (9
meses)
La comprensión
de los otros como Creencias Planes Deseos
agentes mentales
(cuatro años)

Por tanto, podemos afirmar que la hipótesis básica de Tomasello es la de que los
niños ya poseen la habilidad para participar en un discurso con los demás desde
muy temprano. El infante es capaz de comprender a los demás cuando les considera
como agentes intencionales y reconoce creencias o puntos de vista del mundo diferentes
a los suyos. Quizá por este motivo, la comprensión de los otros como agentes mentales
no se alcanza plenamente hasta unos años después, cuando los niños adquieren el
lenguaje y pueden participar en el discurso.

La cuestión que suscita esta interesante propuesta de la comprensión por parte de


Tomasello es hasta qué punto este desarrollo de la comprensión obedece a una pauta de
la evolución biológica o es, por el contrario, una consecuencia de la herencia cultural.
Y en caso de que fuese la cultura, hasta qué punto las diferencias entre una cultura y
otra puede facilitar o dificultar una progresión diferente en el proceso de la comprensión
de los otros en el niño.

Podemos encontrar una posible respuesta a esta pregunta en un trabajo de Lillard


(1997). Este autor realiza un análisis de diferentes culturas m concluyendo que el
comportamiento de los niños en los primeros años de su vida es muy similar y se produce
de manera independiente de la cultura y condición social a la que el niño pertenece. Los
niños adquieren una amplia variedad de sistemas diferentes de explicación psicológica,
en los que se incluyen tanto pensamientos y creencias individuales como también,
explicaciones sociales colectivas.
10

Ahora bien, una vez que esta competencia universal cognitiva adquiere su lugar, la
comprensión intencional, como práctica del discurso lingüístico, hace que los niños de
diferentes culturas adapten esta competencia a una amplia variedad de formas de
explicación, dependiendo entonces de su lengua y de su cultura particular.

La herencia biológica y cultural: La Teoría Dual

Las especies de mamíferos superiores requieren de un largo periodo de madurez


en el cual los hijos dependen mucho de sus padres. Este largo periodo de madurez se
compensa con la exposición de una importante cantidad de información, lo que
típicamente genera una mayor flexibilidad cognitiva y conductual, permitiendo una mejor
adaptación al medio. Esta adaptación cognitiva y conductual son específicamente útiles
para aquellos organismos que viven en grandes grupos y en contextos diversos, o también
en aquellos ambientes que pueden cambiar rápidamente (Bruner, 1972). Muchos
biólogos evolutivos han denominado a este efecto teoría dual, refiriéndose con este
término a que los fenotipos de maduración de muchas especies no dependen sólo de la
herencia biológica de la especie, sino también de la herencia cultural.

Para Tomasello, la diferencia clave que distingue al humano del resto de los
primates es su capacidad para “identificar” a sus congéneres de manera más profunda, la
capacidad de comprender a los otros. La comprensión de las personas como agentes
intencionales, hace posible, por un lado, los procesos de sociogénesis, mediante los cuales
muchos individuos pueden crear de manera colaborativa artefactos culturales y prácticas
que se van acumulando en su historia; por otro lado, hace viable los procesos de
aprendizaje cultural y su internalización para desarrollar en los individuos un aprendizaje
sobre cómo utilizar e internalizar aspectos de los productos creados porsus congéneres.

Desde un punto de vista evolucionista cabe también la posibilidad de pensar en un


cierto grado de coevolución entre genes y cultura. Pero siendo la evolución cultural
mucho más rápida que la biológica, resulta difícil evaluar la importancia o la autonomía
de la evolución cultural respecto a la biológica. En este punto cabe plantearse varias
posiciones:

• Algunos sociobiólogos (Lumsdem y Wilson, 1981) quienes consideran que la


herencia cultural está estrechamente controlada por la biológica, y los rasgos
culturales resultantes se asumen como si se seleccionasen en virtud de su
funcionalidad biológica.
• Biólogos (Cavalli-Sforza y Feldman 1981 y Dawkins 1976, 1982) han
argumentado que el desarrollo cultural supone un proceso evolucionista
verdaderamente autónomo.
• Cosmides y Tooby (1987) identifican la mente como el “eslabón perdido” entre
los genes y la conducta. Desde esta perspectiva ven la mente como un conjunto
organizado de dispositivos mentales, donde cada uno de ellos ha evolucionado,
adaptándose a determinados desafíos específicos, procedentes del entorno
ancestral.
11

Tema 2- Del conocimiento individual al social y


compartido

¿Qué entendemos por conocimiento?

El estudio del conocimiento ha sido una constante en todo el desarrollo de la


civilización humana y la forma de abordarlo ha sido diferente según el momento en el
que se ha estudiado. Una primera búsqueda sobre las acepciones más comunes de los
términos conocimiento y conocer que se recogen en el DRAE, conocer se define como
averiguar por el ejercicio de las facultades intelectuales la naturaleza, cualidades y
relaciones de las cosas. Conocimiento se asocia a noción, ciencia, sabiduría.

En muchas ocasiones, el término conocer o conocimiento también se amplía a


otros conceptos asociados como “tener ideas de las cosas”, “intuir”, “juzgar”, o
“comprender”. Conocimiento implica muchos parámetros y esto dificulta una acepción
precisa:

• Conocimiento personal: Almacenamiento de información, de experiencias, de


habilidades y creencias que se poseen de manera individual. Se asume así como
una propiedad idiosincrásica que refleja la historia propia de la persona que lo
posee.
• Conocimiento como verdad absoluta y universal: Esta propuesta se topa con la
concepción proveniente del campo de la epistemología, donde conocimiento s
identifica con la creencia verdadera, con la verdad universal.
• Conocimiento se diferencia de conocer: Algunos autores consideran que el
conocimiento se presenta como una actividad real que tiene lugar mediante una
sucesión de actos a lo largo del tiempo y que el nivel de objetividad que se
consigue es gracias a la multitud de “conoceres” que han contribuido a ello. Como
resultado, conocer se considera diferente de conocimiento, en el sentido de que el
primero se refiere a la acción de buscar o hallar una información o verdad, y
conocimiento a la información o verdad ya hallada.
• Conocimiento se diferencia de información: El término información se refiere
a todo aquello que se presenta como relativamente “crudo”, específico y práctico.
En cambio, se designa el término conocimiento a aquello que ha sido “cocido”,
procesado y sistematizado por el pensamiento.
• Conocimiento se identifica con afecto y sentimiento: Conocimiento se
identifica con sentimientos o afectos. Autores como Buck (1991) señalan que el
conocimiento es un proceso afectivo.
• Conocimiento como proceso. Conocimiento puede ser un proceso mediante el
cual transformamos un tipo de conocimiento en otro.
12

De todas estas acepciones, se pueden derivar algunas conclusiones: En primer lugar, es


bastante claro pensar que nos encontramos ante un concepto de carácter polisémico. También
podemos pensar que la existencia de tantas acepciones puede representar “conocimientos”
diferentes más que referirse a un conocimiento único. La tercera conclusión acota la función que
se atribuye al conocimiento, si bien este puede ser considerado tanto resultado de una actividad
mental o social, o bien también como un proceso.

Por lo tanto, la forma más idónea de aproximarse al estudio del conocimiento, sea abordarlo
desde diversos parámetros. Proponemos el ontológico, el psicológico y el antropológico.

• El conocimiento, ontológicamente considerado, debe tener y corresponderle una cierta


realidad. De admitirse una cierta “invasión” del mundo objetivo en el campo de la
subjetividad, una forma especial de comunicación entre los dos polos del conocer. Esta
comunicación o relación entre la mente y el mundo externo de las cosas observables y de
las acciones pueden producir dos resultados muy diferentes. Según Bereiter (2002), en el
caso de que la relación que se establece entre el mundo objetivo y la subjetividad es la
correcta, entonces el objeto mental resultante constituye conocimiento. Pero cuando la
relación es incorrecta, el objeto mental produce entonces una falsa creencia.

• El conocimiento, psicológicamente considerado, supone un acto o una serie de actos que


poseen unas características propias y diferenciadas, según sea el nivel o forma en que nos
refiramos. Se produce una multiplicidad de eventos mentales, que están encadenados
dentro de un proceso frecuentemente determinado por la temporalidad. Estos actos suelen
percibirse directamente por quien ejecuta dicha actividad, aunque no siempre que
conocemos tomamos conciencia de qué operaciones mentales estamos efectuando.
Wittgenstein sugiere que ciertas ideas no penetran activamente en nuestras deliberaciones,
pero proporcionan un andamiaje para otros pensamientos. Desde la psicología cognitiva
se propone como principio una mente que contiene distintos objetos inmateriales (ideas,
memorias…) que se producen como consecuencia de unas estructuras que lo almacenan y
producen y de unos procesos que los realizan o los relacionan. Todas las formas de
conocimiento son interactivas, la presencia o activación de una de ellas puede
desencadenar directa o indirectamente la presencia de otras.

• El conocimiento tiene una dimensión antropológica por lo que juega un papel determinante
en la racionalización de las cosas y el mundo social. El conocimiento humano tiene como
objeto el de servir de entramado teórico con el que comprender el mundo y hacer de él un
medio para nuestro propiodesarrollo.
13

El conocimiento personal o conocimiento de la mente

Polanyi (1964) utilizó el término de “conocimiento personal” para distinguir entre aquello
que caracteriza a las mentes individuales del conocimiento en un sentido público. Más
recientemente, este punto de vista también ha formado parte de las ciencias cognitivas, que se ha
interesado por el pensamiento y la conducta desde este plano individual.

- De la restricción dicotómica a la confusión terminológica del conocimiento

a. La dicotomía declarativo-procedimental: Cuando alcanzamos a conocer algo, no solo


conocemos una parte de conocimiento declarativo, sino también otro que contiene
ciertos procesos o rutinas (conocimiento procedimental). Estas formas de
conocimiento son distintas y la adquisición de una de ellas no implica necesariamente
el conocimiento de las otras.
El conocimiento declarativo podría identificarse con el conocimiento que uno puede
declarar o afirmar su contenido mediante sus propias palabras, diagramas o cualquier
otra manera. El conocimiento procedimental se ajusta al proceder ordinario del
mundo, a una rutina que puede ser representada por un conjunto de reglas, estados o
acciones claramente demostrables.
Esta dicotomía declarativo-procedimental se ajusta de manera natural al pensamiento
educativo tradicional. Suele expresarse en términos de contenidos vs procesos. El
contenido detallado de la memoria es casi equivalente al contenido de un libro de
texto reproducido en la mente deun estudiante y los procesos son todas las habilidades
cognitivas que tratan de desarrollar las actividades curriculares y permiten al estudiante
realizar algo con ese contenido.
Estas categorías han resultado ser demasiado amplias para que puedan resultarnos
útiles

b. La clasificación funcional de Alexander, Schallert y Hare (1991): Si la dicotomía


declarativo-procedimental resulta excesivamente restrictiva, otra alternativa posible es
evaluar cómo se concibe el conocimiento visto por aquellos especialistas que
investigan en ello. Alexander y cols. consiguieron categorizar hasta 27 tipos diferentes
de conocimiento tal y como podemos ver en la siguiente tabla.
14
TIPOS DE DEFINICIÓN
CONOCIMIENTO
Conocimiento de ideas que aparecen en el contenido y el discurso. Trata de
Conceptual responder a lo que es algo y las condiciones bajo las que se
usa.
Condicional Conocimiento sobre cuándo y dónde
Particularización del conocimiento conceptual y metacognitivo que tiene lugar cuando
Construcción interacciona el conocimiento previo de la
persona con la situación real en la que vive
Contenido Tipo de conocimiento conceptual. Incluye conocimiento formal e
informal de ciertos aspectos del mundo físico, mental o social.
Declarativo Información factual, “saber qué”
Se trata de un subgrupo de conocimiento altamente formalizado del conocimiento de
Disciplina dominio; conocimiento de una materia académica
sobre la que se instruye o enseña
Discurso Parte del conocimiento conceptual que afecta al conocimiento que
se posee sobre el lenguaje y su uso.
De dominio Un área del conocimiento que abarca un campo de estudio o de
pensamiento.
Conocimiento que está guiado de forma directa en constante interacción con el
Explícito mundo; conocimiento analizado. El conocimiento
que actualmente o de forma usual es objeto del pensamiento
El modelo particular del mundo físico, social o mental que se construye como
Ejemplificación intermediario entre el conocimiento previo y las
demandas de procesamiento.
De planes y Los objetivos individuales o planes que se establecen y que están
metas influidos por una comprensión afectiva acerca de sí mismo y en relación con
otros
Sintáctico Conocimiento sobre cómo pueden combinarse las palabras para
generar significado en el nivel de la oración o en un nivel inferior.
Metacognitivo Conocimiento sobre el conocimiento
Metacognitivo Conocimiento de las estrategias que permiten observar el
estratégico cumplimiento de una tarea o alcanzar los objetivos propios
Previo La suma de lo que conoce un individuo
Procedimental Conocimiento que se tiene acerca de determinados procesos o
rutinas; puede describirse como “saber cómo”
Retórico Sentido de la audiencia, estilo o registro
Esquema Conocimiento representado en estructuras que están
interconectadas entre ellas, incluidas unas en otras.
De sí mismo Conocimiento que uno posee sobre sí mismo como persona que
piensa o aprende
Actitudes y creencias acerca del mundo y sobre cómo actual con él visto desde el
Sociocultural punto de vista individual de un miembro
perteneciente a un grupo o cultura
15

Conocimiento acerca de los procesos que están planificados y conscientemente


Estratégico invocados para facilitar la adquisición y utilización
de conocimiento
Tácito Conocimiento acerca de lo que habitualmente no se es consciente o no se presenta de
manera explícita

De la tarea La comprensión de las demandas cognitivas de una tarea

Conocimiento que se produce cuando se establece una conexión entre el conocimiento


Base del texto del lector y las demandas de comprensión
tanto oral como escrita.
Estructura del Concepción sobre cómo las unidades del lenguaje más amplias que
texto las oraciones se combinan o relacionan

Tópico o tema Intersección entre el conocimiento previo y el contenido de un


pasaje o discurso específico

Palabras Las palabras que uno conoce, el lexicón de cada uno

Como puede observarse en esta larga lista se detectan solapamientos, subgrupos o ciertas
contradicciones. En general, este estudio revela tres tipos de problemas asociados con el uso de la
terminología relacionada con el conocimiento. Un primer grupo de problemas se refiere a como
bajo los mismos términos los autores se refieren a diferentes aspectos del conocimiento. Un segundo
grupo plantea la cuestión contraria, esto es, como aspectos muy similares del conocimiento se
denominan con términos diferentes. Por último, se producen interacciones entre diferentes tipos de
conocimiento.

Siete tipos de conocimiento personal

1. Conocimiento explícito

Supone conocimiento acerca de algún aspecto del mundo físico, social o mental y puede ser
adquirido o utilizado de manera formal o informal. El conocimiento explícito puede ser discutido,
evaluado y meditado como conocimiento. Se identifica también con los tipos de conocimiento
conceptual y declarativo y es aquel que sustenta la educación formal.

A medida que un conocimiento se hace más especializado, pasa de ser un tipo de conocimiento
de contenido (más general) a un tipo de conocimiento de dominio o de disciplina (más
especializados). La relación entre el conocimiento explícito de contenido y el de dominio o
disciplina es jerárquica y está basada en su nivel de especialización.

El conocimiento explícito también engloba el conocimiento de lenguaje y sus usos como es el


conocimiento del discurso, el conocimiento de la estructura del texto, conocimiento sintáctico y
el conocimiento retórico.
16

2. Conocimiento implícito

Existe la idea de que las personas tenemos una apreciación muy ajustada sobre los
conocimientos que poseemos y sus usos, pero que no podemos expresarlos fácilmente. Este
conocimiento puede cubrir un rango tan amplio como el explícito pero no siempre resulta fácil su
identificación. Con este término puede asumirse la existencia de un conocimiento innato que
puede haber sido transmitido genéticamente de una generación a otra. Bajo el término
comprensión se añade algo más: una manera inteligente e intencional de relacionar aquello que se
conoce.

Para Wittgenstein, la comprensión implícita no consiste en saber que el mundo es redondo,


sino verlo redondo. El conocimiento tácito está estrechamente relacionado con los procesos de
inferencia y comprensión implícita, suele generarse desde la experiencia y probablemente debe
poco a la educación formal.

3. Conocimiento episódico

Desde un punto de vista funcional, puede sostenerse que la memoria semántica y episódica
pueden tener distintos papeles dentro del conocimiento. La memoria semántica abarca todo
aquello que se considera verbalmente etiquetado como conocimiento explícito y comprensión
implícita. Los episodios pueden ser recuperados y considerados en nuevos contextos.

Schank y cols observaron que muchas de las conversaciones humanas suelen incluir
referencias, comparaciones y elaboraciones de inferencias que se generan a partir de episodios
determinados que suelen aparecer en contextos informales. En el contexto informal suele utilizarse
un razonamiento basado en casos y descansa básicamente en la analogía. Por el contrario, en los
contextos académicos, el razonamiento utilizado suele ser basado en principios y leyes que
descansa básicamente en la inferencia deductiva. Esta comparación viene a establecer una estrecha
relación entre el conocimiento episódico y la experiencia previa del conocimiento académico y
científico.

Dado que el recuerdo de las experiencias pasadas constituye una parte importante de la
capacidad que tenemos de conocer y que buena parte de estas experiencias son episódicas, resulta
importante analizar cómo se produce el recuerdo. Schank y sus colegas mantienen que no se puede
acceder a nuestro conocimiento episódico de manera sistemática, sino mediante un proceso
asociativo muy fuerte que hace que una cosa nos recuerde a otra. Por ello, el conocimiento
episódico representa para estos autores una enorme fuente intelectual que suele despilfarrarse con
frecuencia.

4. Conocimiento de los sentimiento e impresiones

Los sentimientos y emociones influyen en nuestras acciones y funcionan como


conocimiento incluso aunque creamos que no pensamos en ello. Este conocimiento supone
una evidencia más de la facultad que posee cada individuo para comprender a sus semejantes.
Entendemos así los sentimientos y emociones de los otros, lo que conlleva una vida mental e
17

intencional.

Todo conocimiento personal tiene un aspecto emocional. Esto se hace aún más evidente
cuando nuestros sentimientos contradicen las razones de peso o las evidencias y debemos
decidir qué es lo correcto.

Es importante destacar que no es necesario provocar un sentimiento evidente y consciente;


lo único que se necesita es la reconstrucción de un estado emocional básico que proporcione
cierto conocimiento de la tarea pertinente, y esa reconstrucción parcial puede operar muy por
debajo del nivel de la percepción consciente.

5. Conocimiento estratégico o pericia

Suele pensarse que la habilidad se alcanza siempre como resultado de una práctica
repetida. Sin embargo, si sólo dispusiésemos de este punto de vista, la “habilidad” resultante
no garantiza per se que sea efectiva. Por ello, cuando los estudiosos del tema analizan este tipo
de conocimiento consideran la necesidad de un componente cognitivo y sub-cognitivo que
regule el producto o el resultado de lo que hacemos. Esta parte cognitiva alude a un
conocimiento explícito sobre cómo debemos actuar.

Hay una parte subcognitiva que afecta a los cambios que se producen en alguna habilidad
a medida que se adquiere con la práctica. El rendimiento se vuelve más fluido, más automático,
más económico y eficiente.

La pericia se identifica como el conocimiento o la habilidad para aprender y se asume que


forma parte de los conocimientos y habilidades que una persona posee cuando se le considera
experta en un determinado dominio. Resultados de estudios, han llevado a considerar que la
pericia es un concepto multifacético que supone, además de una gran cantidad de
conocimiento, habilidades para organizarlo, junto a un importante número de procesos
mentales generales y específicos.

Conviene resaltar que la existencia de una especificidad de dominio que determina una
estructura del conocimiento diferente según las áreas de contenido a las que se refiera.

6. Conocimiento “autorregulado” o metacognitivo

El conocimiento autorregulado o metacognitivo es, de acuerdo con Swanson (1990), “el


conocimiento y control que uno posee sobre sus pensamientos y actividades de aprendizaje”.
La idea general es que en cualquier campo de actividad hay conocimiento que pertenece a la
persona y que juega un papel importante en la actividad que realiza. Este conocimiento se
adquiere como fruto de la información autobiográfica acumulada procedente de nuestras
propias cogniciones, sobre la forma de orientarla y sobre el control que se tiene de las mismas.

El conocimiento metacognitivo está estrechamente relacionado con la comprensión. Desde


18

un punto de vista cognitivo se asume que este conocimiento supone la comprensión que
poseemos de nuestra propia cognición y que puede afectar a múltiples dominios.

El conocimiento metacognitivo incluye a otros tipos de conocimientos más específicos


como el conocimiento estratégico o conocimiento de estrategias cognitivas que se definen
como conocimientos que se requieren esfuerzo, planificación y una orientación hacia unos
objetivos determinados. De esta forma somos capaces de evaluarnos a nosotros mismos,
juzgamos la importancia de una tarea y decidimos emplear estas o aquellas estrategias
cognitivas dependiento s los objetivos o planes que tenemos internalizados como propios.

Flavell (1992) considera tres factores: en relación con las personas, la tarea y la estrategia.
El primer factor es el más común e implica el desarrollo de actividades con los demás o con
uno mismo. Puede aplicarse a diferencias intraindividuales, interindividuales o propiedades
universales de la cognición.

La tarea concierne a la información que tiene disponible la persona que realiza una
actividad cognitiva o una meta propuesta.

En relación con el tercer factor, la estrategia, cabe señalar que buena parte del
conocimiento que puede adquirirse depende en buena medida en saber cuál de las estrategias
de las posibles sea probablemente la más efectiva para conseguir una meta un objetivo
determinado.

7. Conocimiento sociocultural

La manera en la cual el ser humano percibe el mundo e interactúa con él refleja un amplio
abanico de conocimientos que descansan sobre la base de creencias compartidas con los
miembros de su familia, de su comunidad, de la disciplina intelectual de la que forma parte,
de su grupo étnico, de su cultura nacional o de otros grupos con los que se relaciona.

Este conocimiento es a la vez individual y compartido. Frecuentemente se trata de un


conocimiento tácito que se revela cuando un individuo interactúa, por ejemplo, con un texto
particular, con una discusión o una relación social determinada. Este conocimiento también
puede identificarse con un conocimiento general sobre el mundo y las acciones humanas.
Buenos ejemplos serían los estereotipos, rasgos o comportamientos.

El conocimiento sociocultural puede hacerse explícito, resultando indistinguible de otros


conocimientos como el del discurso. En general, este conocimiento es necesario para generar
una primera impresión de una persona que acabamos de conocer.

- ¿Cómo se procesa el conocimiento?

Podemos asumir que la formación de un conocimiento se produce como consecuencia de


toda la integración de la información que se dispone de ella o de situaciones similares ya
vividas. Hay dos posiciones que han asumido la manera en que estos tipos de conocimiento
tienen lugar y que se corresponde con dos posiciones teóricas más generales.
19

• La primera posición obedece a modelos interactivos del procesamiento de información.


Los autores sostienen que bajo esta integración pueden distinguirse dos tipos de procesos
que mueven distintos tipos de conocimiento: procesos de arriba-abajo que optan por un
conocimiento más general (esquemas, estereotipos y categorías), y procesos de abajo-
arriba, que introducen conocimiento más específico (atributos o conductas). Estos
procesos se producen serialmente, asumiéndose que se otorga mayor peso inicialmente a
los procesos basados en un conocimiento general.

• La segunda posición proviene del conexionismo y ha sido defendida por autores como
Kunda y Thagard (1996). Estos investigadores proponen que el procesamiento de la
información general y la información específica se produce de manera simultánea. Así, el
conocimiento sociocultural formado por estereotipos, rasgos y comportamientos puede
representarse como unidades (nodos) en una red conexionista. Para cada característica que
una persona haya observado, se produce un enlace excitatorio entre la unidad que
representa la característica y una unidad especial “observada”. De esta forma, la
información observada se distingue del conocimiento inferido y se garantiza que reciba
una activación más fuerte.

Algunos autores han propuesto que el conocimiento se distribuye a través de redes semánticas
en las cuales los adjetivos de rasgo se encuentran situados en los nodos
centrales. Si los rasgos menos frecuentes están conectados con múltiples comportamientos y se
asume una cantidad constante de activación que se divide por el número de conexiones, entonces
la activación debería expandirse o extenderse a través de la cadena de una forma asimétrica. Dado
que la activación es inversamente proporcional al número de nexos, cualquier activación del nodo
central produciría un “efecto ventilador” en el que cada enlace recibe sólo una porción de la
activación entera. Un ejemplo: Si un rasgo (sociable) está conectado a tres comportamientos
(charlar, fiesta y visitar amigos), activar ese rasgo daría lugar a un patrón en el que cada conducta
recibe un tercio de la activación normal. Por el contrario, la activación de cualquiera de las
conductas (por ejemplo, charlar) se extendería por entero al único rasgo (sociable) al que está
asociado.

La formación de impresiones depende en gran medida del contexto. Se ha constatado, por


ejemplo, que las mismas conductas pudieran tener múltiples interpretaciones dependiendo de
quién las realice.

De una manera consensuada se admite que en la formación de impresiones se producen dos


tipos de procesos: por un lado, unos procesos automáticos, que se realizan sin esfuerzo y se
realizan muy rápidamente sin conciencia o intención y, por otro, procesos controlados, más
elaborados y que requieren de mayor atención, esfuerzo y conciencia. Diversos autores han
identificado algunos factores que pueden desencadenar estos procesos controlados como son la
naturaleza de la tarea, la naturaleza de la información o la propia motivación de la persona que
percibe.
20

Conocimiento y representación

En el estudio de la mente, los científicos cognitivos han indagado en la vida mental, a la


que consideran entre otras cosas, un cúmulo de conocimientos que se distribuyen en percepciones,
emociones, interacciones sociales y habilidades cognitivas. La mente suele adoptar diferentes
formas para desarrollar estos conocimientos como metas, imágenes mentales, conceptos y otras
entidades. Todos los elementos de la vida mental están muy ligados a lo que denominamos
representación. Si aceptamos la premisa de que el conocimiento puede adquirirse, entonces el
conocimiento puede almacenarse bajo una forma de representación mental.

Hay un importante número de trabajos que han tratado de abordar la representación mental
y sus tipos de diferentes maneras:

• Jorna, por ejemplo, realiza un estudio exhaustivo de la representación del conocimiento


acerca de las teorías más relevantes de la representación mental como la teoría de la
representación de Marr, imágenes mentales de Kosslyn, Teoría de la memoria de Tulving
o la ACT de Anderson.
• Markman prefiere diferenciar entre las estructuras que subyacen a la representación
(Modelos de redes, conceptos,percepción).

Para nuestros objetivos, seguiremos la organización expuesta por Kintsch (1998) por varias
razones: Porque establece diferentes niveles jerárquicos entre las representaciones, lo que facilita
una secuenciación de los tipos de representaciones; porque alude a que actividades mentales como
pensar, comprender o percibir presuponen, de alguna manera, representación; una tercera razón
es que tiene en cuenta el hilo argumental de que nos hemos servido en el tema 1, esto es, toma en
consideración la evolución de los homínidos.

- Sobre cómo la mente representa el mundo

Kintsch (1998) considera que los objetos y sucesos en el ambiente son caracterizados bajo
ciertas propiedades y relaciones. Percepción, comprensión y resolución de problemas generan
modelos mentales de los objetos y sucesos del ambiente y operan sobre estos modelos. El sistema
cognitivo transforma las estructuras originales, uniendo la información actual con la experiencia
previa del organismo. Los modelos mentales generados son isomórficos con la estructura del
ambiente y proporcionan una base para la interacción de un organismo con su ambiente.

El ambiente, por tanto, raramente nos proporciona toda la información necesaria para
comprender una acción. Sin embargo, a representación del conocimiento hace posible coordinar
el conocimiento y la experiencia de que se dispone por un lado y las demandas del ambiente por
otro, para orientar la acción mental. Solo en un nivel de representación mínimo, la información
relacionada con la realidad ambiental permite tan sólo cumplimentar o rellenar lagunas de
información o información muy poco específica. En el resto de los casos, los estímulos
ambientales deben ser transformados en formas muy complejas para asegurarse una
representación óptima.
21

- Tipos de representación mental

a) Representaciones procedimentales perceptivas directas: Para Kintsch, estas formas


de representación incluyen sistemas innatos y existen de la misma manera que existen
mecanismos biológicos diferentes. Sin embargo, estas formas de representación son
susceptibles de ser modificadas a través de la experiencia. Las respuestas a cambios
ambientales pueden modificarse mediante el aprendizaje perceptivo y procedimental.
La repetición y el refuerzo determinan el proceso de adquisición dentro de las
restricciones impuestas por las habilidades del organismo y las demandas del
ambiente. Este nivel de representación es compartido por todos los animales.

b) Representaciones episódicas: Representaciones de experiencias de sucesos que han


sido generalizadas y cuya función es la de orientar la acción y anticipar posibles
cambios en el ambiente. Incluye un cierto nivel de consciencia o autoconsciencia,
permitiendo el análisis y la interrupción de sucesos perceptuales. Esta memoria
también se comparte con todos los animales superiores y el
conocimiento/aprendizaje tiene lugar a través de la experiencia de naturaleza
incidental, intencional y dirigida a metas. La cognición en este nivel es analítica y
reflexiva, pero todavía muy limitada por el ambiente. Es una memoria de sucesos
“pura”. Kintsch mantiene que la memoria de sucesos humana es diferente de esta
memoria de sucesos “pura”, ya que los humanos pueden codificar su memoria de
manera lingüística.
c) Representaciones no verbales, de imágenes y de acción: Este tipo de representaciones
son sensoriomotoras en su naturaleza pero de carácter intencional, aunque no son
indispensables para los propósitos de comunicación, son especialmente indicadas
para la comunicación de emociones. Para que se produzcan representaciones de este
tipo se requiere de una comunidad social establecida.

d) Representaciones de narraciones orales: Corresponde a uno de los dos tipos de


representaciones lingüísticas. Estas son verbales pero no abstractas. Se caracteriza
por su estructura lineal y por su tipo de procesamiento en un nivel analítico y
gobernado por reglas. Mucho de lo que conocemos y lo que aprendemos es a través
de la estructura narrativa, como es por ejemplo, nuestro conocimiento histórico y
cultural.

e) Representaciones abstractas: Estas representaciones se requieren para generar


categorías, pensamiento lógico, argumentación formal, deducción, cuantificación y
evaluación formal. Los símbolos abstractos son dependientes de la invención gráfica
visual. Si asumimosque partedel conocimiento se adquiere, este nivel de
representación requeriría de la instrucción.

Grados del conocimiento: el experto frente al novato

De manera general se asume que, atendiendo al grado de generalidad, las personas


contamos con dos tipos de conocimiento. Uno es más general y universal mediante el cual puede
22

accederse a un conocimiento general sobre el mundo. El otro es un conocimiento específico sobre


un determinado dominio, más preciso y difícil de compartir.

El primero de los tipos de conocimiento, el conocimiento general, se refiere al que versa


sobre el mundo, las acciones y las necesidades humanas, las motivaciones, las actitudes y los
valores. Tal conocimiento nos permite adaptarnos al ambiente ya que, gracias a él, podemos
explicar y predecir muchos sucesos y comportamientos.

El tipo de conocimiento específico, por el contrario, es un campo abonado sólo para el


especialista, cuyo nivel de conocimiento se escapa de aquel que solo posee el más general. Este
conocimiento está formado por conocimiento tanto explícito como implícito y no siempre se ha
delimitado de manera precisa.

- Concepto de experto

Tras los estudios realizados con una metodología determinada, se ha confirmado que los
expertos son capaces de superar ciertas limitaciones cognitivas dentro de su dominio específico.

En este sentido, un número importante de estudios que compran expertos y novatos,


concluyen que los expertos, además de poseer una mayor cantidad de conocimiento en un
dominio: sobresalen fundamentalmente en ese dominio, perciben patrones más amplios de
información, agrupan la información para así poner en juego menos recursos, son más rápidos
que los novatos en el uso de habilidades o destrezas y resuelven problemas más rápidamente y
con un margen de error menor. Poseen una memoria a corto plazo y a largo plazo superiores,
perciben y representan un problema en un nivel más profundo, emplean mucho tiempo en
analizar cualitativamente un problema.

- Proceso de adquisición de conocimiento. El paso de novato a experto.

Puede pensarse que este proceso de adquisición es gradual y presumiblemente lineal. Pero
no parece que sea así. En un dominio específico como por ejemplo el cínico, diversas
investigaciones revelaron que a lo largo del tiempo, el crecimiento del desarrollo médico no era
lineal, sino en forma de “U”, lo que se ha denominado “efecto del intermedio”. Este efecto
revela, que aquellos sujetos con un nivel de conocimiento intermedio obtienen un importante
descenso en su patrón de rendimiento respecto a los novatos y a los expertos. Este hecho se
justifica ante la búsqueda más extensa y exhaustiva de lo que anteriormente se hacía como
consecuencia de un mayor nivel de conocimiento, la forma de estructurarlo no está tan altamente
organizada como la de los expertos.

Parece ser que el nivel de conocimiento no es la única diferencia entre expertos y novatos.
También lo es el conocimiento estratégico o el grado de pericia. Según Lesgold y cols. (1988),
23

la adquisición de este conocimiento estratégico es una transición desde un procesamiento


perceptual a un procesamiento cognitivo. El paso de novato a experto consiste en la
construcción de versiones cada vez más refinadas de esquemas que se desarrollan a través
de una forma “cognitivamente profunda” degeneralización y discriminación. Este proceso
conllevará inevitablemente, períodosen los que el procesamiento más profundo, no produzca un
resultado mejor.

Una tercera explicación es la propuesta por Patel y Groen (1991). Exponen que el experto ha
desarrollado esquemas que filtran el material irrelevante y si ese mecanismo no está presente, la
información irrelevante se procesará generando una búsqueda innecesaria. Al procesar toda la
información la exigencia en el recuerdo será mayor y peor su rendimiento. Por ello sugieren tres
fases en la adquisición de este conocimiento o pericia el experto: el desarrollo de
representaciones adecuadas de estructuras de conocimiento, el desarrollo de formas para
distinguir entre información relevante y no relevante y aprender cómo usar esas representaciones
relevantes de forma eficiente.

Arocha y Patel (1995) afirman que el efecto del intermedio sugiere cambios cualitativos
durante el proceso de adquisición de conocimiento; así, los intermedios tienen que enfrentarse
con tener que reaprender en el “mundo real” lo que han aprendido en su formación. Hay dos
fases de aprendizaje: aprendizaje basado en reglas y aprendizaje basado en la experiencia.

- Explicaciones e implicaciones sobre el conocimiento en los expertos

Los autores han propuesto diversas vías por las que se pueden explicar las diferencias entre
un experto de otro que no lo es en un determinado dominio:

• El papel de la memoria en el conocimiento del experto: La explicación más frecuente se


ha dirigido hacia el tipo de representación que se genera en la memoria del experto. Una
de ellas fue sugerida por Chase y Simon (1973), quienes sostuvieron que la diferencia
principal se debía a la facilidad de acceso inmediato del experto al conocimiento relevante,
así como la forma de almacenar la información mediante empaquetamientos más
independiente y complejos en la MCP. Esta explicación ha sido posteriormente
cuestionada, lo que llevó a Chase y Ericsson a proponer la teoría de la memoria hábil.
Según esta teoría, los expertos podrían haber desarrollado una memoria hábil para
almacenar y recuperar rápidamente en la MLP la información de ese dominio específico.
El momento clave es el almacenamiento de la información, en el cual los expertos
asocian una serie de pistas de recuperación con significado.
A esta memoria Ericsson y Kintsch le darían posteriormente el nombre de memoria
de trabajo a largo plazo. Proponen que una parte de la memoria de trabajo incluye un
mecanismo adicional basado en el uso estratégico del almacenamiento de la información
en la MLP. La MT-LP supone un mecanismo añadido al almacenamiento temporal de la
información donde se almacena en
una estructura estable, aunque el acceso de esta sólo se mantenga de manera temporal a
través de señales/indicios que están en la MT-CP. La MT-LP se adquiere en dominios
específicos para satisfacer las demandas de almacenamiento y recuperación y se desarrolla
24

dentro de un marco de conocimiento que resulta significativo para el sujeto.

• Organización del conocimiento: La representación mental parece construirse, en el caso


de los expertos, por estructuras de conocimiento de alto orden, dando lugar a un
conocimiento más abstracto que se corresponde con categorías, leyes y principios
generales. Los sujetos avanzados poseen una representación del dominio de conocimiento
similar a la estructura teológica, al contrario que los intermedios y los principiantes,
quienes estructuran su conocimiento de forma causal.

• Relevancia del conocimiento: Arocha y cols. Consideran que la superioridad en el


rendimiento de los expertos no reside tanto en la cantidad de información recordada, como
en la relevancia que esa información tiene para los objetivos de la tarea específica y el
nivel de abstracción de esa información.

• El papel del dominio: Las habilidades de experto no pueden explicarse como diferencias
individuales en el momento de iniciación del experto ni como efectos generalizados,
aplicados a muchos dominios.

El conocimiento se escapa de la mente

Resulta plausible pensar que la socialización y la cultura han sido posibles gracias a las
capacidades cognitivas humanas, pero también cabe pensar, que aquellas están contribuyendo en
el desarrollo ontogenético y filogenético de estas capacidades. El conocimiento cumple una
función esencial en la comunicación y en la cultura y a la inversa. Si bien la primera nos facilita
las claves “de acceso” al proceso de comunicación, la cultura nos ofrece e contenido, el lenguaje
y los convencionalismos.

Algunos autores como Burke (2000) han optado por ofrecer un enfoque más social y
acorde a cómo se ha desarrollado el conocimiento en ese entorno, especialmente en la cultura
europea. Un punto muy importante que resalta este autor es que la sabiduría no es acumulativa,
sino que fluctúa a lo largo del tiempo. Incluso en el caso del conocimiento se producen progresos
y retrocesos.

Cualquier definición de conocimiento que pretenda ser suficientemente amplia debe


incluir la información verbal, pero también aquella que implique prácticas no verbales (arte de
cocinar, curar, la caza…). La cuestión que cabe plantearse aquí es de dónde procede el
conocimiento que nos ha sido legado. En toda cultura hay una
pluralidad de conocimientos, que incluye tanto el conocimiento más abstracto y científico, como
un conocimiento más local y relacionado con la vida cotidiana.

Hacia dónde vamos: De la sociedad de la información a la sociedad delconocimiento

La geografía del conocimiento, concentrada en sus focos y sedes, ha dado paso a una nueva
fase de desarrollo social. Esta nueva fase se caracteriza porque se rompe, al menos en parte, con
el espacio físico del conocimiento.
25

La situación actual es el resultado de la evolución de dos tecnologías, la informática y las


comunicaciones. Las TICs han tenido un desarrollo inusual que supera cualquier otro. Su
evolución ha sido rapidísima y podría sintetizarse según Rivero (2002): a) aparece la telefonía b)
se inventa el ordenador electrónico c) aparecen las redes de ordenadores que permiten conectar
máquinas entre si d) se integran e ordenador y los sistemas de ordenadores con las redes de
telecomunicaciones e) aparece internet f) surge la telefonía móvil.

Esta fase de desarrollo social se ha denominado sociedad de la información. En este


período, el patrón del conocimiento ya no es el problema. El problema ahora es lacantidad ingente
de información a la que puede accederse. La cuestión clave está en el filtrado, en otras palabras,
en generar conocimiento. La sociedad de la información se desplaza así a la sociedad el
conocimiento.

La sociedad del conocimiento podría ser definida como aquel estadio de desarrollo en el
que la sociedad detecta el valor estratégico del conocimiento, loaprecia y lo trata como uno de sus
activos más importantes.
26

Tema 3: ¿La mente o la experiencia? El continuo debatesobre la adquisición de


conocimiento

El enfoque innatista/racionalista

Por lo general, bajo esta perspectiva se asume que, de forma inmediata, tanto el
mundo viviente como el de las máquinas disponen de una forma y estructura
predeterminada. Esto afecta tanto a las estructuras físicas como mentales de los
organismos. Puede inferirse que el desarrollo del conocimiento supone una
materialización automática que sigue su curso natural. Para entender el innatismo
seleccionaremos tres momentos significativos en su desarrollo: la doctrina de Platón, la
defensa racionalista del innatismo de los siglos XVII y XVIII y el resurgimiento
contemporáneo del innatismo en las ciencias cognitivas, especialmente en el lenguaje y
el desarrollo.

Ya Platón razonaba que no era posible derivar el conocimiento de la experiencia,


que es incierta, fragmentaria e incompleta. Decía que el conocimiento tenía que residir en
el sujeto desde la concepción, puesto por la mano de Dios y que “salía a la luz” por medio
de una educación basada en el discurso racional (racionalismo clásico).

A lo largo del siglo XX, fueron surgiendo nuevos enfoques pero con una
concepción muy próxima a los más clásicos.

- Punto de partida: Conocimiento como recuerdo de ideas innatas

El racionalismo (innatismo) concibe el conocimiento como universal y necesario


a la vez que justifica la existencia de un conjunto de conocimientos y de mecanismos de
conocimiento innatos que permitan llegar a conocer cómo es esa realidad. El principio
básico de la doctrina racionalista-innatista proviene de una vieja idea originaria de la
antigua Grecia. En aquella época, dicho principio poseía una referencia directa a lo que
se llama el “problema del cambio”, dando lugar a una teoría del conocimiento que ponía
en relación inmediata una doble cuestión: la del cambio ontológico atestiguado por los
sentidos, esto es, su no-permanencia y particularidad y la de la universalidad de las ideas
que tenemos sobre dichos objetos.

La tesis de Heráclito de que todo fluye fue respondida por Parménides con la idea
opuesta, de que todo está en reposo. Fue Platón quien introdujo una distinción ontológica
versus epistemológica, hasta entonces no expresada. En el plano ontológico, si bien
aceptó la doctrina del flujo, convencido como estaba de que todos los objetos sensibles
se hallan en continuo cambio, ello no explicaba por sí mismo, el que un conocimiento
necesario y universal pudiese provenir de las impresiones sensoriales de los objetos
siempre en movimiento y contingentes y particulares. Esta incredibilidad de que el
conocimiento fiable, verdadero, necesario y universal pueda condenarse a partir de las
experiencias de los sentidos, se conoce como argumento de la pobreza del estímulo. Para
Platón, las ideas son innatas y el conocimiento consiste simplemente en traer a la
consciencia el saber innato.
27

Otra contribución importante de la psicología de Platón fue la división del alma


en los dominios cognitivo, afectivo y apetitivo. Para Platón, los determinantes innatos de
la motivación y de la conducta se manifiestan en la parte afectiva y apetitiva de la mente.
Por ello, debemos hacer notar, que la concepción racionalista de Platón no olvida por
completo los aspectos dinámicos de la conducta humana.

Con el paso del tiempo llegaría el racionalismo moderno de la mano de Descartes.


Este concluyó que el conocimiento verdadero no podía ser una consecuencia de la mera
percepción de los objetos y acontecimientos, dado que ni los objetos son lo
suficientemente estables ni las capacidades sensoriales lo suficientemente perfectas para
conseguirlo. De ahí que el conocimiento verdadero deba empezar por una intuición clara
y distinta de esencias o naturalezas simples. Descartes es netamente platónico, pero ante
las objeciones de sus contemporáneos se vio obligado a precisar el sentido de dicho
innatismo afirmando que por “ideas innatas” no entendía otra cosa que la “facultad de
producirlas”. De este modo, para él, las denominadas ideas no están siempre presentes en
la mente humana, sino que lo están en potencia. El argumento de descartes se centraba en
que ninguna de las impresiones sensoriales particulares puede dar cuenta de los
conocimientos universales con los que aquellas se relacionan. Esta argumentación,
denominada doctrina de la “pobreza de estímulos”, va a influir de manera decisiva en la
psicología racionalista posterior.

El progreso que conoció la teoría biológica durante el siglo XIX, dio un nuevo
impulso a las ideas sobre el origen innato del conocimiento y su expresión en la conducta
durante todo el siglo XX. La obra de Darwin (1859) puso de manifiesto la estrecha
relación existente entre la especie humana y el resto del reino animal.

- El innatismo contemporáneo

Esta exposición de la “historia” del pensamiento racionalista-innatista tiene como


objeto resaltar que muchos de los argumentos que se expusieron acerca de las ideas
innatas del siglo XVII y XVIII han estado plenamente reflejadas en las disputas de las
teorías psicológicas del siglo XX y aún se continúa debatiendo en la actualidad.

Uno de los vínculos más directos de las teorías psicológicas contemporáneas con las
nociones históricas de las ideas innatas acerca del conocimiento se ha expresado enel área
del lenguaje humano. El lenguaje, según Chomsky, es conocimiento. Esta visión innata
desarrollada por Chomsky generó una revolución en la lingüística de la segunda mitad
del siglo XX.
La crítica de Chomsky a sus predecesores se basaba en que no había apreciado la
naturaleza generativa del lenguaje. Es decir, la habilidad que el ser humano tiene para
interpretar una variedad infinita de estímulos verbales y producir una variedad infinita de
oraciones verbales a partir de un conocimiento finito. El hecho de que desarrollemos esta
habilidad desde niños, en un período de tiempo extraordinariamente corto y sobre la base
de una experiencia lingüística limitada e imperfecta.
28

Dicha evidencia llevó a Chomsky a argumentar que sólo partiendo de la base de que
el niño nace no sólo con un conocimiento de los principios más restrictivos de la
gramática universal, sino también con la predisposición de utilizarlos al analizar los
enunciados que oye a su alrededor, se puede explicar la adquisición del lenguaje.

Chomsky, no sólo elabora un modelo para el lenguaje, sino que intenta extenderlo a
otros procesos de la mente humana. Recurre a la metáfora de los órganos físicos, que se
pregunta cómo aprenden. Si se asume que no se derivan de la experiencia, entonces
¿Por qué los órganos mentales como el lenguaje, la cognición o el razonamiento si deben
plantearse?

• La propuesta de Fodor y Chomsky

Fodor sostiene que la mente es modular, que está formada por módulos
genéticamente especificados que funcionan de forma independiente ya desde el
momento del nacimiento. Estos módulos innatos definen dominios especializados en
el cerebro por medio de los cuales se produce conocimiento. Están informativamente
encapsulados, es decir, las demás partes del cerebro no pueden influir ni tener acceso
al funcionamiento interno de un módulo, sólo a sus salidas. Sus características
generales podrían resumirse en los siguientes puntos:

a) Como rasgos básicos, los módulos están constituidos por una arquitectura
neuronal fija, especificada genéticamente por las peculiaridades
neurofisiológicas de la especie. Son específicos de dominio y son rápidos,
autónomos, obligatorios y automáticos.
b) La función básica más importante de los módulos es introducir información
en el sistema cognitivo humano
c) Su evolución es estática, el número de módulos permanece fijo a lo largo del
desarrollo, siendo también permanentes las características idiosincrásicas de
cada módulo
d) No existe relación entre módulos y dominios
e) La dirección del procesamiento es abajo-arriba, dirigidos por los estímulos e
insensibles a las metas cognitivas.

Por tanto, en la mente modular propuesta por Fodor, las representaciones


entran en el sistema en forma de símbolos o de cadenas de símbolos y son
analizados por procesos informáticos que están “cableados” por instrucciones
genéticas en subsistemas discretos, denominados “módulos”. Analizan las
entradas sensoriales, caracterizadas por tipos perceptivos o de información
concreta, tales como número, lenguaje, información especial… Los módulos son
impulsados por la entrada, son muy rápidos. Los resultados del análisis modular
pasan a sistemas centrales donde se llevan a cabo tareas cognitivas de nivel
superior. Fodor divide la mente/cerebro en dos partes muy diferentes: losmódulos
innatamente especificados y los procesos centrales no modulares responsables del
razonamiento deductivo entre otros.
29

Esta arquitectura funcional de Fodor difiere de la de Chomsky. Para


Chomsky, la mente es modular y está compuesta de sistemas discretos con
propiedades específicas. Estos sistemas actúan unos sobre otros y están
gobernados por sistemas centrales de alguna clase. La distancia con Fodor reside
en la condición de legibilidad, en el sentido de que los otros sistemas deben ser
capaces de “leer” las expresiones del lenguaje y usarlas como “instrucciones” para
el pensamiento y la acción.

Existe alguna evidencia a favor de esta tesis modular procedente de


estudios que han evaluado las lesiones o accidentes que han sufrido adultos
normales en el cerebro. Los adultos que han sufrido alguna lesión cerebral
presentan disociaciones en las que algo está afectado sin que otras partes lo estén.

La mente modular de Fodor ha llegado a influir en las teorías sobre


inteligencia, especialmente en lo que afecta al funcionamiento de procesos
ejecutivos y operaciones mentales separadas, considerándose también
universales. Gardner propone una serie de módulos en su famosa teoría de
“inteligencias múltiples”. También ha contribuido en la forma de concebir
algunos aspectos del desarrollo cognitivo y explicar bajo su influencia aspectos
tales como el supuesto carácter innato de la sintáxis, de la semántica, de la teoría
de la mente, o ciertos aspectos del conocimiento de los niños relacionados con la
física.

Karmiloff-Smith considera que, si un cerebro adulto completamente desarrollado


pueda incluir un número de estructuras de tipo modular, de esto no se sigue
necesariamente que los módulos deban estar especificados innatamente. Según este autor,
los módulos del adulto podrían ser el resultado de un proceso gradual de desarrollo. Esta
propuesta viene de la mano de un innatismo representacional que delimita aquello que
debería estar innatamente pre-especificado en términos de restricciones computacionales
y temporales, dejando un amplio margen para la actuación de los procesos epigenéticos.

Las posiciones innatistas son también frecuentes en el ámbito del desarrollo. Una
de sus formulaciones teóricas más usuales ha sido la de considerar la maduración como
una progresiva diferenciación e integración de estructuras físicas y psicológicas que,
determinadas genéticamente, se extienden a través de grados y fases evolutivas en el curso
del tiempo.

Aún en el siglo XIX se tenía la idea de que los niños eran simples adultos en
miniatura. Esta teoría se apoyaba en la hipótesis del “preformismo”, según la cual en la
diferenciación estructural del embrión todos sus caracteres son producidos por el
desenvolvimiento de caracteres ya presentes en el. El desarrollo era concebido como una
simple cuestión de crecimiento de partes y características que ya están ahí y son
trasferidas de padres a hijos.
30

Con la llegada de algunos estudios el modelo preformista fue reemplazado por la


idea de predeterminismo. Aunque el nuevo modelo sostenía que los caracteres genéticos
permanecían en el germen material, su progresiva expresión en el organismo maduro
era producto de una secuencia más compleja de transformaciones e integraciones. Esta
concepción fue dominante en la primera mitad del siglo XX. Se pensaba que los procesos
madurativos venían dados por una buena alimentación. Las dos objeciones más
importantes que se han realizado han sido que si bien el desarrollo físico es continuo, no
parece tan claro que el psicológico lo sea igualmente y que algunos procesos de
aprendizaje pueden modificar las capacidades humanas.

Pero estas teorías acabaron dejando paso a otras más recientes con un importante
giro en su concepción. Para Richardson (1998/2001) este giro consiste en que más que
describir el cambio del desarrollo “hacia adelante” teniendo en cuenta la edad, se analiza
“yendo hacia atrás”, buscando la competencia cognitiva en niños con edades cada vez
más tempranas. La idea que subyace a esta perspectiva es conocer idealmente con qué
habilidades parten los humanos en el momento de nacer. Se han desarrollado dos
herramientas metodológicas: el método de la recuperación tras la habituación y el método
de las preferencias. Se realizaron estudios con bebés y estas investigaciones sobre
cognición en la primera infancia sugieren que el conocimiento comienza a emerger muy
pronto en la vida y que constituye una buena parte de la dotación innata de los humanos.
El conocimiento innato puede surgir a través de la maduración o dispararse por la
experiencia, pero el aprendizaje y el procesamiento no parecen modelarlo.

Autores como Spelke, Brienlinger, Mancombre y Jacobson (1992) consideran que


los bebés nacen con cuatro restricciones:

• La continuidad (los objetos se mueven solamente por vías conectadas)


• La solidez (Los objetos se mueven sólo por vías no obstruidas)
• La gravedad (los objetos se mueven hacia abajo en ausencia de un soporte)
• La inercia (Los objetos no cambian brusca y espontáneamente su movimiento)

Spelke también argumenta que los bebés pequeños parecen tener un conocimiento
sistemático en cuatro dominios (física, psicología, números y geometría). En todos los
casos expuestos los distintos autores atribuyen a la selección natural la aparición de los
mecanismos básicos que dan lugar a ese conocimiento.

También se ha investigado sobre el procesamiento de rostro. Los bebés parecen


desarrollar de manera muy rápida este procesamiento y siendo capaces de distinguir el
rostro materno muy pronto. Otro tema es el relativo a la imitación en la infancia. Los
autores lo interpretan como una capacidad “innata” que funciona como un medio de
acrecentar el conocimiento de los otros repitiendo sus acciones o como medio de
comunicación social.
31

La idea de que el desarrollo sociocognitivo esté restringido por fundamentos


establecidos genéticamente y presentes en el momento del nacimiento ha seguido siendo
muy popular en los últimos años. Autores como Mehler y Dupoux (1994) señalan que los
bebés parecen mostrar una preferencia por los sonidos del habla ante otros sonidos
acústicos. Esto se podría interpretar como que los niños nacen con ciertas “capacidades
interpersonales innatas”.

Desde otra perspectiva también se ha dado pie a pensar que los bebés nacen con una
teoría de la mente. En niños de tres o cuatro años se produce un salto en la comprensión
de las interacciones de otras personas. Los niños alcanzan esta habilidad mediante un
proceso de maduración biológica que podría concretarse en un módulo de la teoría de la
mente especializado.

Otras aportaciones, aunque más extremas, provienen de la idea de que las propiedades
sociales y culturales más generales y comunes de los humanos son el resultado de la
selección natural. Esta posición se ha asentado desde hace más de treinta años en una
nueva disciplina denominada sociobiología. Según este modelo tan restrictivo, los niños
simplemente maduran hacia el papel que su dotación genética ha decidido por ellos: un
platonismo social ideal

Todos estos modelos no están exentos de críticas. Las más comunes hacia la corriente
innatista se dirigen hacia su ambigüedad. Los teóricos innatistas suelen ser ambiguos
cuando tratan de abordar la naturaleza de la forma innata o sobre restricciones genéticas,
utilizando metáforas de fuerzas formativas, más que estructuras, variables y relaciones
sustantivas identificables. Como consecuencia de esta ambigüedad teórica, se produce
también una importante fragmentación. Así, las teorías innatistas contemporáneas
difieren en el grado y la naturaleza de innatismo.

- Situación en el continuo mente-experiencia e implicaciones educativas

El supuesto fundamental de esta posición teórica es que hay conocimientos


preformados en cierto modo que restringen u orientan la obtención, elaboración y
desarrollo del conocimiento. Si posición en el continuo mente-experiencia se situaría
radicalmente en el extremo mente.

La educación se concibe no solo como formación y no solo afecta a la adquisición


de conocimiento, sino a la formación de la mente. Si el conocimiento ya está en la mente
y conocer no sería más que recordar o redescubrir, su acceso solo se facilitará a través del
razonamiento y de la reflexión. La forma idónea de enseñar se obtendría mediante un
método de preguntas-respuestas similar al diálogo socrático y que podrían llevar a cabo
los profesores.
32

El enfoque asociacionista

Los empiristas argumentan que todas nuestras ideas provienen de la experiencia


y de la asociación. Existen diferentes tipos de asociacionismo: podría distinguirse entre
un asociacionismo clásico (Hume), un asociacionismo neurológico o un asociacionismo
conductual.

El debate entre el asociacionismo y el innatismo se sitúa en las restricciones


formales que esos principios innatos ejercen sobre la génesis de las ideas y de las
estructuras de asociaciones que permitan elaborarlas. Como señala Katz (1981) sobre las
hipótesis empiristas, los principios innatos son puramente recursos combinatorios para
situar conjuntamente ítems de la experiencia

- Orígenes y desarrollo

El conocimiento es más probable que se haya obtenido por medio de la observación


y la experimentación sistemática que desde el diálogo socrático. En la antigua Grecia,
algunos filósofos especularon con la idea de que la sensación y la percepción eran las
únicas fuentes de conocimiento. Pero realmente, este punto de partida se inicia con el
pensamiento aristotélico y en su oposición al mundo de las ideas defendido por Platón.
Si bien Aristóteles comparte con su maestro la existencia de estas ideas universales,
discrepa en dos de sus características. Por un lado, niega que las ideas tengan una
existencia real independiente de la mente y desde el punto de vista psicológico, niega
que dichas ideas sean innatas en la mente humana. De ser innatas se desvanecería la
posible conexión entre ellas y el “mundo real” de la experiencia sensible.

Aristóteles postula una facultad especial en el psiquismo, la facultad del intelecto o la


razón, el “intelecto agente”, el cual, operando sobre la experiencia sensible “abstrae” las
“especies inteligibles” de las cosas, las cuales dan lugar a los conceptos universales.
Por tanto, los conceptos universales son producto, en primer lugar, de la experiencia
sensorial y, en segundo lugar, de un proceso de abstracción.

Hay dos aspectos fundamentales en la ruptura de Platón y Aristóteles. El primero de


ellos concierne a lo que se podría denominar la “cuestión del método” o del camino por el
que se origina el conocimiento. Frente al método racionalista de Platón, Aristóteles
propone el método empirista e inductivo. El segundo aspecto tiene que ver con los
“mecanismos” a través de los cuales elaboramos el conocimiento. Aristóteles se
introduce en el campo de la memoria, en cuanto que esta registra y almacena en la mente
las asociaciones que suceden en el mundo externo. Aristóteles introduce la noción de
asociación mental, que se entiende como el registro y almacenamiento en la memoria de
asociaciones extraídas del mundo real. Es importante destacar que el “empirismo
aristotélico” se circunscribe exclusivamente en los orígenes empíricos del conocimiento
y a su aplicación a los dominios del aprendizaje y de la memoria. Su propuesta parte de
que las sensaciones y percepciones tomadas de la realidad externa, información la cual se
combina con los aspectos organizativos y generales internos de la mente, dando como
resultado la formación de ideas de alto nivel, conceptos y procesos.
33

La doctrina de Aristóteles fue pasando por una variedad de formulaciones y


reinterpretaciones hasta desarrollarse plenamente con la llegada de los
empiristas/asociacionistas ingleses de los siglos XVII y XVIII como John Locke y David
Hume. Para ellos, la asociación es la sustancia misma de la cognición, la estructura misma
de la mente

No obstante, la obra de Hume (1739-1740) se considera como la verdadera iniciadora


del asociacionismo. Hume siguió a Hobbes y a Locke en la doble tesis que caracteriza el
movimiento empírico: la del origen meramente empírico de todos los contenidos de la
mente humana y que toda idea o contenido mental complejo surge por composición de
otros más simples. Por tanto, el conocimiento humano está formado de manera exclusiva
por impresiones (información) que accede a través de los sentidos. Hume formuló las
leyes de la asociación mental, tomando como base la semejanza, la contigüidad espacial
y la relación causa-efecto entre los objetos y acontecimientos. Las inferencias que se
realizan desde la experiencia son más bien el resultado de las costumbres o de los hábitos
que de la razón. Esta última no puede “conocer” la realidad, solo tiene conocimiento de
las pasiones internas. De esta manera, el conocimiento conecta con los sentimientos
formando la creencia, que es lo que distingue al verdadero juicio de las ficciones de la
imaginación.

- El conductismo clásico

El conductismo fue asimilando e integrando la influencia de otros enfoques que


forjaron su desarrollo posterior. Uno de ellos vino de la psicología objetiva rusa, el
condicionamiento clásico, descubierto por Pavlov. Otro fue el conexionismo de
Thorndike, cuyos estudios sobre la conducta de ensayo y error desembocaría más tarde
en el condicionamiento operante. Nos interesa destacar el aspecto metodológico, dado
que Watson iba a adoptar el método del condicionamiento clásicodesarrollado por Pavlov.
A partir de la formulación watsoniana, con el condicionamiento se va a explicar todo el
aprendizaje animal y humano sin necesidad de apelar a los estados mentales de ningún
tipo.

El conductismo prefirió quedarse únicamente con factores netamente periféricos, los


estímulos y las respuestas, estableciéndose de esta forma el asociacionismo meramente
conductual.

Thorndike sostuvo que había que estudiar la conducta animal en lugar de la conciencia
y que el método utilizado por él se podía generalizar al hombre. En sus aportaciones más
significativas destaca la ley del efecto o la doctrina de la conciencia innecesaria para el
aprendizaje. Watson y Thorndike presentaban semejanzas, ya que el primero postula que
cuando un estímulo y una respuesta ocurrían juntos, la asociación entre ellos se fortalecía.
Watson rechazó la ley del efecto pero adoptó la ley del ejercicio que junto con la de la
recencia, pasaron a construir en su doctrina las leyes básicas de dicho proceso.
34

Watson trató de reformular el método, los problemas y objetivos de la psicología. Su


propuesta sustituía a la introspección y los métodos subjetivistas por el utilizado por
el condicionamiento clásico. Su reformulación se convirtió en patrimonio común de los
psicólogos americanos, dando lugar al conductismo clásico que prevaleció hasta los años
30. Después de Watson se desarrollaron formas de conductismo que carecieron de un
núcleo teórico común. Si no existe un marco conceptual único, veamos que tienen en
común las diversas formas de conductismo.

La característica más peculiar del conductismo es su concepción asociacionista E-R


del conocimiento y del aprendizaje junto a los principios de frecuencia y recencia. Otros
dos rasgos, denominados ambientalismo y equipotencialidad vienen a reforzar el
aprendizaje por asociación. Con el ambientalismo, el aprendizaje siempre es iniciado y
controlado por el ambiente. Por otra parte, se afirma que sólo existe una única forma de
adquirir conocimiento: la asociación.

Dos de los rasgos atribuidos a este enfoque son su antimentalismo y


anticonstructivismo. El reduccionismo antimentalista abandona el estudio de los procesos
cognitivos. Conviene distinguir entre conductistas radicales (Watson, Skinner)que niegan
la existencia de la mente y los conductistas metodológicos que únicamente exigen que se
cumplan los requisitos de objetividad. Para los conductistas, un rasgo constructivo es la
idea de que la mente, de existir, es necesariamente una copia de la realidad y no al revés.
Por otra parte, su anticonstructivismo supone un carácter pasivo del organismo
que se limita a responder a las contingencias ambientales. En este sentido en el que el
sujeto del conductismo es pasivo: el aprendizaje no es solo una cualidad intrínseca del
organismo, sino que necesita ser impulsado desde el ambiente.

TIPOS DE DEFINICIÓN
CONDUCTISMO
Clásico Es el conductismo de Watson cuyo objetivo de estudio es la
conducta. No se interesa por la vida mental ni los estados
internos.
Estudio objetivo de la conducta en tercera persona; los datos de
la psicología deben ser intersubjetivamente verificables;
Metodológico absorbido por la psicología experimental y psicología cognitiva.
Neo-Hulliano y
post-Hulliano, ambos de carácter teórico, no dinámicos,
fisiológicos e intencionales.
Radical Corresponde al conductismo skinneriano que
incluye la aproximación conductual de la vida
mental; aunque no es mecanicista los estados
internos no están permitidos
Teleológico Conductismo post-skinneriano, intencional, encerrado en la
micro-
economía
Teórico Acepta los estados internos; es dinámico pero ecléctico en la
elección de las estructuras teóricas. Enfatiza la parsimonia.
35

- El conductismo posterior

Entre los años 30 y 60 de siglo XX tuvo lugar la época más productiva del
conductismo, denominado neoconductismo (Skinner, Hull, Tolman,Guthrie). Entre las
aportaciones más relevantes de la psicología neoconductista, se encuentran las variables
intervinientes. Se trata de conceptos teóricos anclados en antecedentes y consecuentes
observables mediante relaciones funcionales explícitas.

Las características asumidas por el neoconductismo fueron las siguientes:

• Gran preocupación por el trabajo sistemático, regulado generalmente por el


método hipotético-deductivo
• Definiciones operacionales
• Variables intervinientes
• Creencia en el logro inminente de una teoría cuantitativa
• Fijación de un vocabulario para la disección comparativa
• Análisis de la teoría

De todos los autores de este periodo, el neoconductista con más vigencia ha sido sin
duda Skinner, máximo exponente de la corriente radical. Skinner suscribe el método
inductivo de Bacon y J.S. Mill, el positivismo de Comte y el operacionalismo de Birdgman.
Este anclaje en la tradición epistemológica le lleva a formular el conductismo radical, de
carácter inductivo y descriptivo a defender el “organismo vacío” y la “caja negra”, a
rechazar toda noción con referentes privados o fisiológicos y a reconocer la conducta en
términos de E-R como único nivel de competencia de la psicología. Skinner define la
conducta en términos de los efectos del movimiento sobre el medio ambiente.

El programa de investigación neoconductista, en su desarrollo interno, presentaba


sucesivas anomalías empíricas y teóricas que desbordaban sus predicciones al plantear
problemas irresolubles s inasumibles desde sus presupuestos. Lashley llegó a la
conclusión de que los organismos poseen funciones centrales planificadoras, que
coordinan conjuntos de acciones como amplias unidades y no como cadenas. EN otros
casos como el automoldeamiento, conductas supersticiosas inadecuadas, la irrelevancia
aprendida, fenómenos de bloque, hacían necesaria la búsqueda de soluciones intermedias
o mixtas con planteamientos cognitivos y la profundización en el núcleo asociacionista
aliviándolo de supuestos innecesarios. Esta última opción ha dado lugar al conductismo
cognitivo o asociacionismo cognitivo. El objetivo de esta nueva corriente fue el de
integrar las perspectivas conductista y cognitiva en una sola teoría de carácter más amplio.
Entre los proyectos mismos de este asociacionismo cognitivo cabría citar la teoría del
aprendizaje social de Bandura y su teoría de autoeficacia, la teoría de instrucción de
Gagné y las posiciones mediacionales de Kendler, Osgood, Rosenthal y Zimmerman.
36

En relación con el conocimiento cabe resaltar que el conductismo teórico considera


tres categorías de conocimiento pertenecientes a tres dominios conceptualmente
separados: un primer dominio corresponde al fenomenológico, el segundo es el
fisiológico y el tercero corresponde a los informes y juicios “intersubjetivamente
verificables” que realizan los sujetos experimentales.

- El asociacionismo social

Para el conductista, el entorno social no tiene por qué diferenciarse de cualquier otro
y, por tanto, no se duda del funcionamiento de las contingencias de refuerzo. Se atribuye
a Mowrer la acuñación del término reforzador secundario para describir la forma en que
un acontecimiento, frecuentemente asociado con un reforzador primario, adquiere su
misma potencia de refuerzo.

El desarrollo de modelos sociales, el aprendizaje observacional junto a otros


principios de socialización han constituido también amplios modelos asociacionistas.
Uno de los ejemplos más desarrollados ha sido propuesto por Bandura. Este autor amplia
su primera teoría del aprendizaje social basado en el aprendizaje observacional para,
posteriormente, desarrollar su teoría cognitivo social, en la que otorga un importante
papel de las regulaciones cognitivas en el autocontrol reactivo de cada individuo y que
le sirve de guía sobre su conducta. Bandura describe el aprendizaje social como “la
adquisición de conocimientos por medio del procesamiento cognitivode la información”.

Las críticas que se dirigen al asociacionismo social se dirigen fundamentalmente hacia


su suficiencia teórica, en el sentido de que tratan de explicar mediante un simple proceso
de formación de asociaciones, conductas sociales tan complejas como la cooperación en
el trabajo, el habla y la escritura o los juegos colectivos como el fútbol.

Por último, cabe reconocer que el conductismo tuvo un efecto beneficioso a largo
plazo en la psicología porque le inyectó de un rigor metodológico del que carecía
anteriormente.

- La revolución cognitiva

Un nuevo movimiento surge en Estados Unidos entre 1956 y 1960 al que se denomina
revolución cognitiva. La clave de este movimiento se inicia a través de la revisión que
hace Chomsky de la conducta verbal de Skinner. Este nuevo paradigma defiende que la
conducta no es sólo función de los determinantes admitidos por el conductismo, sino
también de los procesos mentales que se dan entre el estímulo y la respuesta los cuales
son inferibles mediante técnicas apropiadas.

Esta “revolución cognitiva” surge a merced de la revolución tecnológica impulsada


por las necesidades bélicas de la II Guerra Mundial. Es el momento en que los psicólogos
empiezan a recordar conceptos como: mente, cognición, atención, razonamiento… Como
en otros casos, el concepto de psicología cognitiva constituye un caso más de “categoría
natural”. Según Riviere lo que podemos decir es que se refiere a la explicación de la
conducta a entidades mentales, a estados, procesos y disposiciones de naturaleza mental.
37

Bajo dicha denominación, acoge a diversas corrientes. Lo que caracterizó a esta


psicología fueron dos grandes acontecimientos que se desarrollaron desde el punto de
vista teórico:

• Metáfora computacional: Concibe al ser humano como un procesador de


información, basándose en la aceptación de la analogía entre la mente humana y
el funcionamiento de un ordenador. Existen dos versiones de esta metáfora: la
versión fuerte y la versión débil. La versión fuerte admite una equivalencia
funcional entre ambos sistemas.
Tal idea consiste en la suposición de que resulta posible construir programas de
ordenador que reproduzcan un determinado proceso cognitivo humano en
términos muy precisos. La versión fuerte es la adoptada por la inteligencia
artificial y por la ciencia cognitiva y adopta un sistema bien definido como modelo
en el que especifica claramente sus presupuestos. Por el contrario, la versión débil
resulta ambigua porque no especifica los límites de la aceptación de la metáfora.
Supone un punto de vista más cauteloso que considera que los modelos
informáticos resultan útiles para estudiar la mente. Por este motivo, en nuestra
búsqueda de las características de este nuevo enfoque, consideramos que sólo la
versión fuerte constituye un programa coherente y contrastable. Según esta idea,
el hombre y el computador son sistemas de procesamiento de propósitos
generales, funcionalmente equivalentes, que intercambian información con su
entorno mediante la manipulación de símbolos.

• Representación mental del conocimiento: En el moderno neoasociacionismo las


“parcelas” de asociación normalmente no se experimentan de forma directa, sino
como si fueran productos acabados de procesos. Siguiendo a Richardson, estos
procesos pueden adoptar la forma de imágenes, símbolos, conceptos o
proposiciones. Estos tipos de representaciones no pueden atribuirse a estímulos o
respuestas, sino “a parcelas” de información que tienen un grado de significación
para el sujeto.
A pesar de estas premisas, este nuevo enfoque teórico, permitió el desarrollo de la
nueva investigación asociacionista, aunque con un planteamiento diferente al
anterior. Se acepta que el proceso que ocasiona las asociaciones son entidades
independientes consideradas intrínsecas o innatas.

Estos supuestos constituyen el núcleo central de la psicología cognitiva basada en el


procesamiento de la información. En relación con el conocimiento, las primeras teorías
del aprendizaje que se generaron después de la revolución cognitiva fueron aquellas que
describieron la conducta humana como un proceso lineal de solución de problemas. Se
resalta también el papel del conocimiento específico de dominio tanto para tareas
específicas como para otras más aplicadas. La asunción más consensuada apoyaba la idea
de que el rendimiento de alto nivel dependía del conocimiento específico al basarse en
heurísticos generales de solución de problemas.
38

También el neoasociacionismo presenta limitaciones. Un importante número de


autores señala que el procesamiento de información carece de una teoría del aprendizaje
suficiente para explicar la adquisición de las complejas estructuras de memoria que se
postulan. Una de las limitaciones principales del asociacionismo se atribuye a su
incapacidad para asumir la influencia de los contenidos en el aprendizaje. Una segunda
limitación alude a la falta de coherencia u organización interna del sistema.

- Adquisición de conocimiento

Para los conductistas skinnerianos todo conocimiento se adquiere a través de los


sentidos y mediante la relación de estímulo-respuestas seguidas por un refuerzo. Dentro
del continuo, el conductismo se sitúa en el extremo del conocimiento basado en la
experiencia.
En relación con la corriente del procesamiento de información lo hemos situado
también aquí por su carácter continuista con respecto al conductismo.

- Situación en el continuo e implicaciones educativas

Dentro del continuo, esta corriente del procesamiento de información se sitúa al lado
del conductismo por concebir el conocimiento en la asociación basado en la experiencia.
Pero mientras el conductismo se sitúa en el extremo de la experiencia, el procesamiento
de información no puede situarse en tal extremo pues otorga también un peso innato a la
facultad de establecer esas asociaciones. Por esta razón, hemos considerado que sus
aplicaciones educativas están más vinculadas con el constructivismo cognitivo.

La asunción clave de los conductistas en la práctica educativa es que las habilidades


complejas se aprenden mediante la adquisición de sus componentes más simples junto a
la combinación de estos componentes en situaciones más complejas. Según esta corriente
partidaria de la información derivada de la experiencia, la educación consecuente sigue
un proceso muy cuidadoso en la manera en que se organiza la experiencia para maximizar
el aprendizaje. Los estudiantes deben hacer observables sus respuestas para que los
instructores/docentes puedan evaluar su progreso y reforzar a los estudiantes en su
momento y de la manera apropiada. El estudiante se ve como algo pasivo en la forma de
organizar el conocimiento.

Por último, esta forma de organizar el conocimiento también se aplica al ámbito de


las nuevas tecnologías y programas de computación instruccional. En este sentido,
Skinner elaboró lo que llamó la instrucción programada aplicando el procedimiento
general siguiente: 1) los objetivos del aprendizaje educativos pueden establecerse bajo un
detallado análisis de la conducta 2) Todas las conductas de aprendizaje son susceptibles
de ser evaluadas de manera cuidadosa 3) puede establecerse una secuencia de pasos que
podrían dirigir al estudiante desde sus conductas actuales a las conductas deseadas.
39

Tema 4. ¿La mente o la experiencia? Otras posibles alternativas

El constructivismo cognitivo o mental

Desde el punto de vista de la teoría del conocimiento, la posición constructivista


constituye un punto intermedio entre las posiciones mente- experiencia. No obstante, esta
posición espacial en la que hemos situado al constructivismo no debe ser entendida en
absoluta como una unión ecléctica de ambos extremos del continuo mente-experiencia.
Representa una síntesis creativa en la forma de conceptualizar el problema del
conocimiento humano y de la mente. En este apartado trataremos el constructivismo
cognitivo, entendido como la teoría psicológica que explica cómo se construye el
conocimiento en el sujeto individual.

Mientras en EEUU introdujeron una nueva forma de asociacionismo, los


psicólogos europeos se mantuvieron dentro de una psicología cognitiva basada en
supuestos constructivistas.

- Supuestos generales

El constructivismo constituye una posición epistemológica del conocimiento, es


decir, explica cómo se origina y cómo se modifica, cómo se produce el acuerdo con
la sociedad. Es una teoría también ontológica. El aspecto más relevante de esta
concepción es el reconocimiento de la complejidad de la formación del conocimiento
que no puede esconderse bajo supuestos exclusivamente innatos o por simples
asociaciones. Frente al empirismo, el constructivismo sostiene que el conocimiento
no es una realidad exterior, sino que supone una elaboración por parte del sujeto.
Frente al innatismo, esta corriente establece que el conocimiento no es el resultado de
la emergencia de estructuras preformadas y que el conocimiento no puede
identificarse como un proceso de externalización de algo interno. El constructivismo
supone una asunción interaccionista en la que el conocimiento es el resultado de la
acción del sujeto sobre la realidad y está determinado por las propiedades de sujeto y
de la realidad.

La idea de un sujeto activo es central en estas teorías. Es el sujeto quien construye


su conocimiento y todo conocimiento es el resultado de su actividad. La realidad no
puede conocerse de manera directa, es a través de su acción sobre los objetos. Esta
estructuración cognitiva es cambiante y modificable, como consecuencia de esta
interacción con el medio.

Esta construcción del conocimiento presupone la existencia de estados internos en


el sujeto con los que establece representaciones que se atribuyen a la realidad, pero
estas representaciones son propias. Adoptan la forma de esquema, que se
consideran la unidad básica del funcionamiento psicológico. La función de los
esquemas es la de reconocer, comprender, resolver problemas, encontrar un orden en
la realidad. Cada esquema posee una organización, una estructura, que no se percibe
exteriormente, pero que se pone en funcionamiento cada vez que se aplica dicho
esquema.
40

Tienden a automatizarse. Los esquemas se generan a partir de situaciones


concretas y se generalizan a otras que son semejantes. El sujeto no suele ser consciente
de la aplicación de un esquema, a menos que su aplicación no obtenga el resultado
esperado. En este caso, resulta necesario modificarlo para producir otro más adecuado
para la situación.

La construcción del conocimiento es una tarea individual y da origen a su


organización psicológica. Ahora bien, los otros pueden facilitar la construcción que
cada sujeto tiene que realizar por sí mismo, es más, el conocimiento es un producto
de la vida social y el desarrollo de los instrumentos no puede realizarse sin la
presencia de los otros.

En la posición constructivista conviene diferenciar entre los factores internos del


sujeto, responsables de la construcción que éste realiza del conocimiento como
proceso que tiene lugar en su interior y los factores externos al sujeto, aquellas
condiciones que hacen posible, facilitan o dificultan esa construcción de
conocimiento.

- Breve apunte histórico

Esta nueva doctrina fue iniciada por Kant para determinar los límites y relaciones
entre la sensibilidad y la razón. De sus reflexiones, concluyó que hay que distinguir
entre conocimiento “puro”, independiente de la experiencia y de la impresión
sensible, y conocimiento “empírico”, cuyas fuentes son totalmente a posteriori. El
primero se caracteriza por contener juicios universales y necesarios, pero meramente
analíticos y carentes de contenido real y objetivo; el segundo se caracteriza por
contener juicios particulares y contingentes, meramente sintéticos, pero referidos a la
realidad. Debido a los caracteres de cada uno, ninguno de estos tipos de juicios puede
ser considerado como “conocimiento verdadero”. Para ser verdaderamente
“científico”, el conocimiento debe incluir conjuntamente los dos caracteres: el de ser
“sintético”, referente a la realidad, el de estar basado en la experiencia; y a la vez el
de ser “a priori”, estar basado en la razón. Kant concluye que la verdadera ciencia se
compone de “juicios sintéticos a priori” una síntesis de las posiciones empiristas y
racionalistas.

Una vez asentados estos planteamientos, el problema básico se reduce a responder


a la pregunta de cómo son posibles los “juicios sintéticos a priori” en las Matemáticas
y la Física. Tales juicios son posibles porque el sujeto dispone de ciertos
conocimientos puros, totalmente a priori. De esta manera, el proceso de conocer
se realiza del siguiente modo: aplicadas las “formas a priori de la sensibilidad” a las
impresiones proveniente de los sentidos, se realiza la primera organización y
estructuración de los mismos en la forma de “fenómenos”, dando lugar a los juicios
científicos; y, aplicadas las “categorías” o conceptos puros del entendimiento a dichos
“fenómenos” se realiza una nueva estructuración y organización del material.
41

El intelecto y la sensibilidad tienen que trabajar juntos, pero los resultados en la


mente no son asociaciones directas ni asociaciones sencillas: son esquemas. Estos
esquemas son como guías de acción que orientan a nuestro conocimiento y a nuestros
pensamientos que trabajan sobre el mundo sin ser “copias” directas del mundo.

- Psicología de la Gestalt

En las dos primeras décadas del siglo XX nace la Psicología de la Gestalt. La idea
básica de esta corriente va a ser completamente opuesta a los principios del
asociacionismo. En lugar de concebir el conocimiento como una suma de partes
preexistente, opta por una unidad mínima de análisis que identifica con la estructura
o globalidad. La mente y su actividad se entiende como un agente que estructura “lo
dado”, creando nuevas relaciones funcionales entre sus partes.

Aunque el núcleo de investigación de la psicología de Gestalt se centra


fundamentalmente en los fenómenos perceptuales, sus estudios se extienden también
a otros procesos cognitivos superiores como la memoria o solución de problemas.
Realizan una serie de aportaciones y distinciones que merecen ser destacadas. Una de
ellas hace referencia a la distinción entre el pensamiento productivo y el reproductivo.
Para estos autores, el pensamiento productivo se caracteriza por una comprensión
significativa de un problema, lo cual implica el descubrimiento de una reorganización
conceptual de aquel. Los estudios más importantes en este sentido fueron los
realizados por Köhler. Este encontró tras sus investigaciones que en ciertas
situaciones podía tener lugar un proceso de “reestructuración del campo perceptivo”
donde ahora se integraban de manera significativa en un todo, elementos que antes
eran irrelevantes: “el todo es más que la suma de sus partes”. Para los psicólogos de
la Gestalt dicha restructuración tiene lugar por insight o comprensión súbita. La
explicación se produce en términos de la estructuración del campo sobre la base del
principio de pregnancia que en la conciencia aparece como una comprensión súbita.

- Bartlett y el recuerdo

Bartlett fue especialmente consciente de los aspectos sociales de la cognición


y afirmó que la memoria es un proceso constructivo y como tal, un fenómeno
socializado. Su trabajo también se destacó por abordar el estudio de la memoria y de
la comprensión de textos en el ámbito de la psicología experimental.
En dicha obra critica las técnicas experimentales utilizadas por Ebbinghaus para
estudiar la memoria y cuestiona el uso de “sílabas sin sentido” ya que impedía la
acción del significado y el uso de reglas mnemónicas. Para evaluar el proceso utilizó
dos métodos:

• Reproducción serial: Una persona cuenta una historia a otra; esta segunda persona
relata el material a una tercera y así sucesivamente. El proceso termina
comparando la última versión de la historia con la original.

• Reproducción repetida: Una persona lee una historia y posteriormente debe


contarla en sucesivas ocasiones.
42

Encontró que los sujetos al relatar los hechos originales los elaboraban o
distorsionaban en función de sus convicciones personales y sociales sobre la historia.
Tras esto, Barlett llega a la conclusión de que el recuerdo es un proceso
reconstructivo y reproductivo; es decir, una interacción entre los hechos de la
experiencia y una representación abstracta del mundo. Para describir esto último,
Barlett utilizó el concepto de esquema

Básicamente, el esquema desempeña un función organizadora e integradora


de los estímulos y acontecimientos externos. El esquema posibilita completar de un
modo significativo la información ambigua a través del conocimiento previo. De esta
manera, el uso de esquema era muy amplio.

La teoría del esquema supone una posición interaccionista en el continuo


mente-experiencia al asumir que la mente interacciona con la información sensorial
como un agente activo en la adquisición de conocimiento.

- Piaget

Desde el punto de vista del desarrollo, la concepción del ser humano es


constructivista. El ciclo vital se suele entender como consecuencia de un continuo
intercambio de información entre el sujeto y el medio. Los teóricos que están detrás
de esta concepción son Piaget y Vygotski.

Los psicólogos del desarrollo conciben el mundo y al ser humano como sistemas
vivos en continua actividad que a través de un proceso interactivo aquél cambia a
este y viceversa. La relación mundo-sujeto se entiende de forma dialéctica. En
segundo lugar, el proceso de adaptación supone una diferenciación progresiva y
continua en la que el sujeto va “filtrando” la realidad en función de su propio
conocimiento.

Para Piaget, la mente humana es parte de un continuo de adaptación de la vida


orgánica a su ambiente que se inicia en la biología y acaba en el conocimiento. Según
el autor, este proceso está lleno de constructivismo. Incluso la adaptación en el
desarrollo de las estructuras físicas de los organismos es epigenética. Asimismo, el
funcionamiento intelectual es una forma especial de actividad biológica. Estas
estructuras cognoscitivas se construyen a partir de un cierto modo de funcionamiento
en el intercambio con el ambiente. Es este modo de funcionamiento el que permanece
constante en el desarrollo del sujeto como ser capaz de conocer.

Dos aspectos claves de la teoría piagetiana son su concepción del origen biológico
de la inteligencia y el importante papel que tiene el sujeto en la construcción del
conocimiento. La inteligencia humana es considerada como la forma superior de
adaptación biológica, mediante la cual el organismo humano logra un equilibrio más
complejo y flexible en sus relaciones con el medio. El mismo tipo de intercambios
adaptativos entre el organismo y el medio a nivel biológico también se produce a
nivel psicológico. Este proceso de adaptación es considerado como el equilibrio entre
los procesos de asimilación y acomodación.
43

La asimilación permite a los sujetos incorporar los objetos a su estructura


cognoscitiva, a sus esquemas previos en un proceso activo mediante el cual el sujeto
transforma la realidad a la que se adapta. La acomodación es el proceso inverso por
el cual el sujeto transforma su estructura cognoscitiva para poder incorporar los
objetos de la realidad.

En cuanto al proceso de adquisición de conocimiento, en su interacción con el


medio el sujeto obtiene nuevos conocimientos, pero estos son el resultado de la
acción del sujeto sobre los objetos. Estas acciones pueden ser manifiestas o
interiorizarse mentalmente. Respecto a los factores que explican el desarrollo
intelectual, Piaget apunta a la existencia de cuatro factores principales.

• Procesos madurativos: Constituyen una base absolutamente necesaria para el


progreso intelectual.
• Experiencia adquirida por el sujeto: en sus intercambios con el medio físico.
Esta experiencia posibilita la consolidación de esquemas ya adquiridos.
• Interacción entre el sujeto y el medio social: Su vehículo principal es el
lenguaje.
• Equilibración o auto-regulación: Coordina y organiza a los anteriores.

La teoría de Piaget concibe en dos planos la descripción y explicación del


desarrollo cognitivo. Desde un plan sincrónico, se refiere a la organización de
conductas y procesos cognitivos que el sujeto logra en un momento dado y , por otro,
una dimensión diacrónica del desarrollo, es decir, a la explicación de los procesos de
cambio, de génesis o tránsito entre un estadio y otro.
La estructura es un concepto clave en la obra de Piaget. Las estructuras son
instrumentos conceptuales, construcciones teóricas que permiten dar cuenta de la
interrelación entre las diferentes conductas en un momento determinado. El estudio
del desarrollo intelectual permite distinguir la existencia de cuatro niveles- estadios:
sensoriomotor, preoperacional, operaciones concretas y operaciones formales.

En cuanto a la otra dimensión, la estructuración vertical, los mecanismos de


transición de un estadio a otro, Piaget sostiene que la clave para explicar la génesis
de nuevos estadios está en los procesos de equilibrio entre las interacciones entre el
sujeto y el medio. El cambio tendría su origen en la aparición de desequilibrios y
contradicciones que obligarían al sujeto a intentar superarlos modificando sus
estructuras cognoscitivas.

Aunque Piaget consideraba muy importante la experiencia física y social del


niño, pensaba que la mayor parte de los entornos humanos cuentan con unas
necesidades mínimas de información ambiental, por lo que los niños tienen un
potencial de desarrollo muy similar. Por otra parte, la actividad simbólica, incluyendo
el lenguaje, es resultado del desarrollo cognitivo inicial y, al principio, simplemente
corre en paralelo con la acción sensoriomotora, sin tener ningún papel organizador
sobre ella. El desarrollo de las funciones simbólicas en el segundo año simplemente
“permite a la sensoriomotricidad extenderse”.
44

La teoría Piagetiana no ha estado exenta de críticas. Siguiendo a Case (1996), nos


centramos fundamentalmente en dos: 1) En la asunción de que as estructuras de
conocimiento de los niños tienen una naturaleza coherente, lógica y/o general en
lugar de específica de dominio y 2) en la asunción de que las estructuras de los niños
se adquieren y modifican mediante procesos que son principalmente de naturaleza
endógena o interna.

- Situación en el continuo

El conocimiento es visto como poseedor de su propia estructura interna, que se


encuentra bajo el control de procesos con un fuerte componente endógeno. Desde el
punto de vista educativo, la perspectiva constructivista cognitiva está mucho más
interesada en la actividad mental interna del estudiante que en el desarrollo de su
conducta. Las prácticas educativas se dirigen hacia la construcción de
representaciones cognitivas y procedimientos. Según Greeno, pueden distinguirse al
menos, tresconcepciones diferentes en la forma de diseñar el currículo educativo,
bien a través del desarrollo cognitivo, bien a través del desarrollo de estructuras
conceptuales en diferentes áreas de contenido o bien en potenciar el procesamiento
estratégico de la información.
Los trabajos seminales de Piaget dentro del desarrollo cognitivo marcaron el
camino sobre cómo potenciar una aproximación educativa cuyo foco principal fuese
estimular la curiosidad natural del niño y facilitarle abundantes oportunidades para
la exploración y la reflexión. Los educadores influidos por esta perspectiva tendieron
a favorecer la aproximación conocida como el descubrimiento guiado. Otros
estudios, más centrados en dominios de conocimientos específicos, han servido de
marco conceptual donde se han inspirado diseños curriculares interesados en la
comprensión conceptual que adquieren los niños, entre otros aspectos.

Nuevas alternativas educativas se han desarrollado en los últimos 20 años. El


constructivismo ha sido uno de los temas más tratados.

La Teoría del esquema y la representación de la adquisición de conocimiento

El concepto de esquema propuesto por Kant ha ido sufriendo matizaciones. La


idea básica hace referencia a que el ser humano construye su conocimiento del mundo de
una forma organizada, significativa y que dicha estructura determina su manera de
entender el mundo.

Esta capacidad para organizar la información se considera innata y tiene ventajas


sobre la información proporcionada por la experiencia. Por ejemplo, activarun esquema
puede posibilitar el establecimiento de relaciones de causa-efecto sobre la información
entrante, mientras que la experiencia por sí sola solamente proporcionaría correlaciones.
Posteriormente a Kant, otros dos psicólogos establecieron la noción de esquema, ben para
explicar los procesos de pensamiento enlos niños (Piaget), bien para explicar los procesos
de comprensión y memoria en contextos sociales (Bartlett).
45

- Asunciones generales

La teoría del esquema se ha convertido para muchos investigadores en el marco


general a partir del cual se podría explicar todo el procesamiento de información. Los
esquemas no son sólo estructuras conceptuales, sino que son procesos activos
mediante los cuales el sistema cognitivo humano interactúa conel medio y construye
una representación del mismo. Para que esta interacción sea eficaz en la adquisición
de conocimiento, tiene que estar representado de manera fluida y dinámica. La base
de esa interacción con el medio está en la existencia de dos tipos de procesamiento:
abajo-arriba y arriba-abajo. El procesamiento abajo- arriba está guiado por la entrada
sensorial, mientras que el arriba-abajo está guiado por el conocimiento conceptual.
Ambos procesamientos actúan en direcciones opuestas y convergen para lograr una
interpretación consistente de la información.

Rumelhart y Ortony fueron los primeros en abordar la elaboración del concepto


de esquema de manera más concreta. Sugieren que un esquema está formado por
paquetes de conocimiento que contienen las siguientes características:

• Contienen variables
• Pueden ser considerados unos dentro de otros
• Representan el conocimiento en todos sus niveles de abstracción
• Representan conocimiento más que definiciones
• Son procesadores activos
• Son mecanismos de reconocimiento cuyo procesamiento se dirige a la evaluación
de su bondad de ajuste entre lo que ya se conoce con la información que está
siendo procesada.

Los modelos basados en los esquemas rechazan expresamente el elementalismo.


Estos modelos se elaboran bajo el supuesto de que existen fenómenos psicológicos
que no pueden ser explicados por la concatenación de constructos teóricos más
pequeños y de que es necesario desarrollar entidades teoréticas más holísticas. A
partir de este supuesto fundamental, las distintas aproximaciones varían en la
estructura específica que postulan y en la importancia teórica dada a los problemas
concretos.

Para autores como Reynolds, Sinatra y Jetton, el resurgimiento de la teoría del


esquema sucede como resultado de una insatisfacción explicativa de la adquisición
de conocimiento desde un planteamiento mecanicista característico en los primeros
modelos de procesamiento de información y de la inteligencia artificial. Para que
estos programas “comprendan”, es preciso dotarles de un conocimiento del mundo
almacenado en su memoria. La comprensión resultará como un producto construido
a partir de la información del input y del conocimiento previo.
46

Este nuevo concepto de esquema tiene un origen más computacional. Se ha


empleado para describir un conjunto de escenas, situaciones o secuencias de
acontecimientos cotidianos que, como los guiones, se basan en una organización del
conocimiento construido sobre asociaciones.

Las investigaciones de Bartlett dejaban claro que el conocimiento influye en el


recuerdo y que éste es el producto del carácter constructivo de los procesos de
memoria de prosa. La memoria, implica un proceso activo en el que se entremezclan
las propiedades del material escrito que se desea aprender, los factores contextuales
y el conocimiento previo que posee el sujeto. Este proceso activo también se aplica
a los procesos de comprensión en los estudios que se desarrollan en las últimas
décadas del siglo XX.

Muchos de los estudios realizados, han confirmado el hecho de que el lector debe
construir el significado, integrando lo que ya conoce con la información nueva y esa
labor de integración puede ser facilitada de manera notable si al lector se le
proporciona explícitamente un contexto apropiado. Ello parece producirse porque el
contexto activa el esquema superior que orienta el procesamiento del texto. De esta
manera, la teoría del esquema concibe la comprensión de textos como un proceso de
comprobación de hipótesis. Cuando el lector inicia su lectura o cuando se le
proporciona un contexto a través de un título, le permite generar determinados
esquemas-hipótesis sobre los que descansa el sentido de lo que está leyendo, pero
estas hipótesis han de ser constantemente contrastadas por la información que llega
del texto. A medida que la información de las siguientes oraciones leídas coincide
con el esquema, el esquema se va confirmando como definitivo, produciendo
finalmente una comprensión consistente del texto. Los conocimientos y habilidades
lectoras resultan necesarios para comprender, retener y aplicar la información
extraída del material escrito.

En los años 70 se iniciaba un amplio campo de investigación que se focalizaba


en las llamadas “Gramáticas de las Historias”. De manera general, puede concebirse
como un sistema de reglas formalizadas cuyo propósito básico es tratar de describir
las regularidades comunes existentes en la estructura de estas historias. Las nomas
describen los elementos en que la historia está compuesta y el orden en que esos
elementos han sido colocados. La pretensión de toda gramática de las narraciones es
considerar que todas las historias poseen una base subyacente. Desde el análisis de
Rumelhart efectúa sobre la memoria y la comprensión de textos, podríamos
establecer tres supuestos básicos

• La existencia de una estructura interna específica en los cuentos o narraciones


• Tal estructura está compuesta por una red jerárquica de categorías
• La estructura interna de la historia se corresponde con la manera en que los
sujetos organizan la información de la narración.
47

La gramática de Rumelhart consta de dos partes: un conjunto de reglas sintácticas


que corresponden a los elementos o categorías que constituyen la historia y un
conjunto de reglas semánticas que determinan la representación de los contenidos.

El conocimiento que posee el lector mediante el cual genera un grupo de


expectativas acerca de cómo la historia se procesa es lo que se denomina “esquema
de la historia”. En este sentido, el esquema de la historia especifica las relaciones
temporales y causales que se establecen en las distintas partes de la historia.

Desde otra perspectiva, la mayor parte de la investigación procedente de la


antropología cognitiva, acepta la idea de que la mente humana aplica los mismos
procedimientos de categorización y de inferencia en todos los dominios cognitivos y
que son compartidos por los miembros de un grupo social. Algunos antropólogos
cognitivos han sugerido que las estructuras de conocimiento más grandes, “esquemas
culturales”, orientan la acción y la creencia en parte activando otros esquemas o
modelos culturales relacionados y encapsulando los principios de la creencia cultural.
Los esquemas culturales proporcionan continuidad y coherencia a los sistemas de
creencias de una cultura dada y además proporcionan una base para relacionar
motivación y cultura.

La teoría del esquema otorga a lamente un papel más relevantes que otras teorías
modernas de adquisición de conocimiento. El conocimiento, más que “recordarse”,
se crea a partir de la interacción entre las percepciones sensitivas entrantes y las
capacidades inherentes a la mente. Es interactivo aunque el énfasis recae más sobre
la mente y los procesos internos de representación de la información, en su
organización y asimilación.

La teoría del esquema tiene importantes implicaciones para el aprendizaje. Entre


ellas podríamos resaltar el papel crucial que los conocimientos previos tienen en la
determinación de lo que los alumnos pueden aprender. Un importante número de
estudios sobre la adquisición de conceptos y categorías destacaron el conocimiento
que se genera a partir de la construcción de estructuras prototípicas, semejantes a los
esquemas. La implicación educativa que ha recibido más atención es que la noción
del conocimiento previo del sujeto puede influir sobre la interpretación de la
información sensorial y perceptual entrante. Además, la teoría del esquema informa
acerca de lo que se puede enseñar y de cómo puede enseñarse. Los esquemas son
como procedimientos, entonces las aproximaciones centradas en el alumno tales
como la instrucción estratégica, la metacognición y la atención selectiva, podrían
convertirse en aspectos claves del curriculum en muchas escuelas.

Los críticos más radicales a la teoría del esquema se centran en su carácter vago
y general, en la incapacidad de los teóricos para describir de manera exacta cómo se
construyen los esquemas. Otras de las cuestiones, tiene que ver con las limitaciones
que las representaciones esquemáticas poseen en contra de perspectivas más amplias
que permiten la representación del conocimiento en forma de imágenes o modelos
mentales.
48

Conexionismo

A finales del siglo XIX, el descubrimiento de la constitución celular del cerebro


llevó a la noción de conexiones entre las neuronas. James (1890) ya describía la “Ley de
la Asociación”. Thorndike ya se refirió a cómo la descarga de las neuronas y la conexión
entre ellas constituían la base de las asociaciones entre estímulo y respuesta, acuñando el
término de conexionismo.

Los modelos conexionistas actuales, denominados también modelos de


procesamiento distribuido en paralelo sugieren una visión completamente distinta de la
naturaleza de la teoría de la mente de lo que se ha tenido hasta ahora. Defienden que la
cognición tiene lugar a través de la interacción de un gran número de unidades de
procesamiento simples distribuidas por todo el sustrato físico del cerebro. Los pioneros
del conexionismo como Rumelhart y McClelland establecieron un modelo de red de la
cognición humana. Desde el punto de vista neurofisiológico el cerebro presenta dos
características:

• El conocimiento no se encuentra localizado en zonas específicas del córtex,


sino que se asienta de manera difusa o distribuida por todo el córtex.
• El cerebro opera en paralelo, funciona como una vasta red de elementos
interconectados (neuronas) que actúan simultáneamente.

Consecuentemente, los modelos PDP tratan de reproducir fenómenos cognitivos a


base de construir complejas redes de unidades electrónicas sencillas semejantes a las
neuronas. De esta manera, las redes conexionistas configuran la cognición por medio de
la propagación de activación por numerosas unidades simples.

En los sistemas conexionistas, una representación mental activa es un patrón de


activación en el conjunto de unidades de procesamiento del modelo y el “conocimiento”
que rige el procesamiento consiste en los valores de los pesos de las conexiones. El
aprendizaje resultante se produce a través de la adaptación gradual de los pesos de las
conexiones que tienen lugar como resultado de la actividad en la red.

Esta forma de concebir la naturaleza psicológica como redes conexionistas provocó


el declive del paradigma dominante que reinó durante la década de los 80, como era la
Teoría Computacional de la Mente. Como es sabido, los modelos cognitivos simbólicos
corresponden a teorías de la cognición humana bajo la forma de programas de ordenador
que se trata de ver que funcionen o resulten operativos.

Las cuestiones científicas a las que estos modelos tratan de dar respuesta provienen
de la psicología cognitiva y las técnicas computacionales suelen proceder de la
inteligencia artificial. La TCM sostiene que la mente es un ordenador digital, un
dispositivo de estados discretos que almacena representaciones simbólicas y que las
manipula mediante reglas sintácticas; asimismo sostiene que los pensamientos son
49

representaciones mentales, y que los procesos mentales son secuencias causales dirigidas
por las propiedades sintácticas de los símbolos. Una de las características distintivas de
los sistemas simbólicos es que pueden componer e interpretar estructuras nuevas.

Aunque esta teoría computacional y simbólica de la mente ganó aceptación durante


los años 70 y 80, ha sido fuertemente criticada desde diferentes frentes. Una de ellas
argumenta la imposibilidad de que gran parte del pensamiento y de la conducta humana
pueda ser reducida a reglas explícitas. Otro grupo ha dirigido la crítica al uso que hace la
TCM del significado de los símbolos para explicar la semántica del pensamiento. Autores
como Searle y Horst han llegado más allá en sus críticas, afirmando que las
“representaciones” en los ordenadores no son ni siquiera simbólicas ni sintácticas por
derecho propio. Estas críticas potenciaron la búsqueda de otros enfoques alternativos
como el conexionismo. También puede realizarse alguna crítica entre los puntos de vista
conexionista y simbólico sobre la regulación del sistema cognitivo. Muchos de los
sistemas simbólicos afirman la existencia de una función ejecutiva que guía y controla la
actividad cognitiva. Por el contrario, en las redes conexionistas todo control es local. El
punto de vista sobre la representación del conocimiento conexionista sugiere que el
sistema cognitivo es una red conectada de nodos, cada uno de ellos con un grado de
activación. El conocimiento se distribuye entre los nodos y las conexiones. En el
procesamiento de información las redes semánticas se identificaban con estructuras de
conocimiento simbólicas en las que los nodos representan ideas con significado o
concepto y las conexiones representan relaciones entre conceptos.

La posición más reciente sobre modelos cognitivos está combinando dos enfoques en
la construcción de nuevas arquitecturas cognitivas. Son los llamados modelos híbridos,
porque recogen supuestos simbólicos y conexionistas.

- Adquisición de conocimiento y representación

Los procesos mediante los cuales las redes conexionistas adquieren conocimiento
son muy complejos. De manera general se asume que las experiencias se asocian a
través de la contigüidad y la frecuencia. También se asume que las redes se aprenden
como consecuencia del cambio en la fuerza de las conexiones. A través de la
experiencia, las redes aprenden las regularidades del ambiente.

El fortalecimiento del peso se produce entre dos unidades siempre que éstas se
encuentren activas de forma simultánea. De manera alternativa, cuando un nodo está
activo y el nodo conectado no lo está, entonces la conexión será débil. Los
conexionistas dan lugar a otro aspecto que se deriva de estos dos primeros: la
propagación hacia atrás. A través de esta, la información acerca de los errores se
retroalimenta por medio de la red. Esta información se utiliza para cambiar la
fuerza de las conexiones y permitir que tenga lugar el aprendizaje.
50

La investigación en el campo de la ciencia cognitiva ha repercutido en el


tradicional debate entre innatistas y empiristas. El innatismo siempre ha tenido
popularidad en la ciencia cognitiva, sin embargo, uno de los rasgos más destacados
de las redes conexionistas es su habilidad para lograr adquirir capacidades con muy
poca ayuda del conocimiento previo. Este hecho ha llevado a muchos a afirmar que
el conexionismo ofrece un nuevo y poderoso enfoque que se traduce en un
renacimiento de las teorías empiristas de la mente.

Con relación a la adquisición de conceptos, el enfoque simbólico asume que se


produce aprendizaje cuando los nuevos conceptos complejos se construyen a partir
de conceptos más primitivos, lo que sugiere que debe existir un almacén previo de
conceptos básicos que no se aprenden. Sin embargo, el conexionismo habla de que
las redes pueden desarrollar nuevas clasificaciones y abstracciones que emergen sin
recurrir a la recombinación de representaciones preexistentes.

- Situación en el continuo e implicaciones educativas

Podríamos pensar que el conexionismo se encuentra en el mismo lugar que el


conductismo, en el extremo de la experiencia. Sin embargo, la propagación hacia
atrás representa un proceso interno adicional que va más allá de la simple relación de
la experiencia sensorial.

EL conexionismo plantea algunas sugerencias interesantes en relación con las


implicaciones educativas. Una de ellas se deriva de la importancia que otorga al
conocimiento procedimental, automático, de bajo nivel de habilidad, dentro del
procesamiento distribuido en paralelo. Este conocimiento procedimental se
contrapone con el que frecuentemente se utiliza en el ámbito educativo. Por otra
parte, los teóricos de esta corriente otorgan mayor énfasis a la experiencia como un
iniciador primario de la adquisición de conocimiento, pero no especifican cómo se
entrelaza con el procesamiento interno.

La cognición en contexto

La cognición en contexto defiende que la naturaleza del procesamiento cognitivo


está determinada dentro de su contexto y que no puede estudiarse aisladamente sin
destruir al mismo tiempo sus propiedades definitorias. Esta postura defiende que nuestro
objetivo como científicos debe ser entender la mente tal y como opera en un contexto. Un
primer problema es acotar el término “contexto”. Puede definirse como algo físico o
basado en la tarea, ambiental o ecológico y social o interracial.
51

Algunos autores atribuyen el origen de esta corriente a un intento de superar las


debilidades de los dogmas centrales del constructivismo. Wason y John-Laird fueron de
los primeros autores que llegaron a concluir que “el razonamiento humano no se puede
describir por medio de reglas formales independientes del contexto”. Otros autores
revisaron los estudios piagetianos concluyendo que, cuando al niño se le introduce en el
contexto donde se le presenta la tarea, muestra una comprensión y un pensamiento lógico
mucho antes de la edad que Piaget señalaba como el límite inferior. De manera general,
se asume que tanto los niños como los adultos, razonan sobre la base de “esquema de
razonamiento pragmático” inducidos por la experiencia dentro de su contexto, más que a
partir de reglas lógicas abstractas e independientes de dominio.

La cognición situada incluye tanto a la inteligencia artificia como a la psicología


cognitiva. Se interesan por la relación entre la cognición y la estructura ambiental que
existe en la interpretación hombre-máquina. Para algunos autores la cognición situada
difiere de las teorías de Vygotski y de aquellas que se concentran en la cognición social,
donde la cognición situada otorga gran importancia a las operaciones internas que tienen
lugar cuando un agente interactúa en un entorno. Esto contrasta con aquellas que
consideran que el entorno social también influye en la cognición a través de la presencia
de otras mentes que influyen.

- Los modelos mentales o de la situación

El conocimiento se adquiere a través de procesos internos que la gente percibe


y que interactúa con el entorno. Para esta corriente, la representación adquiere un
punto de vista más inclusivo bajo la forma de modelo mental omodelo de la situación.

Los modelos mentales vistos como representaciones de la realidad fueron


inicialmente postulados por Craik (1943), quien escribió que la mente construye
“modelos en pequeña escala” de la realidad para anticipar sucesos, razonar y para
explicar. Estos modelos se construyen en la memoria de trabajo. Pero si bien alguno
de estos modelos sugiere que la mente se ajusta a una serie de reglas formales que,
cuando se aplican a unas determinadas premisas o a otras condiciones previas,
automáticamente producen una inferencia, tales reglas han sido cuestionadas por
Byrne y Johnson. Estos autores tratan de explicar que para construir una historia
verosímil, los modelos basados en reglas no pueden realizarlo siguiendo sólo la regla
que se facilita. Tenemos que hacerlo basándonos en nuestros conocimientos
generales. Estos autores subrayan la contribución que aporta la construcción de un
modelo mental en la resolución del problema.

Conviene diferenciar entre esquema y modelo mentales: un esquema es una


representación mental interna, un prototipo que resulta de procesar multitud de
situaciones análogas, pero que no representa ninguna situación particular. Por su
parte, un modelo mental es también una representación interna, pero se diferencia del
esquema en que su estructura es idéntica al estado de cosas que representa y que
puede ser manipulado y evaluado.
52

De esta manera, los modelos mentales que el sujeto construye subyacen y median
la relación que éste mantiene con la realidad. Los modelos mentales han sido también
contrastados con teorías de la representación.

Hoy en día, se asume que la construcción de modelos mentales es el resultado


final de la percepción y de la comprensión, aunque también pueden estar presentes
en el razonamiento. También han servido como explicación sobre cómo las personas
los utilizamos para establecer conclusiones y someter la fuerza de estas conclusiones
contrastándolos con otros posibles modelos alternativos. Las personas inferimos una
conclusión como verdadera cuando se mantiene en todos los modelos de las premisas.
Inferimos una conclusión como verosímil cuando se mantiene en la mayoría de sus
modelos de las premisas.

- Situación en el continuo e implicaciones educativas

La teoría sugiere que el entorno es intrínsecamente una parte del conocimientoque


adquirimos, es una teoría interactiva y se sitúa en medio del continuo entre la mente
y la experiencia

La cognición situada guarda también una estrecha relación con la psicología


educativa, por ello un objetivo primordial debe ser siempre potenciar contextos o
situaciones ricas en las que se produce aprendizaje. Se plantea una cuestión: cómo se
puede producir en el estudiante una interacción entre los estados mentales que se
construye en su mente y el mundo físico y social donde se desarrolla. Una posible
respuesta es que el estudiante puede construir un modelo mental en orden a simular
aquellos aspectos relevantes de la situación susceptible de ser manipulado
cognitivamente.

Los defensores de esta posición sugieren tareas que faciliten la construcción de


modelos mentales que contengan información conceptual y permitan razonar a los
estudiantes con estos modelos mentales a través de actividades de resolución de
problemas. Por otro lado, a los estudiantes se les debe facilitar también la interacción
social. Los profesores deben promocionar la resolución de problemas donde los
estudiantes puedan expresar sus modelos mentales unos con otros y asícapacitar a los
estudiantes para poder crear modelos alternativos para facilitar y mejorar su
aprendizaje. El papel del profesor sería ayudar individualmente a detectar formas de
dominio conceptual o entornos que le permitan identificar tipos o localizaciones de
posibles rutas bajo la forma de recursos o estrategias.
53

Teorías de la perspectiva social

De acuerdo con este punto de vista, el conocimiento no tiene su origen primario


en la estructura del mundo objetivo. Tampoco su origen radica en la interacción del sujeto
con el mundo objetivo. El conocimiento se origina primariamente en la historia social y
material de la cultura de la que la persona forma parte. Los psicólogos que aceptan este
punto de vista tienden a asumir que el estudio de la adquisición de conocimiento debe
examinar los contextos social, cultural y físico en los que se desarrolla la cultura, las
herramientas intelectuales sociales, lingüísticas y prácticas que se han desarrollado en
estos contextos, así como la manera en que estas herramientas han pasado de una
generación a la siguiente.

- El constructivismo social de Vygostki

Su obra aporta una parte original y relevante a la psicología por elaborar un


entramado teórico que le permitió superar los reduccionismos psicológicos,
integrándolos en una nueva unidad de análisis: la actividad, entendida como proceso
mediador entre el mundo externo y el mundo interno del sujeto. La tesis fundamental
de Vygotski se centra en que los procesos mentales sólo pueden entenderse mediante
la comprensión de instrumentos y signos que actúan de mediadores. Esta postura es
un intento serio de explicar el papel de lo social en el desarrollo psicológico,
subrayando la influencia de la cultura y de los factores externos. Su posición sería
más cercana al empirismo. El constructivismo social se centra en la influencia del
contexto social a la hora de construir conocimiento.

Vygostki intenta conciliar las dos posturas opuestas en las que la psicología
soviética estaba dividida. Para realizar esta reformulación, parte de la concepción
marxista-dialéctica de la naturaleza, en el sentido de que el individuo se desenvuelve
a través de relaciones sociales con otros individuos. Dicha relación no se establece de
manera directa, sino que se lleva a cabo mediante la utilización de instrumentos, ya
sean físicos o sociales. Al mismo tiempo que el uso de los “instrumentos” modifica
la realidad exterior, cambia también la propia realidad del individuo. El concepto
de mediación es clave para Vygotski, ya que lo vincula a otros dos aspectos centrales
de su teoría. El primero de ellos hace referencia al método genético o evolutivo: para
comprender al ser humano hay que estudiarlo desde el punto de vista del desarrollo.
El segundo, hace referencia a que los procesos psicológicos superiores tienen su
origen en la interacción social.

En cuanto al primer aspecto, el evolutivo, Vygostki asume que el desarrollo


cognitivo se encuentra directamente asociado a la aparición de nuevas formas de
mediación. En un primer momento del desarrollo, la mediación toma la forma de
instrumentos físicos y, posteriormente, van surgiendo instrumentos cognitivos que el
sujeto construye progresivamente. Ahora bien, en la elaboración de estos
instrumentos cognitivos, se concede un papel de enorme importancia a la interacción
social. Así, llega a mantener que las funciones psicológicas superiores se desarrollan
gracias al contexto social y por un mediador esencial, el lenguaje.
54

Algunas de las ideas más concretas de Vygotski sobre las relaciones entre el
funcionamiento interpsicológico y el intrapsicológico fueron expuestas de manifiesto
por él con relación al concepto de “Desarrollo próximo”: La distancia entre el nivel
real de desarrollo y el nivel de desarrollo potencial.

El constructivismo de Vygotski descansa en un conjunto de actividades llevadas


a cabo en relaciones sociales que una vez internalizadas organizan y estructuran su
actividad mental. Existe un salto cualitativo entre los procesos asociativos y los
procesos mediatizados por el lenguaje. Lo más importante en el desarrollo temprano
del niño es la adquisición del lenguaje. Primero lo dominan con un propósito social
y más tarde el lenguaje se internaliza y se utiliza con objetivos intrapersonales.

La teoría de este autor ha estado siempre en continuo debate. Recientemente, un


grupo de teorías ha sugerido algunas modificaciones respecto a la teoría original
como por ejemplo que las herramientas físicas e intelectuales producen efectos
específicos en las capacidades intelectuales de los niños en lugar de efectos
generales, sobre cómo el proceso del desarrollo del pensamiento en los niños se
relaciona con un “andamiaje”, o sobre cómo la inteligencia se concibe hoy en día
como algo distribuido a través de un grupo social en lugar de localizarse
exclusivamente en las mentes individuales.

- La comunicación lingüística en la formación del desarrollo cognitivo

Vygotski y Luria consideran que la propia conjunción del pensamiento y el habla


potencia tanto la actividad simbólica que esta pasa a desempeñar una parte
organizadora específica. Estos autores concluyeron que el habla están importante
para el funcionamiento cognitivo que sin ella la tarea cognitiva no se puede
completar. Una posible explicación de esta influencia del lenguaje se basa en el hecho
de que las manipulaciones directas, impulsivas del mono o de otros animales
superiores se sustituyen por complejos procesos psicológicos de planificación que se
generan por medio del habla y de una organización motriz controlada. Tomasello
destaca tres aspectos claves en la comunicación lingüística:

• La mayor parte de la “transmisión” cultural de conocimiento en los niños se


desarrolla a través de la comunicación lingüística.
• El lenguaje es muy importante en el desarrollo cognitivo y la estructura de la
comunicación lingüística influye en la construcción decategorías cognitivas de
relaciones. La razón es porque elaboran sucesos y relaciones que pueden ser
reconocidos como “similares”, aun perteneciendo a diferentes objetos de dominio.
• El papel que juega la adquisición del leguaje en el desarrollo cognitivo es que las
categorías, relaciones y perspectivas conductuales ya pertenecen a la estructura
lingüística convencional, lo que permite a los niños interactuar en un discurso
formal. Algunos contenidos semánticos del discurso que puedan ser distribuidos
en múltiples discursos expresan diferencias y algunos conflictos acerca de lo
que conceptualizan de las cosas. El niño es consciente de los dos puntos de vista
y debe de encontrar alguna forma de reconciliar el conflicto.
55

La propia psicología cultural asume que el proceso por el cual el conocimiento y


las habilidades son “transmitidas” a los niños resulta diferente según las culturas. En
todas las sociedades los adultos proporcionan a los niños una cantidad sustancial de
información a través de la instrucción directa y la explicación, buena parte de ella
dad por vía lingüística y otros medios simbólicos.

- Adquisición de conocimiento y representación

Entre los enfoques teóricos de la perspectiva social existen aspectos comunes a la


hora de rechazar la posición tradicional del procesamiento de información. El
conocimiento no es una posesión individual, sino que es socialmente compartido y
emerge de la participación en actividades socioculturales. La unidad elemental del
análisis es el grupo o la interacción social. Núcleo de la perspectiva social cognitiva:

1. La mente humana se distingue de la de otras especies en su capacidad para


desarrollar un lenguaje, herramientas y un sistema de educación.
2. El conocimiento es el resultado de lo que se obtiene de un grupo social, que
implica tanto el ajuste y la interacción cotidiana con la praxis como su
adaptación, modificación o transformación con el ambiente.
3. El aprendizaje se identifica con el proceso que se inicia dentro de la vida de
un grupo, en la que se asume un rol en la praxis cotidiana
4. EL desarrollo es visto como la emergencia y entrenamiento de capacidades
que hacen de este tipo de iniciación posible.
5. La inteligencia como capacidad distribuida a través del grupo e íntimamente
ligada a las herramientas, artefactos y sistemas de símbolos que el grupo
desarrolla
6. La comprensión se considera la capacidad esencial para el aprendizaje cultural
7. La motivación se entiende como la tendencia natural de los más jóvenes para
verse a si mismos como sus mayores.
56

8. La educación es vista como el proceso en que la comunidad se encarga de


sus pequeños y le mueve hacia roles periféricos y centrales.

- Situación en el continuo e implicaciones educativas

Las teorías de la perspectiva social se ubican en el lado del continuo dedicado al


conocimiento basado en la experiencia.

En relación con el ámbito educativo, las teorías de esta perspectiva tienen mucho
que decir acerca de cómo adaptar las aulas y las actividades para fomentar el
aprendizaje. A medida que los docentes se mueven hacia el aprendizaje cooperativo
y las actividades contextualizadas, las perspectivas del constructivismo social y
sociocultural pueden ayudar a los educadores a comprender el impacto que el
contexto social y cultural tiene sobre el aprendizaje. El conocimiento específico de
dominio de los niños y su posterior profundización hasta llegar a expertos depende
casi totalmente del conocimiento acumulado, de su cultura y de la “transmisión” a
través del lenguaje y otro símbolos, incluyendo la escritura y las imágenes.

Damon (1991) sugiere que tenemos que ser cautos a la hora de ampliar nuestras
posturas sobre la cognición y su desarrollo, ya que se podría menospreciar el papel
que juega el individuo en la construcción social del conocimiento.
57

Tema 5. La psicología del discurso

De las estrechas relaciones entre comprensión y conocimiento

La comprensión está más estrechamente relacionada con el conocimiento de los


que puede parecer a simple vista. Si asumiésemos todas las acepciones de conocimiento
como complementarias en el contexto de una tarea compleja capaz de integrarlas, como
por ejemplo comprender un texto, podríamos señalar que el conocimiento que el lector
pone en juego lo aplica para entender relaciones de las cosas que está leyendo, percibir la
información leída distinta de todo lo que no lo es, predecir lo que puede suceder y que
esa información pueda activarse muy rápidamente en función de las demandas de las que
parte el lector. Puede observarse la cantidad y tipos de conocimientos que el lector posee.
La comprensión implica un gran conjunto de capacidades y disposiciones con respecto a
un objeto de conocimiento.

- Tipos de comprensión adecuados a tipos de conocimiento, textos y relaciones de


coherencia

El conocimiento está muy vinculado a la comprensión. De los tipos deconocimiento


posibles vamos a ver los relacionados con la lectura y con las relaciones de coherencia
que implican:

• Comprensión empática: Somos capaces de entender los sentimientos y


emociones de los otros, lo que con lleva una vida mental e intencional. Este
hecho se produce muy tempranamente, constituyendo un tipo de comprensión
esencial en niños de corta edad.

• Comprensión orientada a una meta: Este tipo de comprensión se nutre de un


conocimiento social y compartido sobre sentimientos y acciones humanas.
Puede comprenderse la conducta humana del otro en términos de motivos,
propósitos e intenciones. Cuentos, fábulas, artículos de prensa…

• Comprensión simbólica y conceptual: La comprensión también se relaciona


con el lenguaje y sus significados, con la estructura, organización y estilo del
discurso oral y escrito. Implica todo tipo de conocimientos y teorías previas
afectando también a los niveles del lenguaje.

• Comprensión episódica y espacial: Se relaciona tanto con la información


espacial descrita semánticamente en el texto como con los diferentes tipos de
expresión gráfica explícita. Implica un tipo de conocimiento sobre el mundo que
demanda, además de una orientación espacial y simbólica.
58

• Comprensión científica: Prima la dimensión cognitiva. Las explicaciones


poseen un fuerte contenido causal y un importante grado de abstracción. Implica
también opiniones con el fin de convencer, persuadir o hacer creer.

• Comprensión metacognitiva: El lector también conoce directamente su grado


de comprensión, lo que adquiere un valor funcional, pues con esta información
el individuo sabe a cada instante si el estudio de un fenómeno requiere mayor o
menor número de recursos o grado de esfuerzo cognitivo. La comprensión
metacognitiva va acompañada de sentimientos. Este conocimiento se adquiere
como fruto de la información autobiográfica acumulada acerca de nuestras
propias cogniciones, sobre la forma de orientarla y sobre el control que se tiene
de las mismas.

Una psicología de la comprensión y del discurso escrito

Se considera discurso a cualquier forma de mensaje verbal extenso e


interconectado, ya sea éste hablado o escrito. Con el término texto se hace referencia
específicamente al discurso escrito.

El psicólogo del discurso investiga en las representaciones cognitivas, en los


procesos, procedimientos y estrategias que la mente humana realiza cuando trata de
comprender o producir un discurso. En este caso la comprensión sería “su” objeto de
estudio, aunque necesariamente necesite de otras disciplinas para desarrollar su tarea. El
estudio sobre la comprensión del discurso supone indagar en las claves que nos permiten
conocer de manera más precisa cómo comprendemos una determinada información.

- Concepto de comprensión

Se considera a la comprensión como una forma distintiva de competencia humana,


identificándose como el esfuerzo para encontrar el significado de lo que vemos, oímos,
sentimos o pensamos. Tal esfuerzo constituye un proceso constructivo, en el que la
información de un estímulo o evento se empareja con otra información existente en la
memoria del sujeto para dar una respuesta coherente. Dentro del discurso, la
comprensión se interpreta como la transformación de los símbolos lingüísticos en
símbolos mentales, lo que implica un nivel de representación mental.

- La comprensión como proceso

Autores como Kintsh han situado la comprensión en una zona intermedia situada
entre la percepción y la solución de problemas. En relación con el tiempo de
59

procesamiento y a diferencia de los procesos de percepción, parece muy improbable que


el procesamiento de la comprensión sea puramente automático. Existen, además, otras
diferencias. La percepción supone el reconocimiento o identificación de un patrón
sensorial o su categorización como un objeto o evento conocido. La comprensión es un
proceso análogo a la percepción pero opera en un nivel más abstracto. Mientras que la
percepción actúa sobre objetos y eventos sensoriales, la comprensión normalmente
supone la interpretación de textos y narraciones o de episodios complejos. Por su parte,
la resolución de problemas depende de la comprensión, ya que el análisis y la
interpretación del problema en este campo requieren la construcción de bloques de
conocimiento específicos en la memoria a largo plazo para llegar a una solución.

Si tratásemos de analizar la comprensión del lenguaje identificando los elementos


que intervienen en dicha comprensión, convendría señalar que la tarea clave de la
comprensión es construir una representación integrada y coherente. Para ello, la
comprensión se ayuda de diferentes tipos de conocimiento. Pero, tanto el lector o el
oyente de una conversación, necesitan contemplar los siguientes aspectos:

• Reconocer la señal del hablante o los grafos del texto


• Segmentar la señal dentro de sus partes constituyentes
• Acceder al lexicón mental basado en los productos de los procesos de
segmentación
• Seleccionar la palabra adecuada dentro del lexicón
• Identificar las relaciones semánticas entre las palabras
• Extraer el hilo argumental de las diferentes oraciones
• Generar el contexto donde se produce la información procesada
• Construir una representación coherente de lo leído u oído
• Contextualizar la información obtenida en su nivel pragmático y/o social

Se asume que la comprensión es un proceso de alto nivel, que requiere de la


intervención de todos los sistemas atencionales y de memoria, de los procesos de
codificación y percepción, de pensamiento y lenguaje.

- Restricciones de la memoria y otras limitaciones

Existe el supuesto de que la amplitud de la memoria de trabajo no dispone de


recursos suficientes como para procesar a un tiempo todo el texto. Más bien, los recursos
de la memoria de trabajo limitan la cantidad de información que puede ser activada
simultáneamente en dicha memoria. De manera general se asume que el texto es
procesado en ciclos y que en cada ciclo se procesa aproximadamente una oración. Hay
modelos que relacionan el nivel de procesamiento con los exiguos recursos de la
memoria de trabajo. Para estos modelos, la distribución de los recursos de la memoria
de trabajo depende tanto del número y tipo de conexiones
60

entre elementos, como la demanda que se solicita de ella. Así, cuando las demandas
exceden de los recursos disponibles, la información pierde activación en proporción a
su fuerza. De esta manera, cuando una información determinada pierde un valor de
activación importante, puede finalizar la participación en el procesamiento

Más recientemente, estas restricciones de la memoria han sido cuestionadas por


autores como Ericsson y Kintsch. Estos autores proponen como alternativa un tipo de
memoria peculiar que acaba desarrollando un lector experto en un determinado dominio
y que puede identificarse como una memoria de trabajo a largo plazo,considerada como
una memoria interconectada. EL lector experto cuenta con estructuras de recuperación
e información que residen en la memoria de trabajo a largo plazo, disponiendo sólo de
algunos indicios o señales de estas estructuras en la memoria de trabajo

Desde otra perspectiva se considera que cada nueva entrada o unidad de información
lingüística se alcanza a comprender sólo cuando la información que se precisa procede
de la memoria permanente. Este proceso fue identificado como resonancia. Aunque este
proceso sea rápido y sencillo y permita acceder a toda la información de la memoria,
tiene algunos inconvenientes. El más restrictivo señala que el grado en que una
determinada información pueda ser activada, dependerá de la fuerza de la asociación
entre la señal de la memoria a corto plazo y la información residente en la memoria a
largo plazo.

- Niveles de representación en la comprensión del discurso

De manera general, la mayoría de los psicólogos del discurso adoptan la distinción


propuesta por Van Dijk y Kintsh entre el código superficial, la base del textoy el modelo
de la situación que se describe en el texto. El código superficial preserva la forma exacta,
tanto de las palabras como de la sintaxis, tal y como aparecen en las cláusulas del texto.
Los lectores normalmente retienen tan sólo el código superficial de las cláusulas más
recientes, a menos que aspectos de este código superficial repercutan de manera
importante sobre el significado. Por su parte, la base del texto contiene las proposiciones
explícitas en una forma reducida preservando el significado pero no la exactitud de las
palabras y la sintaxis. La base del texto también incluye un pequeño número de
inferencias necesarias para establecer la coherencia local del texto.

Por último, el modelo de situación corresponde al contenido delo que trata el texto,
pero supone una representación que guarda más parecido con nuestra experiencia propia
relacionada con la situación determinada referida por el texto que con las características
gramaticales o estructurales del propio texto. De esta manera, el lector construye un
micromundo mental mediante el uso de inferencias que
61

conectan la información del texto con el conocimiento previo fruto de su propia


experiencia.

Además de estos tres niveles, los psicólogos del discurso también reconocen otros
dos niveles de representación, denominados nivel de comunicación y nivel del género
del texto. El nivel de comunicación se refiere al contexto pragmático y comunicativo
dentro del cual el texto está arraigado. En cuanto al género del texto,se han identificado
diferentes categorías tales como la narración, la exposición, la descripción, la
persuasión, los chistes… etc.

La mayor parte de los investigadores creen que los cinco niveles de representación
existentes están suficientemente diferenciados entre sí como para poder estudiarlos
aisladamente. Sin embargo, esta creencia ha sido cuestionada, lo que se convierte en un
reto para la investigación futura.

Las inferencias como núcleo de la comprensión humana

Un texto o un discurso es siempre una guía incompleta hacia el significado en la


que el lector debe ser capaz de construir una representación apropiada del mundo. Una
propiedad fundamental de esta representación es que debe ser coherente. Las inferencias
son fundamentales en el establecimiento de esta representación, puesto que rellenan los
huecos o lagunas de información que no aparecen de manera explícita en el texto,
aportando la coherencia necesaria. Esta coherencia puede ser local (entre oraciones) o
global (segmentos amplios de un texto).

Las inferencias son, por tanto, las responsables de desvelar lo oculto, de ahí que
estén especialmente vinculadas con el conocimiento tácito. Las inferencias pueden ocurrir
durante la comprensión del mensaje, mientras el lector lo está recibiendo o durante la
recuperación. Las primeras se consideran como fenómenos genuinos de procesamiento
constructivo y las segundas son fenómenos reconstructivos.

- La mente como una “máquina” de hacer inferencias

La capacidad de la mente para generar inferencias constituye una facultad cognitiva


enormemente sofisticada y universal. Bruner (1957) ya identificaba la mente humana
con una “máquina de inferencias” al referirse a su destreza para activar el conocimiento
ya almacenado y utilizarlo para organizar e interpretar la nueva información entrante.
Esta destreza revela que construimos información activamente a partir de dicha
estimulación.

Pero la tarea de esta sorprendente máquina podría considerarse más sencilla y


simplificada si a la hora de codificar cada oración del texto le correspondiese tan sólo
una idea que fuese representada proposicionalmente como una unidad en el cómputo de
la comprensión. Pero la realidad no suele ser tan simple y mecánica. En
62

realidad las inferencias pueden considerarse heurísticos que pueden relacionarse con
cualquier aspecto del significado, ya sea la naturaleza de éste espacial, temporal, causal,
lógico, natural, artificial… El resultado final es que siempre acabamos procesando más
información de la que leemos de manera explícita, puesto queunimos lo que hemos leído
u oído con aquello que sabemos acerca de algo.

Una idea sugerida por Schank aludía a que si sumásemos el número de significados
que posee cada una de las palabras que componen un párrafo su resultado siempre será
menor al cómputo total de ideas que el lector necesita activar para comprender el
mensaje. El texto presupone otras muchas ideas que no aparecen explícitamente en el
y que son requeridas para su comprensión. EL lector debe disponer previamente de ideas
que se conecte con la información extraída del texto a través de inferencias

- La dependencia del conocimiento y los acuerdos tácitos del escritor y el lector

En los textos, la parte información omitida delega en las inferencias. Pero debe
señalarse que para que esta situación de comunicación se desarrolle con éxito, requiere
que se cumplan dos requisitos. El primero nos recuerda que el proceso de inferencias
depende en buena medida de que el sujeto posea conocimientos previos necesarios y
relacionados con lo que lee. El segundo requerimiento nos sugiere que ese conocimiento
o parte de él, debe compartirse con el autor del escrito. Ambos, escritor y lector, deben
participar de un espacio común de conocimiento

Todo lo que hemos descrito hasta ahora nos proporciona la base para resaltar tres
funciones esenciales de las inferencias

• Función cognitiva: ya que mediante las inferencias nos adentramos bajo la


superficie de los datos
• Función comunicativa: Facilita la transmisión de información de un modo
económico y más atractivo
• Función conductual: Especialmente útil para dirigir y predecir las conductas,
optimizar beneficios y minimizar posibles daños.

Evolución de los modelos de comprensión

Barlett, precursor de algunos modelos, afirmó con clarividencia que la memoria es


un proceso constructivo y como tal, un fenómeno socializado. La concepción
constructivista de Barlett se propaga a los modelos de comprensión propuestos a partir
de los años 70
63

- El estudio experimental de la comprensión

Las investigaciones se dirigen a una concepción sobre cómo se representa la


información en un texto y en la memoria del lector. Aparecen un número importante de
teorías y modelos sobre aspectos relacionados con la codificación, representación,
recuperación y aplicación del conocimiento lingüístico. Estas teorías comparten su
preocupación en varios aspectos:

• Interés por desarrollar un sistema capaz de representar un conocimiento


complejo adquirido mediante interacciones verbales y no verbales con el mundo.
• Proponer un sistema de representación que permitiera una búsqueda y una
recuperación eficaz
• Incorporar un sistema de representación que permitiera generar inferencias
rápidas

La solución elegida fue adoptar la proposición como unidad básica de


conocimiento. Se asume que los lectores construyen sistemáticamente una
representación integrada de un texto, localizando el referente de la información
“dada” en su memoria para conectar con la información nueva del texto.

- Los primeros modelos estructuralistas

En los años 70 y desde la lingüística, surge un movimiento preocupado por encontrar


una representación de la prosa. Se constituye la psicología del discurso. Autores trataron
de analizar la prosa clasificando las ideas del texto según la función que ocupan dentro
de su contenido global. Surgen modelos con un marcado carácter estructuralista en el
sentido de que se centran fundamentalmente en la estructura del texto.

Una idea principal en la que se basan este tipo de modelos es que las variables
estructurales pueden influir en la retención del discurso. Descubrieron que la
información considerada en los niveles más altos se recordaba significativamente mejor
que la correspondiente a los niveles más bajos. A este fenómeno se le denominó “efecto
de los niveles”.

Durante esta época fueron significativos los trabajos de Kintsch y Frederiksen.


Ambos autores propusieron estructuras jerárquicas complejas mediante proposiciones.
Meyer también propone una representación jerárquica. El supuesto básico de su modelo
que la comprensión y el recuerdo de los contenidos de un texto dependen de su nivel
dentro de la estructura jerárquica. La unidad de análisis propuesta fue la unidad
ideacional, que incluye tanto las ideas del texto como las relaciones inferidas del mismo.
En cuanto al contenido del texto, esta autora estableció tres niveles en su estructura:
el nivel microproposicional, orientado por
64

verbos y por ciertas reglas que establecen relaciones semánticas ante el predicado léxico
y sus argumentos; el nivel macroproposicional, donde se producen las relaciones o
conexiones retóricas entre las proposiciones y la culminación de la estructura de alto
nivel gobernada por la relación retórica más representativa, capaz de interrelacionar toda
la información a modo de idea directriz. El proceso de elaboración de la estructura se
lleva a cabo de arriba-abajo.

Por último, la propuesta estructural más conocida fue el modelo de comprensión de


texto de Kintsch y van Dijk. Este modelo fue capaz de integrar ideas sobre la
representación de conocimiento proveniente de los modelos de la memoria
computacionales con ideas sobre la naturaleza de los procesos de comprensión on- line,
con las limitaciones cognitivas básicas bajo las que esos procesos operan y con las ideas
procedentes del análisis del discurso. Este modelo establece al igual que el de Meyer
tres niveles en la estructura del texto: la microestructura o base del texto, la
macroestructura y el nivel de las estructuras esquemáticas. El lector construye la
representación del texto cuando extrae su significado mediante la elaboración de una
microestructura. A partir de ella el lector crea una macroestructura de su significado
global. Para ello pone en marcha operadores que reducen y organizan la información y
se denominan macrorreglas. Las macrorreglas se aplican bajo el control de un esquema
que representa los conocimientos y propósitos delsujeto. Este nivel de las estructuras
esquemáticas es fundamental porque permite al lector conocer la estructura del texto
para aplicar las estrategias necesarias para recordar y recuperar la información deseada.

Estas teorías aportaron una unidad básica de análisis del contenido del texto.
También proporcionaron una metáfora para visualizar las relaciones entre unidades de
significado mediante estructuras en forma de red. Por último proporcionaron la base
para teorizar sobre el proceso.

- Las gramáticas de las historias

Estas gramáticas retoman el concepto de esquema de Barlett. La comprensión de un


texto se concibe como el proceso de construir una representación de la narración
utilizando la estructura prototípica almacenada en la memoria. Para estos autores, a
medida que el sujeto procesa la historia, debe ir formando hipótesis sobre la ocurrencia
más probable de los sucesos. Se trata de un proceso activo por parte del sujeto en el que
influyen tres factores: el conocimiento acerca de la estructura de la narración, el
conocimiento concreto acerca del contenido de una historia y el nivel de desarrollo
evolutivo en el que se encuentra el lector. Se trata de modelos formales cuyo concepto
central es el esquema que el lector construye a partir de la información leída. Las
gramáticas no pretendieron ser un modelo general de comprensión del discurso. Sólo
son aplicables al material por el que se desarrollaron, historias de estructura sencilla.
65

Los esquemas aumentaron la capacidad explicativa de los modelos de comprensión


y de su relación con el nivel de conocimientos del lector. De tal manera que la
comprensión final del texto asume desde la conjunción de dos factores.De un lado, las
características del lector, sus conocimientos y habilidades lectoras. Esta habilidad
necesita de la práctica y continúa desarrollándose en la edad adulta.

Esta perspectiva nos permite realizar algunas conjeturas respecto a cómo se produce
una comprensión errónea del texto en función de los conocimientos. Puede darse el caso
de que esa interpretación no sea correcta porque el sujeto no posea los esquemas
necesarios. Puede también que esa comprensión sea defectuosa debido a que el escritor
no proporciona al lector los indicios suficientes para activar los esquemas destacados.
Por último, puede ser, que esa interpretación aunque realizada coherentemente por el
lector no coincida con la propuesta por el escritor.

- Modelos estratégicos de la comprensión

Durante la década de los 80 fueron surgiendo modelos que otorgaron un papel más
activo al lector en el proceso de la comprensión, asumiendo que la comprensión de un
texto implica la construcción de una representación mental de su contenido. Los
modelos más recientes establecen varios niveles de representación, destacando el
modelo mental o el modelo de la situación. El modelo mental juega un papel central y
unificador en la representación de objetos, estados y secuencias de sucesos, la forma
en la que se concibe el mundo y las acciones humanas de la vida diaria. Este
conocimiento permite a los individuos realizar inferencias y predicciones.

Por su parte, Van Dijk y Kintsch propusieron un modelo estratégico de comprensión.


Este modelo asumía que la formación de la macroestructura no se debía exclusivamente
a la aplicación de las macrorreglas, sino a un proceso en el que el lector aplica sus
conocimientos y estrategias en el reconocimiento. Estos autores definen tres niveles de
representación: una forma de representación superficial, la base proposicional del texto
y el modelo de la situación. El modelo de la situación se caracteriza porque extrae la
información implícita el texto, es más elaborado que la base del texto porque integra
información derivada del mismo con la del conocimiento del lector que se activa durante
la lectura. Una de las diferencias entre el modelo de la situación y el modelo mental es
que el primero puede ser no proposicional o proposicional. Pero muchos autores los han
utilizado como sinónimos

- Modelos conexionistas

Surge a finales de los 80 e influyen significativamente una serie de sucesos. En


primer lugar podemos citar el principio de inmediatez. Según este principio, el lector no
realiza un movimiento ocular hasta que no ha completado todo el procesamiento de la
información en esa fijación. En segundo lugar, resultaron decisivos diversos desarrollos
de la metodología experimental. Así, en estos años, los investigadores ya
66

disponían de dos tipos de procedimientos: el tiempo de lectura y el registro de


movimientos oculares y las técnicas de procesamiento. En último lugar, se sucedieron
en estos años una serie de hallazgos empíricos acerca del papel y la naturaleza de los
procesos inferenciales durante la lectura. De esta forma surgen modelos más complejos.

En general, los modelos conexionistas conciben la comprensión como el proceso de


construcción de una representación entre conexiones que se establecen en la memoria.
En estos modelos reina la idea de expansión de la activación y de la interacción de todo
con todo. El proceso de la lectura en sí mismo tiene como característica principal el
cambio de patrones de activación según se va comprendiendo cada oración. Las
inferencias no deberían ser consideradas como todo o nada. En su lugar, los conceptos
se diferencian en su grado de accesibilidad o facilidad de acceso. El modelo más
representativo es el modelo de construcción- integración de Kintsch. Este modelo se
ocupa de los procesos de comprensión a partir de las oraciones sin considerar otros
procesos más básicos como el acceso al léxico o los procesos sintácticos.

Por otro lado, Just y Carpenter (1992) propusieron un punto de vista diferente que
consiste en la explicación de la comprensión basándose en las limitaciones de la
memoria de trabajo bajo el nombre de la teoría de la capacidad de comprensión del
lenguaje. En este marco, la capacidad puede expresarse como la cantidad máxima de
activación disponible en la memoria de trabajo para abastecer cualquiera de las
funciones de activación y recuperación. A través de experimentos llegaron a la
conclusión de que la demanda de capacidad de la memoria de trabajo aumenta a medida
que los procesos se hacen más complejos o son de un nivel más alto. Para ellos, la
comprensión requiere la representación de la relación entre la oración que seestá leyendo
y la información anterior. Llevar a cabo esta conexión requiere menos tiempo si la
información anterior relevante se encuentra aún disponible en la memoria de trabajo.
Por el contrario, si la información previa relevante ya no se encuentra activada, entonces
el proceso requerirá más búsqueda en la MLP y por tanto más inferencias constructivas

Más recientemente ha surgido el modelo Landscape (Van den Brock y cols. 1996,
1999, 2002) según el cual la lectura se concibe como un proceso cíclico. En cada ciclo
de lectura consecutivo se procesa un nuevo segmento y los conceptos que lo forman. La
nueva información entra en la memoria de trabajo del lector y debido a que su capacidad
serial está limitada, la información que se encontraba en la MT se encuentra eliminada.
Durante el procesamiento de la información nueva, el lector puede activar su
conocimiento previo o reactivar información del texto procedente de ciclos de lectura
anteriores. Esto tiene como resultado una competición por los recursos atencionales
limitados. Así, durante cada ciclo de lectura son cuatro las
67

fuentes potenciales que determinan los valores de la activación de los conceptos: el texto
que está siendo procesado, el ciclo de lectura inmediatamente anterior, ciclos de lectura
antes del anterior y el conocimiento previo del lector.

Los patrones de activación a lo largo de los ciclos de lectura forman las bases de
la representación del texto que el lector construye en la memoria. Cuando dos conceptos
se activan simultáneamente, se crea una conexión entre ellos en la memoria episódica
del lector. La fuerza de esta conexión depende de la cantidad de activación de cada uno
de los conceptos que lo constituyen. Además, si dos conceptos se encuentran co-
activados repetidamente, la conexión en la memoria entre ellos se actualiza con cada
recurrencia. En cada ciclo, se crean y actualizan múltiples conexiones. De este modo, el
proceso de la lectura tiene como resultado la construcción gradual de una
representación del texto. Esta representación afecta alos ciclos de lectura que le siguen.
Como consecuencia de este proceso llamado activación cohorte, la información
venidera en cada ciclo es interpretada teniendo en cuenta las interpretaciones de la
información de ciclos previos.

Los resultados de la aplicación del modelo Landscape indican que los lectores
disponen de estándares de coherencia, mediante los cuales juzgan su comprensión y
determinan si se implicarán en más procesamientos.

El modelo CI o la arquitectura funcional de la comprensión

La teoría que se presenta es la última versión de la familia de modelos de


comprensión de textos iniciada por Kintsch y Van Dijk. El nombre de Construcción-
Integración refleja el supuesto central acerca de la naturaleza de la interacción entre el
lector y el texto en la comprensión.

El modelo CI es una arquitectura que pretende dar cuenta de la variedad de


fenómenos que se producen durante la comprensión. Esto puede ser debido a que la
comprensión es un proceso sui generis que debe ser situado en algún lugar dentro del
continuo entre la percepción y la solución de problemas. La razón es que los procesos de
comprensión tienen lugar en la escala de milisegundos, cosa que los había convertido en
intratables mediante los esquemas tradicionales de solución de problemas en arquitecturas
convencionales.

Este modelo supone una propuesta de arquitectura de la cognición cuyas


características más comunes conllevan: 1) el supuesto sobre cómo se genera la
representación mental del texto y del conocimiento del lector y 2) el supuesto sobre cómo
se procesa la comprensión. Ambas representaciones están representadas en redes de
proposiciones. Estas redes son de naturaleza asociativa y están relativamente
desestructuradas
La mente está un tanto caótica, basándose más en la percepción y en la experiencia
antes que en la lógica. Por ello, es importante resaltar que en el modelo CI la activación
de conocimiento no se guía por el control de estructuras organizadas como los esquemas,
sino mediante la asociación y de manera local y, por tanto, resulta primitiva e imprecisa.
De esta manera se activa tanto conocimiento relevante como irrelevante. Las
presunciones acerca de los procesos cognitivos son también similares: la construcción de
representaciones mentales no incluye necesariamente la aplicación de reglas precisas,
sofisticadas o sensibles al contexto. En lugar de ello, la construcción de reglas puede ser
más simple y primitiva, pudiendo alcanzar tan solo soluciones aproximadas, repletas de
irrelevancias y redundancias.

El modelo asume que la comprensión es un proceso interactivo en el sentido de


que siempre conlleva la interacción de un input externo, usualmente el texto, con los
objetivos y el conocimiento del sujeto que realiza el proceso de comprensión.

- El proceso de construcción

La presentación de un texto viene determina por la interacción de lo que está escrito


y por la actividad que realiza el lector. Lo que aporta CI es un mecanismo computacional
preciso que permite describir la naturaleza y los resultados de esta interacción. Los
aspectos para destacar en el proceso de construcción de CI son los siguientes. El
primero, que un parser para este modelo no necesita ser perfecto. Si construye formas
menos apropiadas en adicción a las apropiadas, el contexto funciona de forma
suficientemente restrictiva como para eliminar las equivocadas.

Otra de las propiedades es su mecanismo de focalización. En el proceso de


comprensión, además de formar conceptos y proposiciones, es preciso determinar sus
relaciones. En una situación determinada ¿Cómo resulta posible construir una
representación coherente del texto global? El modelo CI asume que cuando el lector
pasa de una unidad a otra no se desactiva todo el material de la memoria de trabajo, sino
que queda retenido un número reducido de proposiciones. Estas proposiciones se
mantienen en el foco de atención y se reprocesan junto al material perteneciente al
siguiente ciclo de procesamiento. Los objetivos del lector desempeñan un papel
relevante en la activación de conocimiento

- El proceso de integración

Este proceso viene determinado por la estructura de la representación elaborada.Esta


representación forma una red ricamente interrelacionada de proposiciones. El proceso
de integración es fácil de comprender. Inicialmente todas las proposiciones que
provienen del texto se les dota con una fuerza de 1, y las basadas en el conocimiento
con una fuerza de 0. El procedimiento de difusión de activación se encarga de que la red
alcance un estado de equilibrio.
69

Este proceso de integración tiene lugar en un único ciclo input, y su resultado


representa el contenido de la memoria de trabajo al final del ciclo. Cuando el proceso se
mueve al ciclo siguiente suceden dos cosas. En primer lugar, la estructura global
generada se elimina de la memoria de trabajo y se almacena en una memoria secundaria
como una representación episódica del texto. En segundo lugar, las proposiciones más
altamente activadas permanecen en la memoria de trabajo durante el procesamiento de
la siguiente secundaria. Al final de cada ciclo, el foco de atención se mueve hacia un
nuevo input, a excepción de las proposiciones más relevantes del ciclo anterior que
continúan activadas. El aprendizaje resultante en CI puede definirse en términos de los
efectos que produce la memoria episódica de textos en la MLP

La comprensión y la adquisición de conocimiento

La comprensión de un texto implica una importante actividad cognitiva y a través


de ello dotar de coherencia, lógica, para ser entendido. Todo ello supone un importante
esfuerzo porque nos obliga a realizar múltiples subprocesos. Debido a esta característica,
jerarquizamos la información siguiendo diversos criterios de relevancia y economía.
Realizamos inferencias y establecemos diferentes niveles de representación mental. Una
primera aproximación a la adquisición de conocimiento o a su transmisión es que la
comprensión actualmente se entiende como un prerrequisito para el aprendizaje. Esta
estrecha relación entre comprensión y aprendizaje nos plantea cuestiones acerca de cómo
abordar un viejo problema aún no resuelto. Este problema se podría resumir en cómo
muchas personas a pesar de que saben leer no comprenden lo que leen o no consiguen
adquirir nuevos conocimientos de manera eficiente

Esta perspectiva de la comprensión clarifica lo que debería lograr una pedagogía


centrada en la comprensión: permitir a los estudiantes manifestar unavariedad de acciones
relevantes de la comprensión acerca del contenido que están aprendiendo.

- Procesos intervinientes en la construcción de la comprensión

La comprensión implica un conglomerado de procesos. Tanto es así que,


dependiendo de que todos o sólo algunos procesos se pongan en funcionamiento,
podemos hablar de una comprensión profunda o de una comprensión superficial.
Obtenemos una comprensión profunda cuando alcanzamos los siguientes pasos:

• Extraemos las ideas de las palabras y las oraciones del texto. Generamos así lo
que denominamos la microestructura del texto y sobre la que montaremos
posteriormente lo que será la base del texto
70

• Realizamos inferencias para generar puentes de significado entre las ideas que
encierran una oración con la siguiente o entre segmentos más amplios de
información. La información fundamentalmente viene de nuestro fondo de
conocimiento.

• Gracias a la realización de inferencias podemos conectar ideas entre sí, podemos


componer un orden o hilo conductor entre ellas.

• Asumimos y/o construimos la jerarquía existente entre las ideas leídas. Este paso
suele denominarse diferenciación o jerarquía en el valor de las ideas enel texto.
Se denomina la macroestructura.

• Reconocemos la trama de relaciones que articulan las ideas globales, la


superestructura. Permite asimilar la comprensión del texto y añadir más
elementos que enriquecen dicho modelo tomando conocimiento, tanto del texto
como del propio conocimiento del lector que le servirá para elaborar su propia
interpretación.

- Estrategias intervinientes en la adquisición de conocimiento

Estas carencias en la comprensión han llevado a muchos estudiosos a indagar en las


estrategias de comprensión que aplican los lectores ante la lectura de un texto. Se asume
que el lector modelo suele empezar el proceso de lectura revisando superficialmente
ciertas características del texto. Esto activa esquemas de contenido y quizás también
esquemas básicos sobre los patrones en los que se organiza el texto. El lector se
sirve posteriormente de esta información para construir hipótesis o hacer predicciones
sobre el sentido del texto o las intenciones del autor. Las hipótesis y predicciones se
convierten así en el propósito de lectura ya que el autor lee para confirmarlas o refutarlas.

Desde hace ya algún tiempo, un importante número de investigaciones se ha


orientado a analizar y clasificar diferentes estrategias que los lectores competentes y no
tan competentes desarrollan a la hora de comprender un texto. Se han identificado
estrategias propias e los lectores competentes que han sido denominadas estrategias
organizativas, de comprensión, significativas, de conocimiento, estructurales o
cualitativas. Por otro lado, el lector inmaduro presenta otras estrategias como las
mecánicas, cuantitativas… Estas estrategias sugieren que los buenos lectores se
mantienen más activos ya que en su caso las estrategias están orientadas a generar o
activar los conocimientos que posee el sujeto. También el conocimiento implícito sobre
la estructura del texto se revela como uno de los factores claves responsables de esta
superioridad. El lector maduro parece utilizar habitualmente este conocimiento.
71

- Recopilando elementos de un puzle interactivo

Hemos agrupado los elementos que componen la comprensión en torno a tres


factores. De un lado, las características del material escrito. Así, en este lugar podríamos
situar todo lo que dependiese del texto y del escritor para optimizar su comunicación.
Por otro lado se sitúan las características del lector, sus conocimientos y los procesos
mentales que debe realizar para generar un nivel de representación mental lo más rico y
coherente posible. La idea esencial que se pretende transmitir es que si se conoce la
competencia lectora de la que dispone el lector, las características del texto y el contexto
donde se produce, pueda predecirse el nivel de comprensión que obtendrá el lector.

Enseñar a comprender

Podemos considerar tres aproximaciones básicas a la enseñanza de la comprensión

• La primera hace referencia a la ya clásica vía del sentido común mediante la


explicación directa. Tratamos de explicarlo de una forma lo más clara posible
y utilizando términos que quien nos escucha sea capaz de comprender. La
limitación más importante es que este tipo de enseñanza es muy intuitiva y poco
sistematizada.
• La segunda aproximación podría caracterizarse por su aproximación a los
“procesos”. Se refleja en la “perspectiva del desempeño” de Perkins. El
problema de esta aproximación es que relega el conocimiento al status de
material de referencia dentro de lo que podíamos denominar un “armario”
mental. Toda la riqueza intelectual reside en las habilidades cognitivas que
operan sobre este material. Este punto de vista sugiere que los estudiantes en
lugar de trabajar sobre el conocimiento explícito y declarativo tiene que hacer
uso de aspectos claves como la interpretación, la aplicación, el análisis, la
síntesis y la evaluación.
• La tercera aproximación se centra en los modelos mentales de los estudiantes.
Trata de determinar cuál es el nivel de comprensión del estudiante ideando un
tipo de experiencia que cambie su modelo mental. Esta aproximación es
esencialmente constructivista. Presupone que el cambio conceptual debe tener
lugar mediante la actividad cognitiva del que aprende. Una variación podría ser
la cognición situada.

- El desarrollo de la comprensión en un contexto social

Para Egan los tipos de comprensión no suelen formar parte del discurso educativo,
pero aún así pueden ayudar a resolver diferencias entre distintas posiciones
epistemológicas o psicológicas trazando alguna línea de unión entre ellas. Para este
autor, la categoría comprensión tiene un componente psicológico. Pero
72

también dispone de un componente epistemológico en el que la comprensión no


puede existir sin que haya algo que comprender.

La idea central de Egan es que existen diferentes tipos y formas de comprensión. En


el nivel inferior encontramos la comprensión somática que viene con nuestro
equipamiento y que no es única de la especie humana. Después existe una comprensión
mítica, la vía característica mediante la cual las sociedades preliterarias generan el
significado del mundo. La alfabetización hace posible la comprensión romántica basada
en el mundo de los sentimientos. Sobre ésta se posiciona la comprensión filosófica que
lleva asociada las características propias de la ciencia. Finalmente está la comprensión
irónica que podría denominarse juicio o sabiduría

Desde el punto de vista de la educación formal, el foco de atención se centra


fundamentalmente en la comprensión filosófica. Para Egan esto supone una práctica
muy pobre por dos razones: porque no funciona, los niños no pueden ir directamente
hacia la comprensión filosófica. Los niños necesitan recapitular la historia desarrollando
una comprensión mítica y luego una romántica. La segunda razón que alude Egan es
que la comprensión filosófica es en sí misma estéril, pálida e incruenta. Esta
comprensión necesita incorporar o preservar elementos pertenecientes a la comprensión
somática, mítica y romántica.
73

Tema 6. Una aproximación metodológica al estudio del


conocimiento

Dos problemas constantes con los que se suele topar cualquier científico cognitivo
cuando aborda el estudio de la actividad mental son que cualquier actividad cognitiva real
parece implicar la operación de muchas funciones simultáneas y por otro lado, la
imposibilidad de acceder de manera directa a los procesos que subyacen a dicha actividad.
El estudio del conocimiento, de la comprensión o de la generación de inferencias son
claros ejemplos donde surgen estos problemas. Pero existe otro problema mayor: la
polémica suscitada entre dos formas de intervenir, la cuantitativa y la cualitativa. En la
mayor parte de la psicología experimental, la dimensión ecológica, social y cultural de
la cognición humana se suele dejar entre paréntesis,lo que inspira fuertes críticas. El
debate entre el enfoque estándar, más experimental de la cognición y los enfoques más
orientados ecológicamente sigue suscitando una gran preocupación. La solución pasa por
buscar complementariedad.

La idea que se plantea desde este punto de vista es la de tratar de pasar de una
psicología centrada en la teoría, a una psicología centrada en los problemas.

La complementariedad de las metodologías a través del estudio de las inferencias

Un debate que sigue abierto gira en torno a precisar qué inferencias se generan
durante la lectura (online), bajo qué mecanismos surgen y cómo se construyen. La
discusión se ha desplazado también hacia la metodología tratando de analizar cuál de las
posibles resultan más idóneas para abordar estas cuestiones. Investigadores como
Magliano y Graesser (1991) han llegado a proponer un método denominado de tres-
puntas, capaz de coordinar teorías del procesamiento del discurso, métodos de generación
de inferencias verbales y medidas cronométricas que permitan evaluar el momento exacto
en el que se produce una determinada inferencia. Esta metodología se basa en la idea de
que resulta posible obtener información sobre los procesos mentales de los sujetos
basándonos en os informes de los propios sujetos acerca de lo que pasa por su mente
mientras ejecutan una tarea. Uno de los métodos más profusamente utilizados es el
conocido como análisis de protocolos verbales. Consiste en pedir a los sujetos que digan
lo que pasa por sus mentes mientras resuelven problemas. Esta forma se registra para su
posterior análisis pormenorizando donde el investigador consigue descomponer los
protocolos de los sujetos en lo que podría considerar sus unidades anatómicas; es decir,
las operaciones discretas que no pueden ser descompuestas.

El hecho de que una inferencia se realice en una fase determinada mediante estos
informes verbales no significa que sea generada durante el momento mismo de
74

la lectura. Para ello, los investigadores requieren de medidas experimentales más


rigurosas que permitan evaluar empíricamente si esas inferencias se generan realmente
durante la lectura.

Existen tres métodos para hacer que los sujetos generen informes verbales. En
primer lugar, se puede pedir al sujeto que realice un informe de manera concurrente a lo
que está pasando mientras resuelve una tarea. De forma alternativa, se puede pedir a los
sujetos que realicen un informe retrospectivo de la secuencia de pensamientos que han
seguido inmediatamente después de haber completado la tarea. Por último, el sujeto
puede proporcionar una descripción general de sus estrategias una vez que han
completado una serie de tareas dentro de la fase experimental.

Los informes verbales como instrumento de investigación de la mente

La vía oral suele ser la más habitual con la que expresamos a los otros nuestros
conocimientos y reflexiones, sentimientos y opiniones, o mostramos el uso de diversas
estrategias como forma de enfrentarse con éxito a un determinado problema. Sin embargo,
el uso de informes verbales no ha estado exento de problemas. Se ha cuestionado su
eficacia por el grado de subjetividad que implica. Desde que a inicios del siglo XX se
consideró la introspección como una metodología científicamente inaceptable, muchos
científicos generalizaron su repudio a cualquier tipo de informe o protocolo verbal.

- Los informes verbales en el contexto histórico

El análisis de los protocolos verbales se ha venido utilizando a lo largo del siglo


XX. Se le atribuye a Aristóteles el primer intento semántico por recordar y analizar la
estructura del pensamiento. Como forma de examinar su memoria y averiguar qué
pensamientos tienden a seguir a otros, Aristóteles concluyó que el factor determinante
de esas conexiones se debía fundamentalmente a las asociaciones ya realizadas en una
experiencia previa.

La identificación de la acción de pensar como una secuencia de pensamientos ha


sido muy cuestionada con posterioridad. Hume llegó a argumentar que los
pensamientos eran, en realidad, detalles de las percepciones originales. Para evaluar
estas cuestiones, los filósofos recurrieron a la introspección como método de análisis
que les permitiese analizar cuidadosamente la modalidad sensorial y sus posibles
componentes.

En realidad, el uso de la introspección en particular y los protocolos verbales en


general, como métodos de análisis para extraer información acerca de los procesos
mentales, han venido planteando dos problemas metodológicos fundamentales que
han cuestionado su validez experimental. El primero de ellos nos recuerda que el
contenido que aporta el sujeto experimental y que se registra en los protocolos
75

verbales no siempre puede ser medido con precisión, además, el evaluador no puede
determinar la validez de la información obtenida al no poder contrastarla con otra
evidencia más empírica y estable. El segundo problema alude a que, incluso en el caso
de que sujetos se esfuercen por dar la información requerida de la manera más exacta
y precisa posible, ello no siempre garantiza que dicha información obtenida sea
necesariamente válida para evaluar los procesoscognitivos que están mediando en esa
conducta verbal.

El uso del análisis de protocolos verbales ha sido muy controvertido en el siglo


XX. Se pueden diferenciar dos momentos importantes. Uno de ellos se produce en la
primera mitad, donde se produce una pugna entre el paradigma conductista y aquellos
investigadores interesados en analizar los protocolos de lectura. Durante la
hegemonía del conductismo, la introspección fue completamente rechazada. Sin
embargo, a pesar de esta fuerte oposición los protocolos verbales se siguieron
utilizando. James (1890) utilizó los informes verbales de los sujetos sobre sus
pensamientos para validar sus teorías sobre la psicología.

- El análisis de tareas (Nexwell y Simon, 1972)

El segundo momento importante en el uso de análisis de protocolos se produce


con la revolución cognitiva en los inicios de la segunda mitad del siglo XX, donde
resurgió el interés por desvelar la estructura del pensamiento humano. Las teorías del
procesamiento de la información (Nexwell y Simon, 1972) abrieron la puerta a
multitud de modelos computacionales. Uno de los métodos más utilizados en este
periodo fue el análisis de tareas. A través de este análisis el investigador identificaba
multitud de procedimientos diferentes o pasos que los sujetos realizaban cuando
verbalizaban las acciones mentales relacionadas con la búsqueda de soluciones a
problemas que les habían sido planteados.

El análisis de tareas permite a los investigadores identificar un número limitado


de secuencias de pensamiento, de inferencias y de componentes intermedios que
cualquier sujeto puede realizar para generar la respuesta correcta ante la resolución
de un problema específico. Esta metodología ha sido la más extendida en el estudio
de expertos-novatos. De esta manera, se confirma que los expertos poseen un cuerpo
organizado de conocimiento conceptual y procedimental que puede ser accesible
rápidamente y utilizado con habilidades superiores de control y autorregulación. En
este sentido, autores como Olshavsky desarrollaron una aplicación a la lectura. Este
autor demostró que la lectura es claramente un proceso estratégico, resaltando la
necesidad de analizar más detenidamente las estrategias que intervienen.
76

- Pensamiento en voz alta

Mediante el pensamiento en voz alta se solicita al sujeto la verbalización de


aquellos pensamientos conscientes que llegan a su mente mientras lee un texto. Los
protocolos que se registran mediante este método revelan aquella información
accesible a la memoria de trabajo, a la conciencia y la que ha sido codificada a través
del lenguaje. Esta metodología de pensamiento en voz alta está siendo paulatinamente
más aceptada por los investigadores y se admite como método válido en el estudio de
los procesos de comprensión.

Según Pressley y Afflerbach, los protocolos verbales permiten analizar cómo


antes de comenzar la lectura de un texto, los sujetos tratan de hacer una primera
evaluación de este en función de sus objetivos de lectura y de su primeraaproximación
al texto. Es una visión de conjunto que incluye detenerse en aspectos tales como la
longitud del texto, en su estructura, en el número de apartados que tiene… En
definitiva, esta visión permite al sujeto generar hipótesis acerca de lo que va a tratar
el texto.

Con respecto a las actividades que tienen lugar durante la lectura, los protocolos
verbales permiten analizar gran parte de los procesos que tienen lugar en el momento
de la lectura, pudiendo agruparse en cinco grandes categorías: actividades que se
realizan al inicio de la lectura del texto; las que ayudan a determinar la importancia
de la información contenida en el mismo y a la extracción de las ideas más
importantes; las que permiten la generación e inferencias; la integración de los
distintos segmentos del texto; y la interpretación de la información. Los protocolos
verbales permiten también estudiar los procesos que se producen después de la
lectura, como son la realización de una segunda lectura o repaso del texto, repetir en
voz alta, hacer un resumen… Estos procesos posibilitan al sujeto revisar de forma
continua la representación que tiene del texto.

De acuerdo con Pressley y Afflerbach (1995), existen tres grandes tipos de


actividades que surgen del análisis de los protocolos verbales que se enmarca dentro
de una teoría constructivista de la lectura. Gran parte de la actividad del sujeto está
dedicada a construir el significado del texto durante y después de la lectura. También
existen actividades metacognitivas.

La validez de estos métodos ha sido puesta de manifiesto en gran cantidad de


estudios y contextos diferentes. Existen estudios entre novatos y expertos a la hora de
generar inferencias. Se ha demostrado que los lectores más hábiles generan más
influencias que los lectores menos hábiles. Zwaan y Brown (1996) ahondaron en la
cuestión y encontraron que mientras que los lectores más hábiles generaban
77

inferencias explicativas los lectores menos hábiles generaban inferencias


asociativas por lo que las estrategias de lectura eran cualitativamente diferentes.

- Método de preguntas y respuestas

La metodología sobre preguntas y respuestas ha sido particularmente utilizada


para exponer al lector a situaciones tales que su conocimiento previo le resulte
relevante para comprender una determinada historia y esté potencialmente accesible
durante el procesamiento. En este tipo de metodología, los sujetos se enfrentan a la
lectura de un texto generando respuestas a situaciones específicas para cada frase o
cláusula en el mismo orden en el que las oraciones aparecen en el texto.

A través de esta metodología se ha recogido un amplio abanico de inferencias


cuyas respuestas incluyen metas, acciones intencionadas, sucesos involuntarios,
estados y estilos en los que ocurren acciones los estados. Tanto el tipo de pregunta
como el tipo de información que está siendo requerida tienen un impacto directo sobre
los tipos de inferencias que surgen bajo este método.

De acuerdo con Graesser, Lang y Roberts (1991), responder a la pregunta “por


qué” incide con inferencias causales antecedentes y de metas supraordinadas. Por el
contrario, la formulación de la pregunta “cómo” requiere respuestas que inciden en
inferencias sobre acciones y metas subordinadas. Por último, responder a las
preguntas “qué pasará después” exige la activación de inferencias causales
consecuentes, meta supraordinadas y emociones de los protagonistas.

- El habla privada

Esta técnica tiene un cierto parecido con las anteriores. En ella se analiza el habla
privada espontánea de los niños o escolares ante la realización de una tarea conjunta.
Sin embargo, la base teórica que subyace en esta técnica es completamente diferente.
Un amplio número de investigadores se ha dedicado a rastrear la idea original de
Vygotski de que el habla privada, como una herramienta de pensamiento, constituye
un importante enlace entre el mundo social y psicológico del individuo. A través del
uso creciente del habla privada durante el desarrollo, el lenguaje que media la
interacción social se internaliza de manera gradual y se convierte en el vehículo más
importante para la auto-regulación.

Este planteamiento es el más complejo y ambicioso que los propuestos por las
técnicas anteriores. Ha tenido numerosos avances pero ha generado un importante
número de problemas metodológicos. Siguiendo a Díaz (1992) destacaremos tres
problemas:
78

1. Cómo generar de manera espontánea el habla privada de los niños: El habla


privada debería aparecer en momentos de relativo estrés o dificultad, cuando las
demandas de la tarea superan las habilidades rutinarias y automatizadas de los
niños. Sin embargo, no todas las tareas que resultan complejas incrementan el uso
del habla privada. Es importante resaltar que la relación entre la dificultad de una
tarea y el incremento del habla privada no es lineal. Behrend, Rosengren y
Perlmutter (1989) encontraron que tareas de construcción de puzles de dificultad
media generaban más habla privada, demostrando la existencia de una relación
curvilínea entre la frecuencia de habla privada y el nivel de dificultad de una tarea.
2. La distinción entre el habla social y el habla privada. El habla privada se define
como el habla dirigida a uno mismo con el propósito de auto-regularse. Sin
embargo, la distinción entre habla privada y habla social ha demostrado ser muy
problemática dentro de la investigación empírica, bien porque el habla social
desarrolla importantes funciones de carácter regulador, bien por el hecho de que
el habla privada comparte propiedades estructurales con el discurso social
comunicativo. Los resultados demuestran que no se puede establecer una
distinción simple entre habla privada y social en términos de contenido y
estructura sintáctica.
3. Cómo codificar el habla privada en categorías observables y con sentido: Díaz
sugiere una distinción básica entre contenido, forma y función del habla privada.
Mientras que el contenido tiene que ver con los aspectos referenciales de los
protocolos, la función se refiere a los posibles efectos que los protocolos tienen
sobre la conducta del niño. La forma se identifica con aquellos aspectos
prosódicos y estructurales (volumen, entonación…). En relación con la distinción
entre el habla relevante e irrelevante se asume la existencia de tres tipos de
protocolos que han sido considerados como irrelevantes: juegos de palabras y
repetición, exclamaciones y expresiones de afecto y cualquier comentario acerca
de personas, sucesos y objetos que están fuera de la situación inmediata de la tarea.

En relación con la distinción entre habla privada madura e inmadura los estudios
realizados proporcionan una evidencia muy limitada. Hasta la fecha, la única
evidencia en apoyo a la dimensión maduro-inmaduro del habla privada es su
progresión desde lo manifiesto a lo secreto. En resumen, una revisión crítica de los
estudios realizados hasta la fecha sugiere que la mayor parte de los sistemas de
categorización se basan en un amplio número de inferencias acerca de la importancia
funcional, la relevancia y la madurez del habla privada. Se ha avanzado de manera
importante en el conocimiento de los procesos que intervienen y también de la
metodología actual.
79

- Evaluación de este tipo de metodologías

El análisis de los protocolos verbales ha demostrado ser una herramienta útil a la


hora de revelar la forma en la que los sujetos procesan diversas tareas. Sin embargo,
cabe señalar algunas de sus limitaciones. Se trata de métodos que sólo permiten recoger
información sobre procesos conscientes por lo que deja entre paréntesis las inferencias
automáticas e inconscientes. En segundo lugar, puede pensarse que son métodos
subjetivos que recuerdan a la introspección, por lo que se podría sospechar acerca de su
posible fiabilidad.

Quizás una ventaja que ha ido perfilando el uso de este tipo de metodología a lo
largo de este siglo es que se ha ido convirtiendo en un instrumento que posee no sólo un
importante rigor metodológico sino también un alto grado de flexibilidad en su uso. El
desarrollo de estas metodologías ha sido posible, al menos en parte, por su carácter
“artesanal”. Se trata de métodos en los que cuenta la habilidad del investigador para
identificar y anticiparse a las debilidades de esta metodología, diseñando materiales y
tareas que mitiguen esa debilidad.

Los resultados que se extraen a partir del análisis de los protocolos verbales
deben ser contrastados con otras metodologías complementarias. Sin embargo, una
restricción importante del método utilizado para analizar los tipos de inferencias es que
no existe un único método que permita identificar todos los tipos de inferencias posibles.
Así, dependiendo del método o técnica utilizada, puede generarse uno u otro tipo de
inferencia. Esta puede ser una razón por la cual las taxonomías de inferencias no estén
aún conclusas. Pero, otra razón posible es la que motiva al propio investigador a buscar
las inferencias.

El estudio a través del recuerdo

Inicialmente, las medidas que se emplearon en las investigaciones sobre


comprensión de narraciones fueron fundamentalmente de recuerdo. La tarea del lector
consistía en generar un protocolo de recuerdo a partir de la información leída, el cual era
analizado y comparado con el texto original. En general, se asumía que estas medidas
reflejaban un acceso a la representación del texto. Sin embargo, últimamente se ha
cuestionado esta estrecha relación entre la comprensión y el recuerdo. En este tipo de
metodología, la tarea que se le pide al lector consiste en que, una vez leído el material
experimental, lo recuerde con o sin ayuda del experimentador. El intervalo de tiempo
entre la presentación del material y el recuerdo se considera una variable independiente
que el experimentador manipula en función de sus objetivos.

- El recuerdo libre

La tarea de recuerdo libre consiste en pedir al sujeto que recuerde el material que
se le ha presentado después de leerlo. Esta información se recoge en un
80

protocolo de recuerdo y se divide en proposiciones para proceder a su análisis. Este


análisis suele consistir en la diferenciación entre dos tipos de respuesta: los recuerdos
y las inferencias. Los primeros son reconstrucciones de la información original del texto
mientras que las segundas son intrusiones en el sentido de que no habían aparecido
explícitamente en el texto. El recuerdo mediría la base del texto mientras que las
inferencias reflejarían la construcción del modelo de la situación por parte del sujeto.

- Recuerdo señalizado

En este caso, la tarea del sujeto consiste en leer frases o textos en los que, o bien
se omite una determinada información, dejándola implícita, o bien dicha información se
hace explícita. El primer tipo de texto sería el material experimental mientras que el
segundo sería el material control. Una vez leído uno de estos dos materiales, se presenta
la palabra que desencadena la inferencia y se solicita a los sujetos que la utilicen para
recordar el texto. Si al comparar los resultados de ambas condiciones se observa que los
sujetos que leyeron la frase inferencia (implícita) recuerdan lo mismo que los que
leyeron la de control (explícita), se asume que los primeros generaron la inferencia. Sin
embargo, si la inferencia no se ha realizado, esta palabra no facilitará la recuperación de
la frase correspondiente. A pesar de que se utiliza esta técnica en algunos estudios, hay
autores que opinan que no es válida porque, en lugar de evaluar la ocurrencia de la
inferencia, lo que hace es provocarla.

- Valoración de las tareas de recuerdo

El principal problema de este tipo de metodología es la supuesta estrecha relación


entre comprensión y memoria. Al implicar un cierto tiempo de demora, estas tareas
pueden dar lugar a la puesta en marcha de procesos ajenos y posteriormente a la
comprensión. Otro problema relacionado es que se trata de una metodología que da
cuenta del resultado de la comprensión y no del proceso en sí, por lo que el investigador
tendrá que interpretar los resultados y decidir los componentes del proceso. Como
ventaja más importante de la medida de las inferencias a través del recuerdo, podemos
mencionar que proporcionan una información valiosa sobre el contenido específico de
las inferencias.

Medidas de procesamiento
• Los avances tecnológicos en los años setenta produjeron un giro importante en
procedimientos que permitían a los investigadores a examinar más de cerca los procesos
léxicos, sintácticos y semánticos durante la comprensión de textos.
• También se podía acceder en aquellos procesos más automáticos o inconscientes
• En general, estos métodos asumen que tiempos de procesamiento más largos reflejarán
una carga de procesamiento mayor
• Las medidas de procesamiento se basan en el supuesto de que, si se ha realizado la
inferencia, el nivel de activación del concepto inferido aumenta, viéndose facilitado su
acceso al léxico.
81

Históricamente, dos áreas cerebrales fueron identificadas como responsables de


importantes lesiones cerebrales:
Broca (1861):
Pacientes muestran dificultades para producir el lenguaje, pero poseen, en cambio
un buen nivel de comprensión;
La autopsia revela una lesión en el hemisferio frontal izquierdo
Wernicke (1874):
Pacientes muestran un buen nivel de producción del lenguaje, pero no poseen, en
cambio, un buen nivel de comprensión;
La autopsia revela una lesión en el hemisferio temporal izquierdo

Una lesión en el área de Broca se asocia con:


• Lentitud, dificultad para pronunciar
• Ausencia de una gramatica fluida
• omisión de la función de las palabras
• La comprensión puede dañarse (Wickens, 2000)

Una lesión en el área de Wernicke se asocia con:


• La producción gramatical fluida de pronunciacion que se olvidan sus significados.
• Parafasias = palabras inapropiadas
• Neologismos = palabras inventadas
• Dificultad de comprension del lenguaje ante frases complejas.

Tareas cronométricas de memoria y de procesamiento

Con la llegada de los avances tecnológicos en los años 70 aparecen


procedimientos que permitían seguir el movimiento ocular controlado por ordenador.
Hubo un énfasis en los procesos de comprensión y tuvo como resultado el dominio de
las técnicas cronométricas vigentes hoy en día en la investigación sobre inferencias.
Entre estas técnicas, algunas son más precisas, pero poseen la desventaja de ser
invasivas. Otras, resultan medidas más “ecológicas”, capaces de evaluar el proceso
sin interrumpirlo.

Con el objetivo de acceder a aquellos procesos más automáticos o inconscientes


de la lectura surgieron métodos experimentales que, mediante la medición de tiempos
de reacción ante determinados estímulos. En general, estos métodos asumen que
tiempos de procesamiento más largos reflejarán una carga de procesamiento mayor. Se
basan en información de corte más cuantitativo que las anteriores y pueden dividirse en
dos grupos en función del momento en el que tiene lugar la medida: tareas de memoria
y tareas de procesamiento. Las primeras tienen como objeto analizar el proceso una vez
concluido.

Las tareas de memoria más empleadas han sido la verificación de frases y


reconocimiento. Por otro lado, las medidas de procesamiento intentan evaluar el proceso
mientras éste tiene lugar.
82

Detectan inferencias observando si un concepto implícito se ve facilitado. Estas técnicas


parten del supuesto de que, si la inferencia se ha realizado, entonces esa información
inferida será activada. Las tareas cronométricas de procesamiento más utilizadas son el
nombrado, la tarea de decisión léxica y la tarea Stroop modificada.

En general, la decisión de utilizar una medida de memoria o de activación suele


estar relacionada con la teoría adoptada acerca de qué es una inferencia. Es preciso
señalar que tanto unos como otros son intrusivos o invasivos en el sentido de que
interrumpen el proceso natural de la lectura.

- Tareas de memoria

Las tareas de memoria son aquellas que se llevan a cabo en un momento posterior
a la lectura con el objeto de detectar si las inferencias se han convertido en parte de la
representación que el lector ha formado del texto, en un sentido similar al de las tareas
de recuerdo más tradicionales.

• Reconocimiento: En esta tarea se presenta una oración o un texto y, después, una


palabra o una oración prueba (target). La tarea del sujeto consiste en leer el primer
material y después considerar si el target apareció o no en el texto leído. El target
que el sujeto debe reconocer será la inferencia y se mide el tiempo que tarda en
pulsar el botón SI o NO. Se asume que la latencia de reconocimiento para el target
refleja la activación del concepto representado por éste.
Esta técnica no ha estado exenta de problemas. El principal es que existe la
posibilidad de que la inferencia se realice durante la comparación posterior en
lugar de realizarse durante la lectura. Un segundo problema reside en que esta
técnica también puede provocar el uso de estrategias ajenas a la realización de la
inferencia
• Verificación de frases: La tarea del sujeto consiste en leer una de las dos versiones
del mismo texto; una es la versión inferencia o implícita y la otra la versión
control o explícita. Al cabo de un cierto tiempo, el sujeto tiene que decidir si una
frase es verdadera o falsa, midiéndose su tiempo de reacción. El supuesto es que,
si no hay diferencias entre las dos versiones en tiempo de reacción, la inferencia
se habrá realizado durante la lectura.
Esta técnica también tiene algunos inconvenientes. Uno de ellos está relacionado
con el estudio de las inferencias elaborativas, ya que cuando éstas son el objetivo
de estudio, la tarea de verificación de frases se transforma en un problema de
criterio verdadero-falso.

Como valoración general de las tareas de memoria, puede afirmarse que su


principal desventaja es que las medidas que se obtienen no permiten demostrar si las
inferencias estudiadas se realizan propiamente durante la comprensión o si sólo son
conjeturas que los sujetos hacen mientras tratan de recordar lo leído
83

- Medidas de procesamiento

Las medidas de procesamiento se basan en el supuesto de que, si se ha realizado la


inferencia, el nivel de activación del concepto inferido aumenta. Un concepto inferido
durante la lectura puede activarse de dos formas. La primera de ellas es la facilitación
basada en la palabra o, lo que es lo mismo, mediante asociaciones intraléxicas en nuestra
memoria. La segunda forma de activación sería a partir del conocimiento que el lector
posea acerca de la situación descrita en el texto.

• Decisión léxica: Consiste en la lectura de un texto, seguida de la presentación de


un conjunto de letras que pueden o no formar una palabra. El sujeto debe decidir
y responder tan rápidamente como sea posible si el target es o no una palabra. El
sujeto leerá una versión inferencia o una versión control del texto. La variable
dependiente es también la latencia. La lógica de esta tarea consiste en que, si se
ha generado inferencia, el tiempo para decidir que el target es una palabra será
menor en la versión inferencia que en la versión control.
La latencia de repuesta tiene dos componentes principales, que son el acceso
léxico y el proceso de decisión. Como ocurre en todas las tareas que miden acceso
léxico, surge la necesidad de controlar diversos aspectos que pueden interferir en
este proceso. Este es el caso de la longitud de la palabra o de su frecuencia de
uso. Otra variable que se ha estudiado como posible interferencia en esta tarea es
la densidad de “vecinos ortográficos” de la palabra prueba. Algunos estudios han
mostrado que un mayor número de vecinos ortográficos facilita la decisión léxica.
Las latencias también pueden verse influidas por variables del texto como el
contenido de los guiones, por ejemplo. Este fenómeno puede eliminarse forzando
a los sujetos a responder lo más rápidamente posible para evitar la comparación.
• Nombrado: Se trata de una tarea similar a la interior solo que en esta ocasión, la
respuesta que se demanda al sujeto es la pronunciación del target una vez leído
el texto o parte de él. La pronunciación de la palabra inferencial se verá facilitada
si el concepto correspondiente ha sido previamente activado, al generarse la
inferencia.
En cuanto a las desventajas, podemos señalar que una de ellas deja abierta la
posibilidad de que la pronunciación del target se lleve a cabo siguiendo las reglas
de correspondencia grafema-morfema, sin necesidad de recurrir al significado.
Una forma de evitar esta circunstancia es recurrir a la tarea Stroop. Una segunda
desventaja es la posibilidad de un efecto suelo provocado por la tendencia a
mostrar latencias cortas, ya que se trata de una tarea muy fácil. El último
inconveniente es que los sujetos pueden aprender a anticipar qué palabra será la
que aparecerá (“Activación por expectativas”).
Entre las ventajas del nombrado podemos citar su validez ecológica ya que es una
tarea más natural. Finalmente, el nombrado evalúa la disponibilidad en la
memoria de trabajo y no tanto la fuerza de la activación en la MLP.
84

• Tarea Stroop modificada: Es una variación de la tarea de nombrado. Una vez


leído el texto, el sujeto nombra el color en que está escrito el target. La lógica
sería que cuando un concepto es inferido por el lector, este se activa, aumentando
su probabilidad de ser pronunciado y ocasionando que la latenciade nombrado de
su color aumente. Esta tarea tiene ventajas que no posee el nombrado, como son
el hecho de que elimina la activación de expectativas y elimina el efecto suelo.
Otra gran ventaja es que permite determinar si los sujetos están procesando
inferencias a nivel conceptual o a nivel léxico. La tarea a un niel conceptual es
más lenta mientras que a nivel léxico resulta el efecto contrario.

- Valoración general de las técnicas de procesamiento

Estas medidas poseen la ventaja de eliminar la posibilidad de que la inferencia


sea provocada por la tarea. Otra ventaja es que se trata de medidas sensibles a todos los
niveles de activación.

Las tareas de procesamiento también conllevan algún problema. En primer lugar,


este tipo de medidas implican otros procesos además del acceso léxico. En segundo
lugar, no nos permiten asegurar si la inferencia detectada se integra en la representación
del texto en la memoria del lector o se trata de una activación transitoria. Pero quizás,
el inconveniente más importante de estas tareas es que el proceso de lectura se
interrumpe sin conocer exactamente qué efectos provocan dichas interrupciones en la
lectura.
- Manipulación de parámetros temporales para investigar el curso temporal de las
inferencias

La mayor parte de los métodos cronométricos de memoria y de procesamiento


ofrecen al investigador la posibilidad de manipular una serie de parámetros temporales
con el objetivo de precisar aún más el momento exacto de la lectura en el que tiene lugar
la inferencia objeto de estudio.

• Paradigma de priming: Consiste en introducir estímulos entre el texto


experimental que se va a leer y el target que hagan de prime o enlace inductor.
Se asume que el prime conecta con su representación en la memoria, activándola
y propagando la activación a otros conceptos de la representación.

• Técnica RSVP: La variable que se manipula es el tiempo de presentación bien


de los textos, bien de las frases inferencias y control. Esta información se
presenta: a) secuencialmente palabra a palabra o frasea frase y solo hacia delante
y b) con un ritmo predeterminado, generalmente rápido. En cierto sentido, esta
forma de presentación simularía la del lenguaje oral. En cuanto a la valoración de
este procedimiento, una ventaja es que permite controlar el curso temporal de los
procesos de comprensión e inferencias. Entre sus inconvenientes encontramos
que puede truncar los procesos normales de comprensión y afectar de forma
diferente a distintos lectores.
85

• Técnica SOA: La manipulación del investigador se produce en el intervalo de


tiempo entre la palabra o la oración que hace la función de prime de la inferencia
y el inicio del target. El objetivo de esta técnica es determinar de una forma
precisa el tiempo que se requiere para realizar la inferencia. Suelen identificarse
procesos automáticos cuando el SOA es muy corto y procesos automáticos
cuando es más largo.

Tiempos de lectura

Otros procedimientos basados en el concepto de activación son las medidas del


tiempo de lectura. Mide la activación de las inferencias durante el proceso de la lectura
pero no es en absoluto invasiva. Entre los métodos de tiempo de lectura se encuentran el
registro de movimientos oculares y los métodos de pulsación.

- Procedimiento y lógica

El procedimiento llevado a cabo en los métodos de tiempo de lectura de pulsación


es el siguiente: en un monitor aparece un texto completo, frase a frase o palabra a
palabra. La tarea del lector consiste en ir descubriendo estos segmentos del texto,
mediante la pulsación de una tecla. Los tiempos de lectura que se registran serían
los intervalos entre las pulsaciones. Entre los métodos de pulsación, las modalidades
más empleadas son la ventana estacionaria y la ventana móvil. La primera se describió
antes y la segunda, al comienzo del ensayo, el sujeto, en lugar de ver el texto en el
monitor, ve guiones y espacios. Estos guiones se corresponden con letras y los espacios
con las separaciones entre palabras.

Las medidas de tiempo de lectura se basan en el supuesto de que un sujeto lee un


pasaje “al ritmo impuesto por los procesos internos de comprensión” y un análisis del
ritmo de lectura revelará “los procesos de comprensión en sí mismos”. La interpretación
de los tiempos de lectura se basa fundamentalmente en dos hipótesis adicionales: El
supuesto de la inmediatez, que expone que el lector trata de comprender una unidad del
texto tan pronto como le sea posible. La hipótesis del ojo-mente afirma que la mente
procesa la palabra en la que en ese momento se fija el ojo.

La lógica de este procedimiento consiste en que, en el caso de que se realice una


inferencia, el tiempo de lectura será mayor, puesto que el lector tiene que inferir una
información que no aparece en el texto. Por ello, el tiempo de lectura de la versión
explícita o control será menor que el de la versión implícita o inferencia.

- Valoración de estos métodos

Las medidas de tiempo de lectura tienen algunos problemas. El tiempo de lectura de


una palabra u oración es, más bien, el resultado de una serie de componentes yno está
claro cómo estos se distribuyen en el tiempo. Si nuestro objetivo es conocer la
ocurrencia de una inferencia, sólo nos interesará el proceso de acceso al léxico.
86

Por otro lado, se ha demostrado que el tipo de instrucciones o el objetivo que se le


impone al lector influye en el tiempo de lectura. El sujeto tiene que pulsar una tecla, lo
que genera procesos adicionales.

Entre las ventajas más importantes de estos métodos destaca el hecho de poseer
importantes características de la lectura natural. Así, las palabras aparecen en la pantalla
como lo hacen en los textos. De esta manera, ampliando la visión periférica, el lector
puede estimar la longitud de la siguiente palabra. Por otro lado, en ningún momento se
requiere que el sujeto compare el target con el texto, evitándose el problema de que el
target sea el responsable de la generación de la inferencia.

El avance de la tecnología

- Registro de movimientos oculares

Se trata de una técnica “clásica” en el estudio de las inferencias. El procedimiento


de esta técnica consiste en grabar los movimientos oculares y las fijaciones visuales
de un sujeto mientras lee un texto que se le muestra en un monitor. Se registran las
posiciones del ojo hasta mil veces por segundo. Los registros de los movimientos
oculares revelan aquello que el lector está mirando y durante cuánto tiempo lo mira. A
la hora de interpretar los datos obtenidos mediante esta técnica es preciso tener en
cuenta algunos aspectos.

En cuanto a su valoración, el método de movimientos oculares ha recibido muchas


críticas. Una de ellas proviene de la existencia de demasiadas medidas de fijación,
dificultando la identificación de la fijación del ojo y quedarían algunas cuestiones sin
resolver. Por último, si lo comparamos con los métodos de lectura de pulsación, para
cualquier experimento típico de lectura se considera, en general, que el sistema
oculomotor y la lectura se acoplan mejor que la pulsación de un botón junto a la lectura.

- Potenciales evocados

Los potenciales evocados son las oscilaciones de voltaje que se observan mediante
el registro de la actividad cerebral. Este registro recibe el nombre de
electroencefalograma. Los ERP poseen varias dimensiones como son su polaridad, su
latencia, situación en el cuero cabelludo, su amplitud y la forma de onda.

De cara a la interpretación se asume que las mayores amplitudes de N400 reflejan


mayor actividad neural. Al igual que ocurre con otros métodos, los ERP presentan una
serie de problemas. En primer lugar, los patrones de ERP están sujetos a interferencias
por movimientos faciales de la lengua y de los ojos que producen respuestas eléctricas
y enmascaran el EEG. En segundo lugar, se puede dar solapamiento entre ERP si se
presenta una segunda palabra antes de que se haya completado el ERP de la primera.
Un tercer problema tiene que ver con la interpretación respecto al registro del tiempo y
a la localización de los ERP.
87

El cuarto problema es el hecho de que todavía no se conoce con precisión aspectos


como los relacionados con el significado del pico en una onda. Los ERP no revelan
necesariamente la localización exacta de los procesos cerebrales subyacentes, ya que la
actividad eléctrica generada en un área puede ser detectada en localizaciones distintas a
la que se está midiendo. Por último, para extraer la señal ERP, un investigador debe
realizar treinta, cincuenta o un centenar de ensayos muy homogéneos, dificultando el
uso de esta técnica.

También presenta importantes ventajas. Una de ellas es que no requiere de tareas


secundarias potencialmente contaminantes. Una segunda ventaja es que los ERP no son
invasivos al permitir el registro online de la actividad cerebral durante el procesamiento
del lenguaje. En tercer lugar, proporcionan una medida muy precisa.

PET & fMRI

Mide la actividad metabólica/cambios en el flujo sanguíneo en la zona donde el


cerebrotrabaja – correlaciona con la actividad cerebral.
Los investigadores tratan de identificar las diferentes areas de la actividad cerebral durante
diversas tareas específicas.

Problemas:
Los procesos del lenguaje son muy rápidos y se producen en breves periodos de tiempo
(milisegundos)
El flujo sanguíneo tarda más tiempo (segundos).

Conclusiones
- El método empleado para detectar inferencias puede ser tan importante como la inferencia
en sí misma.
- No existe el método ideal puesto que cada uno conlleva sus problemas.
- Por último, y muy relacionado con lo anterior, resulta aconsejable utilizar diferentes tareas,
en diferentes momentos y con más de una versión control. De esta forma, se podrán
compensar las limitaciones de las diferentes tareas y obtener así datos más fiables.

Hacia la integración metodológica

Dependiendo de los objetivos de los que se parta encontramos técnicas más


interesantes que otras, pero en general podemos decir que las técnicas más cualitativas
poseen la ventaja de proporcionar valiosa información sobre el contenido exacto de las
inferencias. Los métodos más cuantitativos aportan información muy precisa sobre el
momento exacto en el que estas inferencias tienen lugar y si se dan o no durante la lectura.
88

Las conclusiones que se desprenden después de revisar las técnicas más utilizadas
en la investigación de inferencias son fundamentalmente tres. Por un lado, se puede
deducir que el método empleado para detectar inferencias puede ser tan importante como
la inferencia en sí misma. En segundo lugar, no existe el método ideal puesto que cada
uno conlleva sus problemas. Por último, resulta aconsejable utilizar diferentes tareas en
diferentes momentos y con más de una versión control.

También podría gustarte