Está en la página 1de 11

Existe otro enfoque teórico básico en la psicología evolutiva además de Piaget y Vygotski, del siglo XX: el

enfoque computacional. Este enfoque no tiene su origen inmediato en el estudio del cambio o
desarrollo, sino en una perspectiva psicológica más general, que trata de establecer los procesos y
mecanismos precisos que utiliza la mente. La versión clásica o simbólica del enfoque computacional está
representada por las teorías del procesamiento de información. La hegemonía e influencia de las teorías
del procesamiento de información ha permitido la aparición de las teorías neopiagetianas, que combinan
herramientas conceptuales del enfoque computacional con una concepción del desarrollo de denote
piagetiano. Finalmente, las ideas y aportaciones básicas de un conjunto de enfoques más actuales y
novedosos sobre el cambio evolutivo, que se caracterizan por aunar los planteamientos teóricos con
potentes herramientas metodológicas para la formalización de sus modelos son el conexionismo, las
teorías de los sistemas evolutivos dinámicos y la más reciente versión del constructivismo que conocemos
como neoconstructivismo.

LAS TEORÍAS SIMBÓLICAS DEL PROCESAMIENTO DE LA INFORMACIÓN


- ORIGEN Y CONCEPTOS BÁSICOS
El origen del enfoque computacional está en los cambios que se producen a partir de los años 50 dentro
de la psicología norteamericana, hasta entonces dominada por el conductismo. A partir de la segunda
guerra mundial y sus desarrollos científicos y tecnológicos facilitaron la llamada revolución cognitiva en la
segunda mitad de la década de los 50. A este respecto, hay que destacar las aportaciones confluyentes de
Claude Shannon con su teoría matemática de la información en la comunicación y de Nobert Wiener con
el desarrollo del estudio de los sistemas de autorregulación y la aparición de la cibernética. Estas
contribuciones surgen en un contexto científico en el que se habían formulado ya las bases matemáticas
de la teoría de la computación, a merced de Alan Turing y John von Neumann. El primero en los años 30
propuso la noción de una máquina simple capaz de realizar cualquier tipo de cálculo siempre que contara
con una memoria ilimitada: la llamada máquina de Turing, que se convirtió en el modelo teórico básico de
los ordenadores. Formuló además la idea de que la mente humana podía ser considerada como un
dispositivo computacional, al considerar únicamente los rasgos funcionales, lógicos, de estructura del
cerebro, y no su base fisiológica. Von Neumann formuló la idea de un programa almacenado en el
ordenador, lo que facilitó la construcción del primer computador digital a principios de los años 50.

Por otra parte, desde el campo de la lingüística, los trabajos de Noam Chomsky sobre las gramáticas
generativas supusieron una ruptura con la situación anterior, ya que mostraron la incapacidad de las
gramáticas probabilísticas para dar cuenta de la complejidad del lenguaje humano, considerando que las
concepciones conductistas de Skinner eran incapaces de dar cuenta de la “creatividad lingüística”.

A finales de los años 50, los primeros estudios de esta naciente psicología cognitiva pusieron de
manifiesto dos características interrelacionadas del sistema humano de procesamiento de la información:
su carácter limitado y estratégico. George Miller mostró las limitaciones de nuestro sistema de
procesamiento, al establecer el número máximo de elementos que pueden ser procesados al mismo
tiempo. A esta limitación del almacén a corto plazo se le una la limitación en la velocidad de
procesamiento propia de las conexiones nerviosas. Por su parte, Bruner comprobó el carácter estratégico
de la conducta humana de solución de problemas, mediante la cual el sujeto trata de superar las
limitaciones tanto de capacidad como de velocidad de su sistema de procesamiento, pudiendo así dar
respuestas suficientemente rápidas y probablemente acertadas en situaciones cognitivamente complejas.
Por tanto, el enfoque computacional concibe al ser humano como un sistema cognitivo específico, con
limitaciones y características peculiares, que es capaz de codificar, almacenar y recuperar información.
Según esta enfoque, la información que proviene del medio es transformada y convertida en símbolos o
representaciones que serán posteriormente manipuladas. La actuación de los seres humanos no es una
reacción a los estímulos de la realidad, sino que surge de las representaciones que construimos y es fruto
de la manipulación de las mismas.

El establecimiento de una teoría general sobre el sistema humano de procesamiento de la información fue
posible merced a las aportaciones de Herbert Simon y Allen Newell. Publicaron en 1972 una importante
obra en la que mostraban cómo la inteligencia humana podía ser estudiada desde una perspectiva
funcional, no fisiológica, mediante el análisis de los heurísticos o estrategias que utilizaban los sujetos
en la resolución de problemas. Además, comprobaban la explicación teórica utilizando la simulación
computacional. Estos autores trataron de interpretar la teoría piagetiana sobre el desarrollo intelectual, y
en particular, la noción de estadios del desarrollo utilizando las herramientas conceptuales del
procesamiento de la información. Ellos mismos dicen:

“Si podemos construir un sistema de procesamiento de información con reglas de conducta que lo llevan a
comportarse como el sistema dinámico que intentamos describir, entonces este sistema es una teoría del niño en un
estadio del desarrollo. Por lo tanto, la teoría tendría dos partes: un programa para describir la actuación en un
estadio particular y un programa de aprendizaje que gobierne la transición de un estadio a otro.”

Son varios los problemas a los que se enfrentan los modelos explicativos del cambio intelectual. Una de
las ideas de los autores es la característica precisa de la conducta infantil en un momento del desarrollo,
el descubrimiento de los mecanismos de cambio y aprendizaje, y el tipo de cambio o transición entre
estadios que se postula: continuo y suave o discontinuo y abrupto. Resaltan también la caracterización ya
del sistema como “dinámico”. Como vemos, el enfoque computacional plantea desde sus inicios la
importancia de la formulación de las teorías en forma de modelos computacionales que permitan simular
la actuación de los sujetos. Veremos en este capítulo diversas teorías que en mayor o en menor medida
sostienen la relevancia de la utilización de los modelos computacionales y la simulación en la psicología
del desarrollo.

- LOS SISTEMAS DE PRODUCCIONES


David Klahr ha postulado una estructura cognoscitiva caracterizada mediante un formalismo propuesto
por Newell y Simon: los sistemas de producciones. Según su teoría, la arquitectura o estructura cognitiva
básica no cambia con la edad, sino que se producen únicamente cambios cuantitativos que pueden ser
explicados mediante la capacidad de automodificación del propio sistema. Una producción es una regla
condición-acción, es decir, a partir del cumplimiento de una determinada condición establece la
realización de una acción determinada. Un sistema de producciones actúa mediante el ciclo de
reconocer-actuar. Las acciones pueden modificar el estado de conocimiento del sistema añadiendo,
eliminando o cambiando los elementos existentes; las acciones también pueden corresponder a
interacciones perceptivas o motoras con el ambiente. La descripción de los resultados encontrados en la
tarea de la balanza por Inhelder y Piaget y la explicación ofrecida por Klahr y Siegler sirvió de base a la
simulación computacional mediante las reglas de producción.

A partir del análisis de los cambios evolutivos en la actuación infantil con la tarea de la balanza, Klahr
propone un sistema de producciones que simula el desarrollo siguiendo la propuesta de Simon que hemos
visto: en cada momento evolutivo concreto existe un conjunto de producciones que describen la
actuación en ese estadio; existen también una serie de mecanismos automodificadores que permiten el
paso de un modelo o estadio a otro.
Para Klahr, el sistema aprende y se desarrolla adquiriendo nuevas producciones mediante
automodificación, a partir de un conjunto de producciones innatas. Para lograr la automodificación, el
sistema cuenta con un mecanismo general de detección de regularidades y una serie de mecanismos
concretos de automodificación. En mecanismo general consiste en un sistema de memoria que contiene
un registro secuencial de la actividad del sistema, es decir, las regularidades en la interacción del sistema
con el ambiente quedan registradas y almacenadas en él. La automodificación tiene lugar mediante la
incorporación de las regularidades detectadas al sistema de producciones. Este mecanismo general
permite al sistema considerar los resultados de sus propias acciones y opera de forma semejante a la
abstracción reflexiva piagetiana.

Además de este mecanismo general, el sistema cuenta con una serie de mecanismos específicos, entre
ellos, la resolución de conflicto, la generalización, la discriminación y la composición. Mediante la
resolución de conflicto, el sistema enciende aquella producción que satisfaga más elementos de su
condición y aquella que sea más fuerte. Mediante la generalización, el sistema crea una nueva
producción que en su condición es más general que la producción originaria, aunque manteniendo
constante la parte de la acción. La discriminación es un mecanismo inverso a la generalización, que
permite al sistema añadir más elementos en la condición de una producción, hacerla más específica. El
mecanismo de composición permite al sistema eliminar algunas producciones, creando nuevas
producciones compuestas.

Los sistemas de producción se adaptan bien a la descripción del proceso evolutivo en diferentes tareas
específicas de solución de problemas en las que se ha simulado la actuación de los niños. Sin embargo,
plantea problemas importantes que es preciso no olvidar. Existen serias discrepancias entre las
características evolutivas reales de los niños y los programas realizados mediante sistemas de
producciones automodificadoras. Entre esas discrepancias está el que los niños muestran en numerosas
ocasiones una pauta de desarrollo mucho más lenta, mientras que el programa puede aprender muy
rápidamente. Además, estos programas no muestran la fragilidad, la existencia de errores y regresiones,
tan características de la conducta infantil. En realidad, los modelos simbólicos de explicación del cambio
desarrollados por los teóricos del Procesamiento de Información se ajustan particularmente bien a
procesos de desarrollo sencillos, mediante cambios acumulativos de tipo cuantitativo.

Además, la concepción de la estructura que surge de los sistemas de producciones es una concepción
basada en estructuras particulares de dominio específico, en la que no cabe una visión estructural más
general, en términos de estadios. En realidad, las concepciones de estructuras de dominio específico, tan
usuales en la psicología evolutiva actual, necesitan y se adaptan especialmente bien a las explicaciones
del cambio en los diversos campos o dominios que proporcionan los sistemas de reglas de producción. Las
limitaciones de las teorías simbólicas de reglas en la explicación de la estructura y el cambio evolutivos
que acabamos de apuntar no deben, sin embargo, conducirnos a minusvalorarlas. Las contribuciones de
estas teorías han sido y son muy notables, especialmente al mostrar la posibilidad de utilizar modelos y
lenguajes computacionales a la hora de describir el desarrollo cognitivo.
Así, es posible recoger algunas de las principales aportaciones del computacionalismo simbólico y
mantener una concepción del desarrollo mediante estadios.

LAS TEORÍAS NEOPIAGETIANAS


Ya hemos mencionado que la vigencia de Piaget continúa siendo muy notable, ya que tanto sus hallazgos
empíricos como sus propuestas explicativas son ampliamente utilizadas por los estudiosos del desarrollo.
Nos fijamos ahora en un conjunto de teorías que conservan aspectos relevantes de la concepción
piagetiana, aunque introducen otros nuevos, procedentes de los restantes enfoques cognitivos y, en
particular, de las teorías del procesamiento de la información.
Entre los rasgos que comparten las teorías neopiagetianas con la de Piaget podemos destacar dos: su
concepción constructivista del desarrollo, es decir, que es el sujeto el que construye activamente su
propia comprensión del mundo que le rodea. Y en segundo lugar, su defensa de que el desarrollo cognitivo
muestra un patrón general común a diferentes campos o dominios, patrón que puede ser caracterizado
mediante la existencia de cambios estructurales y estadios diferentes. Este último rasgo es el que
diferencia a estas teorías de la mayor parte de las teorías actuales del desarrollo cognitivo, que no
sostienen la existencia de estadios o cambios cualitativos en el desarrollo. Los autores neopiagetianos
consideran que el desarrollo cognitivo se produce a través de una serie de estadios, es decir, a través de
una secuencia jerárquica de estructuras mentales. Con ello se trata de dar cuenta de la existencia de una
constancia o estabilidad en la actuación de los niños en diferentes dominios de contenido en un momento
determinado del desarrollo. A este respecto, la diferencia más notable con Piaget está en la
caracterización que se hace de las estructuras mentales propias de cada estadio, en los mecanismos de
transición que se proponen entre un estadio y otro, en el preciso análisis de las tareas que realizan los
niños y los requisitos de procesamiento que implican. Los neopiagetianos prefieren hacer propuestas
basadas principalmente en el marco conceptual de la psicología computacional del procesamiento de
información.

Existen numerosas semejanzas entre las teorías neopiagetianas que vamos a ver:
1. Todas ellas postulan la existencia de un estadio o nivel sensoriomotor, aunque utilizan
denominaciones diferentes para postular la existencia de un nivel representacional y de
preparación y consecución de las operaciones concretas
2. Sólo la teoría de Pascual-Leone sustituye a partir del nivel preoperacional el concepto de estadio
semejante al de Piaget
3. El nivel de las operaciones formales aparece claramente también con diversas denominaciones en
las teorías de Case, Halford y Fischer

- LA TEORÍA DE PASCUAL-LEONE
La teoría de los operadores constructivos constituye la primera de las formulaciones neopiagetianas.
Trata de integrar en esta teoría la perspectiva constructivista y el concepto de estructura de origen
piagetiano, con el uso de herramientas conceptuales del enfoque de los procesos de procesamiento de
información y la existencia de importantes diferencias individuales entre los sujetos. Parte del concepto
de esquema, que considera, al igual que Piaget, como la unidad psicológica básica que posee el sujeto y
que media su interacción con el mundo. Los esquemas actúan en diversos ámbitos y así existen esquemas
perceptivos, motores, afectivos y cognitivos. Para definir el concepto de esquema, Pascual-Leone utiliza
las categorías propias del enfoque computacional. Así, un esquema contiene dos componentes básicos: un
componente desencadenante, constituido por el conjunto de características o condiciones que producen
la activación del esquema, y un componente efector, que especifica el conjunto de acciones a realizar.
Estos esquemas pueden ser activados siempre que se den las condiciones desencadenantes.

Los activadores de esquemas u operadores constructivos son factores latentes u ocultos, que aumentan el
paso de activación de los esquemas y tienen una base neurofisiológica. Pacual considera que estos
activadores de esquemas determinan la conducta del sujeto y pueden ser de diversos tipos, afectivos,
perceptivos e intelectuales. Entre estos operadores el más conocido es la energía mental o espacio
mental M, que se refiere a la capacidad atencional que utiliza el sujeto y que determinará el número de
esquemas que podrá aplicar en un momento determinado. El espacio mental M se corresponde con la
memoria operativa, que es el responsable de los cambios que se producen entre unos estadios y otros, ya
que aumenta con la edad. Las dificultades que tienen los niños con “x” tarea se debe a que su espacio
mental M es insuficiente para activar simultáneamente todos los esquemas necesarios para resolver la
tarea.

De esta manera, la transición entre los estadios de Piaget quedaría explicada en función del aumento
cuantitativo del espacio mental M. El poder máximo de M está constituido por una constante “e” y una
variable que aumenta con la edad, fruto de la maduración del sistema nervioso. La constante “e” se
refiere a la capacidad mental desarrollada en el periodo sensoriomotor necesaria para almacenar las
instrucciones de la tarea y desarrollar una estrategia o esquema ejecutivo. El otro valor aumenta de 1 a
7, indicándonos el número de esquemas o unidades de información que el sujeto pueda manejar
simultáneamente. Entonces, la transición entre los estadios queda reducida a un proceso de cambio
cuantitativo en la capacidad mental de los sujetos. Un rasgo relevante de esta teoría es que este aumento
cuantitativo permitiría explicar los desfases en tareas como la conservación

- LA TEORÍA DE CASE
La concepción teórica de Robbie Case, además de las notables influencias de las teorías de Piaget y
Pascual-Leone, incorpora conceptos y valoraciones provenientes de otros enfoque, especialmente de
aquellos que otorgan una mayor relevancia al lenguaje, la cultura y la interacción social, con origen en
las teorías de Vygotski y Brunner.

Según Case, los diversos niveles o estadios en el desarrollo cognitivo (sensoriomotor, operaciones
relacionales, operaciones dimensionales y operaciones vectoriales) están caracterizados por un tipo de
operaciones intelectuales básicas, integradas jerárquicamente, que se construyen sobre las operaciones
del nivel anterior. Estas operaciones intelectuales pueden representarse como estrategias o estructuras
ejecutivas de control con componentes desencadenantes y resultantes, diferentes en cada estadio. El
concepto de estructuras ejecutivas sustituye al concepto de esquema de Pacual-Leone, pero manteniendo
sus semejanzas. Así, en cada estadio existe un conjunto de estrategias o estructuras ejecutivas de control
relativamente específicas, ya que se refieren a tareas y dominios diferentes y están ensambladas
independientemente unas de otras, pero mantienen una misma forma general subyacente. La elección de
Case de un conjunto de estrategias de control ejecutivo para caracterizar la estructura totalizadora
propia de cada estadio le permite explicar los desfases horizontales.

En cuanto a la estructuración vertical, esto es, el proceso de transición entre estadios, propone la
existencia de determinados cambios en el almacén a corto plazo o memoria operativa. Al contrario que
Pascual-Leone, para Case el espacio total de procesamiento (ETP) no aumenta con la edad. El ETP está
formado por el espacio dedicado a las operaciones y el espacio disponible en el almacén a corto plazo. Lo
que aumenta con la edad es la práctica y eficacia con la que realiza las operaciones el sujeto, y por lo
tanto quedan libres más recursos cognitivos. El aumento de la eficacia operacional produce una
disminución en el espacio operativo de procesamiento que permite, por tanto, aumento en la capacidad
de almacén a corto plazo. En cada uno de los estadios caracterizados por diferentes operaciones, el niño
mejora su eficacia operativa merced a la práctica específica en la operación de que se trate y a factores
madurativos y de experiencia general. La propuesta de Case por tanto incluye cambios estructurales
específicos, pero sin el carácter radical y totalizador de los propuestos por Piaget.

- LA TEORÍA DE HALFORD
Comparte con las anteriores la importancia que otorga al incremento con la edad en la capacidad de la
memoria operativa de los sujetos. Propone la existencia de 4 estadios diferentes en el desarrollo,
caracterizados por la capacidad que adquieren los niños en cada uno de ellos de realizar un tipo de
operaciones mentales llamadas correspondencias. Halford toma el concepto de “correspondencias de
estructuras” de las matemáticas. Las correspondencias entre estructuras caracterizan las actividades
mentales de los niños a lo largo del desarrollo y subyacen a la comprensión que realizan de los conceptos.
De esta manera, la progresiva adquisición de correspondencias crecientemente complejas explicará el
incremento en las capacidades de comprensión, y adquisición de conceptos y conocimientos durante el
desarrollo. Según Halford, el desarrollo intelectual a través de 4 estadios depende básicamente del
necesario incremento en la capacidad de procesamiento que estas operaciones requieren. Así, sostiene
que esta capacidad de procesamiento no se incrementa de forma abrupta, sino gradual y paulatina, y es
fruto más de la propia maduración del sistema nervioso, que del aumento en la eficacia operacional. En
otras palabras, esta teoría está claramente más cerca de la posición de Pascual-Leone que de la de Case.
- LA TEORÍA DE FISCHER
Esta teoría propone también la existencia de 4 estadios o escalones en el desarrollo de las destrezas
cognitivas. Se basa por tanto en el concepto de “destreza”, que define como una habilidad que muestra
cierta capacidad de generalización entre tareas y cierta especificidad para un determinado tipo de tarea.
En sus propias palabras, es “una característica de una persona en un contexto”. La teoría de las destrezas
de Fischer trata de dar cuenta, a la vez, de la variabilidad en el desarrollo que él considera un rasgo
fundamental del mismo, y de la existencia también de una cierta constancia u homogeneidad que permite
hablar de los diversos escalones en el desarrollo.

El desarrollo de las destrezas surge de la interacción del sujeto con la tarea en un contexto determinado,
y por tanto es altamente dependiente de la misma, ya que es a partir de la experiencia concreta de los
sujetos con cada tarea como las destrezas se van complicando progresivamente. Como la experiencia de
los sujetos es muy diversa en los diferentes campos, el desarrollo de sus destrezas será, por norma,
desigual, y por tanto la variabilidad, el desfase, será la regla del desarrollo. No obstante, existe asimismo
un proceso de generalización de las destrezas entre los diferentes campos y tareas que hace que
aparezcan esas regularidades que llamamos escalones. Cada uno de estos escalones sufre un proceso
gradual de cambio que se manifiesta en la existencia de varios niveles intermedios. Ahora bien, el cambio
que se produce en el último nivel dentro de un escalón, y que da cuenta del cambio de estadios o
escalones, no es ya gradual, sino abrupto.
Para Fischer, los cambios graduales y progresivos, la continuidad dentro de cada escalón, da lugar a un
cambio abrupto y radical en el último nivel del mismo para que aparezca un nuevo escalón. Este nuevo
escalón surge de la integración y combinación de sistemas complejos que producen el nuevo tipo de
unidad que le caracteriza, algo que según Fischer necesita de una base neuronal que permita la fusión
entre los diversos componentes implicados. Esta base neuronal está ligada a los cambios en el córtex
frontal.

La concepción del cambio cognitivo de Fischer es muy semejante a las anteriores. Quizá lo más
importante es su intento, bastante convincente, de explicación conjunto de la variabilidad y la
estabilidad en la conducta infantil, algo para lo que se basa en los modelos de sistemas evolutivos
dinámicos. Este enfoque de los sistemas dinámicos evolutivos, junto con el enfoque conexionista y la
perspectiva del neuroconstructivismo está siendo crecientemente utilizado en la explicación del
desarrollo cognitivo. Es lo que veremos a continuación.

NUEVAS PERSPECTIVAS TEÓRICO-METODOLÓGICAS EN EL ESTUDIO DEL CAMBIO EVOLUTIVO


La investigación actual en Psicología Evolutiva se caracteriza por una activa búsqueda de nuevas formas
de representar y analizar el cambio, basadas en el reconocimiento explícito de que el desarrollo evolutivo
no se ajusta a patrones de crecimiento simples y lineales, sino que conlleva un proceso complejo, diverso,
multiforme y dinámico. Se están proponiendo nuevos planteamientos teórico-metodológicos que sostienen
que lo que caracteriza los fenómenos estudiados no es tanto la regularidad y el orden de los procesos
involucrados, sino más bien todo lo contrario: la complejidad y la variabilidad. Así, se han promovido
nuevas formas de analizar y modelar los procesos de cambios y de desarrollo, que veremos a
continuación.

1. EL CONEXIONISMO
Tanto los modelos computacionales clásicos como los modelos conexionistas son herederos directos de la
tesis de Turing. Una red conexionista está formada por un conjunto generalmente muy numeroso de
unidades que actúan como “neuronas abstractas”, y que poseen la misma capacidad computacional que
una máquina de Turing.
- Características fundamentales de los modelos conexionistas
Los modelos conexionistas comparten 4 principios sencillos:
a. la operación computacional básica de una red conexionista implica a una neurona que transmite
información relativa a la suma de señales recibidas de otras neuronas
b. el aprendizaje cambia la fuerza de las conexiones entre neuronas, y de esta forma, la influencia
que tienen unas sobre otras
c. los procesos cognitivos implican que la computación está esencialmente ejecutada en paralelo por
una gran cantidad de neuronas
d. la información está distribuida a través de muchas neuronas y muchas conexiones que configuran
“redes neuronales”

Una característica principal de los modelos conexionistas proviene de su concepción de la representación


como un fenómeno en permanente cambio, ajustándose a los más pequeños cambios en el estímulo, lo
que permite dar cuenta de las sutilezas y complejidades de la relación entre el sujeto y el medio. Esta
“sensibilidad al estímulo” que poseen los sistemas conexionistas proviene de la potencia de los
mecanismos de aprendizaje que han sido postulados.

El aprendizaje en términos conexionistas consiste en el logro de la adecuada fuerza de conexión entre


unidades. No es de extrañar entonces que la primera y más sencilla propuesta de mecanismo de
aprendizaje haya provenido de una concepción asociacionista clásica: la de Donald Hebb. Este
psicofisiólogo propuso una regla de aprendizaje de tipo cualitativo por la que la fuerza de conexión entre
dos unidades aumentaba cuando ambas unidades actuaban conjuntamente. Una versión cuantitativa más
precisa de ésta fue utilizada por Rumelhart y McClelland. En este modelo se utiliza una red conexionista
simple, con dos conjuntos de unidades, de entrada y de salida, y con un mecanismo de aprendizaje que
podría describirse así: “si una unidad recibe una entrada de otra unidad y ambas están fuertemente
activadas, entonces los pesos de conexión entre ambas unidades deberán ser reforzados”.

Pero existen otros mecanismos de aprendizaje más potentes que implican ya la actuación de unidades
ocultas, como el mecanismo de retro-propagación del error o “propagación hacia atrás”. Este modelo
es una red multiestrato que incluye, además de los estratos de entrada y salida, un tercer estrato con un
número fijo de unidades ocultas que permiten construir una representación interna distribuida. Así, la
información que llega a las unidades de entrada se recodifica en una representación interna y las salidas
se generan a partir de la representación interna más que por el patrón original.

El procedimiento de aprendizaje que utiliza la retro-propagación, llamado “regla delta generalizada”


permite ajustar los pesos de las conexiones en la red al estimar la discrepancia entre la salida real que
produce el modelo, y la salida esperada proporcionada por el medio. La idea clave es que este
procedimiento actúa hacia atrás; las diferencias existentes entre la salida real y la esperada conducen a
la modificación de los pesos de conexión en el estrato de salida, lo que permite calcular las
modificaciones en el estrato de unidades ocultas, que finalmente permiten ajustar los pesos en el estrato
inicial de estrada. Este mecanismo muestra una gran potencia, ya que se puede enfrentar a casi cualquier
tipo de tarea de aprendizaje.

- Simulación conexionista de los estadios evolutivos


McClelland abordó la simulación de la clásica tarea de la balanza con una red multicapa con
retro-propagación. La arquitectura era fija, y del mismo modo se habían prefijado un grupo de unidades
para recibir la información sobre el peso y otras sobre la distancia. Esta simulación reflejaba cómo el
progreso va de una fase inicial en la que el sujeto selecciona o codifica la dimensión más saliente (el
peso), sin considerar en absoluto la otra dimensión, hasta sucesivas etapas en las que ambas dimensiones
van siendo consideradas en la solución de la tarea. La red muestra cambios dinámicos en el tipo de
representación que clasifica las entradas combinadas de peso y distancia.

Sin embargo, a pesar de su comportamiento bastante ajustado, esta red de arquitectura fija recibió
diversas críticas. En primer lugar, si las dimensiones peso y distancia estaban prefijadas y la arquitectura
era fija, entonces los cambios eran sólo cambios cuantitativos. En segundo lugar, resultó de particular
interés que, a pesar de la potencia lógica de la red, ésta no conseguía un ajuste óptimo con las conductas
exhibidas por los sujetos. En especial, la simulación fallaba en el ajuste con el modelo IV propuesto por
Siegler y, además, no se mostraba capaz de simular los aspectos cualitativos implicados en el modelo III.

La respuesta de los modelos conexionistas a estos dos tipos de críticas son las redes constructivistas.
Mareschal y Shultz han propuesto los llamados “algoritmos generativos” que permiten dar cuenta de la
existencia de cambios cualitativos. El algoritmo generativo se aplica en redes con un diseño inicial
determinado. Los procesos de asimilación estarían representados por situaciones en las cuales la red
consigue generalizar una entrada novedosa a un patrón ya existente. Sin embargo, cuando los esquemas
previos resultan insuficientes para producir una respuesta adecuada, el algoritmo generativo permite
añadir nuevas estructuras, incorporando unidades ocultas, lo que definitivamente cambia el poder
representacional de la red y permite construir un nuevo dispositivo más competente. Este tipo de
simulación no sólo permite superar ya los problemas con las reglas tercera y cuarta de la tarea de la
balanza, sino que no necesita una pre-especificación de unas unidades dedicadas al peso y otras
dedicadas a la distancia.

La característica más significativa de las redes constructivistas es que permite la adición de estructuras,
es decir, de nuevas unidades. Estas adiciones no se realizan de forma trivial, sino ajustándose a las
demandas del ambiente. La red contiene un mecanismo que le permite añadir nuevas unidades ocultas
para enfrentarse a las demandas cambiantes y cada vez más exigentes del medio. Así, estas redes
permiten una explicación del desarrollo plenamente interactiva. En definitiva, estas redes aportan una
medida cuantitativa del progresivo incremento del poder computacional del sistema de procesamiento: el
número de unidades ocultas.

Las soluciones aportadas por las redes constructivistas posibilitan una nueva forma concebir la explicación
del desarrollo. El crecimiento paulatino de la competencia de la red surge del intento de dar una solución
eficaz a las múltiples situaciones y fuentes de variación a las que se enfrenta el niño. De esta manera, las
redes constructivistas pueden proporcionarnos nuevas hipótesis sobre los diversos tipos de cambios y su
aparición en el curso del desarrollo. Debe destacarse que el progresivo incremento del poder
computacional que exhiben las redes constructivistas puede ser el resultado tanto de factores
ambientales como de procesos madurativos que interactúan sinérgicamente. Lo atractivo de este nuevo
marco es que permite modelar fenómenos cuantitativos de cambio en nuestros conocimientos, a la vez
que fenómenos cualitativos de cambio en los mecanismos de aprendizaje.

2. LA PERSPECTIVA DE LOS SISTEMAS EVOLUTIVOS-DINÁMICOS


La perspectiva de los sistemas dinámicos constituye una línea de pensamiento de gran tradición en las
ciencias naturales, que también se ha aplicado al estudio del desarrollo humano desde un marco
multidisciplinar y en referencia a la llamada Teoría de los Sistemas Dinámicos. Lo que la hace
especialmente interesante es su interés por el estudio de los procesos de cambio no-lineal que se
producen a lo largo del tiempo como resultado del funcionamiento interactivo de sistemas complejos.

- Complejidad y auto-organización
Un sistema complejo es un conjunto de elementos o componentes que interactúan entre sí, incluyendo su
medio ambiente. Es un sistema dinámico si dichos componentes se afectan, modificándose unos con otros
a lo largo del tiempo. Un ejemplo prototípico de sistema complejo dinámico es un ecosistema. Todos los
seres vivos son sistemas complejos. También lo es un cerebro humano en interacción con el ambiente
físico y social. Una característica crucial de los sistemas complejos es que, a medida que evolucionan,
producen orden y estructura. Esta idea es fácilmente exportable al campo del desarrollo psicológico. La
propia teoría de Piaget es justamente un ejemplo de cómo el desarrollo de la inteligencia en los niños
genera estructuras. Dichas estructuras emergen gracias a procesos de autoorganización. Este concepto de
“autoorganización” también lo encontrábamos en Piaget a través del factor de “equilibración”. Como
explica Van Geert, la autoorganización se produce como resultado del propio funcionamiento del sistema
que genera nuevos estados.

Una segunda premisa clave es que tal funcionamiento autoorganizado sólo puede entenderse en
referencia a las complejas interacciones que se establecen tanto internamente como en su relación con el
medio externo. Es decir, la autoorganización se produce como resultado de procesos que se reorganizan
por sí mismos en patrones complejos, pero no hay nada que instruya al proceso a comportarse así; se crea
a sí mismo espontáneamente; aunque ciertamente la autoorganización se produce en sistemas que ya
poseen un alto grado de estructura o complejidad por sí mismos. Por ejemplo, el lenguaje, que no se
enseña explícitamente el sistema verbal. El hecho de que los haya aprendido “espontáneamente”, sin
instrucción explícita, no quiere decir que lo haya hecho sin esfuerzo cognitivo. Estos modelos dinámicos
proponen que el sistema realiza todo un trabajo cognitivo que permite ir adquiriendo la gramática de la
lengua, aunque sea de modo implícito.

De esta manera, el comportamiento del sistema y su desarrollo se conciben como “propiedades


emergentes” del sistema en su conjunto y no en relación con ninguno de sus componentes en particular.
Esto es crucial, ya que supone un rotundo rechazo a la idea de un desarrollo evolutivo “guiado”,
sustituyéndola por una concepción más bien epigenética. En este sentido puede decirse que el enfoque
dinámico supone una concepción netamente emergentista y epigenética del desarrollo.
Continuando con el ejemplo del lenguaje, concebir al aprendiz del mismo como un sistema dinámico
ayuda a resaltar componentes vitales del proceso y su explicación, más allá de visiones innatistas.
Concretamente, supondría considerar el cambio continuo del sistema, las influencias ambientales y un
aspecto crucial del proceso: la influencia de estados anteriores del propio sistema sobre la dinámica
actual del mismo.

- Variabilidad y equilibrio
La última propiedad de los sistemas dinámicos se relaciona con su tendencia a evolucionar hacia alguna
forma de equilibrio: los llamados estados atractores. Se podría pensar en que el nivel “adulto” de
conocimiento gramatical es un estado atractor o estable del sistema de aprendizaje del lenguaje. Sin
embargo, y a diferencia de la propuesta piagetiana, desde los modelos dinámicos se contempla, enfatiza
y promueve el estudio de la variabilidad, tanto inter-sujeto como intra-sujeto en el desarrollo y
adquisición de las distintas funciones psicológicas. El estudio de ambos tipos de variabilidad exige
planteamientos metodológicos novedosos, pues la variabilidad es así entendida, no como la excepción,
sino como la norma en el desarrollo. De hecho, se convierte en el objetivo central de su análisis,
considerándola como expresión del auténtico curso del desarrollo, generalmente complejo y de cambios
no lineales. Este énfasis en la variabilidad será recogido también por los modelos neuro-constructivistas
actuales a través del concepto de “trayectorias del desarrollo”.

Sintetizando lo expuesto hasta aquí, podemos resaltar una serie de características definitorias de los
sistemas dinámicos:
● la interconectividad entre sus componentes
● un funcionamiento en el que prima la complejidad y variabilidad
● la autoorganización como mecanismo fundamental del cambio
● y la emergencia de nuevas propiedades y estados fruto de dichos procesos reorganizativos
Pero estas características son sólo relativamente nuevas, algunas de ellas están presentes en modelos del
desarrollo constructivistas, empezando por la propia teoría de Piaget. La novedad de la perspectiva de los
sistemas dinámicos aplicada al desarrollo psicológico radica en aunar en un solo esquema
teórico-metodológico todas estas propiedades, postulando firmemente el mecanismo de autoorganización
como proceso de cambio y tratando de formalizarlo a través de modelos matemáticos que captan la
dinámica de los sistemas. En última instancia, lo que pretenden estas nuevas metáforas del desarrollo es
desplazar la metáfora por excelencia, la metáfora computacional. Desde la perspectiva dinámica, aunque
en cierto modo se reconoce la utilidad de este tipo de metáfora en el estudio de la cognición, se la
considera inadecuada para abordar la investigación del desarrollo, en la medida en que se entiende como
algo no sujeto a “programación” alguna y donde la cuestión clave es el origen del orden.

3. EL ENFOQUE DEL NEUROCONSTRUCTIVISMO


Karmiloff-Smith utilizó por primera vez el término neuroconstructivismo en un artículo en el que se
plantea si el desarrollo atípico constituye una ventana al desarrollo normal de la mente/cerebro. Se
refería a su postura sobre la “modularización” emergente y progresiva de las funciones psicológicas
durante el desarrollo. El neuroconstructivismo, como modelo de desarrollo, está siendo formulado por un
conjunto de investigadores procedentes de diversos campos, pero con un interés común por entender el
desarrollo de la mente y el cerebro humanos. Aunque referido fundamentalmente al estudio del
desarrollo cognitivo, puede hacerse extensivo al desarrollo social y emocional.

- Postulados básicos del enfoque neuroconstructivista


Coincidiendo con los modelos computacionales anteriormente descritos, el concepto central para el
enfoque neuroconstructivista es el de representaciones mentales. Las representaciones se conciben
como estados de información en el cerebro del organismo que contribuyen a la conducta adaptativa en un
ambiente determinado. Desde el neuroconstructivismo se sostiene que la conducta se explica mejor si nos
situamos en el nivel cognitivo-simbólico. En este sentido, se postula que la mente existe “encarnada” en
un cerebro y en un cuerpo, ambos a su vez están insertos en un ambiente físico y social. Esta perspectiva
se distancia de los modelos cognitivos tradicionales cuando, por una parte, sostiene la relevancia del
sustrato en el que se asienta la cognición; y por otra parte, propone como principio rector del
funcionamiento cognitivo la dependencia contextual. Frente a la independencia de los niveles de
descripción asumida por el enfoque cognitivo simbólico tradicional, desde el neuroconstructivismo se
propone un funcionamiento dinámico de estos niveles. Es decir, el procesamiento cognitivo contribuye a
moldear de alguna manera las redes neuronales responsables de dicho procesamiento.

Otra diferencia central con los modelos clásicos, pero compartida con los modelos conexionistas, se
refiere a que las representaciones pueden estar fragmentadas. El desarrollo se concibe
fundamentalmente como un proceso de construcción de representaciones, pero éstas son
representaciones parciales que se distribuyen a través de distintos circuitos funcionales y serían
interpretables únicamente en los contextos particulares. Desde el neuroconstructivismo se concibe el
desarrollo como un proceso de incremento en la complejidad representacional que emerge como
“consecuencia natural” de los procesos de adaptación típicos de los sistemas biológicos complejos.
Por otra parte, desde el neuroconstructivismo, se plantea una crítica a los modelos computacionales
clásicos, que conciben las representaciones mentales únicamente como producto de la abstracción de las
propiedades del ambiente. Estos modelos clásicos ignoran las restricciones derivadas del hecho de que la
mente está encarnada y situada en un contexto físico y social.

Respecto a la inclusión de otros niveles de análisis y constricciones, y su relevancia para entender los
procesos de cambio que caracterizan el desarrollo humano, se propone el concepto de interdependencia:
la interrelación y dependencia dinámica entre cerebro, cuerpo y ambiente. Pero ello reclama una
estrecha colaboración interdisciplinar no siempre viable. Una posibilidad metodológica por la que se
apuesta fuertemente es la simulación o modelado computacional.
- Mecanismos y procesos para el cambio representacional
Desde el neuroconstructivismo, el cambio representacional que implica el desarrollo se explica en
referencia a ciertos procesos característicos y en función de cómo operan en el tiempo algunos
mecanismos. Para Mareschal y colaboradores, los mecanismos explicarían las interacciones inmediatas
entre los constituyentes observables que causan la emergencia de las representaciones. En contraste, los
procesos se despliegan a lo largo de escalas temporales mayores que los mecanismos, pero también
pueden operar a distintos niveles de descripción.

Son dos los procesos evolutivos que se contemplan como fundamentales: proactividad y especialización
progresiva. La proactividad se refiere al papel activo del sujeto en todas las facetas de su desarrollo. La
especialización progresiva se relaciona con la propuesta de Johnson sobre la especialización interactiva
que caracteriza el desarrollo cerebral: a medida que se produce el desarrollo postnatal, las conexiones en
las distintas regiones cerebrales se van especializando en funciones específicos a través de procesos de
competición y cooperación entre distintas partes del cerebro. De este modo, el resultado de la
especialización progresiva sería una pérdida de plasticidad, pero un aumento de eficacia en el
procesamiento de un tipo de estímulos de clara relevancia en el desarrollo psicológico, como pueden ser
los rostros humanos. Otro ejemplo lo encontramos en el desarrollo temprano del lenguaje, los bebés son
capaces de distinguir entre un conjunto muy amplio de contrastes fonéticos, incluso no observados en su
lengua materna, pero después, pierden esa capacidad siendo más específicos.

En relación con ambos tipos de cambio evolutivo - proactividad y especialización progresiva - se han
propuesto un conjunto de mecanismos (cooperación, competición y organización temporal) que operan
conjuntamente en los distintos niveles de organización anteriormente mencionados. No obstante, sólo
destacaremos el mecanismo de organización temporal, que hace referencia a la importancia de la
dimensión temporal que caracteriza el desarrollo. En general, el aspecto de la plasticidad cerebral del
neonato, junto al largo periodo de inmadurez y desarrollo tutelado que necesita el cachorro humano,
parece ser clave como oportunidad para que se produzcan los procesos de especialización.

- El concepto de trayectoria evolutiva


Otra de las propuestas del neuroconstructivismo en la que de nuevo coincide con los modelos dinámicos y
con el conexionismo, es el énfasis en el estudio de la variabilidad. Desde esta perspectiva, se estudia
tanto el desarrollo típico o normal como el desarrollo alterado: los trastornos del desarrollo. Uno y otro se
conciben como trayectorias diversas del desarrollo, en cuya comprensión y explicación entran en juego
los mismos mecanismos. Las alteraciones que dan origen a dichos trastornos suelen ser de tipo biológico y
temprano y afectan necesariamente a los niveles cognitivo y de la propia interacción social. Las
diferencias en el estado inicial tienen efectos en cascada que afectan al desarrollo a lo largo del tiempo.
Sin embargo, déficits parecidos en otros momentos del desarrollo dan lugar a resultados distintos.

También podría gustarte