Documentos de Académico
Documentos de Profesional
Documentos de Cultura
enfoque computacional. Este enfoque no tiene su origen inmediato en el estudio del cambio o
desarrollo, sino en una perspectiva psicológica más general, que trata de establecer los procesos y
mecanismos precisos que utiliza la mente. La versión clásica o simbólica del enfoque computacional está
representada por las teorías del procesamiento de información. La hegemonía e influencia de las teorías
del procesamiento de información ha permitido la aparición de las teorías neopiagetianas, que combinan
herramientas conceptuales del enfoque computacional con una concepción del desarrollo de denote
piagetiano. Finalmente, las ideas y aportaciones básicas de un conjunto de enfoques más actuales y
novedosos sobre el cambio evolutivo, que se caracterizan por aunar los planteamientos teóricos con
potentes herramientas metodológicas para la formalización de sus modelos son el conexionismo, las
teorías de los sistemas evolutivos dinámicos y la más reciente versión del constructivismo que conocemos
como neoconstructivismo.
Por otra parte, desde el campo de la lingüística, los trabajos de Noam Chomsky sobre las gramáticas
generativas supusieron una ruptura con la situación anterior, ya que mostraron la incapacidad de las
gramáticas probabilísticas para dar cuenta de la complejidad del lenguaje humano, considerando que las
concepciones conductistas de Skinner eran incapaces de dar cuenta de la “creatividad lingüística”.
A finales de los años 50, los primeros estudios de esta naciente psicología cognitiva pusieron de
manifiesto dos características interrelacionadas del sistema humano de procesamiento de la información:
su carácter limitado y estratégico. George Miller mostró las limitaciones de nuestro sistema de
procesamiento, al establecer el número máximo de elementos que pueden ser procesados al mismo
tiempo. A esta limitación del almacén a corto plazo se le una la limitación en la velocidad de
procesamiento propia de las conexiones nerviosas. Por su parte, Bruner comprobó el carácter estratégico
de la conducta humana de solución de problemas, mediante la cual el sujeto trata de superar las
limitaciones tanto de capacidad como de velocidad de su sistema de procesamiento, pudiendo así dar
respuestas suficientemente rápidas y probablemente acertadas en situaciones cognitivamente complejas.
Por tanto, el enfoque computacional concibe al ser humano como un sistema cognitivo específico, con
limitaciones y características peculiares, que es capaz de codificar, almacenar y recuperar información.
Según esta enfoque, la información que proviene del medio es transformada y convertida en símbolos o
representaciones que serán posteriormente manipuladas. La actuación de los seres humanos no es una
reacción a los estímulos de la realidad, sino que surge de las representaciones que construimos y es fruto
de la manipulación de las mismas.
El establecimiento de una teoría general sobre el sistema humano de procesamiento de la información fue
posible merced a las aportaciones de Herbert Simon y Allen Newell. Publicaron en 1972 una importante
obra en la que mostraban cómo la inteligencia humana podía ser estudiada desde una perspectiva
funcional, no fisiológica, mediante el análisis de los heurísticos o estrategias que utilizaban los sujetos
en la resolución de problemas. Además, comprobaban la explicación teórica utilizando la simulación
computacional. Estos autores trataron de interpretar la teoría piagetiana sobre el desarrollo intelectual, y
en particular, la noción de estadios del desarrollo utilizando las herramientas conceptuales del
procesamiento de la información. Ellos mismos dicen:
“Si podemos construir un sistema de procesamiento de información con reglas de conducta que lo llevan a
comportarse como el sistema dinámico que intentamos describir, entonces este sistema es una teoría del niño en un
estadio del desarrollo. Por lo tanto, la teoría tendría dos partes: un programa para describir la actuación en un
estadio particular y un programa de aprendizaje que gobierne la transición de un estadio a otro.”
Son varios los problemas a los que se enfrentan los modelos explicativos del cambio intelectual. Una de
las ideas de los autores es la característica precisa de la conducta infantil en un momento del desarrollo,
el descubrimiento de los mecanismos de cambio y aprendizaje, y el tipo de cambio o transición entre
estadios que se postula: continuo y suave o discontinuo y abrupto. Resaltan también la caracterización ya
del sistema como “dinámico”. Como vemos, el enfoque computacional plantea desde sus inicios la
importancia de la formulación de las teorías en forma de modelos computacionales que permitan simular
la actuación de los sujetos. Veremos en este capítulo diversas teorías que en mayor o en menor medida
sostienen la relevancia de la utilización de los modelos computacionales y la simulación en la psicología
del desarrollo.
A partir del análisis de los cambios evolutivos en la actuación infantil con la tarea de la balanza, Klahr
propone un sistema de producciones que simula el desarrollo siguiendo la propuesta de Simon que hemos
visto: en cada momento evolutivo concreto existe un conjunto de producciones que describen la
actuación en ese estadio; existen también una serie de mecanismos automodificadores que permiten el
paso de un modelo o estadio a otro.
Para Klahr, el sistema aprende y se desarrolla adquiriendo nuevas producciones mediante
automodificación, a partir de un conjunto de producciones innatas. Para lograr la automodificación, el
sistema cuenta con un mecanismo general de detección de regularidades y una serie de mecanismos
concretos de automodificación. En mecanismo general consiste en un sistema de memoria que contiene
un registro secuencial de la actividad del sistema, es decir, las regularidades en la interacción del sistema
con el ambiente quedan registradas y almacenadas en él. La automodificación tiene lugar mediante la
incorporación de las regularidades detectadas al sistema de producciones. Este mecanismo general
permite al sistema considerar los resultados de sus propias acciones y opera de forma semejante a la
abstracción reflexiva piagetiana.
Además de este mecanismo general, el sistema cuenta con una serie de mecanismos específicos, entre
ellos, la resolución de conflicto, la generalización, la discriminación y la composición. Mediante la
resolución de conflicto, el sistema enciende aquella producción que satisfaga más elementos de su
condición y aquella que sea más fuerte. Mediante la generalización, el sistema crea una nueva
producción que en su condición es más general que la producción originaria, aunque manteniendo
constante la parte de la acción. La discriminación es un mecanismo inverso a la generalización, que
permite al sistema añadir más elementos en la condición de una producción, hacerla más específica. El
mecanismo de composición permite al sistema eliminar algunas producciones, creando nuevas
producciones compuestas.
Los sistemas de producción se adaptan bien a la descripción del proceso evolutivo en diferentes tareas
específicas de solución de problemas en las que se ha simulado la actuación de los niños. Sin embargo,
plantea problemas importantes que es preciso no olvidar. Existen serias discrepancias entre las
características evolutivas reales de los niños y los programas realizados mediante sistemas de
producciones automodificadoras. Entre esas discrepancias está el que los niños muestran en numerosas
ocasiones una pauta de desarrollo mucho más lenta, mientras que el programa puede aprender muy
rápidamente. Además, estos programas no muestran la fragilidad, la existencia de errores y regresiones,
tan características de la conducta infantil. En realidad, los modelos simbólicos de explicación del cambio
desarrollados por los teóricos del Procesamiento de Información se ajustan particularmente bien a
procesos de desarrollo sencillos, mediante cambios acumulativos de tipo cuantitativo.
Además, la concepción de la estructura que surge de los sistemas de producciones es una concepción
basada en estructuras particulares de dominio específico, en la que no cabe una visión estructural más
general, en términos de estadios. En realidad, las concepciones de estructuras de dominio específico, tan
usuales en la psicología evolutiva actual, necesitan y se adaptan especialmente bien a las explicaciones
del cambio en los diversos campos o dominios que proporcionan los sistemas de reglas de producción. Las
limitaciones de las teorías simbólicas de reglas en la explicación de la estructura y el cambio evolutivos
que acabamos de apuntar no deben, sin embargo, conducirnos a minusvalorarlas. Las contribuciones de
estas teorías han sido y son muy notables, especialmente al mostrar la posibilidad de utilizar modelos y
lenguajes computacionales a la hora de describir el desarrollo cognitivo.
Así, es posible recoger algunas de las principales aportaciones del computacionalismo simbólico y
mantener una concepción del desarrollo mediante estadios.
Existen numerosas semejanzas entre las teorías neopiagetianas que vamos a ver:
1. Todas ellas postulan la existencia de un estadio o nivel sensoriomotor, aunque utilizan
denominaciones diferentes para postular la existencia de un nivel representacional y de
preparación y consecución de las operaciones concretas
2. Sólo la teoría de Pascual-Leone sustituye a partir del nivel preoperacional el concepto de estadio
semejante al de Piaget
3. El nivel de las operaciones formales aparece claramente también con diversas denominaciones en
las teorías de Case, Halford y Fischer
- LA TEORÍA DE PASCUAL-LEONE
La teoría de los operadores constructivos constituye la primera de las formulaciones neopiagetianas.
Trata de integrar en esta teoría la perspectiva constructivista y el concepto de estructura de origen
piagetiano, con el uso de herramientas conceptuales del enfoque de los procesos de procesamiento de
información y la existencia de importantes diferencias individuales entre los sujetos. Parte del concepto
de esquema, que considera, al igual que Piaget, como la unidad psicológica básica que posee el sujeto y
que media su interacción con el mundo. Los esquemas actúan en diversos ámbitos y así existen esquemas
perceptivos, motores, afectivos y cognitivos. Para definir el concepto de esquema, Pascual-Leone utiliza
las categorías propias del enfoque computacional. Así, un esquema contiene dos componentes básicos: un
componente desencadenante, constituido por el conjunto de características o condiciones que producen
la activación del esquema, y un componente efector, que especifica el conjunto de acciones a realizar.
Estos esquemas pueden ser activados siempre que se den las condiciones desencadenantes.
Los activadores de esquemas u operadores constructivos son factores latentes u ocultos, que aumentan el
paso de activación de los esquemas y tienen una base neurofisiológica. Pacual considera que estos
activadores de esquemas determinan la conducta del sujeto y pueden ser de diversos tipos, afectivos,
perceptivos e intelectuales. Entre estos operadores el más conocido es la energía mental o espacio
mental M, que se refiere a la capacidad atencional que utiliza el sujeto y que determinará el número de
esquemas que podrá aplicar en un momento determinado. El espacio mental M se corresponde con la
memoria operativa, que es el responsable de los cambios que se producen entre unos estadios y otros, ya
que aumenta con la edad. Las dificultades que tienen los niños con “x” tarea se debe a que su espacio
mental M es insuficiente para activar simultáneamente todos los esquemas necesarios para resolver la
tarea.
De esta manera, la transición entre los estadios de Piaget quedaría explicada en función del aumento
cuantitativo del espacio mental M. El poder máximo de M está constituido por una constante “e” y una
variable que aumenta con la edad, fruto de la maduración del sistema nervioso. La constante “e” se
refiere a la capacidad mental desarrollada en el periodo sensoriomotor necesaria para almacenar las
instrucciones de la tarea y desarrollar una estrategia o esquema ejecutivo. El otro valor aumenta de 1 a
7, indicándonos el número de esquemas o unidades de información que el sujeto pueda manejar
simultáneamente. Entonces, la transición entre los estadios queda reducida a un proceso de cambio
cuantitativo en la capacidad mental de los sujetos. Un rasgo relevante de esta teoría es que este aumento
cuantitativo permitiría explicar los desfases en tareas como la conservación
- LA TEORÍA DE CASE
La concepción teórica de Robbie Case, además de las notables influencias de las teorías de Piaget y
Pascual-Leone, incorpora conceptos y valoraciones provenientes de otros enfoque, especialmente de
aquellos que otorgan una mayor relevancia al lenguaje, la cultura y la interacción social, con origen en
las teorías de Vygotski y Brunner.
Según Case, los diversos niveles o estadios en el desarrollo cognitivo (sensoriomotor, operaciones
relacionales, operaciones dimensionales y operaciones vectoriales) están caracterizados por un tipo de
operaciones intelectuales básicas, integradas jerárquicamente, que se construyen sobre las operaciones
del nivel anterior. Estas operaciones intelectuales pueden representarse como estrategias o estructuras
ejecutivas de control con componentes desencadenantes y resultantes, diferentes en cada estadio. El
concepto de estructuras ejecutivas sustituye al concepto de esquema de Pacual-Leone, pero manteniendo
sus semejanzas. Así, en cada estadio existe un conjunto de estrategias o estructuras ejecutivas de control
relativamente específicas, ya que se refieren a tareas y dominios diferentes y están ensambladas
independientemente unas de otras, pero mantienen una misma forma general subyacente. La elección de
Case de un conjunto de estrategias de control ejecutivo para caracterizar la estructura totalizadora
propia de cada estadio le permite explicar los desfases horizontales.
En cuanto a la estructuración vertical, esto es, el proceso de transición entre estadios, propone la
existencia de determinados cambios en el almacén a corto plazo o memoria operativa. Al contrario que
Pascual-Leone, para Case el espacio total de procesamiento (ETP) no aumenta con la edad. El ETP está
formado por el espacio dedicado a las operaciones y el espacio disponible en el almacén a corto plazo. Lo
que aumenta con la edad es la práctica y eficacia con la que realiza las operaciones el sujeto, y por lo
tanto quedan libres más recursos cognitivos. El aumento de la eficacia operacional produce una
disminución en el espacio operativo de procesamiento que permite, por tanto, aumento en la capacidad
de almacén a corto plazo. En cada uno de los estadios caracterizados por diferentes operaciones, el niño
mejora su eficacia operativa merced a la práctica específica en la operación de que se trate y a factores
madurativos y de experiencia general. La propuesta de Case por tanto incluye cambios estructurales
específicos, pero sin el carácter radical y totalizador de los propuestos por Piaget.
- LA TEORÍA DE HALFORD
Comparte con las anteriores la importancia que otorga al incremento con la edad en la capacidad de la
memoria operativa de los sujetos. Propone la existencia de 4 estadios diferentes en el desarrollo,
caracterizados por la capacidad que adquieren los niños en cada uno de ellos de realizar un tipo de
operaciones mentales llamadas correspondencias. Halford toma el concepto de “correspondencias de
estructuras” de las matemáticas. Las correspondencias entre estructuras caracterizan las actividades
mentales de los niños a lo largo del desarrollo y subyacen a la comprensión que realizan de los conceptos.
De esta manera, la progresiva adquisición de correspondencias crecientemente complejas explicará el
incremento en las capacidades de comprensión, y adquisición de conceptos y conocimientos durante el
desarrollo. Según Halford, el desarrollo intelectual a través de 4 estadios depende básicamente del
necesario incremento en la capacidad de procesamiento que estas operaciones requieren. Así, sostiene
que esta capacidad de procesamiento no se incrementa de forma abrupta, sino gradual y paulatina, y es
fruto más de la propia maduración del sistema nervioso, que del aumento en la eficacia operacional. En
otras palabras, esta teoría está claramente más cerca de la posición de Pascual-Leone que de la de Case.
- LA TEORÍA DE FISCHER
Esta teoría propone también la existencia de 4 estadios o escalones en el desarrollo de las destrezas
cognitivas. Se basa por tanto en el concepto de “destreza”, que define como una habilidad que muestra
cierta capacidad de generalización entre tareas y cierta especificidad para un determinado tipo de tarea.
En sus propias palabras, es “una característica de una persona en un contexto”. La teoría de las destrezas
de Fischer trata de dar cuenta, a la vez, de la variabilidad en el desarrollo que él considera un rasgo
fundamental del mismo, y de la existencia también de una cierta constancia u homogeneidad que permite
hablar de los diversos escalones en el desarrollo.
El desarrollo de las destrezas surge de la interacción del sujeto con la tarea en un contexto determinado,
y por tanto es altamente dependiente de la misma, ya que es a partir de la experiencia concreta de los
sujetos con cada tarea como las destrezas se van complicando progresivamente. Como la experiencia de
los sujetos es muy diversa en los diferentes campos, el desarrollo de sus destrezas será, por norma,
desigual, y por tanto la variabilidad, el desfase, será la regla del desarrollo. No obstante, existe asimismo
un proceso de generalización de las destrezas entre los diferentes campos y tareas que hace que
aparezcan esas regularidades que llamamos escalones. Cada uno de estos escalones sufre un proceso
gradual de cambio que se manifiesta en la existencia de varios niveles intermedios. Ahora bien, el cambio
que se produce en el último nivel dentro de un escalón, y que da cuenta del cambio de estadios o
escalones, no es ya gradual, sino abrupto.
Para Fischer, los cambios graduales y progresivos, la continuidad dentro de cada escalón, da lugar a un
cambio abrupto y radical en el último nivel del mismo para que aparezca un nuevo escalón. Este nuevo
escalón surge de la integración y combinación de sistemas complejos que producen el nuevo tipo de
unidad que le caracteriza, algo que según Fischer necesita de una base neuronal que permita la fusión
entre los diversos componentes implicados. Esta base neuronal está ligada a los cambios en el córtex
frontal.
La concepción del cambio cognitivo de Fischer es muy semejante a las anteriores. Quizá lo más
importante es su intento, bastante convincente, de explicación conjunto de la variabilidad y la
estabilidad en la conducta infantil, algo para lo que se basa en los modelos de sistemas evolutivos
dinámicos. Este enfoque de los sistemas dinámicos evolutivos, junto con el enfoque conexionista y la
perspectiva del neuroconstructivismo está siendo crecientemente utilizado en la explicación del
desarrollo cognitivo. Es lo que veremos a continuación.
1. EL CONEXIONISMO
Tanto los modelos computacionales clásicos como los modelos conexionistas son herederos directos de la
tesis de Turing. Una red conexionista está formada por un conjunto generalmente muy numeroso de
unidades que actúan como “neuronas abstractas”, y que poseen la misma capacidad computacional que
una máquina de Turing.
- Características fundamentales de los modelos conexionistas
Los modelos conexionistas comparten 4 principios sencillos:
a. la operación computacional básica de una red conexionista implica a una neurona que transmite
información relativa a la suma de señales recibidas de otras neuronas
b. el aprendizaje cambia la fuerza de las conexiones entre neuronas, y de esta forma, la influencia
que tienen unas sobre otras
c. los procesos cognitivos implican que la computación está esencialmente ejecutada en paralelo por
una gran cantidad de neuronas
d. la información está distribuida a través de muchas neuronas y muchas conexiones que configuran
“redes neuronales”
Pero existen otros mecanismos de aprendizaje más potentes que implican ya la actuación de unidades
ocultas, como el mecanismo de retro-propagación del error o “propagación hacia atrás”. Este modelo
es una red multiestrato que incluye, además de los estratos de entrada y salida, un tercer estrato con un
número fijo de unidades ocultas que permiten construir una representación interna distribuida. Así, la
información que llega a las unidades de entrada se recodifica en una representación interna y las salidas
se generan a partir de la representación interna más que por el patrón original.
Sin embargo, a pesar de su comportamiento bastante ajustado, esta red de arquitectura fija recibió
diversas críticas. En primer lugar, si las dimensiones peso y distancia estaban prefijadas y la arquitectura
era fija, entonces los cambios eran sólo cambios cuantitativos. En segundo lugar, resultó de particular
interés que, a pesar de la potencia lógica de la red, ésta no conseguía un ajuste óptimo con las conductas
exhibidas por los sujetos. En especial, la simulación fallaba en el ajuste con el modelo IV propuesto por
Siegler y, además, no se mostraba capaz de simular los aspectos cualitativos implicados en el modelo III.
La respuesta de los modelos conexionistas a estos dos tipos de críticas son las redes constructivistas.
Mareschal y Shultz han propuesto los llamados “algoritmos generativos” que permiten dar cuenta de la
existencia de cambios cualitativos. El algoritmo generativo se aplica en redes con un diseño inicial
determinado. Los procesos de asimilación estarían representados por situaciones en las cuales la red
consigue generalizar una entrada novedosa a un patrón ya existente. Sin embargo, cuando los esquemas
previos resultan insuficientes para producir una respuesta adecuada, el algoritmo generativo permite
añadir nuevas estructuras, incorporando unidades ocultas, lo que definitivamente cambia el poder
representacional de la red y permite construir un nuevo dispositivo más competente. Este tipo de
simulación no sólo permite superar ya los problemas con las reglas tercera y cuarta de la tarea de la
balanza, sino que no necesita una pre-especificación de unas unidades dedicadas al peso y otras
dedicadas a la distancia.
La característica más significativa de las redes constructivistas es que permite la adición de estructuras,
es decir, de nuevas unidades. Estas adiciones no se realizan de forma trivial, sino ajustándose a las
demandas del ambiente. La red contiene un mecanismo que le permite añadir nuevas unidades ocultas
para enfrentarse a las demandas cambiantes y cada vez más exigentes del medio. Así, estas redes
permiten una explicación del desarrollo plenamente interactiva. En definitiva, estas redes aportan una
medida cuantitativa del progresivo incremento del poder computacional del sistema de procesamiento: el
número de unidades ocultas.
Las soluciones aportadas por las redes constructivistas posibilitan una nueva forma concebir la explicación
del desarrollo. El crecimiento paulatino de la competencia de la red surge del intento de dar una solución
eficaz a las múltiples situaciones y fuentes de variación a las que se enfrenta el niño. De esta manera, las
redes constructivistas pueden proporcionarnos nuevas hipótesis sobre los diversos tipos de cambios y su
aparición en el curso del desarrollo. Debe destacarse que el progresivo incremento del poder
computacional que exhiben las redes constructivistas puede ser el resultado tanto de factores
ambientales como de procesos madurativos que interactúan sinérgicamente. Lo atractivo de este nuevo
marco es que permite modelar fenómenos cuantitativos de cambio en nuestros conocimientos, a la vez
que fenómenos cualitativos de cambio en los mecanismos de aprendizaje.
- Complejidad y auto-organización
Un sistema complejo es un conjunto de elementos o componentes que interactúan entre sí, incluyendo su
medio ambiente. Es un sistema dinámico si dichos componentes se afectan, modificándose unos con otros
a lo largo del tiempo. Un ejemplo prototípico de sistema complejo dinámico es un ecosistema. Todos los
seres vivos son sistemas complejos. También lo es un cerebro humano en interacción con el ambiente
físico y social. Una característica crucial de los sistemas complejos es que, a medida que evolucionan,
producen orden y estructura. Esta idea es fácilmente exportable al campo del desarrollo psicológico. La
propia teoría de Piaget es justamente un ejemplo de cómo el desarrollo de la inteligencia en los niños
genera estructuras. Dichas estructuras emergen gracias a procesos de autoorganización. Este concepto de
“autoorganización” también lo encontrábamos en Piaget a través del factor de “equilibración”. Como
explica Van Geert, la autoorganización se produce como resultado del propio funcionamiento del sistema
que genera nuevos estados.
Una segunda premisa clave es que tal funcionamiento autoorganizado sólo puede entenderse en
referencia a las complejas interacciones que se establecen tanto internamente como en su relación con el
medio externo. Es decir, la autoorganización se produce como resultado de procesos que se reorganizan
por sí mismos en patrones complejos, pero no hay nada que instruya al proceso a comportarse así; se crea
a sí mismo espontáneamente; aunque ciertamente la autoorganización se produce en sistemas que ya
poseen un alto grado de estructura o complejidad por sí mismos. Por ejemplo, el lenguaje, que no se
enseña explícitamente el sistema verbal. El hecho de que los haya aprendido “espontáneamente”, sin
instrucción explícita, no quiere decir que lo haya hecho sin esfuerzo cognitivo. Estos modelos dinámicos
proponen que el sistema realiza todo un trabajo cognitivo que permite ir adquiriendo la gramática de la
lengua, aunque sea de modo implícito.
- Variabilidad y equilibrio
La última propiedad de los sistemas dinámicos se relaciona con su tendencia a evolucionar hacia alguna
forma de equilibrio: los llamados estados atractores. Se podría pensar en que el nivel “adulto” de
conocimiento gramatical es un estado atractor o estable del sistema de aprendizaje del lenguaje. Sin
embargo, y a diferencia de la propuesta piagetiana, desde los modelos dinámicos se contempla, enfatiza
y promueve el estudio de la variabilidad, tanto inter-sujeto como intra-sujeto en el desarrollo y
adquisición de las distintas funciones psicológicas. El estudio de ambos tipos de variabilidad exige
planteamientos metodológicos novedosos, pues la variabilidad es así entendida, no como la excepción,
sino como la norma en el desarrollo. De hecho, se convierte en el objetivo central de su análisis,
considerándola como expresión del auténtico curso del desarrollo, generalmente complejo y de cambios
no lineales. Este énfasis en la variabilidad será recogido también por los modelos neuro-constructivistas
actuales a través del concepto de “trayectorias del desarrollo”.
Sintetizando lo expuesto hasta aquí, podemos resaltar una serie de características definitorias de los
sistemas dinámicos:
● la interconectividad entre sus componentes
● un funcionamiento en el que prima la complejidad y variabilidad
● la autoorganización como mecanismo fundamental del cambio
● y la emergencia de nuevas propiedades y estados fruto de dichos procesos reorganizativos
Pero estas características son sólo relativamente nuevas, algunas de ellas están presentes en modelos del
desarrollo constructivistas, empezando por la propia teoría de Piaget. La novedad de la perspectiva de los
sistemas dinámicos aplicada al desarrollo psicológico radica en aunar en un solo esquema
teórico-metodológico todas estas propiedades, postulando firmemente el mecanismo de autoorganización
como proceso de cambio y tratando de formalizarlo a través de modelos matemáticos que captan la
dinámica de los sistemas. En última instancia, lo que pretenden estas nuevas metáforas del desarrollo es
desplazar la metáfora por excelencia, la metáfora computacional. Desde la perspectiva dinámica, aunque
en cierto modo se reconoce la utilidad de este tipo de metáfora en el estudio de la cognición, se la
considera inadecuada para abordar la investigación del desarrollo, en la medida en que se entiende como
algo no sujeto a “programación” alguna y donde la cuestión clave es el origen del orden.
Otra diferencia central con los modelos clásicos, pero compartida con los modelos conexionistas, se
refiere a que las representaciones pueden estar fragmentadas. El desarrollo se concibe
fundamentalmente como un proceso de construcción de representaciones, pero éstas son
representaciones parciales que se distribuyen a través de distintos circuitos funcionales y serían
interpretables únicamente en los contextos particulares. Desde el neuroconstructivismo se concibe el
desarrollo como un proceso de incremento en la complejidad representacional que emerge como
“consecuencia natural” de los procesos de adaptación típicos de los sistemas biológicos complejos.
Por otra parte, desde el neuroconstructivismo, se plantea una crítica a los modelos computacionales
clásicos, que conciben las representaciones mentales únicamente como producto de la abstracción de las
propiedades del ambiente. Estos modelos clásicos ignoran las restricciones derivadas del hecho de que la
mente está encarnada y situada en un contexto físico y social.
Respecto a la inclusión de otros niveles de análisis y constricciones, y su relevancia para entender los
procesos de cambio que caracterizan el desarrollo humano, se propone el concepto de interdependencia:
la interrelación y dependencia dinámica entre cerebro, cuerpo y ambiente. Pero ello reclama una
estrecha colaboración interdisciplinar no siempre viable. Una posibilidad metodológica por la que se
apuesta fuertemente es la simulación o modelado computacional.
- Mecanismos y procesos para el cambio representacional
Desde el neuroconstructivismo, el cambio representacional que implica el desarrollo se explica en
referencia a ciertos procesos característicos y en función de cómo operan en el tiempo algunos
mecanismos. Para Mareschal y colaboradores, los mecanismos explicarían las interacciones inmediatas
entre los constituyentes observables que causan la emergencia de las representaciones. En contraste, los
procesos se despliegan a lo largo de escalas temporales mayores que los mecanismos, pero también
pueden operar a distintos niveles de descripción.
Son dos los procesos evolutivos que se contemplan como fundamentales: proactividad y especialización
progresiva. La proactividad se refiere al papel activo del sujeto en todas las facetas de su desarrollo. La
especialización progresiva se relaciona con la propuesta de Johnson sobre la especialización interactiva
que caracteriza el desarrollo cerebral: a medida que se produce el desarrollo postnatal, las conexiones en
las distintas regiones cerebrales se van especializando en funciones específicos a través de procesos de
competición y cooperación entre distintas partes del cerebro. De este modo, el resultado de la
especialización progresiva sería una pérdida de plasticidad, pero un aumento de eficacia en el
procesamiento de un tipo de estímulos de clara relevancia en el desarrollo psicológico, como pueden ser
los rostros humanos. Otro ejemplo lo encontramos en el desarrollo temprano del lenguaje, los bebés son
capaces de distinguir entre un conjunto muy amplio de contrastes fonéticos, incluso no observados en su
lengua materna, pero después, pierden esa capacidad siendo más específicos.
En relación con ambos tipos de cambio evolutivo - proactividad y especialización progresiva - se han
propuesto un conjunto de mecanismos (cooperación, competición y organización temporal) que operan
conjuntamente en los distintos niveles de organización anteriormente mencionados. No obstante, sólo
destacaremos el mecanismo de organización temporal, que hace referencia a la importancia de la
dimensión temporal que caracteriza el desarrollo. En general, el aspecto de la plasticidad cerebral del
neonato, junto al largo periodo de inmadurez y desarrollo tutelado que necesita el cachorro humano,
parece ser clave como oportunidad para que se produzcan los procesos de especialización.