Está en la página 1de 37

Universidad de Palermo

Facultad de Ciencias Sociales


Licenciatura en Psicología
Materia: Psicología Clínica y Psicoterapia II
Profesor Titular: Dr. Alejandro Napolitano
Profesora Adjunta: Lic. María Laura Mascheroni
Ciclo Lectivo 2016
Ficha interna de la Cátedra para uso exclusivo de los alumnos

Cambio psicológico I:
Los contextos del cambio psicológico
“El fuego descansa cambiando”
Heráclito

Introducción

En clases previas presentamos algunas definiciones de paradigma. Revisamos


las implicancias de estar sumergidos en un sistema de creencias.
También contextualizamos el desarrollo de la materia según algunos vaivenes del
paradigma moderno (temprano y tardío). Descartes: la razón en el centro del
sentido. Kant: la relativización de la conciencia. Freud: la formalización del
inconsciente que da paso al psicoanálisis y a las psicoterapias.
El proceso progresivo de descentración de la razón ha sido una parte sustancial
de la decadencia del paradigma moderno. Este acontecimiento histórico ha abierto
un espacio donde se han instalado las psicoterapias, de la mano de su
fundador, Sigmund Freud. Avanzaremos en esa dirección, analizando algunas
producciones científicas del siglo XX, aplicables al estudio del proceso de cambio
psicológico. Estos conocimientos ya comienzan a conformar el paradigma que
sucede al moderno, al que denominaremos paradigma de complejidad.
Las nociones científicas a las que atenderemos en esta ficha provienen del
campo de la matemática, la física, la química y la biología. Su llegada al terreno
de la psicología es más reciente y aún parcial.
Analizaremos más tarde, en la ficha que continúa a la presente, el cambio
psicológico en el proceso psicoterapéutico. En la actual trataremos aquello
que hemos llamado los contextos del cambio psicológico. Presentaremos,
entonces aquí, algunas nociones científicas que determinan cuáles serán las
condiciones de posibilidad de cambio en los sistemas complejos.

1
Consideraremos seguidamente una serie de conceptos que nos permitirán pensar
el cambio psicológico desde una perspectiva que quizás resulte algo novedosa en
el campo psi.
Iremos avanzando sobre los siguientes ítems:

 Homeostasis
 Autopoiesis
 Segundo Principio de la Termodinámica
 Estructuras Disipativas
 Crisis
 Contextos biológicos y antropológicos del cambio psicológico:
1. Neotenia
2. Neuroplasticidad
3. Epigénesis

1. Homeostasis

El concepto de homeostasis suele aparecer ligado a la noción de equilibrio, lo


cual es cierto sólo en parte. La homeostasis es un principio que nació en el
dominio de la Fisiología, a mediados del siglo XIX, a partir de los trabajos de
Claude Bernard. Sin embargo, quien acuña el término es el fisiólogo Cannon en
1928. Alude a la tendencia, que tienen los sistemas vivientes, a mantener estables
sus variables fisiológicas. Homeo significa similar (homo quiere decir igual). El
concepto señala el hecho de disponer, los organismos vivientes, de los
mecanismos necesarios para hacer que algunos parámetros biológicos se
mantengan dentro de un rango considerado normal. Un ejemplo de tales
mecanismos es la retroalimentación negativa (feed-back negativo) En orden a la
evaluación de la homeostasis en un contexto de cambio, debemos considerarla de
tres tipos diferentes (Wilden, 1979):
1. Homeogénesis: es la acepción de homeostasis corrientemente
utilizada. Refiere a la restitución del equilibrio tras haber sufrido este
alguna perturbación. Se la considera de dos tipos, una reactiva y otra
predictiva. Llamamos homeogénesis reactiva a los mecanismos
puestos en juego para lograr un ajuste en respuesta a una variación
del medio (incluyendo como tal al medio interno). Por ejemplo los
ajustes termo-regulatorios en respuesta al frío. Llamamos
homeogénesis predictiva a los ajustes originados en la anticipación
de eventos aún no ocurridos. Por ejemplo, la secreción de jugos
digestivos anticipando una próxima comida. En el terreno
psicopatológico son un ejemplo claro los múltiples fenómenos de
ajuste neuroendocrino que ocurren durante la anticipación
catastrófica, síntoma cardinal en los Trastornos de Ansiedad.

2
2. Homeorresis: hace referencia a sistemas dinámicos que subyacen
en la homeostasis. Estos recursos no buscan la vuelta a un estado
anterior, sino que se orientan a producir un ajuste desarrollando
potencialidades que se hallan presentes en el sistema. Es importante
comprender que la homeorresis remite a trayectorias de desarrollo
teleonómicas relativamente fijas, prefiguradas en el sistema. No hay
un aparecer de “lo nuevo”, sino un despliegue de “lo mismo”, en un
nivel más avanzado de desarrollo. Como, por ejemplo, la aparición
de la bipedestación o el lenguaje en la criatura humana. Existe un
período de ventana durante el cual, si se dan determinadas
condiciones en el ambiente, el surgimiento de nuevas propiedades
es posible.
3. Autopoiesis: La autopoiesis es la capacidad que poseen los seres
vivientes de construirse a sí mismos. Más allá de constituir una
característica básica, la llamada morfogénesis autónoma, con la
autopoiesis se alcanza la posibilidad de ir más allá de la
homeorresis, ya que la morfogénesis podría ahora no atenerse al
desarrollo de un curso prefijado. Partiendo de “lo mismo”, utilizando
la recursividad como método privilegiado, se logra el surgimiento de
“lo nuevo” (lo absolutamente nuevo). Se trata de la utilización de la
información, no como una mera provisión de datos para el desarrollo
de una receta, sino en su dimensión de fuente de combinatorias. La
información, procesada de este modo puede, entonces, generar el
surgimiento de propiedades que antes no existían en el sistema, las
denominadas propiedades emergentes. Ejemplos de propiedades
emergentes son:
a) el surgimiento de los fenómenos mentales como una
propiedad emergente de la actividad neuronal, particularmente
de la combinatoria de la actividad de sistemas neuronales.
b) El surgimiento de caracteres novedosos, multigénicos como
una propiedad emergente del proceso de epigénesis, esto es,
la combinatoria entre la expresión diferencial del material
genético y las características medioambientales.
c) El surgimiento de posibilidades casi infinitas en la producción
de anticuerpos en el sistema inmunitario, como una propiedad
emergente del recurso combinatorio llamado splicing
alternativo.
Podemos utilizar para comprender, en este sentido, la autopoiesis la
denominación de autorregulación creativa, intentando significar con
esta expresión que, la adaptación exige, en este caso, no un ajuste
sino la creación de nuevas condiciones y propiedades.

La noción de homeostasis, ya hacia finales del siglo XIX, había expandido sus
límites de influencia más allá del terreno de la fisiología. Freud utilizó el concepto
bajo las denominaciones de principio de inercia y principio de constancia para
concebir, en el Proyecto de una psicología para neurólogos una primera teoría

3
psicoanalítica de la motivación1. Sostiene en el Proyecto… que nuestro aparato
psíquico tiende a mantener un cierto equilibrio homeostático. Cuando ese
equilibrio se altera aparece una tensión que es vivida como displacer. Esto lleva a
buscar conductas que permitan descargar la tensión para volver al estado de
equilibrio. La conducta que descarga la tensión está asociada a la vivencia de
placer. Esta dinámica elemental: tensión-displacer, descarga-placer-relajación, es
presentada como el impulso inicial de toda motivación.
La evidente presencia de tensiones placenteras lleva a Freud a una primera
revisión en la cual la motivación es mostrada como un sistema homeostático
autorregulado, y más tarde como la oposición entre Eros y Thanatos. En todos los
casos las metáforas son de base energética, apoyadas en el modelo de las
pulsiones. De las posiciones críticas frente a esta mirada nos interesa
principalmente la de Maslow, por marcar el inicio de las llamadas Psicologías
Humanísticas. Abraham Maslow en el capítulo 3 Motivación de la deficiencia y
motivación del desarrollo del libro El hombre autorrealizado (Maslow, 1993),
establece una diferencia entre las necesidades de desarrollo y las necesidades
básicas o de déficit, y afirma que la dinámica propuesta por Freud sirve para
explicar la motivación relativa a las necesidades mas elementales de nuestro ser
psicológico, pero no explica las necesidades de desarrollo. A pesar de ser muy
sencilla, la teoría de la motivación de Maslow, es interesante y consistente. Divide
la motivación en, motivación por deficiencia, es decir, la motivación clásica
freudiana, y motivación de desarrollo, de realización o auto-actualización que
sería la motivación distintivamente humana. Esta idea marca un hito en el
nacimiento de las Psicologías Humanísticas, al señalar una diferencia entre la
motivación como una pura descarga de tensión o como ligada a la realización,
llevada ahora a la categoría de verdadera necesidad humana.
Si bien Maslow sostiene que para dar paso a la motivación de autorrealización es
preciso antes satisfacer las necesidades básicas o de deficiencia, la observación
muestra que las cosas pueden ser distintas. Numerosas obras de arte, o
producciones del conocimiento se dan en situaciones en las que las necesidades
básicas, lejos de estar satisfechas se encuentran en estado calamitoso.
Conocemos creaciones artísticas, musicales o literarias nacidas en campos de
concentración o en situaciones patéticas de desesperación. La búsqueda de
realización a través de la expresión genuina parece ser una necesidad humana
que no sólo no se adapta al mecanismo de descarga de la tensión, propuesto por
el primer Freud, sino que tampoco requiere necesariamente de la satisfacción
previa de las necesidades básicas.
El pensamiento científico contemporáneo tiene una mirada crítica acerca de
considerar la homeostasis como restitución del equilibrio. La palabra equilibrio no
describe adecuadamente los acontecimientos, y en cierta medida los deforma
impidiéndonos verlos en su verdadera dimensión. No podemos definir los
organismos vivientes como seres en equilibrio. Las aproximaciones actuales a los
sistemas complejos, como los seres vivientes, nos dicen que se trata de seres
especializados en mantener estados estables (steady states) alejados del punto

1
Recordar que el “Proyecto…” es de 1895, y si bien la palabra homeostasis aún no existía, la noción, a partir
de Claude Bernard, tenía plena vigencia en el mundo científico.

4
de equilibrio. Si observamos detenidamente un organismo viviente, más que
equilibrio veremos un desequilibrio sustentable. El verdadero equilibrio es el que
se produce a partir del momento de la muerte, cuando el organismo fusionándose
con el medio ambiente, lentamente, equilibra sus variables con las del medio, los
elementos que lo constituyen se funden con los del medio y el que era el
organismo, entra en equilibrio con su entorno. Pero mientras el organismo vive, su
vida consiste en mantener estados altamente desequilibrados en forma estable
durante largos períodos. Por ejemplo, mantener la temperatura muy diferente a la
del medio ambiente, mantener en el interior del propio organismo, compartimentos
separados, con concentraciones de sustancias que difieren extraordinariamente
entre sí, aisladas por delgadas membranas, y otros muchos ejemplos similares.
Se señalan así situaciones de gran desequilibrio, mantenidas con el consumo de
grandes cantidades de energía. De un lado de una membrana muy fina hay una
sustancia a alta concentración y del otro, la misma sustancia en bajísima
concentración. Hay un enorme esfuerzo bioquímico puesto a disposición del
mantenimiento de esas diferencias. Diferencias eléctricas, de concentración de
sustancias, todo tipo de diferencias. Un organismo viviente es complejo porque es
capaz de mantener estables estados de sofisticados desequilibrios, y vive no a
pesar de esos desequilibrios y tensiones, sino gracias a ellos, ya que los explota
para producir trabajo. Si bien es verdad que los organismos tienden a mantener
constantes ciertas variables no se puede definir un organismo viviente en función
del equilibrio y sobre todo en función del equilibrio con el medio. Más
acertadamente la vida debe ser definida como caracterizada por estos estados
estables alejados del punto de equilibrio.

2. Autopoiesis

“El animal sólo avanza hacia lo que busca,


y sólo busca lo que necesita.
Es la necesidad la que impulsa el movimiento,
y es el movimiento el que le descubre el espacio”
Pradines
La aventura del espíritu a través de las especies

Precisemos un poco mejor el término, que ya habíamos adelantado más arriba. La


palabra autopoiesis fue introducida por el biólogo chileno Humberto Maturana en
1970, siendo de 1964 los trabajos científicos que dieron origen al concepto
(Maturana, 2002). Maturana nos dice que podemos afirmar que el momento de la
historia de la Tierra en que surgió el primer ser viviente, hace tres mil ochocientos
millones de años, fue aquel en el cual una red de producciones moleculares,
cerrándose sobre sí misma, constituyéndose como una unidad discreta, fue capaz
de producir la misma red productora que la produjo. Se rodeará luego de barreras
que la aislarán del medio, comenzando a mantener con este flujos de intercambio.
La característica propuesta como fundacional de los seres vivientes, es entonces,

5
la propiedad de ciertas moléculas de, mediante procesos recursivos, cerrarse
como unidades discretas y producir los dispositivos capaces de producirlas a ellas
mismas.
Aparecen así tres características propias del fenómeno autopoiético:

1. Autonomía: la creación de un espacio propio determina que sólo desde el


sistema autopoiético mismo es posible determinar qué es relevante y qué
es indiferente, en términos de intercambio.
2. Emergencia (propiedades emergentes): el surgimiento de un orden
cualitativo nuevo (el sistema autopoiético) no puede deducirse de las
características materiales ni energéticas de los elementos que lo
componen, apareciendo propiedades nuevas reguladas por normas
propias.
3. Clausura organizacional: la clausura operativa se relaciona en forma
directa con el nivel de estabilidad alcanzado por el sistema. Toda
incorporación no prevista (novedosa) tiene un valor desestabilizador.

La forma que tiene una piedra (en el nivel macroscópico) es resultado de los
impactos, presiones, oscilaciones térmicas recibidos. Un organismo viviente, en
cambio, no adquiere su forma por los acontecimientos exteriores, sino en virtud del
desarrollo de un programa que contiene. El juego de las combinatorias de las
múltiples variables de que dispone le permitirá, autopoiéticamente, generar
propiedades emergentes nuevas e imprevistas. Podemos entender la autopoiesis
también, y ese es un punto capital para nosotros, puestos a conceptualizar el
cambio psicológico, como el estrato superior de los recursos de autorregulación.
En efecto, los seres vivientes están orientados hacia fines, el más inmediato de los
cuales es nada menos que seguir siendo. La prosecución de esos fines se
sostiene sobre dos características bien descriptas en teoría general de los
sistemas. En primer lugar la equifinalidad, esto es, un organismo viviente persigue
finalidades pudiendo utilizar distintos caminos o alternativas para acceder a las
mismas. En segundo lugar la teleonomía; esta se halla referida a la posibilidad de
acceder al fin buscado ajustándose a ciertas normas que regulan el orden y curso
de los procesos. Tal como veíamos antes un sistema complejo puede dirigirse
hacia sus fines haciendo ajustes homeostáticos o promoviendo un ajuste creativo.
A este último lo llamamos autopoiesis o autorregulación organísmica creativa.2

2
En teoría cibernética entendemos el ajuste homeostático como Cambio 1 (cambiar algo para que todo siga
igual) y la autopoiesis como Cambio 2 (cambio propiamente dicho).

6
3. Segundo Principio de la Termodinámica

“Es que la poesía se mete en todas partes, aún donde parece que no la llaman,
y así ,cuando se cree encontrarla en los arroyuelos, aparece en las matemáticas
¡Cuántas veces en un bosque de versos no se encuentra ni rastro de ella!, y se la
ve callada, discreta, vestida con túnica de verdad, en la zarza luminosa de una
fórmula, enteramente contraria a las formas del arte”
Benito Pérez Galdós “El Doctor Centeno” (1883)

Es necesario ahora incorporar un concepto que enriquece la comprensión de la


autoorganización de los complejos sistemas vivientes. Es el muy conocido, aún
fuera del ámbito científico, Segundo Principio de la Termodinámica. Para poder
entender este principio, tenemos que conocer primero la noción de Entropía.
El Segundo Principio dice que: en un sistema termodinámicamente cerrado la
entropía tiende a un máximo. Definamos entropía. La entropía es una medida.
Así como el centímetro o el grado son medidas de longitud o de temperatura, la
entropía mide el nivel de orden o desorden de un sistema.
Un sistema muy desordenado tiene mucha entropía y un sistema muy ordenado
tiene poca entropía, entonces;

Entropía Positiva = Desorden


Entropía Negativa = Orden

Cuando se dice orden y desorden no se está aludiendo a un concepto subjetivo,


sino al hecho de que, las condiciones aleatorias en que evolucionan los sistemas
en forma espontánea llevan a que la mayor probabilidad es que se organicen de
manera desordenada (inestable y mudable en el tiempo). Por ejemplo, si arrojo
algunos millones de letras al aire, es muy difícil que cuando caigan, lo hagan de
forma tal que hayan escrito el Quijote de la Mancha. Es una probabilidad ¿por qué
no? pero es muy pequeña, lo más probable es que caigan como una sopa de
letras incomprensible. ¡Pero cuidado!, digamos también que es igualmente
improbable que esa sopa de letras incomprensible se repita exactamente igual la
próxima vez que arroje las letras. Esto es lo que prevé el Segundo Principio al
decir, que la aleatoriedad del azar tiende a organizar sistemas desordenados, son
desordenados porque su distribución es aleatoria (mudable e inestable en el
tiempo). Más que eso, dice que en un sistema termodinámicamente cerrado la
entropía tiende a aumentar en forma permanente, es decir, que el desorden tiende
a incrementarse de manera espontánea. Un sistema termodinámicamente cerrado
es el universo en su conjunto. Entonces el segundo principio, al señalar que la
entropía del cosmos está en incremento permanente, prevé que en un momento

7
indeterminado, en un punto hipotético, el universo tal como lo conocemos,
constituido por elementos discretos en interacción permanente, se extinguirá, y al
desaparecer las diferencias, devendrá inerte, ya que toda acción es consecuencia
de la diferencia (diferencias de temperatura, diferencias de potencial, diferencias
de concentración, etc.). Todo lo que nosotros vemos como estructuras altamente
ordenadas y estables, todos esos procesos sistemáticos y encadenados, desde
las estructuras cristalinas, las galaxias, hasta los seres vivientes, desaparecerán,
dando lugar a un todo caótico homogéneo, indiferenciado, y por lo tanto, inerte.
Prevé que los sistemas ordenados serán en algún momento reemplazados por el
desorden. El Segundo Principio se expresa a través de una serie de fórmulas
matemáticas, que, debidamente aplicadas, permiten calcular la entropía de
cualquier sistema. Ese cálculo, llevado al universo en su conjunto, permite
determinar que la entropía del universo se incrementa.
Los biólogos, al comienzo, se opusieron fuertemente a estas consideraciones. En
su práctica científica constataban a diario que los seres vivientes conforman
estructuras con un muy alto grado de orden, que no solamente reproducen de
manera estable e invariable, sino que además se tornan más y más complejas en
el tiempo. Los seres vivientes pueden así ser considerados como acumuladores
de entropía negativa. La evolución biológica puede ser entendida como la
complejización progresiva de estructuras fuertemente neguentrópicas. Por lo tanto,
¿cómo sostener que la entropía se halla en aumento?

4. y 5. Estructuras Disipativas y Crisis

“Aquello que para la oruga se llama fin del mundo,


para el resto del mundo se llama mariposa”
Lao-Tse

La discusión se tornó interminable. Resolver el acertijo llevó treinta años, y quien


lo resolvió se llevó el premio Nobel de química en 1970: Ilya Prygogine, con su
teoría de las estructuras disipativas. La solución consistió en aclarar
debidamente dónde hacer el corte para medir la entropía de los sistemas en
estudio. Pongamos un ejemplo. Consideremos como sistema
termodinámicamente cerrado, una placa de vidrio, de esas que usan los
bioquímicos para hacer cultivos bacterianos. En esa placa habremos dispuesto
previamente un caldo de cultivo, luego de lo cual sembraremos una gota con
bacterias. A las dos horas las bacterias se habrán reproducido por millones, y al
cabo de un día por miles de millones. Al día siguiente de la siembra podremos
observar una gran superficie de la placa cubierta por las colonias de bacterias.
Constatamos que en esa región de la placa se han reproducido a gran velocidad
unos pequeños organismos muy complejos, dotados de un alto grado de orden:
las bacterias. Si medimos allí la entropía veremos que esta disminuyó.

8
Entropía en un subsistema y en el sistema completo:

El Sistema en
E-
conjunto está
más desordenado
La Entropía 

Ahora bien, si aplicamos la fórmula al sistema en su conjunto (sub-sistema


bacterias + sub-sistema caldo de cultivo remanente), la entropía aumentó, y lo
hizo exactamente en la medida en que lo prevé el segundo principio ¿Por qué?
Porque en la región de la placa que no ocupan las bacterias se ha acumulado una
considerable cantidad de basura constituida por bacterias muertas, excrementos,
gases, productos degradados del caldo de cultivo original, etc. Entonces, la
evaluación del nivel entrópico depende de donde haga el corte que decide los
límites del sistema. Si limito mi sistema al sub-conjunto bacterias, es decir, al
mundo viviente, voy a encontrar que la entropía ha descendido, o sea, que ha
aumentado el grado de orden. Pero si tomo el sistema en su totalidad, veo que se
ha incrementado la entropía positiva, pues las bacterias, además de consumir los
nutrientes del caldo de cultivo, han producido una apreciablemente caótica
polución. Decimos entonces que el sistema está ahora más desorganizado en su
conjunto de lo que estaba al principio de la experiencia. Es decir entonces, y ahora
lo vamos a ver con mayor detalle, que la acumulación de orden, la diferenciación o
complejización, en una región del sistema ha sido posible a expensas de haber
incrementado el desorden del entorno. Lo ha contaminado, ha producido alguna
forma de polución ambiental. Retengamos este concepto al que vamos a volver
un poco mas adelante: toda acumulación de orden, toda diferenciación,
crecimiento, complejización, desarrollo, de cualquier tipo que sea, produce
desorden en su entorno. Entonces, la vida se caracteriza por crear estructuras
altamente ordenadas, como son los seres vivientes, que desarrollan orden, a costa
de desordenar el ambiente que los sostiene.
Analicemos un gráfico que desarrolló Prygogine en 1970, según nos lo presenta
Mahoney (Mahoney, 1990):

Gráfico de estructuras disipativas de Ilya Prygogine:

9
Si bien la elaboración inicial de Prygogine fue respecto de las estructuras
cristalinas, rápidamente los biólogos aplicaron el principio. Dentro del ámbito de la
psicología, fueron los terapeutas sistémicos los primeros en descubrir su extensión
posible a los sistemas familiares, y más tarde al campo de la psicoterapia en
general. Por lo tanto, estamos en condiciones ahora, de hacer una lectura
psicológica del trabajo de Prygogine.
Veamos el gráfico que presenta Mahoney en su libro Human Change Process.
Disponemos en abscisa el tiempo y en ordenada la entropía, que aparece aquí
vinculada a niveles de información (a mayor información mayor negentropía).
Apliquémoslo a un sistema altamente ordenado como lo es el sistema psíquico.
Analizaremos en términos de entropía algunas vicisitudes a las que aparece
sometido el sistema, cuando se abren esos estados particulares que
denominamos Crisis. Imaginemos una situación catastrófica, muy crítica, como
podría ser la muerte de alguien significativo. Para incluir el elemento de lo
inesperado, imaginemos una situación desgraciada que no suele estar en las
previsiones de nadie, como es la tragedia de la muerte de un hijo. Al tiempo cero
de esta situación crítica lo vamos a llamar umbral de inestabilidad. Es el momento
en el cual el sistema psicológico en consideración “experiencia” una situación
inesperada. No había programa previo para esta situación. Vamos a indicarla en
el punto cero, del umbral de crisis, como una situación 100% novedosa y 0%
familiar. En este momento, frente al grave trauma, el sistema psicológico que se
hallaba organizado, colapsa. Comenzará a oscilar y desorganizarse. En términos
de entropía, a medida que la crisis avanza, asistiremos al incremento de la
desorganización. Aludimos con la palabra desorganización a la tendencia del
sistema a tornarse caótico, imprevisible, a la aparición de dispositivos de
autorregulación regresivos. Alguien en situación de catástrofe puede permanecer

10
en el rincón de un cuarto, en actitud catatónica, aun sin tratarse de una persona
psicótica. En los términos sistémicos, entrópicos, que estamos utilizando en este
modelo, decimos que el sistema está haciéndose entrópicamente positivo.
Supongamos que esa persona, a pesar de la situación catastrófica que atraviesa,
como tantas otras que en la vida han soportado situaciones horribles, logra, no
obstante, ir recomponiéndose. Entonces, si lo hace, en los términos que estamos
utilizando, diremos que la entropía comienza a disminuir, volviendo a organizar
sistemas cohesivos. Si no solamente se recompone, sino que además logra,
reformular su psiquismo tornándolo más complejo y diferenciado, podremos
llevar la curva aún por debajo del punto inicial y decir que su sistema está más
complejamente organizado. A este fenómeno psicológico lo conocemos como
resiliencia.
Prygogine señaló que mientras el organismo (en su modelo original las estructuras
cristalinas) acumulaba entropía negativa y se hacía más organizado, disipaba
caos al medio, desorganizaba el medio. No se trata de circunstancia fortuita, un
epifenómeno,o daño colateral evitable, sino de un componente inherente a todo
evento neguentrópico. La estructura autopoiética exige además un requisito del
medio, imprescindible para que se dé el proceso autopoiético. ¿Cuál es la
condición del medio que solicita el proceso autopoiético?: un adecuado nivel de
organización propia. Es decir, el organismo solamente puede auto-reorganizarse si
cuenta con un medio lo suficientemente ordenado como para nutrirse de ese
orden y exportar allí desorden. Este fenómeno se denomina disipación, y le
otorga el nombre al modelo. Es el gran descubrimiento de Prygogine. Este
científico advierte que no es posible ningún crecimiento autopoiético sin un medio
soportativo. Su condición de sostén se da en términos de orden. Un sistema que
contenga y que soporte el desorden que produce la acumulación de orden por
parte del sub-sistema en crisis. Desde este punto de vista, cualquier tipo de
desarrollo, crecimiento o cura, implica un nivel de desorganización del medio, en el
cual el fenómeno se produce. Si un organismo crece, va a producir desorden en
aquello que, en cada caso, consideremos su medio circundante. No hay
posibilidad de crecer sin disipar desorden al medio. Por esta razón, el medio debe
ser suficientemente ordenado, en términos de entropía, para que el desarrollo
pueda darse. Si el medio no es capaz de asimilar el desorden “exportado” por la
estructura autopoiética, el desarrollo no es sustentable. Cuando hablamos de
orden, lo estamos haciendo también de información. De la información necesaria
para diseñar y sostener un orden determinado. De allí que se sostenga la
concepción informacional del segundo principio, que afirma que entropía negativa
es igual a acumulación de información. Lo que permite, entonces, la acumulación
de entropía negativa por parte del organismo en desarrollo es la incorporación de
información del medio.
En el ejemplo que estuvimos considerando, esta madre o padre que logra
sobreponerse a la muerte de un hijo, para poder hacerlo, desorganizará otros
aspectos de su vida, modificará valores, vínculos. Algunas áreas devendrán
caóticas. Para producir algo diferenciado tendrá que desorganizar (caotizar)
otras regiones del sistema. Este acontecimiento no es opcional. No solamente no
lo es sino que es inevitable. Si se logra un desarrollo será a costa de caos o
involución en otra región del sistema. Veamos el caso opuesto a la tragedia que

11
acabamos de considerar. Cuando nace un bebé se produce también un tipo
particular de caos en el entorno familiar. La pareja de padres, toda la vida familiar
se torna caótica. La vida se trastoca toda, y el bebé solo va a poder crecer gracias
a que el gran caos que produce es proporcional al gran desarrollo que también
está produciéndose en él mismo, a costa del desorden familiar.
En el gráfico de más arriba las palabras novedad y confirmación aluden a algo que
denominamos vivencia de familiaridad. Lo que se pierde con la irrupción de la
crisis, lo que desestabiliza, es la ausencia de vivencia de familiaridad. El
acontecimiento está fuera de programa, no hay repertorio de acción previsto
dentro del sistema para responder al suceso.
Debemos aclarar que, para entrar en una situación de crisis, no es imprescindible
que la situación sea catastrófica en el sentido corriente de la palabra. A fines
didácticos hemos utilizado un ejemplo grosero (la muerte de un hijo), pero el
punto esencial es que las situaciones capaces de desencadenar una crisis
poseen como característica la peculiaridad de ser disruptivas, no necesariamente
peligrosas o dañinas en sí mismas. Veamos el siguiente ejemplo. Supongamos
que alguien va caminando por la ciudad, y que a las 12.30 del mediodía, por una
calle del barrio, ve varios chicos de guardapolvo cruzando la calle. Se trata de una
situación absolutamente normal, por lo familiar y esperable. Quien va caminando
continuará en lo suyo, en cierto modo ni siquiera verá realmente el grupo de
niños. Ahora supongamos que nuestro transeúnte imaginario se encuentra
manejando su automóvil, por una ruta solitaria en una oscura noche. En ese
momento ve unos chicos de guardapolvo intentando cruzar la ruta. La situación
no tiene nada, en sí misma, de peligrosa, sin embargo, es posible que el personaje
en cuestión se alarme, intente hallar explicaciones, dude de su lucidez, detenga el
auto, o acelere intentando huir de no se sabe qué, etc. Perplejidad ante lo
inesperado, vivencia de falta de familiaridad. La situación no tiene que ser
necesariamente peligrosa para ser catastrófica, sino estar por fuera de las normas
que regulan la construcción de la realidad.
Para abrir un espacio de crisis no es necesario que se trate de un
acontecimiento externo, tampoco que ocurra algo terrible. Puede desencadenarse
una crisis por una disrupción subjetiva. Súbitamente la persona descubre que
algo que creyó significativo ya no lo es (o a la inversa). No ha sucedido nada
objetivamente. Es la experiencia subjetiva de que algo percibido como muy
hondo, está oscilando. Podemos imaginarnos una crisis vocacional, o existencial.
Puede tratarse de una crisis vital, ligada a los ciclos cronológicos, experimentada
como la propia evolución del sí mismo. El descenso de la curva (autopoiesis)
quedará entonces referido a comprender lo que está ocurriendo, resignificarlo,
encontrarle (o construirle) un sentido. Vistas así las cosas nos vamos aproximando
a la noción de salud psíquica que consideraremos en la materia, ligada a la
noción de cohesividad psíquica. Retengamos la noción que nos dice que para
arribar al umbral de crisis no es necesario padecer un acontecimiento “exterior”.
Es posible que el propio devenir del sujeto lo ocasione.
La siguiente característica a destacar es la dinámica no lineal que siguen estos
procesos. El pensamiento causalista lineal nos tenía acostumbrados a que a un
paso le sigue otro, y a ese, otro paso predecible. Para conocer por qué acaba de
suceder esto, tengo que ver inmediatamente hacia atrás en una temporalidad

12
lineal. Ir un momento hacia atrás para encontrar la concatenación de los hechos,
causa – efecto que lleva de un hecho a otro. Los fenómenos catastróficos utilizan
una dinámica no lineal, es decir, no es posible seguir el acontecimiento punto a
punto. Cuando se abre el umbral de crisis sucede algo así como un estallido, en
que se disparan múltiples posibilidades en un régimen aleatorio. Muchas cosas
pueden ocurrir y es muy difícil establecer el orden en que se desencadenarán los
procesos, ya que el conocimiento de las condiciones de inicio de un proceso de
crisis no permite prever el curso de su desarrollo ni las características de su punto
final. Estuvimos, hace unos momentos, imaginando el caso de una evolución
favorable. Nuestro “paciente ideal” había desarrollado, no solamente autopoiesis,
sino resiliencia ante el trágico suceso. No obstante, frente a la situación de crisis,
también es posible el suicidio, la depresión, el brote psicótico o el trastorno
orgánico, por poner algunos casos. El paciente puede devenir una persona
resentida y cínica que se recluye en su casa, o desarrollar un delirio de perjuicio.
Las posibilidades son múltiples. Unas influyen sobre las otras y los resultados
momentáneos surgen de una ocurrencia aleatoria que muestra la imposibilidad de
conocer los estados finales a partir del conocimiento de sus condiciones de inicio.
Se trata de estallidos, caminos que se bifurcan y bifurcaciones que se bifurcan.
La ocurrencia de crisis es un fenómeno inevitable. En este contexto, llamamos
crisis al modo que tienen los sistemas complejos de desarrollarse en el tiempo. El
famoso aforismo de que una crisis es a la vez peligro y oportunidad, significa que
es posible al cabo de ella terminar desequilibrado, inhibido, psicótico, o
construyendo una subjetividad más rica. Crisis se llama al proceso natural del
devenir de las totalidades complejas.
Cuando una totalidad compleja llega a constituir aquello que denominábamos
“estado estable alejado del punto de equilibrio” (steady state), tal como es, por
ejemplo, una estructura psicológica cohesiva, ha alcanzado un estadio, que,
como sistema, dispone de los recursos necesarios para mantener la pauta de su
propia organización. Un mundo cohesivo de funciones y relaciones estables, de
roles diferenciados. Cuando cualquier sistema logra establecer ese tipo de estado
estable, entra en una fase a la que ya habíamos aludido en el momento de
puntualizar las características del proceso autopoiético, esa fase es conocida
como clausura organizacional. El arribar a un estado estable, implica la tendencia
a sostenerlo contra todo aquello que atente contra la estabilidad del sistema. Se
produce así un ¨amesetamiento¨. La situación tiene la ventaja de su estabilidad y
coherencia y tiene la desventaja de su dificultad para incorporar lo nuevo.
Entonces, como todo crecimiento consiste en la capacidad de integrar lo nuevo,
lo otro, lo diferente, lo que está fuera de los parámetros conocidos, ¿Cómo es
posible crecer sin entrar en crisis? Cuanto más estable, más sólido es un sistema,
el único camino que le queda para crecer y desarrollarse es entrar en crisis. Es así
que se producen algunas crisis, que de tan regulares las conocemos por su
nombre propio: la crisis del 8vo mes, la crisis de la regulación de esfínteres, la
crisis de la adolescencia, la menopausia, el “nido vacío”, la tercera edad, etc.
Estructuras estables que habían sido clausuradas, deben entrar en estado de
“enfermedad” (“in-firmeza”), deben ablandarse, para poder luego rearmarse. Si no
lo hacen no hay crecimiento; si lo hacen sufren y además perturban el
ambiente. Ya vimos que no hay posibilidad de crecer sin perturbar el ambiente,

13
tampoco de crecer sin sufrimiento, porque se hace necesario desarmar lo hecho,
abandonarlo, de-construir, por usar un término post-moderno, los parámetros que
servían para el armado de mundo, la constitución de la realidad. Finalmente
entonces, crisis no es un accidente, crisis es el nombre que toma la forma o
fenómeno natural que tienen los sistemas complejos de desarrollarse en el
tiempo.
A medida que un sistema entra en crisis, es decir ablanda su clausura
organizacional, crece, se hace más complejo y más inestable. El crecimiento
brinda más apertura, más porosidad, más amplitud, más versatilidad, más
riqueza, pero también, en general, más inestabilidad, mas vulnerabilidad. Es
decir, que a medida que los sistemas se complejizan y se vuelven más
evolucionados también son más vulnerables, porque multiplican sus variables y
están más abiertos.
En estos términos, definiremos salud psicológica como un estado cohesivo, un
estado coherente consigo mismo, funcional consigo mismo, en el mundo de la
relación. No estamos usando para definir la salud mental pautas externas de
adaptación. La pauta de salud surge del funcionamiento del propio sistema. Un
sistema funciona de manera saludable cuando es coherente consigo mismo a la
vez que abierto al mundo de la relación. Alcanzar el punto de auto-organización
implica poder darle un sentido a los acontecimientos vitales. Entonces, podemos
definir la salud psicológica como la construcción intersubjetiva de sentido. Nunca
es un sentido sólo individual, sino compartido en la comunidad de los hombres. La
construcción intersubjetiva de sentido, es lo que mejor define la salud psicológica.

6. Contextos biológicos y antropológicos de la posibilidad de cambio


psicológico

Analizaremos tres nociones que condicionan a la vez que posibilitan los procesos
de cambio psicológico. Uno de ellos proviene de la antropología y está referido al
particular estado de prematurez y dependencia con que nace la criatura humana.
Lo abarcaremos bajo el nombre de Neotenia. Los otros dos son del ámbito de la
biología y los consideramos co-implicados. Se trata de la Neuroplasticidad y la
Epigénesis, fenómenos que nos hablan de la íntima relación que mantienen el
neurodesarrollo y la expresión genética con la experiencia.

6.1 Neotenia evolutiva o acerca de cómo el hombre es un animal imposible

“La mano que mece la cuna gobierna el mundo”

William R. Wallace

14
“No ha criado la tierra animal más endeble que el
hombre entre cuantos respiran y sobre la tierra se
mueven”
Homero, Odisea Canto XVIII

La más obvia y a la vez la más universal de las observaciones acerca de la


criatura humana recién nacida es su estado de extrema dependencia e
indefensión, sin parangón entre los vivientes. Junto con ello es igualmente
distintivo el larguísimo período necesario para el logro de una autonomía mínima.
Los mamíferos inferiores, como los roedores por ejemplo, también nacen en un
estado de gran precariedad, pero, su preñez es breve, con un gran número de
crías, y, cosa muy importante, con los órganos de los sentidos “cerrados”.
Simplemente acaban su embriogénesis fuera del cuerpo materno. En el otro
extremo los mamíferos superiores, como los monos por ejemplo, prolongan
considerablemente el período de preñez y reducen el número de crías, de modo
que al nacer sus sentidos se hallan “abiertos”, disponiendo ya de los modos de
comunicación y movimientos propios de la especie. La ontogénesis humana
resulta, en este contexto, enteramente original, compartiendo características de
ambos grupos, sin pertenecer a ninguno de los dos. El aspecto del recién nacido
humano recuerda la ineptitud de los mamíferos inferiores, pero a diferencia de
estos, proviene de una preñez muy prolongada, y lo que es más importante, los
órganos de los sentidos, inversamente a lo que ocurre con esos pequeños
mamíferos, están completamente “abiertos”. La prolongada preñez y el escaso
número de crías por gesta lo vincula con los mamíferos superiores, pero, mientras
un potrillo al rato de nacido camina detrás de su madre, la criatura humana tarda
más de un año en adquirir la motórica mínima de la especie (la marcha erecta y
los rudimentos del lenguaje). Reparemos en esta característica sustancial: un
desfase importante en el desarrollo de las funciones sensitivas y sensoriales
respecto de las motrices. Sabemos hoy en día que los humanos recién nacidos
huelen, ven y oyen perfectamente bien. Estas criaturas inermes, que todos hemos
sido, se ven arrojadas a vivir fases decisivas de su desarrollo fuera del cuerpo
materno, con sus sentidos permeables, aunque asociados a una mínima
capacidad autónoma motriz. Es así que el prójimo se convierte, para el recién
nacido humano, en función parcial obligatoria de su desarrollo. Este retardo tiene
como consecuencia inmediata que dos generaciones consecutivas permanezcan
juntas por mucho más tiempo. Ahora bien, la supervivencia de cualquier ser
viviente exige que logre desarrollar las acciones que conduzcan a la preservación
de la vida. El ala sugiere el aire y el vuelo, la garra y el diente permiten inferir las
conductas del predador y la consistencia de la carne de la presa. El hábitat está
así prefigurado en el cuerpo de cada animal. Un ave debe volar, un pez nadar, una
gacela correr, un colibrí libar ¿Qué es lo que un hombre debe hacer? Esa acción
que es a la vez vital e impostergable, también es indeterminada. No tiene cuero,
ni pezuñas, ni púas ¿Cuánto soportaría desnudo bajo la lluvia o la nieve? Sin
embargo… esta precariedad originaria que hemos caracterizado como carencia,
como incompletud y falta de ser, es también posibilidad.

15
Vamos a apelar, entonces, para brindarle sustento y norma a esta situación crítica,
a las ideas propuestas en 1926, a propósito del proceso de hominización, por el
embriólogo holandés Lodewijk Bolk. Bolk se pregunta: ¿qué es lo esencial del
hombre como organismo, como estructura y forma? Y contesta: su falta de
especialización consecuente con una situación muy particular, cual es la detención
del desarrollo, que hace que estados o circunstancias embrionarias, que en los
fetos de los restantes primates son transitorios, sean retenidos, estabilizándose y
haciéndose permanentes.
De este modo, lo característico humano, como forma, no es ser el punto final de
un largo camino evolutivo, sino el resultado de un retardamiento tan acentuado en
la morfogénesis, que de hecho es una detención. Carencia y primitivismo serían
pues, los rasgos distintivos de la humanidad del cuerpo.
Lo que había llamado la atención de Bolk y de algunos otros anatomistas, que
desde hacía ya setenta y cinco años venían abonando lo que comenzó a
conocerse como teoría de la fetalización3, fue que la relación peso cerebral / peso
corporal fuera en el hombre similar a la observable en los fetos de monos
antropoides. Además, múltiples evaluaciones antropométricas relativas a la
morfología del cráneo, la disposición de la dentadura por debajo de este, la
estructura pelviana, la de la mano y del pie, orientaban en la dirección de asimilar
la estructura corporal humana adulta con la de los monos superiores durante
estadios fetales. El hombre, visto desde la perspectiva de su morfología
comparada, muestra, entonces, como sus rasgos distintivos, junto al hiper-
desarrollo encefálico, un estado corporal simil-fetal mantenido estable hasta la
adultez. El retardo aludido se llama en biología neotenia. La neotenia es el nombre
que lleva un fenómeno biológico consistente en el enlentecimiento del desarrollo y
la diferenciación de los tejidos embrionarios. Cuando esto se da en forma parcial,
como en la especie humana, el espécimen puede alcanzar madurez reproductiva.
La neotenia evolutiva ha operado varias veces a lo largo de la historia de las
especies. La aparición de los vertebrados y más tarde la de la especie humana
son considerados ejemplos de ello. La neotenia es un recurso que explota la
pluripotencialidad de las formas embrionarias, para ensayar divergencias
filogenéticas en algún punto de un desarrollo preexistente.
Arnold Gehlen observa atinadamente (Gehlen, 1980), que el hombre muestra que
la consecuencia inmediata de la inmadurez e inadecuación de los recursos
corporales a un entorno ambiental específico, es la carencia de unos instintos
programados y especializados en orden a su objeto (aunque no a su “monto
energético” como muy bien observó Freud en su teoría de las pulsiones). Los
instintos son movimientos de un tipo muy especial, que transcurren en virtud de un
automatismo innato y son dependientes de estímulos endógenos. A diferencia de
las pulsiones, no son simples predisposiciones o tendencias o meras reacciones
motrices involuntarias. Son modos de comportamiento innato, coordinaciones
filogenéticamente adquiridas, que de manera automática disparan un
comportamiento preprogramado ante la presencia de los estímulos respectivos.
Modos de acción complejos y estructurados que orientan a los diferentes

3
Fick (1853), Aby (1867), Ranke (1897), Kollman (1905), Kohlbrugge (1908), Adloff (1924), Schindewolf
(1928)

16
organismos a un comportamiento no aprendido, estereotipado, propio, particular y
único de su especie.
El hecho de ser el humano abierto al mundo, y a la vez menos sujeto a estímulos
específicos, hace que la conducta humana sea mucho menos predecible. La
pulsión es energía orgánica que impulsa el comportamiento hacia objetivos. El
animal materializa en los instintos esa energía que su condición biológica le
permite desplegar. El ser humano, en cambio, al no configurar instintos nítidos,
debe lidiar con esa energía en estado puro y desasida de objeto prefigurado,
como un exceso a administrar. El primitivismo orgánico aludido determina que el
humano sea incapaz de vivir “naturalmente en un medio”. Los humanos no
poseen un entorno sino un mundo en donde escogen una orientación posible.
Solamente un ser carente como el humano, que necesita tantos cuidados durante
tanto tiempo, está conminado a dotarse de una familia, de una sociedad, a darse
regulaciones y controles que su peculiar naturaleza no le provee. Está obligado a
reemplazar la adaptación al medio por su transformación. A inventar técnicas que
compensen cada una de las partes que faltan en su ser físico. Las armas
reemplazan los sistemas de defensa inexistentes, los abrigos forrados reemplazan
la desadaptación climática de la piel, los animales domesticados reemplazan su
carencia de fuerza, los libros y computadoras le sirven de extensión de su
memoria. El ser humano esta condenado a crear su propio entorno, a orientarse y
gratificarse en él, a reconocerse y establecerse como un ser bio-cultural. Posee
tradiciones y no solamente hábitos, utiliza signos y no señales, actúa por
motivación y no por estimulación, tiene instituciones y no coordinaciones
hereditarias, puede hacer de su destino una cultura, una civilización y no una
naturaleza.
Dos elaboraciones teórico-clínicas, nacidas en el campo psicoanalítico,
encuentran sustento en las características antropológicas vistas en este apartado.
No casualmente ambas han sido producidas por discípulos de Melanie Klein, la
gran investigadora de las etapas más arcaicas del desarrollo psíquico. Comparten
ambos autores el mismo ámbito, la Clínica Tavistock en Londres, y la misma
época, la inmediata posguerra (la década de los ’40 del siglo pasado). Se trata de
John Bowlby y su Teoría del Apego y Wilfred Bion y su noción de Reverie.

John Bowlby (1907-1990) comenzó a trabajar con Melanie Klein en el Instituto de


Psicoanálisis, en Tavistock, en 1940. Su trabajo recibió una fuerte influencia de
Konrad Lorenz (1903-1989), fundador de la etología, quien ya había llamado la
atención, en sus estudios con aves, acerca de que los animales podían desarrollar
un fuerte vínculo con la madre sin que el alimento estuviera de por medio. Sin
embargo fue Harry Harlow con sus experimentos en monos y su descubrimiento
de la necesidad de contacto, quien lo encaminó de manera decisiva hacia la
construcción de la teoría del apego.
Su tesis fundamental describe la dinámica a largo plazo de las relaciones entre los
seres humanos. El principio central declara que un recién nacido necesita
desarrollar una relación con, al menos un otro, su cuidador principal, para que su
desarrollo social y emocional se produzca saludablemente.
Se trató originalmente de un estudio interdisciplinario, que abarcó campos de la
Psicología Evolutiva y la Etología, investigando, en principio las dificultades que

17
presentaban niños que habían quedado sin hogar tras la segunda guerra
mundial.
Así es que publicó un estudio exhaustivo, en tres volúmenes, llamado Apego,
Separación y Pérdida. Junto a Mary Ainsworth, ya en la década de los 60 y 70,
refuerzan los conceptos básicos introduciendo la noción de base segura y
desarrollando los patrones del apego que pasarán a ser muy conocidos: apego
seguro, apego ansioso (dentro de este apego ambivalente y apego evitativo) y el
apego desorganizado.
Dentro de la teoría, apego refiere a la propensión de los seres humanos a
establecer lazos afectivos con los cuidadores, es decir, la tendencia del niño a
formar un vínculo afectivo fuerte (y fundacional) con la madre. La conducta de
apego tiene como resultado el logro o la conservación de la proximidad con un
otro claramente identificado, al que se considera capacitado para proteger, con
claros propósitos de afrontar los desafíos de la supervivencia. Sus estudios
mostraron que la privación materna producía efectos negativos en el desarrollo de
los infantes durante el período de separación, así como la existencia de niños que
resultaban capaces de escapar a esos efectos. La meta biológica es la
supervivencia y la meta psicológica la seguridad. Los recién nacidos establecen
enlaces afectivos con cualquier cuidador compatible que sea sensible y receptivo
a las interacciones sociales. La calidad del compromiso influye más que la
cantidad de tiempo invertido. En este sentido, según el autor los cuidados que
brinda la madre a su hijo no pueden entenderse en horas de atención diaria sino
en términos del goce que ambos obtienen del compartir. La madre biológica es,
normalmente, la figura principal de apego, pero el papel puede ser tomado por
toda persona que se comporte de una manera “maternal”. En la teoría del
apego, esto significa un conjunto de comportamientos que envuelven una activa
interacción respuestas inmediatas a las señales. Nada en la teoría sugiere que el
padre, u otros no sean igualmente susceptibles de convertirse en figuras de
apego, basta que ellas provean la mayor parte del cuidado y de la interacción
social al niño en cuestión.
La conducta de apego es obvia en la primera infancia, pero puede observarse a lo
largo de toda la vida, sobre todo en situaciones de emergencia.
El conjunto de metas del sistema de comportamiento de apego es mantener un
vínculo con una figura accesible y disponible. Bowlby denomina “alarma” a la
activación del sistema conductual causado por el miedo, y “ansiedad” a la
anticipación de ser descartado por la figura de apego. Si esta no está disponible o
no responde, ocurre la angustia de separación. En los recién nacidos, la
separación física puede causar ansiedad y rabia, seguida por tristeza y
desesperación. A los tres o cuatro años de edad, la separación física deja de ser
amenazante. Las amenazas a la seguridad, en los niños mayores y adultos,
surgen a partir de la ausencia prolongada, interrupción en la comunicación,
indisponibilidad emocional o signos de rechazo o abandono.

Wilfred Bion (1897-1979) nació británico en la India colonial donde vivió hasta los
ocho años. Participó en las dos Guerras Mundiales, donde fue condecorado.
Siendo ya un hombre maduro estudió Medicina, Psiquiatría y Psicoanálisis,
comenzando a trabajar luego con Melanie Klein en la Tavistock. Fue durante

18
muchos años presidente de la sede inglesa de la International Psychoanalytic
Association. Tal vez aquel entorno indio natal haya influido, junto con el espíritu
de los tiempos, para que, de manera progresiva, se sintiera fuertemente atraído
por el pensamiento oriental. Eso, y la evolución transgresora de su obra, hicieron
que la ortodoxia psicoanalítica lo condecorara con el diagnóstico de psicótico,
galardón compartido con otros disidentes talentosos: Reich, Ferenczi, Jung…
La noción de reverie (del francés: ensueño) puede ser definida como una función
desintoxicante y digestiva de las experiencias que la madre (o el actante materno)
realiza para su bebé (seguimos a Pistner de Cortiñas, 2007, en la dilucidación de
este concepto). Bion usa el término para señalar la capacidad materna de recibir
experiencias emocionales intolerables del niño y devolverlas reprocesadas,
significadas. El niño puede así reintroyectarlas como parte de su self,
atribuyéndoles significación (hambre, sueño, dolor, etc.). Si el proceso fracasa y
no hay atribución de significado, Bion dice, el niño reintroyecta un terror sin
nombre. Bion define reverie como la fuente psicológica de provisión de amor y
comprensión que el niño necesita. Queda establecido así que, a través de la
significación amorosa y aceptadora del universo emocional del niño, la función
materna va introduciendo a este en el mundo del lenguaje y el conocimiento, en el
ámbito social. Las fallas del reverie materno imponen a la conciencia rudimentaria
del bebé tareas que lo exceden, siendo fuente, según Bion, de perturbaciones
psicológicas mayores.

No resulta difícil establecer, a partir de estos conocimientos provenientes de la


antropología y la psicología del desarrollo, algunos corolarios relevantes, para
cualquier “profesión de ayuda”, y muy particularmente para la psicoterapia. El
lugar del vínculo entre los humanos es atravesado por una hondura y una
relevancia incomparables. Los humanos somos-con-los-otros mucho antes, más
prolongadamente y más intensamente que ninguna otra criatura viviente. El
percibirnos individuos aislados es una pura abstracción, siendo la realidad humana
más inmediata la vincular. Las instancias críticas de nuestro desarrollo y de
nuestra vida toda, se juegan en intensas situaciones vinculares: parentales,
grupales, de pareja y también terapéuticas.

6.2 Neuroplasticidad

La neuroplasticidad es una característica común al tejido nervioso en general. Es


la capacidad que tiene de repararse tras una lesión o de crecer y desarrollarse en
función de la experiencia. El cerebro es ese órgano cuya forma de ser es siendo,
por lo que la experiencia vivida permite su modelado.
A partir del siglo XIX, con el desarrollo de técnicas de tinción muy específicas
para el tejido nervioso, comenzó a tenerse una visión más acabada de la
extraordinaria complejidad de su estructura. Los biólogos, tal vez maravillados
por la enorme vastedad de lo que estaban descubriendo, creyeron entender que el
sistema nervioso se caracterizaba por fijarse una vez alcanzado su completo

19
desarrollo, sin poder modificarse ya más. Ante la evidencia de la falta de
reproducción de las neuronas, se reafirmó la noción de la fijeza del sistema. De
ahí en adelante, como el mismo Santiago Ramón y Cajal escribe, tras finalizar su
desarrollo hacia el final de la infancia, “lo único que le queda es declinar”. Las
neuronas que mueren ya no son reemplazadas. Esa concepción fijista acerca del
sistema nervioso fue tan evidente que se convirtió en un dogma. Este dogma se
fue consolidando entre 1880 y 1920. Es esa la época de las grandes
descripciones de la estructura íntima del cerebro. Ese dogma fue revisado y hoy
en día estamos viviendo en el anti-dogma.
Los primeros en cuestionarlo fueron un fisiólogo canadiense, Hebb y un psicólogo
polaco, Kronovski, quienes hicieron un descubrimiento idéntico, en forma
aproximadamente simultánea, trabajando con métodos completamente diferentes.
Hallaron lo que pasó a llamarse el efecto Hebb / Kronovski. Descubrieron que si
una neurona era intensamente estimulada con dos estímulos simultáneos, se
mantenía activa por tiempos prolongados después de finalizada la estimulación.
El fenómeno que descubrieron se conoce hoy en día como LTP ó potenciación de
largo plazo (long term potentiation) Cuando una neurona recibe estímulos
simultáneos de alta intensidad ambos, con el mismo patrón de descarga, se
mantiene luego activa, descargando durante lapsos más prolongados de los
esperables. Esta potenciación de largo plazo que se descubrió alrededor de los
años 50, está hoy en el fundamento de casi todos los procesos de aprendizaje y
memoria, y se halla asociada a fenómenos plásticos de crecimiento neuronal.
El siguiente descubrimiento nos pone aún más claramente sobre la pista de la
neuroplasticidad. Se trata de los hallazgos de la neurobióloga italiana Rita Levi
Montalcini en los ‘60 (por los que recibió el premio Nobel de Medicina). Su
descubrimiento trastorna el dogma fijista. Encuentra una sustancia a la que
denomina NGF (Nerve Growth Factor), factor de crecimiento nervioso. En las
zonas lesionadas, donde el tejido nervioso está dañado, aparece una sustancia
que promueve la reparación de las neuronas. Hoy en día se conocen numerosos
factores de crecimiento neuronal. Lo que llamo la atención, al profundizarse las
primeras investigaciones, fue que, si se agregaba NGF a un cultivo de neuronas,
los axones y las dendritas comenzaban a crecer a gran velocidad. En ese
momento nace la noción de neuroplasticidad. Se constata poco tiempo después,
que esa capacidad de crecer, arborizarse y desarrollarse no era solamente debida
a la existencia de una injuria, sino que era la respuesta natural de la neurona a la
estimulación; es decir que la actividad inducía crecimiento neuronal.
Actualmente sabemos que los principales fenómenos neuroplásticos son:
 Aumento de la fuerza y eficacia de las sinapsis: potenciación
de corto y largo plazo.
 Sinaptogénesis: multiplicación selectiva de sinapsis en las
neuronas estimuladas. El cerebro de un bailarín es diferente
del cerebro de un ajedrecista, es diferente del cerebro de un
violinista y es diferente al cerebro de un matemático, porque
cada una de estas personas, al estar sometidas a
experiencias diferentes originan conexionados cerebrales
diferentes. Dos gemelos univitelinos (que poseen idéntico

20
material genético) poseerán distinto conexionado neuronal,
diferentes redes sinápticas de acuerdo a las personales
experiencias vividas. Son la experiencia y los vínculos los
que determinarán cómo será la estructura fina del tejido
cerebral de cada sujeto.
 Prounning o poda: la experiencia no lleva únicamente a la
creación de nuevas sinapsis. Por un lado algunas sinapsis
crecen, pero otras se podan, el resultado final es un diseño
propio, una huella digital. Si no existiese el proceso de
prounning, la sinaptogénesis no sería tan eficaz e incluso si
no hay poda podría ser perjudicial. Teorías actuales sobre
algunos de los fundamentos neurobiológicos del autismo
infantil, relacionan a este con fallas en el proceso de
prounning. Esto permitiría explicar algunas características
llamativas de pacientes autistas graves, como por ejemplo el
desarrollo superlativo de algunos talentos o habilidades.
Al mismo tiempo que en un área hay sinaptogénesis, en otra
hay retracción. Así como hay una potenciación de largo
plazo, también hay una depotenciación de largo plazo. Estos
procesos son tan activos que operan en términos de horas.
Si los conexionados generados son sostenidos a través del
entrenamiento, se tornan estables, si no, se deshacen. El
proceso neuroplastico es muy activo, en el corto y en el largo
plazo, y se sostiene en el tiempo en función del trabajo y del
entrenamiento.
 Neurogénesis: hay nuevas neuronas que nacen. Es lento y
escaso pero existen.

Estos son los cuatro fenómenos que sustentan la neuroplasticidad. Son procesos
muy activos que han cambiado el dogma acerca del funcionamiento del sistema
nervioso Sobre todo desde que se ha hallado que son fenómenos “experiencia-
dependientes”. Siguiendo este orden de conocimientos, podemos afirmar que, en
un proceso psicoterapéutico, a causa del vínculo sostenido que implica, ocurren
cambios en el conexionado neuronal del paciente (y del terapeuta).
Las actuales técnicas de imagen cerebral funcional permiten ver los cambios, a lo
largo del tiempo, en el funcionamiento de distintas áreas. Están bien estudiados,
por ejemplo, en trastornos obsesivo-compulsivos, las modificaciones que ocurren
en diferentes regiones del cerebro, a medida que progresa el tratamiento. Se
observan modificaciones plásticas luego de tratamientos psicofarmacológicos, así
como psicoterapéuticos.
Consideremos que tenemos más o menos unas 1012 neuronas en nuestro cerebro.
Cada una de estas neuronas tiene aproximadamente 10.000 contactos que las
vinculan con otras neuronas, en total 10 16 eventos simultáneos posibles. La
combinatoria de 1016 da un número que es superior al número teórico que calcula
la física para las partículas positivas del universo en su conjunto. Posibilidades de

21
conexionado prácticamente infinitas. La redundancia de la Naturaleza
expresándose de forma tal que involucra nuestra subjetividad.
Si bien los fenómenos plásticos son máximos en las edades tempranas de la vida,
y más intensos en algunas áreas que en otras, en realidad están continuamente
presentes. Mientras un área sea adecuadamente estimulada, continúa
produciendo fenómenos neuroplasticos y reconexionado neuronal. También en
edades muy avanzadas.

6.3 Epigénesis

Así como aparece de complejo, el funcionamiento del Sistema Nervioso no es


más que una parte de los sistemas de coordinación, que permiten aunar el
funcionamiento del organismo como un conjunto armónico. Los restantes, cuya
inclusión develará nuevos acontecimientos vinculados con la capacidad de cambio
son el sistema endocrino, el inmunitario y el material genético, particularmente en
este último, refiriéndonos a la posibilidad de modular su capacidad de expresión, a
través del proceso denominado epigénesis.
Para adentrarnos en su consideración recordemos la diferencia entre genotipo y
fenotipo. Se denomina genotipo a la totalidad del material genético existente en
un ser viviente, con toda la capacidad expresiva de caracteres que ello supone. Se
trata de la totalidad de la información contenida en los cromosomas. Fenotipo es la
parte del genotipo que efectivamente se expresa. Llamamos epigénesis al proceso
por el cual una parte del genotipo es seleccionada para expresarse. En los
procesos epigenéticos tiene una importancia muy grande la experiencia; es la
experiencia la que influye decisivamente para hacer que un gen se exprese o no lo
haga. Por supuesto que si se tratase del gen que codifica la síntesis de una
enzima vital, su no expresión sería letal. Asimismo la expresión o no de un gen
aislado está menos ligada a la noción de experiencia que estamos manejando en
este momento. Nos referimos principalmente al patrimonio genético, que en forma
siempre multigénica aparece ligado a los fenómenos de comportamiento. Esa
porción se va a expresar o no, en gran medida, de acuerdo a las experiencias
vividas.
Hasta hace algunos años no sabíamos que el sistema nervioso, el sistema
endocrino y el sistema inmunitario tienen llegada al núcleo de las células (al decir
al núcleo de las células estamos diciendo a entrar en contacto directo, y por lo
tanto a operar sobre el material genético mismo). Sabemos ahora que cualquiera
de estos tres sistemas tiene capacidad, a través de los neurotransmisores en el
caso del sistema nervioso, de las hormonas en el de las glándulas de secreción
interna, y de las interleukinas en el caso de las células inmunocompetentes, de
habilitar o bloquear la expresión de muchos genes. La capacidad constitutiva de la
experiencia ya no sólo alcanza el ámbito del sistema nervioso, sino que influye en
la expresión del material genético. Tan importante es esta noción, que en cierta
medida relativiza la relevancia del conocimiento del mapa genómico ya que lo que

22
cobra relevancia es conocer cuáles son los mecanismos por los cuales un gen
puede expresarse o no.
Volvamos al ejemplo de los gemelos. Tienen el mismo patrimonio genético, pero, a
partir de las experiencias vividas pueden expresar o bloquear epigenéticamente la
expresión del genoma. Entonces, de hecho, se van a comportar como si tuvieran
patrimonios genéticos diferentes.
Para ilustrar lo que venimos diciendo vamos analizar brevemente un trabajo
publicado en 2005, “El cuidado materno como un modelo de plasticidad genética
dependiente de la experiencia” (Meaney et al., 2005). Se hacen necesarias unas
breves nociones previas acerca de los dispostivos biológicos de respuesta al
estrés. Como es sabido, en las situaciones de estrés las glándulas suprarrenales
juegan un papel decisivo. Por un lado producen adrenalina en su médula, y sobre
todo cortisol a través de su porción cortical. Es esta una hormona que tiene
mucha importancia, no solamente en el estrés sino en las consecuencias a las que
lleva el estrés crónico. El cortisol es sintetizado por la suprarrenal bajo el control
de la hipófisis a través de la ACTH. La hipófisis a su vez se halla bajo el control
del hipotálamo por vía del CRH. El control del hipotálamo lo realiza el hipocampo,
que es una estructura perteneciente al cerebro límbico. De esta manera tenemos
un eje HHPA hipocampo-hipotálamo-pituito (que quiere decir hipófisis)-adrenal
(que significa suprarrenal). Este eje comanda la respuesta al estrés. Cuando una
persona se encuentra en situación de estrés crónico, los altos niveles de cortisol
resultan muy perjudiciales ya que predisponen a las infecciones, al desarrollo de
tumores y a la depresión. En estas situaciones, la autorregulación del mencionado
eje HHPA no activa su freno por la vía del feed back negativo. El hipocampo, por
una serie compleja de acontecimientos que no vamos a detallar, pierde
receptores al cortisol y ya no puede controlar el sistema a través de frenar la
secreción de ACTH mediante la reducción del CRH.
Con estas breves nociones previas, pasemos ahora a ver en qué consiste el
trabajo mencionado. Los autores estudiaron dos poblaciones de ratas. Una
población llamada HLG (high licking grooming). Son animales que en ocasión de
amamantar desarrollan espontáneamente la conducta de masajear con sus
patitas y lengua a las crías con un grado alto de intensidad. Las otras LLG (low
licking grooming) poseen una baja capacidad de desarrollar la misma conducta.
Los autores determinaron que las crías de las ratas HLG muestran mayor
expresión del gen que codifica la síntesis del receptor a cortisol en el hipocampo,
lo que las hace más resistentes al estrés. Las crías de las ratas LLG tienen baja
expresión del gen que codifica la síntesis del receptor del cortisol en el hipocampo,
y tienen por lo tanto una innata vulnerabilidad al estrés.
En un segundo momento del trabajo de investigación, los autores intercambiaron
las crías. Pasaron las crías de las madres LLG a madres HLG y viceversa.
Hallaron así el hecho sorprendente que las crías cruzadas tienen el patrón de
expresión del gen del receptor de cortisol del hipocampo que corresponde a la
madre “adoptiva”. Es decir que una cría HLG, si es llevada apenas nace a que la
amamante la otra madre, va a tener una baja expresión del gen del receptor al
cortisol del hipocampo y va a devenir una rata vulnerable al estrés. Inversamente,
si una cría LLG es llevada para ser amamantada por una madre HLG, desarrollará
una importante expresión del gen que codifica la síntesis de receptores a cortisol

23
en el hipocampo y será más resistente al stress. Entonces, la resistencia al estrés
mediada por la densidad de receptores para el cortisol en el hipocampo, estudiada
en esta población de ratas, no es genética, sino epigenética, depende de la
experiencia de maternización. La vulnerabilidad al estrés mediada por la cantidad
de receptores del cortisol en el hipocampo, en este trabajo, se muestra como
dependiente del cuidado materno.
Podemos inferir de este estudio, la capacidad que tiene la experiencia de producir
cambios psicológicos de primer nivel, mediante la modulación de la expresión del
código genético (epigénesis). Suponíamos, hasta hace poco tiempo, que el ADN,
al hallarse encerrado en el núcleo de la célula, encapsulado en su estuche de
histonas, era totalmente inabordable, impermeable a las influencias. Hoy en día
sabemos que experiencias de distinto orden tienen llegada al material genético a
través de la mediación del sistema nervioso, el endocrino y el inmunitario,
capaces así de modular su expresión. Este trabajo evidencia la ocurrencia de este
fenómeno en ratas de laboratorio, podemos suponer, con fundamento, que resulte
aún más importante en la especie humana, más dependiente de los vínculos
primarios en su desarrollo temprano.
En los orígenes de nuestros conocimientos sobre la operatoria del material
genético, nos acostumbramos a vincularlo con dimensiones temporales ligadas a
la vida de las especies (Darwin), o a lo sumo de caracteres hereditarios
apreciables en períodos de generaciones (Mendel). En la actualidad, sabemos que
la modulación de la expresión de los genes, necesaria para afrontar diferentes
vicisitudes, se da en tiempos mucho más cortos: los ligados al desarrollo (con
especial mención al neurodesarrollo) en el curso de una vida, los involucrados en
el metabolismo, a lo largo del año o del día mismo, los vinculados al sistema
inmunitario 4-8 hs., los correspondientes a memoria y aprendizaje horas-minutos y
los de respuesta a alerta y stress minutos-segundos. Ernest L. Rossi,
psicoterapeuta discípulo de Milton Erickson, ha estudiado la expresión genética
actividad-dependiente, con sus corolarios de activación neuroendocrina, durante la
hipnosis, el sueño o la psicoterapia, con resultados sorprendentes (Rossi E. 2002).

Conclusiones

Hemos analizado a lo largo de esta ficha una serie de factores, de primer orden, a
los que denominamos contextos del cambio psicológico. Es así que revisamos
críticamente la noción de homeostasis, desprendiendo de allí el aporte de
Maturana acerca de la autopoiesis, como un momento clave de los procesos de
cambio y crecimiento en los sistemas complejos. Detenernos en esto último nos
obligó a comprender debidamente la aplicación del segundo principio de la
termodinámica a los sistemas vivientes, polémicamente neguentrópicos. De aquí
pasamos a la resolución de la discusión entre físicos, químicos y biólogos, a partir
de la brillante elaboración de Ilya Prigogine de las estructuras disipativas,
enmarcadas por nosotros en los procesos de crisis. Entendimos estas últimas

24
como el modo natural de transformación de las complejidades organizadas.
Revisamos por último, tres ítems clave desde los puntos de vista antropológico
(neotenia evolutiva) y biológico (neuroplasticidad y epigénesis). Queda expuesto
así un fondo, que es a la vez fundamento, sobre el cual se recortará más
nítidamente la figura del cambio psicológico a lo largo del proceso terapéutico,
tema sobre el cual avanzaremos seguidamente.

25
Apéndice
Incluimos a continuación un Apéndice, con algunos artículos breves sobre temas
mencionados a lo largo de la ficha, que pueden resultar desconocidos para un
estudiante de Psicología.

1. Breve noticia acerca del Principio de Incertidumbre

La palabra incertidumbre que se ha ido convirtiendo, hacia fines de siglo XX en un


bastión del pensamiento llamado posmoderno.
Cualquiera sea la disciplina científica en que nos movamos, no existe posibilidad
de nombrar esta palabra sin hacer mención a un principio que, nacido en el
terreno críptico de la física cuántica, ha mostrado una tal capacidad inquietante,
que ha permeado las barreras que separan las ciencias particulares, para
instalarse como un asunto que a todos nos compete.
Nos referimos, claro está, al Principio de Incertidumbre, indisolublemente ligado
al apellido Heisenberg.
¿Qué es lo que dijo este hombre, desde la intimidad de un laboratorio, en 1927,
que logra alcanzarnos a nosotros, psicoterapeutas del siglo XXI?
Sospecho que lo que dijo no nos dice gran cosa si lo despachamos así nomás.
Dijo: No se puede medir simultáneamente la posición y la velocidad de una
partícula subatómica.
Parece tratarse, claramente, de un problema técnico que aqueja a una persona
preocupada en cuestiones que no tienen nada que ver con nuestros intereses
personales. Sin embargo… hubo un momento de la historia, en que Cristóbal
Colón tampoco sabía exactamente qué es lo que estaba descubriendo.
Adentrémonos, entonces, un poco más en el asunto.
Observemos lo siguiente. Heisenberg no dijo que cuando nuestros instrumentos
de medición alcancen niveles hoy inaccesibles, podremos hacer algo que hoy no
podemos. Podremos, en ese futuro hipotético, medir dos acontecimientos
simultáneos que, hoy en día, a causa de nuestras limitaciones técnicas no
podemos.
No. Heisenberg dijo que no se puede medir simultáneamente la posición y la
velocidad de una partícula subatómica.
El principio sostiene que, en el mundo subatómico, no es posible medir, en el
mismo instante, la magnitud de acontecimientos simultáneos que son pares de
observables de una partícula única. Si mido la velocidad me obligo a desconocer
la posición y la trayectoria. Si mido estas últimas es a costa de renunciar a
conocer su velocidad. La mitad de mi campo de conocimiento es certero, y la otra
mitad es conjetural. Si conozco la velocidad, entonces, la posición probablemente
corresponda a algún miembro de una serie de n posibilidades. Si conozco la

26
posición entonces, probablemente, su velocidad oscile alrededor de alguno de
estos n valores.
Se descubre en aquel momento, ni más ni menos, la imposibilidad de conocer con
certeza la trama interna y precisa de nuestro universo material. De hecho, el
universo comienza a desmaterializarse y a convertirse en una constelación
azarosa de acontecimientos probables que implican efectos simultáneos e
impredecibles de tiempo-espacio-masa-energía. Conocer las condiciones iniciales
de un proceso, no nos permite predecir hacia dónde va a derivar ese proceso.
Werner Heisenberg demuestra su principio con una serie corta de teoremas,
contundentes y elegantes. Su descubrimiento pasa a constituirse en la piedra
angular sobre la que se construye el edificio de de la mecánica cuántica.
Heisenberg demuestra la imposibilidad de conocer y de predecir con certeza
hechos críticos del mundo sub-atómico, entonces su amigo Niels Bohr bautiza su
descubrimiento con un nombre que ya no lo abandonará: principio de
incertidumbre.
Heisenberg y Bohr trabajaron juntos en el análisis y el tratamiento matemático de
las consecuencias del principio, en lo que se conoce como la Interpretación de
Copenhagen. Allí sostienen que el universo físico no existe en una forma
determinada, sino como una colección indeterminable de probabilidades o
potencialidades. La interpretación de Copenhagen demuestra asimismo que, en
el nivel cuántico, la ocurrencia precisa de un acontecimiento particular no puede
ser prevista por ningún instrumento experimental ni constructo teórico. Todo lo que
podemos afirmar es que se trata de acontecimientos estadísticamente esperables,
y que, entonces, la aleatoriedad, el azar, forman parte indisoluble de la naturaleza
del mundo físico. La contribución de Bohr, en ese sentido, le agrega un
componente sustancial. Sostiene que la intervención del observador, su mirada y
sus instrumentos, introducen modificaciones inevitables en el fenómeno
observado. Esto hace que “el ojo del observador” deba ser integrado en un todo
con el fenómeno observado a la hora de extraer cualquier tipo de conclusión
experimental.
La conmoción producida por la irrupción del principio fue tremenda. Pensemos que
tan sólo cien años antes, en el apogeo de la física newtoniana, dominaba una
cosmovisión como la siguiente:

 “Si imaginamos un intelecto que en cualquier momento dado conociera


todas las fuerzas que animan la Naturaleza, y las mutuas posiciones de los
seres que la componen. Si este intelecto fuese suficientemente amplio
como para someter todos esos datos a un análisis, podría condensar en
una sola fórmula el movimiento de los cuerpos más grandes del Universo y
del más pequeño átomo. Para ese intelecto nada sería incierto y el futuro,
así como el pasado estaría presente ante sus ojos”. Pierre-Simon Laplace
(1749-1827) Ensayos filosóficos sobre la probabilidad.

Ya Einstein, antes que Heisenberg, había pulverizado este tipo de presunciones


positivistas. Pero, no obstante, la propuesta del principio de incertidumbre fue tan
inquietante, que el mismo Einstein se mostró renuente a aceptarla. Nace así la
conocida polémica Einstein-Bohr, a la que pertenece este delicioso intercambio:

27
“Dios no juega a los dados” asegura Einstein, a lo que Bohr responde, “Einstein,
no le diga a Dios lo que tiene que hacer”.
Podemos ahora afirmar, con el paso de los años y la comprobación empírica, que
el principio de incertidumbre logra explicar mejor que otras teorías los fenómenos
del mundo subatómico, y que la posición de Einstein no ha probado ser la más
acertada.
El principio de incertidumbre, junto con algunos otros conocimientos notables (el
teorema de Gödel, el segundo principio de la termodinámica, la teorización del
Caos, la geometría fractal, las estructuras disipativas de Prygogine, los campos
morfogenéticos, entre varios otros) han sido la columna vertebral de lo que se
conoce a partir de Kuhn como un cambio de paradigma. Señala el final de la
cosmovisión moderna, que dominó Occidente desde el siglo XVI, para dar paso a
un paradigma de complejidad.
Me estimula, como psicoterapeuta, ver como se acota en ciencia la determinación
de los fenómenos, y entender que las incertidumbres no son vacíos de sentido
sino aperturas hacia lo posible.

2. Geometría Fractal
Pablo Leporati

Agradezco la redacción de este artículo, así como el siguiente acerca de los


teoremas de Gödel, a Pablo Leporati, brillante ex alumno de la materia, que muy
generosamente accedió a colaborar con esta ficha. Pablo tiene formación
matemática, además de capacidad y disposición docente.

Introducción

La matemática es generalmente considerada una ciencia abstracta. Sus


objetos de estudio: el número, el conjunto, el punto, la línea, los círculos y las
figuras geométricas son idealizaciones inspiradas en la naturaleza que no existen
como tales en la realidad.
La aplicación de la matemática al estudio de los objetos ha muy sido
fructífera en las ciencias aplicadas. Existen miles de desarrollos teóricos apoyados
sobre la suposición de que la naturaleza funciona acorde a leyes, y que éstas son
describibles matemáticamente. Sin embargo, entrado ya el siglo XXI, está claro
que el intento por comprender la naturaleza exclusivamente a partir de elementos
matemáticos no deja de ser una aproximación que, para algunos objetos y en
algunas escalas puede ser muy precisa, y en otras disciplinas, como las ciencias
sociales, resulta ciertamente rudimentaria e inadecuada. El método científico que
consiste en un proceso fragmentación del todo en partes observables, la
modelización exitosa y la recomposición del objeto de acuerdo a modelos

28
matemáticos de diversa complejidad, no es inocua. En la reconstrucción
modelizada se produce una pérdida de información que conduce a una
parcialización o sesgo sobre las propiedades totales del objeto. Suponer que los
objetos reales coinciden o pueden ser sustituidos por estos modelos es un postura
reduccionista de la ciencia. Dentro de la matemática existe un desarrollo que ha
podido emular algunas de las propiedades de las estructuras naturales sin
descomponerlas, sino generándolas. Estos objetos son los fractales.

Fractales

La palabra fractal proviene del latín fractus y significa quebrado o fracturado.


Se dice que una figura geométrica es fractal cuando no puede ser descompuesta
en tramos rectos y/o curvos y cuando el aspecto de una porción de la figura
presenta un aspecto similar al todo que compone. Si bien el término data de los
años 70´s, matemáticos del siglo XIX y principios del siglo XX ya habían producido
imágenes artificiales compatibles con esta definición. Entre ellas encontramos el
copo de nieve de Koch y la alfombra de Sierpinski.

Alfombra de Sierpinski Copo de nieve de Koch

Una de las metodologías mas usuales para obtener este tipo de figuras es
mediante la iteración. Si se parte de un estado inicial, se puede aplicar una serie
ordenada de operaciones (algoritmo) para obtener un estado final. Iterar es repetir
la aplicación del algoritmo tomando como estado inicial el resultado recién
obtenido. En otras palabras iterar es repetir la operación sobre el resultado.4

4
Por ejemplo si el algoritmo fuese “sumar 1” y se comienza en 0, la primera iteración sería 0+1, que da como
resultado 1. La segunda iteración es hacer con el resultado anterior, lo mismo que se hizo con el 0, es decir
“sumar 1” al 1 recientemente obtenido. Eso es hacer 1+1, o sea 2. Si se itera este algoritmo se obtiene
sucesivamente 3, 4, 5, etc. El conjunto formado por todos los resultados de la iteración es un conjunto
infinito: los números naturales.

29
Iteración. Secuencia de iteraciones del algoritmo que genera el copo de
nieve de Koch.

A priori podría suponerse que la repetición de la misma operación no


produciría una variedad demasiado grande de resultados. Sin embargo a principio
de los años 20´s el matemático Gastón Julia se encontraba trabajando con
funciones iterativas y halló que para ciertos números particulares, la iteración se
estabilizaba en un rango de valores. Estos números formaban un conjunto infinito
que era imposible de dibujar mediante segmentos rectos y curvos. Su
descubrimiento y su posterior investigación le valieron a Julia gran prestigio en los
ámbitos matemáticos pero sus investigaciones quedaron condicionadas por la
limitada capacidad de cálculo con que contaba en esa época. De haber podido
hacer un gráfico de sus conjuntos Julia hubiese encontrado un fractal.

Conjunto de Julia obtenido por computadora.

En los 70´s y con herramientas mucho mas potentes Benoit Mandelbrot pudo
continuar y expandir los desarrollos de Julia y calcular una infinita familia de
fractales denominados conjuntos de Mandelbrot. Cada figura fractal es el resultado
de un número de iteraciones a partir de un valor fijo inicial y éste valor determina
no sólo la forma sino también todas la propiedades matemáticas del fractal.

Si se observa con detalle la ampliación de cualquier sector de un imagen fractal, muestra una figura
que es muy similar, cuando no idéntica, a la imagen original. Este propiedad de las estructuras fractales se
conoce como autosimilitud. Los fractales de Julia y Mandelbrot tienen autosimilitud infinita. No importa
cuanto aumento se haga sobre una fracción de la figura, ésta sigue manteniéndose autosimiliar al todo.

30
Conjuntos de Julia obtenidos a partir de distintos valores iniciales.

Los fractales generados matemáticamente reciben el nombre de fractales


artificiales en contraposición a ciertas estructuras naturales que presentan
características similares. En un exceso de nomenclatura se puede llamar a estos
últimos “fractales naturales”. Aunque quizás lo mas correcto sea llamar a los
fractales artificiales estructuras matemáticas con características naturales. Los
fractales artificiales exhiben además una serie de propiedades estrictamente
matemáticas como tener entre 1 y 2 dimensiones, no tener longitud ni superficie y
muchas otras de compleja explicación.

31
Autosimilitud. Ampliaciones de un fractal de Mandelbrot.

Características fractales de las estructuras naturales

La naturaleza no genera sus estructuras a partir de los elementos


geométricos idealizados, sino que lo hace por agregación de elementos ordenada
de acuerdo a ciertas leyes pero con ciertas características caóticas. Dos sistemas,
partiendo de estados casi idénticos, pueden evolucionar bajo las mismas reglas
para obtener resultados altamente disimiles entre sí. Las estructuras vivientes son
un ejemplo de esta característica. El desarrollo se produce autopoiéticamente
siguiendo un diseño genético, pero también sujeto a condiciones ambientales
como estudia la epigenética. Específicamente hablando del ser humano, el
proceso se inicia a partir de una única célula fecundada hasta conformar un sujeto
adulto con cerca de 35 billones (35.000.000.000.000) de células. El resultado del
proceso creativo natural es por lo tanto de una complejidad gigantesca. Sin
embargo, los procesos naturales no son desordenados sino que siguen ciertos
patrones y comparten propiedades que son similares a los encontrados en los
fractales artificiales:

1. La autosimilitud: es la propiedad por la cual las partes se parecen al todo


que constituyen. Un árbol, se ve similar a una rama y a una ramita de la rama,
pudiendo concluir que muchas de las partes del árbol son similares al árbol todo y
simultáneamente que un árbol está compuesto por muchas partes que se parecen
a un árbol. Las estructuras naturales se mantienen similares a sí mismas en
diversos ordenes de aumento pero esta autosimilitud, a diferencia de lo que
ocurren en los fractales artificiales, tiene un límite. Existe una pequeña fracción del
árbol que ya no se parece al árbol. Otros ejemplos de autosimilitud son: los dibujos
sobre los caparazones de los caracoles y conchas de mar, los relámpagos, las
galaxias, las arborizaciones de las neuronas, los helechos, y muchísimos objetos
naturales mas.

2. El proceso iterativo: Los procesos de creatividad naturales son


esencialmente iterativos. Es decir que evolucionan a partir de estadios
preexistentes por repetición de operaciones. Considerando por ejemplo el
desarrollo embrionario, el crecimiento del embrión se produce por divisiones
iterativas. Comienza con una célula, que luego se divide en dos, y luego en dos
nuevamente y así sucesivamente. El proceso va desde un estado anterior a uno
actual y a partir del actual a uno posterior repitiendo en esencia la misma
operación. En determinado momento del desarrollo embrionario se producen
modificaciones que originan estructuras similares pero no idénticas. Esta etapa se
conoce como proceso de diferenciación celular. Esta diferenciación continúa hasta
que cada célula adquiere una forma y función particular para integrar un todo
organizado. Todas las células de un ser humano son similares, todas tienen
núcleo, membrana, citoplasma y organelas, todas respiran, sintetizan proteínas y
contienen el mismo genoma en su núcleo, pero no son idénticas. Que cada ser

32
humano resulte distinto a todos los demás proviene de una información inicial
prácticamente idéntica. Los genes de dos seres humanos cualesquiera difieren
apenas en un 0,01%. Esta sutil diferencia al inicio del proceso de desarrollo
embrionario produce toda la variedad de seres humanos que existen, han existido
y existirán. Aún partiendo del mismo exacto genoma, como es el caso de los
gemelos monocigóticos, la exposición a sutiles diferencias ambientales durante la
gestación hace que cada individuo se desarrolle diferente y único.

Fractales Naturales: caracoles, helechos, cuencas hídricas, hojas

Las estructuras naturales y los fractales comparten características que los


asemejan: la iteración y la autosimilitud. Reconocer que estas características
están presentes en las estructuras naturales implica una forma de aproximación
novedosa que rompe la lógica reduccionista. Una comprensión compleja es
posible a través de un movimiento de acercamiento y alejamiento en distintos
órdenes de magnitud que permita encontrar los patrones autosimilares que el todo
y las partes comparten, el todo está en la parte y en la parte está el todo.
Finalmente, la introducción de novedad y cambio en una estructura es posible a
través de la repetición de un proceso que se encuentre abierto a las influencias
ambientales y a partir de ciertas condiciones iniciales.

33
4. Teoremas de Gödel
Pablo Leporati

Introducción

El final del siglo XIX y comienzo del siglo XX fue testigo de importantes
movimientos que sentaron las bases para las teorías actuales de la matemática.
David Hilbert, un célebre matemático, propone en 1920 un ambicioso programa
que tenía por objetivo la demostración matemática de la validez de los
razonamientos matemáticos, en sus propias palabras: una metamatemática.
Hilbert soñaba con una matemática derivada de axiomas que fuera consistente y
completa. Una teoría es consistente cuando no presenta ningún enunciado
contradictorio, es decir que todos los enunciados podrían ser deducidos o
refutados a partir de los axiomas. La teoría sería además completa si todas las
verdades lógicas derivables del sistema fueran parte del sistema. Diez años más
tarde que Hilbert propusiera su plan a la comunidad científica, un joven
matemático llamado Kurt Gödel publica dos teoremas que dan por tierra con el
sueño de Hilbert, demostrando la indecidibilidad de algunos enunciados y la
imposibilidad de demostrar la completud.

Los teoremas de Gödel

El primer teorema de Gödel afirma que en todos los sistemas formales existen
enunciados que no pueden ser demostrados ni contradichos a partir de los
axiomas que definen el sistema. Es decir que existen enunciados para los cuales
no es posible decidir si son o no son válidos y por esto recibe le nombre de
teorema de indecidibilidad.
El segundo teorema de Gödel afirma que un sistema que pudiera verificar la
validez de todos sus enunciados contendría enunciados contradictorios. Es decir
suponer que el sistema es completo implica que es inconsistente pues alberga
enunciados contradictorios y por lo tanto se lo llamo el teorema de la incompletud.
Los teoremas dejan a la más exacta de las ciencias frente a limitaciones formales
muy importantes,desde el punto de vista epistemológico. Cae la certeza que
provenía del principio aristotélico de tercero excluido5 y la presunción de la
existencia de un sistema de reglas que pueda demostrarlo todo unívocamente.
Estas consecuencias son muy importantes, pues los resultados de los teoremas
podrían ser generalizados a otras esferas del conocimiento. Para utilizar con éxito
los teoremas de Gödel será necesario verificar que los supuestos de los que se
parte sean homólogos a los de los teoremas mismos, desde el punto de vista
formal. Los sistemas formales sobre los que versan los teoremas son sistemas
aritméticos. Sus elementos son los números naturales junto las operaciones de
suma y multiplicación, y se opera mediante la iteración de algoritmos. Este tipo de

5
El principio aritotélico de tercero excluido afirma que un enunciado es válido o invalido sin tercera
posibilidad (es A ó –A).

34
sistemas es justamente el que posibilitó a Turing 6 el diseño de su máquina. Es
decir: los teoremas de Gödel son aplicables a cualquier objeto que sea calculable
con una computadora moderna y es por esto que resultan tan relevantes.
La máquina Turing tiene la cualidad de poder reproducir mediante iteraciones
algorítmicas cualquier procedimiento lógico. Entre otros problemas interesantes
Turing se planteó si se podría fabricar una máquina que reprodujera las
operaciones mentales de un ser humano, es decir, la producción de un programa
que emulara la mente. Para esto diseño un test que consistía en que una persona
formulara preguntas por escrito a dos sujetos X e Y, y a partir de las respuestas
obtenidas decidiera cual de los sujetos era en realidad una computadora. El
llamado test de Turing es un problema que implica el esfuerzo de determinar qué
es la mente y cómo programar sus operaciones. Esto llevó a la idea de que
alcanzaría con modelizar el cerebro para reproducirla. Sin embargo esta respuesta
no es trivial: ¿mente y cerebro son lo mismo?. Suponiendo que el cerebro pudiera
finalmente ser desentrañado y la capacidad de cálculo de las computadoras
alcanzara para resolver las millones de operaciones que se realizan en un cerebro
humano en cada instante, ¿esto equivaldría a tener una máquina con mente? El
debate, lejos de encontrar una respuesta concluyente, sigue abierto. En 1989
Roger Penrose publica La nueva mente del emperador, en que desarrolla la idea
de que hay algo en la naturaleza de la mente que no es computable. Penrose
elabora su teoría apoyándose en los teoremas de Gödel y ubica al funcionamiento
de la mente dentro de los postulados indecidibles y por lo tanto de una naturaleza
inalcanzable para la máquina de Turing. Más tarde, en colaboración con Hameroff,
elabora la hipótesis de que la mente es un fenómeno emergente de la actividad
cerebral, relacionado con la física cuántica, y por lo tanto cubierto por una
inevitable dosis de incertidumbre y sólo abordable probabilísticamente.
El modelo positivista de la ciencia se apoya con preeminencia en el método
hipotético deductivo, el cuál garantiza la transmisión de verdades de los supuestos
a las conclusiones mediante operaciones lógicamente válidas. Los teoremas de
indecidibilidad e incompletud de Gödel ponen un límite a aquello pasible de ser
conocido mediante este tipo de procedimientos, dejando un espacio a la existencia
de una realidad por fuera del conocimiento racional.

6
Pablo se refiere a Alan Turing (1912-1954) considerado el padre de la primera computadora. La película
inspirada en su vida, The Imitation Game (traducida como El código enigma) está recomendada como
material didáctico por la cátedra.

35
Bibliografía

1. Conrad K. La esquizofrenia incipiente

2. Gehlen, A. El hombre. Su naturaleza y su lugar en el mundo. Ed. Sígueme,


Salamanca, 1980.

3. Mahoney, M., Human change processes, Ed. Basic Books, New York 1990

4. Maslow, A., El hombre autorrealizado, Ed. Troquel, Buenos Aires, 1993

5. Maturana, H. Autopoiesis, Structural Coupling and Cognition: A history of


these and other notions in the biology of cognition. Cybernetics & Human
Knowing, Vol. 9, Num. 3-4, 2002, pp. 5-34

6. Meaney, M., Moshe, S., Maternal care as a model for experience-dependent


chromatin plasticity?, Trends in Neurosciences, Vol. 28 Nº 9 September
2005
7.
8. Napolitano, A. Fenómenos epigenéticos y neuroplásticos en el Trastorno
Bipolar. Monografía del Doctorado en Psicología Universidad de Palermo,
2015

9. Pistner de Cortiñas, L. La dimensión estética de la mente, variaciones sobre


un tema de Bion. Ed. Del Signo, Buenos Aires, 2007.

10. Rossi E. The Psychobiology of Gene Expression. Ed. Norton & Company
Inc., New York, 2002.

11. Wilden, A., Sistema y Estructura. Ensayos sobre comunicación e


intercambio, Alianza Editorial, Madrid, 1979

36
37

También podría gustarte