Está en la página 1de 30

La Teoría de la Complejidad y el Caos

TEORÍA DE LA COMPLEJIDAD
La Teoría de la Complejidad y la Teoría del Caos han saltado de las ciencias biológicas y
físicas al campo de los negocios. Las organizaciones complejas necesitan nuevas maneras
para resolver los problemas, y es aquí donde las Teoría del Caos y la Complejidad
aparecen, ofreciendo nuevas formas de enfocar los problemas organizacionales.

Entendemos el mundo de una manera mecanicista, predecible y lineal. Pero lo cierto es


que el mundo real no es así. Los sistemas son cada vez más complejos, en mercados como
los que vimos en el capítulo anterior, con relaciones de competencia y complementación
simultáneas, con empresas construidas sobre la base de redes, con Internet moldeando la
sociedad. Y la teoría de la complejidad analiza estos sistemas de manera holística, integral
y no lineal.

Estamos inmersos en una sociedad en donde se buscan sin cesar exactitudes y reglas
generales. En forma tradicional se nos enseña a pensar que lo correcto es:

● Lograr alcanzar el equilibrio.


● Los comportamientos simples y lineales.
● El cumplimiento de tendencias.
● Las formas puras.
Estos pensamientos “clásicos” tienen su origen en lo que se denomina perspectiva
reduccionista, por medio de la cual, y a través de un diagrama de causa-efecto, debería
poder explicarse el comportamiento de cualquier sistema. Surgen a partir de los estudios
realizados principalmente durante la época del Renacimiento por Isaac Newton (que
desarrolló una teoría sobre la mecánica celeste que permitió conocer con novedosa
exactitud el comportamiento de estrellas y planetas) y René Descartes (un universalista
que sostuvo que conociendo la forma, el tamaño y el comportamiento de los elementos
que componían cualquier sistema se podrían predecir sus movimientos. Aplicando esta
teoría, el comportamiento del universo era asimilado a una gigantesca maquinaria de
relojería).

El modelo de Newton, según cita Fritjof Capra en su libro El Tao de la Física, “era un
cimiento formidable que soportaba, como una firme roca, toda la estructura de la ciencia
y que proporcionó una base sólida a la filosofía natural durante casi tres siglos”.
Según la teoría de Isaac Newton, Dios creó en un comienzo las partículas materiales, las
fuerzas existentes entre ellas y las leyes fundamentales del movimiento. De este modo,
todo el universo fue puesto en movimiento y así ha continuado desde entonces,
gobernado por leyes inmutables como una máquina. Esta visión mecanicista está
estrechamente relacionada con el determinismo riguroso. El futuro podía se previsto,
siempre que su situación en un momento dado se conociera con todo detalle.

La base filosófica de este determinismo era la separación entre el “yo” y el mundo


introducida por Descartes. Como consecuencia de esta separación, se creía que el mundo
podía ser descripto en forma “objetiva”, es decir, sin considerar al observador humano, y
tal descripción objetiva se convirtió en el ideal para toda la ciencia.

El pensamiento newtoniano se fundamenta en tres conceptos básicos:

● Hay una causa para cada efecto y solo un efecto para cada causa.
● Los sistemas buscan en forma permanente el equilibrio.
● La naturaleza es ordenada.

En la realidad podríamos decir que a veces, las menos, se cumplen dichos postulados.

La estructura mecanicista de newton suponía que cualquier suceso que se produjera en la


vida real podía ser descrito y predicho. “Desde los comienzo de nuestra educación, oficial
y no oficial, nos han sido dadas categorías simplificadas para organizar el mundo. El
mundo es una esfera. Lance una pelota de béisbol al aire y su trayectoria será una
parábola. Las naciones se dividen en primer, segundo y tercer mundo. Todos estos
estamentos tienen algo de verdad, si bien ninguno de ellos resulta ser tan exacto si nos
fijamos detenidamente… Aunque pudiera parecer que andamos buscando tres pies al
gato, nuestra vida de cada día está llena de ropa que no sienta bien, de pastos en los que
no todo es hierba, y de coches nuevos con abolladuras en sus guardabarros” 1.

Desde el siglo XVII en Europa, por problemas religiosos y ante la búsqueda de una
identificación del Anticristo y del momento en que debería aparecer, se crea una ciencia
denominada “numerología”, por medio de la cual estudiosos trataron de hallar
coincidencias entre secuencias de números y hechos.

La idea de que el hombre podía llegar a determinar con exactitud cualquier fenómeno real
se mantuvo por largos siglos. Ilya Prigogine (El fin de las certidumbres) sostiene que una

1
Wegner y Tyler, B. El mundo de los fractales. Anaya Multimedia, Madrid, 1995.
de las razones por las que fue necesario tanto tiempo para llegar a una generalización de
las leyes de la naturaleza que incluya la irreversibilidad y las probabilidades “sin duda…
[es] el deseo de un punto de vista cuasi divino sobre la naturaleza”.

Los límites a esa ambición humana comenzaron a perfilarse a fines del siglo XIX con el
problema denominado como “de los tres cuerpos”: a través de la mecánica newtoniana es
posible predecir el comportamiento de dos cuerpos que se interrelacionan, como por
ejemplo, la Tierra y el Sol, con total precisión. El inconveniente surge al introducir un
tercer cuerpo (por ejemplo, la Luna). Matemáticamente, la solución se encuentra en
nueve ecuaciones diferenciales de segundo orden y simultáneas, imposibles de resolver ya
que (en el ejemplo del sistema solar) la Luna al interrelacionar con la Tierra, afecta su
comportamiento (y por lo tanto, la distancia entre el planeta y su estrella), lo que modifica
los datos para el cálculo de trayectorias. Al ser un problema tan interesante, el rey de
Suecia ofreció un premio a aquella persona que pudiera encontrarle una solución que
fuera rigurosamente cierta. El galardón lo ganó el francés Jules Henri Poincaré, que en
1890 determinó que no era posible, al menos con la matemática de ese momento (que
justamente era la de Newton), encontrarle una solución a dicho problema. El
conocimiento de esta limitación fue el inicio de lo que más adelante se llamó la ciencia del
caos.

En 1960 el canciller de la Universidad de Oxford, John Owen, afirmó: “¡Cuidado con el


cálculo! ¡De qué manera más traidora y miserable forma nos ha confundido!”. Paul
Ormerod2 dice que ese tiene que ser el epitafio para la disciplina de la economía en su
estado actual, resaltando la falta de exactitud de los modelos y predicciones económicas.

“En psicología y ciencia social, la predicción cuantitativa es un sueño remoto… Los éxitos
de la física y sus consecuencias tecnológicas han sido tan grandes que muchas personas
todavía mantienen que otra disciplinas sólo son científicas en la medida que siguen la
pauta marcada por Newton. Insisten que con datos y tiempo suficiente podemos pasar
sistemáticamente de la física fundamental a la química, luego a la biología, luego al
cerebro y la sociedad. Sólo entonces encajarán todas las piezas sueltas del pensamiento
cualitativo”. “Toda ciencia es física o coleccionismo de sellos” dijo el experimentador
atómico Lord Rutherford a sus alumnos a principios de siglo. “Lo cualitativo no es sino
deficientemente cuantitativo”3.

SISTEMAS DINÁMICOS NO LINEALES Y COMPLEJOS

2
Ormerod, Paul. Por una nueva economía. Anagrama, Barcelona, 1995.
3
Woodcock, Alexander y Monte Davis. Teoría de las catástrofes. Ediciones Cátedra, Madrid, 1994.
“Un sistema es un conjunto de elementos interrelacionados, de cualquier clase, por
ejemplo: conceptos (como el sistema numérico), objetos (como en un sistema telefónico o
el cuerpo humano) o personas (como en una sociedad). El conjunto de elementos tiene las
tres características siguientes:

1. Las propiedades o el comportamiento de cada parte del conjunto tiene un efecto


sobre las propiedades o el comportamiento del conjunto como un todo. Por ejemplo,
cada uno de los órganos del cuerpo de un animal afecta al comportamiento del
cuerpo.
2. Las propiedades o el comportamiento de cada parte y el modo que afectan al todo
dependen de las propiedades y el comportamiento de por lo menos alguna otra parte
del conjunto. Por lo tanto, ninguna parte tiene un efecto independiente sobre el todo.
Por ejemplo, el efecto del corazón sobre el cuerpo depende del funcionamiento de los
pulmones.
3. Todo posible subgrupo de elementos del conjunto tiene las dos primeras
propiedades. Cada uno tiene un efecto y ninguno puede tener un efecto
independiente sobre todo. Por lo tanto, los elementos no pueden ser organizados en
subgrupos independientes. Por ejemplo, todos los subsistemas del cuerpo del animal
–tales como los subsistemas nervioso, respiratorio, digestivo y motor- interactúan y
cada uno afecta el funcionamiento del todo.4
Los sistemas no lineales son aquellos que generan respuestas que no se comportan en
forma directa y proporcional a cambios en alguna variable, sino que se desvían de la
trayectoria previsible. Los sistemas complejos son aquellos que están compuestos por
muchas partes. Los sistemas dinámicos son aquellos cuyo estado depende del momento
en el que son observados.

A su vez, los sistemas dinámicos pueden ser deterministas o estocásticos. Los primeros
son aquellos que tienen una consecuencia única para cada evento, mientras que los
segundos son los aleatorios. En estos últimos no tenemos una única consecuencia sino
que tenemos una probabilidad5. El clima es un ejemplo de sistema estocástico.

Una de las mejores y más concisas definiciones que se puede hacer de un sistema
dinámico, complejo, no lineal y estocástico, es quizás la que ensaya Mark Youngblood6 al
hablar de los sistemas vivos (Living Systems). En su obra enumera siete principios
orgánicos propios de estos sistemas:

4
Ackoff, Russell. “La ciencia en la edad de los sistemas: más allá de la ingeniería industrial, la investigación
operativa y la ciencia de la administración”, en Revista Operations Research, Nueva York, mayo-junio de
1973.
5
Monroy Olivares, C. Teoría del caos. Alfaomega Grupo Editor, México, 1997.
6
Youngblood, Mark D. Life at the Edge of Caos. Perceval Publishing, Dallas, 1997.
Sinergia Identidad

Conectividad Equilibrio Creatividad

Apertura Flexibilidad

o Sinergia (Wholeness). El todo es mayor a la suma de sus partes. El valor de un sistema


se reduce cuando se lo divide en sus componentes individuales (principio de
fragmentación).
o Conectividad (Connectedness). Todo sistema vivo es la suma de interconexiones
indivisibles, que se forman de maneras no lineales. Esta propiedad hace virtualmente
imposible establecer y entender claramente la relación entre causas y efectos.
o Identidad (Indentity). Los sistemas se organizan alrededor de una idea central, la que
le proporciona una identidad fuerte y un sentido de propósito que trasciende los
cambios estructurales.
o Equilibrio dinámico (Balance). Los sistemas vivos establecen un balance dinámico, en
donde van fluctuando dentro de determinados parámetros estables, buscando un
equilibrio.
o Creatividad (Creativity). Los sistemas vivos mutan en forma permanente. La habilidad
de formar nuevos niveles de orden es la verdadera naturaleza de la creatividad.
o Apertura (Openness). La creatividad de los sistemas se incrementa por tres motivos:
a) los agentes del sistema interactúan en forma intensiva tanto internamente como
externamente; b) la información es rica, diversa y fluye libremente; c) existe una
tremenda diversidad en los agentes del sistema.
o Flexibilidad (Flexibility). Estos sistemas son flexibles y de gran plasticidad, debido al
proceso de autoorganización que se produce en sus estructuras para adaptarse a las
condiciones del medio ambiente.
La realidad está plagada de ejemplos de sistemas dinámicos, complejos, no lineales y en
general estocásticos, que se intentan abordar y explicar a través de las teorías de las
catástrofes o la del caos7.

LA TEORÍA DEL CAOS


Para la Real Academia Española, caos es “en el pensamiento clasico gr., estado originario
de la materia, en oposición al cosmos o universo ordenado // Confusión, dasbarajuste”,

7
En realidad, Ilya Prigogine señala que ni siquiera es condición necesaria para tener un sistema caótico que
el mismo sea complejo. Existen sistemas caóticos muy simples, “ya no nos sirve la coartada de la
complejidad”, dice.
mientras que una catástrofe es “un hecho imprevisto y de graves consecuencias //
Desastre, cosa o hecho de pésimo resultado”8.

El significado que en este trabajo se le dará a estos conceptos es diferente. Caos no


significa desorden ni comportamiento aleatorio, no es confusión ni desbarajuste; un
comportamiento catastrófico no necesariamente trae aparejada una consecuencia grave
o desastrosa. Los comportamientos caóticos y catastróficos son una especie dentro de los
sistemas complejos dinámicos no lineales que tienen entre otras propiedades (como
veremos más adelante), un comportamiento ordenado, lógico y razonable, bajo un disfraz
lleno de opuestos (la palabra caos es sinónimo, por ejemplo, de la palabra incoherencia,
verdadero antónimo de la misma).

Comencemos con un ejemplo matemático. Partimos de la siguiente fórmula9:

En donde lambda es una constante que puede tomar distintos valores. el proceso que se
realiza para obtener una serie de datos es muy sencillo. Simplemente, partiendo de un
valor inicial y de una constante, se empieza a aplicar esta fórmula en forma iterativa,
haciendo que el resultado obtenido en una instancia esté influenciado por el inmediato
anterior.

En la tabla de la página siguiente se observa el resultado que se obtiene al aplicar la


fórmula a valores de lambda = 2 y 4, partiendo de diversos valores iniciales (0.1, 0.2,
0.399999, 0.4 y 0.400001).

De las primera cuatro series de datos (A, B, C y D) se observa, al menos a partir de un


mínimo número de iteraciones, un comportamiento determinístico. Podríamos afirmar
con certeza cuál sería el valor de cualquiera de esas cuatro series después de 50, 100,
1.000 o 1.000.000 de iteraciones, aún cuando no conociéramos la fórmula. Con
seguridad este valor es de 0,50. Se puede decir que esa fórmula, para un valor de lambda
igual a 2 y con valor iniciales muy distintos (que van de 0,1 a 0,4) tiene un atractor o
punto de atracción que atrae a los valores a un importe determinado10.

Este comportamiento no se repite en las series E, F y G. En estos casos se parte, con la


misma fórmula, de un valor de lambda igual a 4. Se observa que a pesar de partir de
valores iniciales prácticamente iguales (con una diferencia absoluta de 0,000001 o
relativa de 2,5 por millón), los valores obtenidos se van separando, al principio en forma

8
Diccionario enciclopédico Grijalbo, 1995.
9
El desarrollo matemático está basado en la simulación planteada por Cesar Monroy Olivares en Teoría del
Caos.
10
En realidad, se puede observar que para lambda = 2, si se cumple la condición ( 0 < valor inicial < 1), en
algún momento el valor de la serie se estabiliza en 0,5.
imperceptible, luego en forma notoria. En este ejemplo, si no tuviéramos la fórmula, sería
muy difícil arriesgar el valor que cada serie arrojará en el momento 31.

Tal como sostiene Katherine Hayles11, “mientras más caótico es un sistema, más
información produce”. En el ejemplo numérico anterior, para lambda igual a 2 después
de la cuarta, quinta o sexta iteración, cuando el valor se estabiliza en 0,5 ya deja de
producir información. Con lambda igual a 4, en cada nueva corrida se produce un valor
distinto. Se genera tanta información como iteraciones se realicen.

Se puede afirmar que estamos en presencia de un sistema caótico cuando el


comportamiento del mismo presenta las siguientes características:

● Determinismo. Los resultados obtenidos no son fruto del azar, sino que se producen
como consecuencia de una secuencia lógica y concatenada de acontecimientos.
● Aparente desorden. Si se observan los últimos diez valores obtenidos en la series E, F
y G parecería que estamos frente a valores generados por el azar, totalmente
fortuitos y sin ningún orden.
● Alta sensibilidad a las condiciones iniciales. Tal como lo demuestra el ejemplo en
cuestión, pequeñísimas alteraciones en las condiciones iniciales producen resultados
absolutamente distintos.
La alta sensibilidad a las condiciones iniciales es conocida como efecto mariposa. Edward
Lorenz es el descubridor de la misma, indicando en forma muy gráfica su
comportamiento: el aleteo que produce hoy una mariposa en el aire de Brasil puede
generar un tornado en Texas. Esta característica produce una dicotomía entre el grado de
determinismo y el nivel de predicción que pueden esperarse de estos sistemas. Los
sistemas caóticos son deterministas… pero impredecibles al menos en el mediano y largo
plazo. En el ejemplo numérico incluido anteriormente, se observa que para series de datos
generados por una misma fórmula, con la misma constante (lambda igual a 4), sólo se
puede predecir el valor generado después de 30 iteraciones si se conoce con exactitud el
valor inicial. En este contexto, exactitud no quiere decir “bastante aproximado” o “más o
menos” o “redondeando”. Quiere decir “totalmente exacto”. Las consecuencias, entonces,
de esta propiedad son funestas: en aquellas ciencias donde la medición exacta sea un
problema (por ej., la economía, la administración o la estrategia) nunca se podrá predecir
con precisión la consecuencia de una acción. La información faltante (o falta de fidelidad)
producirá un pronóstico erróneo. La paradoja de la Teoría del Caos es precisamente ésta.
Se supone que una ciencia tiene que formular leyes que permitan vaticinar el estado
futuro de algo, cosa que en este caso no existe. De todas maneras, la impredecibilidad no
significa el conocimiento inexacto o falso de una situación, sino que es la consecuencia del

11
Hayles, N. Katherine. La evolución del caos. Gedisa Editorial, Barcelona, 1993.
estado de las cosas. Pretender lo contrario significaría tratar de encorsetar la realidad en
un modelo simplificado, conveniente pero irreal.

En muchos textos aparece la analogía del río: supongamos que colocamos un corcho en el
río Iguazú unos metros antes de que se una con el río Paraná, y quisiéramos saber con
exactitud en qué momento, y/o por qué lugar del río va a pasar unos kilómetros más
abajo, después de las Cataratas. El comportamiento que tendrá el corcho va a ser lógico.
Las leyes de la física que afectarán al mismo van a ser conocidas (serán las de Newton). Sin
embargo, no hay científico en el mundo ni computadora capaz de resolver el problema.
¿Qué es lo que sucede? Estamos frente a un sistema complejo de características caóticas,
en donde el comportamiento ex-post es lógico y posible de explicar, pero ex-ante es
imposible de predecir.

Supongamos que repetimos el experimento colocando el mismo corcho en el mismo


punto en donde fue colocado con anterioridad. la pregunta es: ¿Nuestra experiencia
reduce nuestra incertidumbre? ¿Ahora sí podemos predecir el comportamiento de este
objeto? La respuesta es nuevamente no. ¿Por qué? Porque se han modificado las
condiciones iniciales. Aunque sea un instante después, el ambiente que le espera a este
objeto es significativamente distinto. Un remolino un poco más potente, una rama, un
insecto, cualquier perturbación respecto de las condiciones iniciales, modifica y altera el
comportamiento. Desde este punto de vista, cada instante es único. Tampoco se puede
afirmar que si realizamos el experimento con dos corchos colocados uno al lado del otro
río abajo (y Cataratas mediante), los mismos pasen más o menos juntos.

Los libros de texto y la física convencional modelizan estos sistemas. Y los simplifican en
demasía haciéndolos totalmente distintos de la realidad. Se supone, por ejemplo, un
corcho flotando en un río ideal, lineal, recto, con una pendiente constante, en donde el
agua corra siempre a la misma velocidad. Si tiramos allí el corcho y quisiéramos saber
dónde se encuentra después de un tiempo, calculamos “velocidad del agua por tiempo” y
logramos la ubicación exacta del mismo.

Si este cálculo lo hacemos en un río real, es altamente improbable que arroje un resultado
correcto. La realidad, entonces, esta llena de excepciones a la regla general, y en
ocasiones, se produce algún acierto. La realidad está llena de caos. Es impredecible, pero
no fortuita. Compleja. Y en apariencia, desordenada.

Pero lo interesante que tiene la Teoría del Caos es que precisamente no hace hincapié en
el desorden aparente de estos sistemas, sino que se resalta el orden implícito que ellos
poseen. Si los modelos lineales son tan inexactos para estudiar la realidad, ¿Por qué se los
utiliza tanto? Como se enunciará más adelante, simplemente porque son convenientes.
Los sistemas no lineales son muy difíciles de estudiar, muy difíciles de modelizar. De todas
maneras, y a pesar de no tener en la actualidad todas las herramientas matemáticas
necesarias para su análisis, hay algunas de ellas muy novedosas de las que sí disponemos,
como los fractales.

Como hemos visto, los sistemas caóticos son estudiados a través de técnicas matemáticas
puras: la iteración y la recursión. La iteración es un proceso de aproximaciones sucesivas
utilizadas en la resolución de problemas de ecuaciones algebraicas diferenciales o la
interpolación de los valores de una función. La recursión es aquella técnica que se emplea
en procesos iterativos. por medio de la cual se toma el resultado de una ecuación y se la
retroalimenta una y otra vez para descubrir el desarrollo de sus conductas.

En razón del método matemático que se utiliza para su estudio, y la alta sensibilidad que
tiene todo este proceso a la exactitud y precisión de los números utilizados (ya que el
proceso se pierde al redondear cifras), es que, con el advenimiento de las computadoras,
esta ciencia cobró nuevo auge.

¿Qué Conductas son Propias del Caos?

• Por un lado, dentro de los sistemas caóticos hay cuestiones posibles, probables e
imposibles o improbables. Por ejemplo, es altamente probable que el corcho tirado en el
río navegue siguiendo el curso de la corriente, es posible que lo detenga alguna rama,
roca o animal, y es imposible que navegue río arriba.

• Existe una nueva concepción de la dinámica. En un principio se había supuesto,


como regla general para el comportamiento de sistemas dinámicos, la reversibilidad. El
ejemplo clásico es la Ley de Newton, que vincula fuerza y aceleración, totalmente
determinista y reversible en el tiempo. Bajo este modelo, en cualquier momento se
puede conocer el estado en el que se encuentra un sistema, el que va a tener en el futuro
y el que tuvo en el pasado. En las fórmulas newtonianas la variable tiempo funciona tanto
en positivo como en negativo (± t). Prigogine y Stengers12 señalan que “el movimiento
inventado por Galileo y sus sucesores articulaba el instante y la eternidad. En cada
instante el sistema dinámico estaba definido por un estado que contenía la verdad de su
pasado y de su futuro”. En los sistemas caóticos la irreversibilidad es la norma. Se pierde
la simetría temporal. Un sistema caótico que se encuentra en un estado x, después de un
tiempo alcanza el estado y. Si se pudiera hacer “funcionar marcha atrás” este sistema, no
volvemos al punto x. Esta propiedad se produce como consecuencia del cumplimiento del
segundo principio de la termodinámica: la entropía. Este precepto, que en física reza que
no es posible transformar íntegramente una cantidad de calor en trabajo, resalta la

12
Prigogine, Ilya y Stengers, Isabelle. Entre el tiempo y la eternidad. Alianza Editorial. Buenos Aires, 1991.
tendencia universal hacia la disipación. En otras palabras, la entropía indica la tendencia
que tiene la energía de un sistema cerrado a desaparecer (muerte térmica). El efecto que
produce esta norma es fundamental para entender la irreversibilidad: cada momento de
un sistema es único, porque en cada momento el sistema es único. El estado, los
elementos, sus conexiones y propiedades, y el entorno que lo rodea es diferente, instante
a instante, por lo que en función del tiempo los sistemas van desapareciendo,
transformándose en otros distintos, con otras reglas y preceptos. Esta irreversibilidad ha
sido denominada como la “flecha del tiempo”, ya que el comportamiento que presentan
los sistemas aislados va hacia una sola dirección, que es aquella en donde crece la energía
no utilizable.

Cada momento de un sistema es único, porque en cada momento el sistema es único.

• La estabilidad lograda por sistemas es parcial, temporal y frágil. Surge el concepto de


inestabilidad dinámica: no hay equilibrios definitivos. Hay desequilibrios permanentes
que provocan equilibrios parciales.

• Autoorganización: a pesar del desorden aparente, los sistemas vivos se autoorganizan


automáticamente. A veces todo un análisis está en función del angular que se utiliza para
ver un sistema. Si se enfocan conductas individuales se encuentran preferencias
particulares muchas veces antagónicas, pero que son coherentes con el comportamiento
del todo. Por ejemplo, en un grupo de aves que remontan vuelo en forma simultánea de
una laguna, el comportamiento individual es altamente caótico y errático: por un lado,
cada animal va a tratar de volar lejos de sus compañeros para evitar el riesgo de una
colisión, pero, por el otro lado, va a buscar mantenerse lo más unido posible a la
bandada. Si se dispusiera de algún efecto visual que borre a todos los pájaros de la
bandada menos a uno, la actuación que se observaría sería muy extraña y totalmente
impredecible, conclusión opuesta a la que se llegaría al observar el comportamiento del
conjunto. La autoorganización resalta la supremacía, en determinados niveles, de la
cooperación por sobre la competencia.

• Los caminos adoptados por el caos siguen un patrón de comportamiento universal


para sistemas similares o simetrías recursivas entre niveles de escala. Su
comportamiento, al no ser lineal, no puede ser previsto o razonado en forma exacta por
medio de una ecuación, pero sí puede analizarse a través de representaciones gráficas. La
geometría utilizada para este punto no es la tradicional o euclidiana, sino que se explotan
las posibilidades y la filosofía de los fractales.

• Los patrones posibles son los llamados atractores, porque el comportamiento del
sistema es atraído hacia esa zona.
I. Prigogine señala que “lo que nos interesa, sobre todo, es conocer la incidencia de la
inestabilidad en conceptos fundamentales como el determinismo, la irreversibilidad y los
propios fundamentos de la mecánica cuántica. Como veremos, aparece un nuevo
enfoque para abordar todos estos problemas. Por eso, cuando se tiene en cuenta el caos,
se puede hablar de una nueva formulación de las leyes de la naturaleza. La apuesta es
fuerte”13.

Lo Simple y lo Complejo

Cuando nos enfrentamos con un sistema que queremos, analiza y es realmente complejo,
como en el caso de una organización, surge el interrogante: ¿necesitamos modelos
simples o complejos para lograr un análisis adecuado de la realidad y poder actuar en
consecuencia?

La respuesta que a menudo surge frente a esta pregunta es: “modelos simples, ya que
con modelos complejos nos complicaríamos demasiado y no podríamos entender qué es
lo que pasa”.

Otra respuesta que puede aparecer es: “modelos complejos, ya que con los modelos
simples no es suficiente para interpretar sistemas complejos y esto nos llevaría a cometer
muchos errores”.

Si bien las dos respuestas pueden ser correctas, para la Teoría del Caos ninguna de las dos
lo es, ya que se trata de evitar las dualidades, una res-puesta u otra, dualidades
provenientes del Mecanicismo y del Determinismo newtoniano.

Entonces, la respuesta para el caos sería utilizar modelos simples y complejos al mismo
tiempo, rompiendo la dualidad.

Atractores

Los atractores muestran los comportamientos posibles para un sistema, luego de que el
mismo haya estado funcionando durante un cierto tiempo. Estas trayectorias se aprecian
en un gráfico cartesiano denominado espacio de fases, en cuyos ejes se detallan las
variables que describen al sistema dinámico. Existen tres tipos básicos de atractores:

• Atractor puntual. Es el que atrae el comportamiento de un sistema hacia un punto


determinado. Monroy Olivares14 define el concepto atractor como un “punto ubicado
dentro de un espacio n - dimensional que genera una fuerza de atracción hacia sí mismo,

13
Prigogine, llya. El fin de las incertidumbres. Editorial Andrés Bello. Santiago, 1991.
14
Monroy Olivares, César; (op. cit.).
a partir de un campo infinito y cuyo grado de atracción depende de determinada función
de J la distancia”. El ejemplo corriente de este atractor se observa con el comportamiento
de un péndulo. El mismo puede estar en movimiento durante un tiempo finito: tarde o
temprano su fuerza se va debilitando como consecuencia de la resistencia del aire;
finalmente, este péndulo se “estaciona” en un punto fijo: su atractor. Este caso de
sistema dinámico ofrece muy poca información: a largo plazo se sabe con total seguridad
en qué posición va a estar este elemento.

• Atractor periódico o circular. En este caso, el comportamiento del sistema órbita


alrededor de un punto o región. Sería el caso de un péndulo que se encontrara en
movimiento en el vacío. Otro ejemplo sería el de las órbitas de los planetas.

Por último, existe una especie de atractor muy particular, llamado:

• Atractor extraño o caótico. Existe cuando el comportamiento de un sistema es atraído


en forma radial, no lineal, hacia un punto, lo que produce “trayectorias aperiódicas e
irregulares en los objetos que caen dentro de su horizonte de influencia”15.

A través del estudio de los atractores se detecta si un sistema es conservativo o


disipativo. Los primeros son aquellos en donde la energía se mantiene constante, es
decir, aquellos cuya entropía es nula o mínima (por ej., el sistema solar). El atractor que
presentan estos sistemas (también llamados hamiltonianos, en honor a W. Hamilton, que
desarrolló una función matemática que utiliza como variables las posiciones y los
impulsos) es de tipo circular o periódico.

Los sistemas disipativos, en cambio, son aquellos que van perdiendo la energía con el
tiempo. Los ejemplos posibles son muchos y variados: la atmósfera terrestre, todos los
sistemas vivos, las máquinas, etc. Sus comportamientos se asimilan mucho más al de los
atractores puntuales, ya que, a largo plazo, las trayectorias convergen en un lugar
determinado (energía igual a cero, ubicación en el punto de equilibrio).

Los atractores también sirven para precisar si se está en presencia de un sistema estable
o inestable. Un sistema estable es aquel que “soporta” pequeñas alteraciones. Por
ejemplo, la trayectoria que sigue un péndulo puede ser alterada por una fuerza externa,
que modifica su movimiento. A pesar de esta perturbación la dinámica del sistema tiende
a volver a la normalidad. Esto no ocurre cuando se está en presencia de un sistema
inestable, ya que una muy pequeña alteración en las condiciones iniciales produce
resultados inesperados. Un ejemplo de este tipo de sistemas ocurre si se quiere hacer
girar una moneda sobre su canto, pretendiendo que una vez que cese el movimiento, no

15
Monroy Olivares, César; (op. cit.).
caiga sobre ninguna de sus caras. Hay más chances de fracaso que de éxito.
Evidentemente, se está en presencia de un sistema estable cuando el atractor del mismo
es puntual o circular; se está frente a un sistema inestable cuando su atractor es de tipo
caótico.

El atractor extraño y las organizaciones

Si consideramos el caso de las organizaciones, los atractores predominantes en la gran


mayoría de las situaciones son los atractores extraños. El sistema es atraído hacia un
patrón de comportamiento, y si se lo perturba, vuelve rápidamente a su
comportamiento anterior.

Un ejemplo podría ser el caso de un cambio de cultura dentro de una organización


donde, después de un primer movimiento para lograr el cambio, si no se persiste en el
proceso, se vuelve rápidamente a la situación anterior. Los atractores en una
organización son, en general, las cosas por las que trabajamos, nuestros jefes, los
clientes, los accionistas, el volumen de ventas, la participación en el mercado, la visión,
pero también las cosas que preferimos hacer, un trabajo específico en lugar de otro,
manejo de los tiempos, etc.

Los latidos del corazón parecen regulares pero no son perfectamente iguales, sino que
siguen una órbita irregular, con determinado grado de libertad. Existe un atractor extraño
en esta órbita. Si fueran perfectamente regulares estaríamos hablando de una persona en
estado de suma gravedad, ya que no existiría "ningún grado de libertad y no tendría la
elasticidad necesaria para funcionar.

Ciclo Limitante

Cuando no existen grados de libertad se produce un ciclo limitante. Esta situación se da


en los sistemas rígidos, cuando las variables casi no tienen movilidad y las reglas del
sistema causan una determinada trayectoria que se repite periódicamente. Esto es un
atractor circular (John Casti, en Complexification, lo denomina Atractor de Ciclo Límite).

En general, un ciclo limitante es lo que vulgarmente se conoce como círculo vicioso, ya


que cuando se presentan determinados problemas, éstos se repiten cíclicamente, sin
poder salir del ciclo que los atrae. Lo importante es encontrar cómo salir de un ciclo
limitante, para lo cual se requiere tener claridad y lograr el grado de libertad necesario en
las variables clave.

La Omnipresencia de los Atractores


Evidentemente, lo normal en el mundo es el caos. El comportamiento lineal es una burda
aproximación a la verdad. Si se quisiera hacer una lista de los sistemas reales que se
comportan en forma caótica, la misma sería interminable. En particular se puede resaltar
la ubicuidad de los atractores: por todos lados, prácticamente en el comportamiento de
cualquier tipo de sistema, se encuentran estas singularidades. En forma simplemente
ilustrativa se citan a continuación algunos ejemplos.

Atractores en los precios de dos bienes “commodities”: en el siguiente esquema se


grafican dos series reales, correspondientes a la evolución de los precios (en pesos
constantes por kilogramo vivo) de los novillos y los terneros en el mercado argentino
durante el período comprendido entre los años 1977 a 1997 (ambos inclusive). Como se
puede observar, dentro del caos que presenta su curso, encuentra una zona
(comprendida entre los $0,80 y $1,20 para ambos animales) más importante que el resto,
en donde se localiza evidentemente el atractor de estas series.

Atractores en los índices de inflación: a continuación se gráfica la relación que en tres


épocas distintas se produjo entre las series de precios mayoristas (Precios Internos al por
mayor, nivel general) y minoristas (Precios al consumidor)16 en la República Argentina. En
las mismas se observan grandes similitudes. En especial en las dos primeras series de
precios, el “dibujo” que se forma es muy parecido... si le sacáramos la escala.

Después de décadas de subas de precios importantes, durante la segunda mitad de la


década del ochenta el país sufrió con una escalada aún mayor que culminó en una
hiperinflación (julio/1989 con una tasa de precios al consumidor mensual del 196 %). A
pesar de la suba permanente, se puede observar cómo, a medida que la inflación se
elevaba, encontraba una zona de equilibrio (atractor), que en el primer gráfico oscilaba
entre el 4% y el 8% y en el segundo de ellos se encontraba en una franja superior (entre el
10% y el 20%).

Una década después, mediante un plan de estabilización de precios (convertibilidad del


peso) se estabiliza la inflación. En el tercer gráfico (julio 1994 - diciembre 1995) se observa
el atractor que se forma de un El mismo análisis se puede hacer con períodos más
prolongados:

En los gráficos anteriores se observa con claridad cómo el atractor caótico está mucho
mejor formado en la época de estabilidad (enero 1993 / julio 1998).

16
Fuente: INDEC.
Atractores en niveles de producción: los siguientes gráficos corresponden a las
variaciones en los niveles de producción de bienes agropecuarios17, desde la campaña
1970/1971 a la 1996/1997.

El primero de ellos muestra un atractor bien marcado, formado por la variación del Indice
(Laspeyres) de Volumen Físico de la Producción Agropecuaria de Frutas (manzana, pera,
limón, naranja y pomelo) y Hortalizas y legumbres (pimiento, ajo, arveja, batata, cebolla,
garbanzo, lenteja, papa, poroto seco, tomate y zapallo). En los siguientes, se observa la
variación del Indice (Laspeyres) de Volumen Físico de la Producción Agropecuaria de
bienes de granja, leche y carne. Se puede ver con claridad cómo existe un atractor mejor
marcado en el segundo de los gráficos (granja versus carne) que en el primero (leche
versus carne).

Atractores en los niveles de lluvia de una región: a continuación se gráfica la evolución de


las lluvias mensuales (en milímetros) de la de Trenque Lauquen, desde enero de 1917 a
diciembre de 199918.

El Juego de la Cerveza

Un ejemplo simple de un sistema caótico es el que se produce en el “juego de la cerveza”,


desarrollado en la Escuela de Administración Sloan del MIT, por medio del cual se simulan
los problemas que pueden aparecer en una cadena de distribución (minorista - mayorista -
fabricante) al duplicarse el consumo individual de una marca de cerveza19. En el juego los
alumnos se dividen en grupos, tomando cada uno de ellos los papeles de minoristas,
mayoristas y fabricante (este juego se puede hacer aún más complejo añadiendo a los
distribuidores).

Las reglas son simples: los minoristas, además de otras cervezas, venden una llamada
“cerveza de los enamorados”. Esta bebida es distinta del resto, ya que es una marca
regional, fabricada artesanalmente y que no se puede estoquear en demasía, ya que se
descompone rápidamente. Por otro lado, se busca no tener faltantes, para que los clientes
no realicen sus compras a la competencia. En función de lo expuesto, cuando los
minoristas realizan su pedido, tienen en cuenta las ventas que esperan tener en la semana
y el stock remanente. Cada semana pasa un camionero, al que se le entrega el formulario
con el pedido de cerveza. En ese mismo camión viene el pedido que se realizó cuatro
semanas antes. Esta demora obedece a las características del proceso de entrega; el

17
Fuente: Sistema Integrado de Información Agropecuaria y Pesquera. Secretaría de Agricultura, Ganadería,
Pesca y Alimentación de la República Argentina.
18
Fuente: INTA, Trenque Lauquen.
19
Un análisis desarrollado de este juego lo realiza Peter Senge en La Quinta Disciplina.
camionero no sólo reparte y solicita pedidos a este minorista, sino que realiza una ronda
contactándose con otros vendedores al menudeo.

Algo similar ocurre con los mayoristas, que realizan sus pedidos a la fábrica teniendo en
cuenta su expectativa de ventas y sus stocks. Estos pedidos tienen respuesta del
productor recién en la cuarta semana.

Por último, el comportamiento de la fábrica es similar. Produce en función de sus ventas y


sus stocks. El proceso productivo demora dos semanas desde que comienza hasta que la
cerveza se encuentra lista para ser entregada.

A pesar de esta estructura tan elemental, como hemos dicho, una simple modificación en
la demanda del consumidor final produce un desastre total: el sistema se comporta en
forma caótica.

En este juego se observan, entre otras, las siguientes características:

• Alta sensibilidad a las condiciones iniciales: los pedidos se encuentran en función del
stock existente y del pretendido, o de seguridad.

• Falta de transparencia: el sistema es simple, pero peca de incomunicación.

• Amplificación por fluctuaciones: los retardos propios del sistema hacen que, en un
principio, los pedidos sean mucho más grandes de los necesarios y que al final lo mismo
ocurra con los stocks.

• Autosemejanza o fractalidad: los problemas, los comportamientos y el desconcierto son


similares en los distintos niveles (productor, mayorista, minorista) y tamaños (almacenes y
supermercados).

• Paradoja: cuando se cree que se está llegando a la solución del proble- ' ma (se
normaliza la relación pedidos-entrega), aparece un problema nuevo
(sobredimensionamiento de los stocks).

Fractales

Hemos dicho que el comportamiento de los sistemas caóticos puede ser graficado a través
de fractales. Ahora bien: ¿qué son estos fractales?

La educación en geometría tradicional se centra en las bases euclidianas. Euclides


(reconocido matemático del siglo III A.C.) dirigió e! proyecto de los Elementos, que fue el
primer intento de fundamentar axiomáticamente las matemáticas. El proyecto se
construyó sólo con 23 definiciones, 5 postulados y 9 axiomas, y resultó la base de la
geometría euclidiana20. La geometría euclidiana buscaba modelizar la realidad, tratando
de suavizar sus formas para hacerlas lo más puras posibles.

Con esta geometría elemental podemos graficar (en forma muy básica) un árbol con un
círculo y un rectángulo. Si este fuera nuestro objetivo, podríamos conocer con cierta
aproximación algunas de sus propiedades, tales como superficie, volumen, etc. Pero un
árbol no es así. Su copa no es un círculo perfecto, sino que es una superficie irregular. Lo
mismo se podría decir de su tronco, que podría ser representado por un rectángulo, pero
que realmente no es así.

Jules Henri Poincaré, considerado el padre de la Teoría del Caos, sostenía que “la
geometría euclidiana no es verdadera, sino simplemente conveniente”21.

Benoit Mandelbrot, del centro de investigación Thomas Watson de IBM, fue el que acuñó
el término fractal. Una de sus preguntas fue: ¿cuánto mide la costa de Bretaña?22. Y la
respuesta es: depende del tamaño del elemento que utilizamos para medirla. Mandelbrot
demostró que si tuviéramos una regla de 200 millas de largo, esta costa se dividiría en 8
segmentos, lo que daría un total de 1600 millas; mientras que si el tamaño de la regla
fuese de 25 millas, serían necesarios 102 segmentos, lo que daría un total de 2550 millas.
A medida que achicamos el tamaño de la regla, aumenta la longitud de esta costa.

¿Por qué ocurre esto? Muy simple. Mientras más pequeña es la regla, más detalles
podemos medir. Con una regla de muchas millas, omitimos medir determinadas bahías o
salientes de la costa, los que sí medimos con una regla más pequeña. A medida que
disminuimos el tamaño del elemento de medición, encontramos más cosas para medir:
una roca, por ejemplo, aumentaría el tamaño. Si tuviéramos una regla lo suficientemente
pequeña, el tamaño de esta costa tendería a ser infinita, ya que podríamos medir los
contornos de cada grano de arena que la compone. Además, sería muy , complejo el
proceso de medición, que tendría que ser instantáneo, porque el flujo (y reflujo) de las
olas lo modificaría permanentemente.

Unificación, abstracción y generalidad han sido las tendencias que han dominado la
investigación en el tercer cuarto de este siglo.

Pensemos en la distancia que separa dos ciudades. Esta también es una dimensión fractal,
ya que si la midiéramos en forma recta, desde el espacio, lograríamos una medida; desde

20
Diccionario enciclopédico Grijalbo, 1995.
21
Citado por Hayles, N. Katherine, (op. cit.).
22
Mandelbrot, en Science, N° 155, 1967.
la tierra, las ondulaciones del camino y hasta una piedra o un bache aumentan su
longitud.

Esta cuestión de la relatividad, no es menor. K. Hayles23 cita el ejemplo de la frontera


entre España y Portugal. Su medida varía según consultemos textos de geografía
españoles o portugueses. Para estos últimos, la extensión es mayor que para sus vecinos,
en alrededor de un 20%. Sobre este tema Mandelbrot sostiene que, aparte de depender
esta medida de la escala de medición, existe una dimensión política. Mandelbrot supone
que a Portugal, como país pequeño, le interesa más que a España la longitud de sus
fronteras y, en consecuencia, utiliza una escala menor para medirlas.

En 1904 un matemático sueco, Helgue von Koch, dio a conocer lo que luego fue
denominado un “monstruo matemático”. La curva de Koch o “copo de nieve”, está
formada por la siguiente superposición de triángulos: se comienza con un gran triángulo
equilátero al que se le añade otro triángulo equilátero de un tercio del tamaño del original
a la mitad de cada una de las caras. De esta manera se obtiene una estrella de seis puntas, doce
lados y con una longitud de su borde externo de cuatro tercios de la que tenía el triángulo original.
El proceso continúa agregando a la mitad de cada uno de los lados un triángulo equilátero del
tamaño de un tercio de cada uno de ellos. De esta manera se llega a un objeto que es simple de
entender, pero de una longitud de borde superior al original.

Después de infinitos agregados de triángulos, la figura que se forma presenta formas


suaves y redondeadas, si se observa en su totalidad. Si se hacen sucesivos zooms en un
lado de la figura se puede descubrir un borde de una sinuosidad enorme.
Matemáticamente la distancia que existe entre dos puntos cualquiera del borde de la
figura es infinita, ya que hay infinitos zigzag entre ellos. A pesar de ello, el área tiene una
dimensión clara: ocho quintas partes del área del triángulo original.

La figura de Koch no encajaba dentro de la geometría tradicional. Se pensó, por lo tanto,


que era una rareza. Gran error. Las rarezas se encontraban en los ejemplos de geometría
euclidiana que se ajustaban perfectamente a la realidad. Anteriormente se dio el ejemplo
de un árbol. Pensemos. El volumen del mismo es finito. El área que ocupa su superficie...
¿lo es también?

Anteriormente se citó a Benoit Mandelbrot. Este científico polaco, considerado por


muchos como uno de los universalistas más grandes del siglo XX, se encontraba
estudiando las cotizaciones del algodón desde hacía ocho años, cuando fue invitado por
Hendrik Houthakker, profesor de economía de la Universidad de Harvard, a dar una
conferencia. Comparando sus notas (Houthakker trabajaba en la distribución no gaussiana

23
Hayles, N. Katherine, (op. cit.).
de las ganancias), se dieron cuenta de que, a pesar de trabajar en áreas distintas, sus
conclusiones eran similares, en el sentido de que no tenían una distribución normal. Tanto
las fluctuaciones pequeñas como las grandes eran autosimilares entre sí
independientemente de la escala en la que se percibieran24.

Después de este hallazgo, Mandelbrot comenzó a jugar con diferentes maneras de graficar
60 años de los precios de algodón y “descubrió” un objeto matemático que luego se
conoció como el conjunto de Mandelbrot.

Este es el objeto matemático sintético más complejo que el hombre haya creado. Su
simetría corresponde a escalas, no a planos, por lo que, al igual que las gráficas de la
economía, cualquier parte tiene la totalidad del objeto25.

A pesar de su complejidad, todo este objeto se elabora a partir de la iteración de la


siguiente fórmula:

Zn + 1 = Zn + C

Siendo un número complejo (del tipo a +bi) donde i es la raíz cuadra da de -1, y una
constante cualquiera.

Propiedades de los fractales

Tim Wegner y Bert Tyler26 señalan que todo fractal, para serlo, tiene que cumplir
necesariamente con las siguientes propiedades:

• Dimensión fraccionaria. Un fractal es aquel objeto cuya dimensión fractal es mayor a su


dimensión euclídea, o sea, aquel que, mientras menor es la regia con que se mide, mayor
es su tamaño.

• Compleja estructura a todas las escalas.

• Bifurcación infinita.

• Autosimilitud. El objeto es similar a sí mismo a diferentes escalas. Por ejemplo, una rama
de un árbol es similar a todo el árbol mismo.

Edward Lorenz, en su libro La Esencia del Caos, define como fractal a “un grupo o conjunto
de puntos cuya dimensión no es un número entero. También es un conjunto de
estructuras similares cuya dimensión resulta ser un número entero”.

24
Monroy Olivares, César; (op. cit.).
25
Monroy Olivares, César; (op. cit.).
26
Wegner, Tim y Tyler, Bert, (op. cit.).
De esta definición se desprende que cualquier fractal tiene una dimensión distinta de las
conocidas habitualmente. No podemos hablar de una dimensión 2 por el plano, ni de una
dimensión 3 por el espació, sino de una dimensión 2,4, por ejemplo.

Tiempo Fractal

El tiempo, como habitualmente lo medimos, es lo que deberíamos llamar tiempo


mecánico, ya que las horas, los minutos, los segundos y los años fueron creados por el
hombre y se basan en un concepto numérico, mecánico, pero no real. Este tiempo
mecánico puede representarse por una línea recta que va del pasado hacia el futuro.

El tiempo mecánico fue creado por el hombre alrededor del siglo XIV27 con el objeto de
darle valor a los préstamos de dinero. En ese momento aparece la variable t para calcular
los intereses. También en esa época surgen los primeros relojes.

Newton decía: “Todos los cambios que tienen lugar en el mundo físico fueron descriptos
en función de una dimensión aparte, llamada tiempo, que a su vez era absoluta, sin
conexión con el mundo material y que fluía suavemente desde el pasado, pasando-por el
presente, hacia el futuro”.

“El tiempo absoluto, verdadero y matemático es en sí mismo y por su propia naturaleza,


fluye de un modo uniforme, sin ser afectado por nada externo a él”.

Pero de acuerdo con la Teoría del Caos, este concepto del tiempo mecánico, como
muchos otros conceptos lineales y determinísticos, no sería válido, ya que el tiempo es el
que sentimos. Cuando estamos aburridos, decimos que “el tiempo no pasa nunca”. En
cambio, cuando estamos muy entretenidos con una actividad, sentimos que el tiempo
pasa muy rápido. Una hora de tiempo mecánico puede ser muchísimo o muy poco, según
nuestro interés y entusiasmo en el tema.

Esta idea de tiempo fractal también se puede entender cuando pensamos en los sueños,
ya que en unos pocos segundos mecánicos podemos tener clara una historia que llevaría
mucho tiempo ser contada.28

Todo, desde un átomo a una célula, tiene su reloj interno que mide su pasaje individual de
tiempo.

27
Briggs y Peat. Seven life lessons of chaos. Harper Collins, New York, 1998.
28
Briggs y Peat, (op. cit.).
La Teoría del Caos dice que los sistemas tienden a autoorganizarse preservando su
equilibrio interno y reteniendo una medida a su apertura al entorno o al mundo exterior.
Algo similar es lo que sucede con el tiempo.

Como sostienen Briggs y Peat, cada uno de nosotros tiene una multiplicidad de relojes
internos. Nuestras células tienen sus propios relojes. Las células se organizan en órganos
individuales, cuyos relojes internos instruyen a éstas a segregar hormonas y químicos.
Estos mensajeros químicos causan el “ritmo” de los órganos, trabajando juntos en el
sistema autóorganizado del cuerpo humano. Algunos de estos subsistemas de relojes
operan cíclicamente como ciclos limitantes, como el ciclo femenino menstrual o el ciclo de
dormir y despenar. Otros de nuestros relojes internos, como muchos de los ritmos de la
conciencia, se encuentran más abiertos a la influencia del entorno.

Cuando hablamos de “fractales”, hablamos de espacio fractal y de tiempo fractal. En la


física relativista no es posible hablar de espacio sin hablar de tiempo y viceversa. Como
relata Albert Einstein en su obra Los principios de la Relatividad, “Desde hoy en adelante
el espacio por sí solo y el tiempo por sí solo, están destinados a desvanecerse en meras
sombras, y únicamente algún tipo de unión entre ambos conservará realidad
independiente”.

El concepto de ritmo proviene, entonces, de este concepto de tiempo fractal y del espacio
fractal, de cómo se relacionan los subsistemas entre sí y con el entorno.

El ritmo en una organización es la base para que ésta pueda participar del juego. De
acuerdo al ritmo que ésta logre podrá lograr una mejor o peor performance en su
rendimiento. Este ritmo depende no sólo de la empresa, sino ele su inserción en el ritmo
de los jugadores clave. Cuando hablamos de la idea de “ritmo” estamos hablando de un
concepto fractal, que no puede ser medido con elementos lineales tradicionales, sino que
es algo que de alguna manera “se siente”, la idea del timing, la aceleración justa en el
momento adecuado, acertar con los lanzamientos de productos en el momento
apropiado, o encontrar la pausa adecuada en medio de una negociación importante.

Como vemos, es mucho más importante el ritmo que la velocidad o la aceleración. Estas
nos pueden llevar a generar presiones equivocadas, con todas las consecuencias negativas
que éstas generan. El ritmo es importante en cualquier juego, no sólo en el que juegan las
organizaciones, sino que claramente se puede apreciar en algunos deportes como el tenis,
donde un jugador impone un ritmo con respecto a su contrincante, o el ritmo del swing de
golf, que importa tanto o más que la potencia o la velocidad para pegar más fuerte o más
largo.

Puntos de Bifurcación
Los puntos de bifurcación aparecen cuando se producen perturbaciones que afectan al
sistema y éste explota hacia un nivel superior, hacia un nivel de mayor complejidad,
transformándose en una nueva estructura, o desintegrándose.

El punto de bifurcación se produce cuando nos enfrentamos a una perturbación


importante y se generan dos opciones: la transformación para buscar la sostenibilidad,
creando un nivel superior, o la desintegración. Se crece o se muere, renacer requiere
muerte, no hay punto intermedio. Para crecer o sostenerse siempre hay que crear un
nuevo nivel de complejidad. Es más eficiente transformarse o cambiar, que desintegrarse
y empezar de nuevo. Para la desintegración se emplea mucha más energía que para la
transformación.

La pregunta que tenemos que hacernos es qué se siente cuando aparece un punto de
bifurcación en una organización. Un punto de bifurcación puede ser una crisis financiera,
un problema de competencia al nivel de productos o posicionamiento, un problema con
los accionistas, etc. Al tomar estas situaciones como puntos de bifurcación, tenemos que
poner energía en buscar nuevas trayectorias en niveles superiores, de manera de
superarlas y crecer. Nunca vamos a superar estas crisis con herramientas del mismo nivel
de complejidad.

La planificación estratégica a largo plazo es una utopía. Pero cuando se comprende que el
mundo de los negocios es un sistema complejo imprevisible, se entiende el fracaso de la
planificación estratégica a largo plazo.

Los principios subyacentes en la naturaleza pueden ser aplicados a las organizaciones. La


teoría de la complejidad nos enseña a observar las relaciones que se producen en todos
los niveles de la empresa, las propiedades imprevisibles que pueden emerger de un
sistema y cómo pequeños cambios pueden tener importantes efectos. Esto implica que
sea realmente muy difícil implementar un plan estratégico más allá del corto plazo. Pensar
en trayectorias posibles parece más realista que plantearse metas rígidas para el futuro.

El desafío pasa por aceptar la ambigüedad y estar preparado para adaptarse y evolucionar
de acuerdo con los cambios. Este desafío es especialmente difícil de aceptar para los
niveles más altos de la organización: admitir que no se tienen todas las respuestas, que no
se conocen todas las alternativas. Se requiere de una visión mucho más amplia, que sólo
puede surgir de la suma de las visiones de las distintas personas que ven el problema
desde sus distintas ópticas.

Si queremos construir una cultura de aprendizaje y preparada para crecer y modificarse


permanentemente, es necesario mirar el nivel de las relaciones, y el grado de conexión y
de confianza que tienen las distintas personas entre sí. Las reglas deberían ser limitadas al
mínimo, permitiendo que la interacción entre los miembros de la organización ayude a
brindar nuevas soluciones. La energía y el compromiso que se generan en un ámbito de
libertad conducen indudablemente a mejores resultados. Es mucho más poderoso
permitir que las soluciones a los problemas surjan de las personas que intentar imponerlas
desde lo alto de la pirámide.

Para iniciar el cambio es una buena idea comenzar con reglas simples, pequeñas
modificaciones, experimentos, que lleven a un entorno de libertad para la prueba, donde
la gente se sienta contenida. A su vez, una cultura de contención (en lugar de una cultura
de órdenes y control), ayuda a que las personas se sientan más predispuestas a formar
parte del futuro de la empresa, y más cómodas para generar opciones creativas en las que
estén preparadas para involucrarse.

El efecto mariposa de Lorenz

O el secreto de amplificar lo pequeño, como cuando decimos que un mínimo aleteo de


una mariposa en Brasil puede generar un tornado en Texas.

Si aplicamos este efecto mariposa a las organizaciones, tenemos muchos casos donde, por
ejemplo un rumor que se esparce (verdadero o falso), genera un problema grave en las
relaciones interpersonales, pudiendo hacer caer al gerente general de la empresa. O
cuando lanzamos un producto sólo en un nicho muy acotado, pero muy referente para un
mercado y .el efecto se propaga rápidamente por todo el mundo (el éxito de la cerveza
Corona en un segmento de mercado, el rumor de guerra que esparce el asesor
presidencial encarnado por Robert de Niro en Wag the Dog, un restaurante que se pone
rápidamente de moda, una opinión vertida por Alan Greenspan...).

Teoría de Catástrofes

Andrés Fernández Díaz29 define la Teoría de Catástrofes como “un método matemático
para describir la evolución de formas en la naturaleza y que trata de explicar cómo y por
qué la acción continua de fuerzas provoca cambios bruscos e insospechados”.

Esta teoría es atribuida principalmente al matemático y topólogo francés René Thom, que
con Christopher Zeeman, sobre finales de la década del sesenta y principios del setenta,
expuso sus ideas. Thom publicó en 1972 el libro titulado Structural Stability and
Morphogenesis, en donde, sobre una base eminentemente cualitativa, desarrolla un
método que permite describir los modelos dinámicos compatibles con una morfología

29
Fernández Díaz, Andrés. La economía de la complejidad. Mc. Graw-Hill, Madrid, 1994.
dada. Zeeman, matemático inglés, es quien aporta a dicha teoría la verificación
cuantitativa.

En un sentido amplio, una catástrofe existe cuando un sistema que puede tener más de
un estado estable, o más de un curso estable de cambio, transita en forma discontinua
de uno a otro de ellos. Un ejemplo físico puede servirnos a esta altura para ilustrarnos de
una manera sencilla. Pensemos en el agua. Este elemento tiene tres estados estables:
sólido, líquido y gaseoso. Si se saca agua de la canilla (líquido) y se comienza a calentarla,
con cada grado extra, sus propiedades (por ejemplo, volumen) varían en forma lineal y
suave. Hasta llegar a un punto: 100° C. En ese punto, la materia “salta” de un estado a
otro, de líquido a gaseoso. Se produce una catástrofe elemental. Un pequeño aumento de
dos o tres grados de temperatura cuando este elemento tiene 30 grados, modifica sus
propiedades en forma lineal. El mismo aumento, a los 99 grados, tiene efecto catastrófico.

No es casual que un topógrafo haya sido uno de los iniciadores de esta teoría. Las
catástrofes se grafican por medio de mapas topográficos, con montañas y valles. En estos
planos, los picos hacia arriba o hacia abajo se denominan singularidades. Este término no
sólo tiene un significado dentro de esta área. Para el cálculo y el análisis, una singularidad
es el punto en el gráfico de una curva donde la dirección o la cualidad de la misma
cambia.

Analicemos el cuadro siguiente:

Esta curva presenta cuatro singularidades:

A - Punto de inflexión. En ese punto cambia la tendencia o el sentido de la curva. De


cóncavo a convexo.

B y D - Mínimos locales. No necesariamente son los puntos menores de toda la curva.


Simplemente son puntos mínimos en una sección.

C - Máximo local. Idem anterior. No necesariamente es el punto máximo de toda la curva.


Es simplemente mayor que sus vecinos más próximos.

Imaginemos que la curva anterior es la vía de una montaña rusa. Un vagón parado en
cualquiera de los mínimos locales se encuentra inmóvil, en equilibrio. Si se aplica en forma
temporal una pequeña fuerza que lo haga mover unos centímetros, apenas haya cesado la
presión, el mismo va a tender a volver al punto original. Estos puntos significan un
equilibrio estable, ya que para modificar su estado hay que forzar al sistema.

Si el vagón está parado exactamente en el punto C (máximo local) puede alcanzar también
un equilibrio. En este caso será un equilibrio inestable, ya que la menor perturbación al
sistema provocaría la caída del artefacto. El desplazamiento del artefacto del punto C
(máximo local y equilibrio inestable) al D (mínimo local y equilibrio estable), es una
catástrofe.

El punto A también es una singularidad, ya que el comportamiento y/o las características


del sistema (por ejemplo, la tendencia de velocidad de la caída) son modificadas a partir
del mismo.

Ahora bien, lo que analizamos hasta el momento es una catástrofe rudimentaria, de dos-
dimensiones (altura y distancia). Este tipo de catástrofes tiene un solo factor de control (la
fuerza o velocidad horizontal), y otro de conducta (que suba o que baje).

Pero las verdaderas catástrofes son aquellas en donde el sistema no encuentra fácilmente
equilibrios en donde “descansar”, sino que se mantiene en permanente tensión. Como
sostienen en su obra Woodcock y Monte Davis30 “por algún lado van a saltar”.

Aplicando conceptos de topología diferencial, en 1965 Thom desarrolló el “teorema de


clasificación”. El mismo determina que en cualquier sistema gobernado por un potencial y
en el cual el comportamiento del sistema esté gobernado por cuatro factores diferentes, y
no más, sólo son posibles siete tipos de discontinuidades cualitativamente diferentes.

Así como podemos afirmar que sólo hay cinco objetos tridimensionales regulares (es
decir, todas las caras son polígonos idénticos)31, de acuerdo con los postulados de Thom,
se asegura que cualquier proceso discontinuo cuya, conducta pueda ser descripta por
medio de un gráfico de hasta seis dimensiones, si es estructuralmente estable tiene que
corresponder a una de las siete catástrofes elementales.

Un modelo es estable cuando puede retener su estructura cualitativa a pesar de pequeñas


variaciones cuantitativas. La estabilidad puede aparecer o desaparecer, pero en forma
estable. Gráficamente, dentro de los mapas topológicos se observan desdoblamientos.

Hay muchos otros modelos además de los siete descriptos, pero sólo ellos tienen esta
propiedad; en los otros posibles, pequeñas perturbaciones hacen derrumbar todo el
sistema.

Las catástrofes elementales enumeradas por Thom son las siguientes:

30
Woodcock, Alexander y Monte Davis, (op. cit.).
31
Los poliedros regulares, también llamados sólidos ideales, son las siguientes: el tetraedro (formado por
cuatro triángulos). El hexaedro o cubo (seis cuadrados), el octoedro (ocho triángulos), el dodecaedro (doce
pentágonos) y el icosaedro (veinte triángulos).
Siendo X el co-rango o número de variables de estados o ejes de control, y C la dimensión
del espacio de control.

De todas las catástrofes, la más utilizada en ciencias sociales (por su mezcla de simpleza
con complejidad) es la de Cúspide. Su tratamiento es el siguiente:

Gráficamente, la catástrofe de Cúspide parece un mantel con un doblez o pliegue.


Supongamos que encima del mismo tenemos una bola. Manejando los factores de
control, (por ejemplo, dándole más o menos pendiente sobre un eje o el otro) es posible
pasar suavemente la bola del punto c al a y viceversa, del a al b y viceversa, y del b al e y
viceversa. Incluso sería posible hacer que parara en cualquier punto intermedio de dichos
recorridos. Pero si el factor de control 2 aumenta estando el elemento en el punto c y el
mismo se mueve hasta el punto d, la caída hasta el punto e es irremediable. Esta caída es
una catástrofe o cambio brusco.

En el modelo teórico de la catástrofe en cúspide, si el elemento se encuentra en el punto e


y se reduce el factor de control 2, ocurre primero un traslado hasta el punto f y luego una
catástrofe hasta el punto c. Gráficamente, las catástrofes son aquellos movimientos
bruscos verticales que ocurren en el pliegue.

Si el elemento se encuentra en el punto c y el factor de control 2 aumenta y disminuye


alternativamente en una cantidad conveniente, el mismo pasa de este punto c al punto e
y vuelve al inicio en forma repetida. Este ciclo de conducta, que se denomina histéresis, es
muy común en muchos sistemas dinámicos (desde circuiros eléctricos hasta crisis
maníaco-depresivas).

Como vimos anteriormente, cuando hablamos de catástrofe estamos hablando de un


cambio brusco y muy fuerte, que ocurre de manera imprevista (lo que vulgarmente
llamamos “la gota que rebalsó el vaso”). Este efecto catástrofe ocurre repetidamente en
las organizaciones, ya que repetidamente un producto cae en las ventas y nos vemos
forzados a bajar sustancialmente el precio para que se vuelva a vender. Si al bajar el
precio el producto reacciona y logra ventas importantes de nuevo para luego volver a
caer, estamos en presencia de una histéresis, que proviene del mal manejo de los ritmos.

Si no comprendemos el tiempo fractal y los ritmos provenientes de éste, es muy posible


que caigamos en situaciones catastróficas y que, al intentar volver a presionar fuera del
ritmo adecuado, generemos una “histéresis”.

Critícalidad autoorganizada
Un caso particular de catástrofe en sistemas caóticos es el que descubrieron dos
científicos del Laboratorio Nacional de Brookhaven (Long Island, Nueva York, instituto
descubridor del quark “charm”). Los doctores en física Per Bak y Kan Chen, estudiando los
sistemas compuestos (aquellos que contienen millones de elementos que interactúan a
pequeña escala), encontraron lo que denominaron “criticalidad autoorganizada”, cuyo
significado es el siguiente: muchos sistemas compuestos evolucionan espontáneamente
hacia un estado crítico, en el que un acontecimiento banal da inicio a una reacción en
cadena capaz de afectar a un número cualquiera de elementos del mismo. El enfoque
dado a dicho tema fue de tipo holístico, ya que se demostró que es imposible estudiar un
sistema en forma fragmentada porque, en este caso, el todo es mucho más que la simple
suma de sus partes.

El concepto de criticalidad autoorganizada es altamente utilizable para analizar


comportamientos que se producen en otras disciplinas. Por ejemplo, muchas empresas se
encuentran en este estado, mostrando al exterior la misma imagen, la misma estructura,
la misma dirección estratégica, etc., a pesar de la turbulencia y las “catástrofes” que se
producen a pequeña estala. Estas “gotas que rebalsan el vaso” de la empresa y que
mantienen su apariencia global son parte del “mecanismo de la vida” del mismo.

Anexo I. Características de la complejidad

José Vicente Rubio D.32 enumera las características propias y distintivas de los sistemas
complejos:

• Autoorganización. Tendencia constante y espontánea para generar patrones de


comportamiento global a partir de las interacciones entre sus partes constituyentes y a
partir de las interacciones de éstas con su entorno (Atlan, Haken, Maturana).

• Amplificación por fluctuaciones. Elementos simples, al entrar en estado crítico pueden


desencadenar procesos que cambian completamente las condiciones del sistema (Lorenz,
Poincaré, Prigogine).

• Artifícialeza. La naturaleza está deviniendo en artificialeza: el ámbito de lo natural se


agota amplificándose bajo el impulso de una creatividad humana que más que eliminar
construye una nueva realidad dentro de ésta (Laszlo, Hayles).

• Autoconsistencia. No aparecen principios ni fundamentos ni jerarquías definidas. Los


sucesos y las relaciones adquieren al menos la misma importancia que los elementos de
un sistema. Se establece así una red dinámica de sucesos interrelacionados y su

32
Red colombiana de pensamiento complejo. Redcom (Internet).
consistencia global determina la estructura de la totalidad de la red (Chew, Capra, Física
cuántica).

• Autopoiesis. Capacidad de un sistema para organizarse de tal manera que el único


producto resultante es él mismo. No hay separación entre productor y producto. El ser y
el hacer de una unidad autopoiética son inseparables y esto constituye su modo específico
de organización. Nuestra experiencia está amarrada a nuestra estructura de una forma
indisoluble. No vemos el espacio del mundo, vivimos nuestro campo visual (Maturana,
Varela).

• Autosemejanza, sibisemejanza o fractalidad. Escalas, pautas o comportamientos que


aparecen en una dimensión, campo o condición, aparecen en otras dimensiones campos o
condiciones, por diferentes que éstos sean. En los puntos críticos, aparecen estructuras
fractales que presentan el mismo aspecto a diferentes escalas. Figuras - que no tienden a
infinito, pero su longitud entre dos puntos es infinita (Mandelbrot).

• Borrosidad. No hay límites definidos entre los elementos ni en el interior de elos. Todo
es cuestión de grado o de aproximación; a medid que nos acercamos a las cosas, sus
bordes se tornan más borrosos; a mayor borrosidad, mayor precisión. Cuanto más se
parece una cosa a su contrario, más borrosa es (Kosko, Zadeh).

• Coaectividad. Todas las partes de un sistema complejo se afectan mutuamente a pesar


de que no tengan conexión directa. Hay una pauta que todo lo conecta (Bateson). No
importan tanto los objetos sino las relaciones. Las conexiones, sean locales o no,
conforman un campo relacional.

• Constructivismo. Observador, fenómeno observado y proceso de observación forman


una totalidad. El organismo constituye la realidad en el lenguaje. Operamos más interna
que externamente. No hay datos ni le/es de la naturaleza ni objetos externos. La legalidad
y certeza de los fenómenos naturales son propiedades del que describe. La lógica del
mundo es la lógica de la construcción del mundo. Estamos atrapados en una paradoja: no
sabemos si lo que conocemos es válido ni podemos saberlo (Von Foerster, Von
Glassersfeld, Watzlawidc).

• Correlación. No existen causas únicas ni lineales, ni el tiempo fluye como lo sentimos.


Parece haber antes bien una correlación, una ocurrencia de fenómenos entre los cuales es
difícil determinar los importantes. La causalidad, en lugar de ser una cadena de
acontecimientos es una figura compleja, donde efectos y causas están entretejidos
(Bohm).
• Criticabilidad. En un punto crítico se hace máxima la transmisión de información. Para
obtener un comportamiento global coherente, es preciso que las interacciones entre los
individuos den lugar a correlaciones que abarquen el sistema entero y ese orden global
emerge en un punto crítico, en el filo del caos. La complejidad aparece a través de los
puntos críticos en las transiciones de fase (Back, Solé, Kauffman, Wolfram).

• Emergencia. Surgen nuevas propiedades (generalmente autoorganizativas) a partir de


nuevas formas de conexión entre los mismos elementos, o de rupturas de simetría en el
sistema (Haken, Varela).

• Flujicidad. Los puntos de control del sistema y sus mecanismos de información están
dispersos, difusos, en la estructura del sistema.

• Impredecibilidad. El sistema va a derivar azarosamente por: a) una dependencia


sensitiva de las condiciones iniciales, b) alta sensibilidad a ciertas situaciones.

• Inclusión. El todo está en la parte que está en el todo. Las partes contienen al todo en
proporción directa a su tamaño o masa o solapamiento con el todo. No sólo la parte está
en el todo, sino que el todo está en el interior de la parte que está en el interior del todo
(Bohm, Kosko, Morin).

• Metadimensionalidad. Las leyes de la naturaleza se hacen más simples y elegantes


cuando se expresan en dimensiones más altas que son su ámbito natural. En dimensiones
más altas tenemos suficiente sitio para unificar las fuerzas. Moverse hacia arriba (en un
campo de batalla, por ejemplo) permite tener una mejor posición para una observación
más amplia (Kaku).

• Omnijetividad. No hay sujeto-objeto definidos. Se pueden entender los dos términos


como complementarios de la misma unidad (Izquierdo, Maturana).

• Paradoja. Cuando esperamos hallar la respuesta, nos topamos con la pregunta. Cuando
creemos llegar al final, estamos al comienzo. Las cosas pueden ser y no ser a la vez
(Hofstadter, Bateson).

• Plegabilidad. Los fenómenos son despliegues de la conciencia como la conciencia es


despliegue de los fenómenos. El universo es implícito y explícito a la vez (Bohm, Deleuze).

• Potencialidad. Existe un potencial en cada ser, en cada relación, en cada suceso. Hay
más recursos abundantes que recursos escasos. En términos de desarrollo social y
humano, deberíamos pensar más en Coeficientes de Potencial Disponible (CPD) que en
Necesidades Básicas Insatisfechas (NB1) (Elizalde, Max Neef).
• Recursión. Los procesos y elementos vuelven sobre sí mismos en bucles, rizos o cascadas
de espirales creativas (Briggs, Hofstadter, Morin).

• Resonancia. Existe una íntima conexión entre los sucesos y las cosas, que los hace a la
vez causa y consecuencia, imagen y semejanza (Bateson, Sheldrake).

• Rizomas. Todo rizoma comprende líneas de segmentariedad desde las que es


estratificado, territorializado, organizado, significado, pero también líneas de
desterritorialización por las que se escapa sin cesar. El rizoma es un sistema acentrado, no
jerárquico y no significante, sin general, sin memoria organizadora o autómata central,
definido únicamente por una circulación de estados (Deleuze, Guattari).

• Virtualidad. La posibilidad es lo contrario de lo real. Lo virtual se opone a lo actual. Lo


posible no tiene realidad (aunque puede tener actualidad). Lo virtual no es actual pero
posee realidad. Lo posible es lo que se realiza o no y lo real es a imagen de lo posible que
realiza; y como no todos los posibles se realizan, entonces la realización es una limitación.
Lo virtual entonces no es ni lo que apenas es posible, ni lo que no es real. Pues lo posible
aunque es actual, para hacerse realidad requiere de un proceso en tiempo y aún en
espacio. Lo virtual ya existe, tiene un grado de realidad (o dicho de otra manera) otra
forma de ser real (Bergson).