Está en la página 1de 110

lOMoARcPSD|16285517

LA

INCERTIDUMBRE

DEL

UNIVERSO

Pavesi, Pedro

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

CAPÍTULO IV

LA INCERTIDUMBRE DEL UNIVERSO

“Dios mío, dame la serenidad para aceptar las restricciones que no puedo remover, el
valor para remover las que puedo y la sabiduría para distinguir entre ambas”.

(Sentencia atribuida a San Francisco de Asis y adaptada para este capítulo).

“Por azar” es la más antigua nobleza del mundo. Yo se la he restituido a todas las cosas, ya
las he librado de la servidumbre del fin.

Nietzsche, F. “Así hablaba Zaratustra”.

“He conocido lo que ignoran los griegos: la incertidumbre”.

Borges, J. L. “La lotería en Babilonia”.

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

CAPÍTULO IV

LA INCERTIDUMBRE DEL UNIVERSO

4.1. La incertidumbre como ignorancia

Para un decididor D, en un momento dado t, en posesión de cierto conocimiento (o


información) H, existe cierto grado de incertidumbre en el universo U bajo
consideración cuando D no sabe con exactitud cual es, fue o será el comportamiento
de ese universo.

Esta definición, larga e imprecisa, establece la incertidumbre en función del conocimiento y


constituye la definición básica que entraremos a considerar en este punto 4.1.

Como consecuencia de la misma, puede establecerse una definición más operativa. Para un
decididor D, en un momento t, en posesión de cierto conocimiento (o información) H,
existe cierto grado de incertidumbre en el universo U bajo su consideración, cuando D
percibe que ese universo tiene más de un conocimiento posible. Un comportamiento es
posible cuando tiene cierta propensión a suceder. En términos de probabilidad, un
comportamiento es posible cuando su probabilidad es mayor que cero.

Esta definición es derivada de la primera y la consideramos en el punto 4.2. Finalmente, al


investigar el concepto de propensión a suceder y la medición de la entropía, estableceremos
que existen grados de incertidumbre de acuerdo con restricciones que influyen sobre el
comportamiento del universo. Cuando no existe ninguna restricción, la incertidumbre es
máxima. Cuando las restricciones son máximas, la incertidumbre es nula (certeza). Por lo
tanto, una restricción es todo lo que reduce la incertidumbre. Introduciremos las
restricciones en 4.2 y extenderemos su análisis en 4.7.

En el punto 4.3, como continuación de la noción de conocimiento e ignorancia, trataremos


la información como conocimiento y demostraremos como, si bien incertidumbre es
ignorancia, no es obligatorio que –en universos abiertos- conocimiento implique menos
incertidumbre.

Pero la incertidumbre (y la información) son conceptos tan complejos que la única forma de
definirlos y explicarlos es a través de la fórmula de su medición. (“Los términos
incertidumbre e información obtienen su significado técnico preciso de las fórmulas
utilizadas para calcularlos”. Coombs, Daves, Tversky, pág. 387. El capítulo 10 de estos
destacados autores muestra claramente la dificultad de definir precisamente los conceptos
de incertidumbre e información).

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

1. Incertidumbre del observador y del universo

En primer lugar, se impone plantear si la incertidumbre es un fenómeno “objetivo” del


universo (incertidumbre sustancial) o un aspecto “subjetivo” del observador
(incertidumbre subjetiva o procesal u operativa) o ambos a la vez. En todos los casos, la
incertidumbre implica ignorancia (y la certeza implica conocimiento)

Nuestra posición es que la incertidumbre tiene ambas características pero, desde el punto de
vista de una Teoría de la Decisión, el aspecto subjetivo es suficiente, sin necesidad de
entrar a discutir el objetivo. De todos modos, no podemos sustraernos a algunas ligeras
consideraciones.

(1) Un universo sin incertidumbre sustancial es un universo determinista. La clásica


expresión de un universo sin incertidumbre es la de Laplace que en 1819 en su “Essai
Philosophique sur les probabilités” exclama: “Deberíamos considerar el presente estado del
universo como el efecto de su estado anterior y la causa de su estado siguiente.
Supongamos una inteligencia que pudiera conocer todas las fuerzas que animan la
naturaleza y los estados, en un momento dado, de todas las variables que la componen. Para
esta inteligencia, nada podría ser incierto y tanto el futuro como el pasado estarían
presentes a sus ojos”.

Esta posición acerca del universo –nacida con los presocráticos como Parménides -fue
adoptada consciente o inconscientemente, expresa o tácitamente por toda la Ciencia –
especialmente las ciencias naturales, específicamente la física- hasta el presente. De todos
modos, desde el desarrollo de la Física Cuántica y en las últimas décadas, esta posición está
fuertemente desafiliada de la misma Física.

Máximos exponentes de esta visión determinista de un universo sin incertidumbre inherente


aparecen –por ser grandes sabios y acuñadores de frases y expresiones que pasaron a la
Historia- Poincare y Einstein. Se le atribuye al primero la definición “El azar es la medida
de nuestra ignorancia”. En realidad, Poincare expresa “Somos ignorantes y sin embargo
debemos obrar. Debemos dedicarnos sin saber: es realmente necesario hacerlo a lo que
salga y seguir las reglas sin creer (demasiado) en ellas. Lo que sé, no es que tal cosa sea
cierta sino que lo mejor para mi es actuar como si lo fuera” (pág. 174). “Si nosotros no
fuéramos ignorantes, no habría probabilidad, no habría lugar sino para la certeza. Pero
nuestra ignorancia no puede ser absoluta, sin lo cual no habría tampoco probabilidad puesto
que es necesario un poco de luz para llegar a esta ciencia insegura” (pág 176).

Einstein muere en 1955, aferrado (a medias según Popper, pág. 26, Nota 2) a sus ideas
deterministas que alguien sintetizó en una famosa “bontade”: “Dios no juega a los dados”.
En realidad, Einstein expresa en una carta a Max Born, otro físico dedicado a la Teoría de
los Quanta: “Usted cree en un Dios que juega a los dados y yo en una ley y un orden
completo en un mundo que existe objetivamente….Creo en ello firmemente… aunque
estoy muy consciente de que nuestro jóvenes colegas interpretan esta convicción como
signo de senilidad”.

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Pero también se adhirieron grandes filósofos como Spinoza, Hume O Kant. Este universo
sin sombras existe realmente. Sólo es accesible a una inteligencia superior (el acto puro
aristotélico, el Dios de las religiones, o el Dios geométrico de Spinoza) que se encuentra
afuera del universo.

Por otra parte el tiempo pierde importancia: el observador sobrenatural puede recorrer el
universo desde el presente hacia el futuro o hacia el pasado con toda libertad. Para ese
observador, el tiempo no existe (la eternidad no necesita el tiempo). El tiempo en su raíz de
duración es esencialmente una característica del observador humano. Unos pocos meses
antes de morir, Einstein escribe: “Para nosotros, físicos convencidos, la distinción entre
pasado, presente y futuro es sólo una ilusión, por persistente que ésta sea” (citado por
Prigogine, pág. 12).

(2) Una fuerte corriente moderna, iniciada con la Física Cuántica, pone en duda este
universo determinista. Deducido de la mecánica cuántica, el principio de Heisenberg nos
dice que es imposible conocer al mismo tiempo el movimiento y la posición de una
partícula (Heisenberg, Hofstadter). Toda Teoría de la Evolución está basada en una etapa
de azar puro (Monod, Ayala, Mayr).

Esta incertidumbre es inherente al universo, no al observador. Entre 1951 y 1956, Popper


escribe Post-scriptum a su Lógica de la investigación científica titulado como El universo
abierto, donde sostiene el determinismo del universo (desde un punto de vista quizás
distinto al que planteamos aquí) (Un argumento con ciertos rasgos similares en Turing).
En los últimos años (1972/ 1984) los trabajos de Prigogine y de muchos otros tienden a dar
otra base filosófica a la ciencia de la naturaleza desde el punto d vista de su incertidumbre.
Nosotros nos adherimos plenamente a esa corriente. Creemos que el universo es
esencialmente incierto y aún con toda la información imaginable, con todo el
procesamiento necesario, con todo el conocimiento sistematizado y fácilmente obtenible
llevado al grado que queramos, siempre encontraremos un residuo esencial de
incertidumbre, absolutamente irresoluble.

Tenemos esa creencia –entre otras razones- porque creemos que el ser humano es
esencialmente innovador y creativo. Nos rehusamos a admitir que, en el preciso instante de
la Gran Explosión que dio lugar a nuestro Cosmos, ya estaba determinado que una noche de
invierno de 1985 en Buenos Aires estaría escribiendo estas palabras mientras escucho
Vivaldi y mi gato ronronea entre mis piernas buscando una caricia. (Un argumento parecido
en Boulding en Zeleny).

Es cierto que esta posición es a veces más emocional que científica. Pero también es cierto
que muchos otros argumentos –desde la indefinición de la mecánica cuántica hasta la
invalidez lógica del determinismo- abonan esta idea. De todos modos, desde el punto de
vista de la TD, sea la incertidumbre originada en el universo o en el observador, siempre
constituye el mismo problema para ser enfrentada.

Descubrimientos en distintas ciencias contribuyen a eliminar la idea de un mundo


determinista (y también la idea de un mundo real totalmente divorciado del observador).
“Actualmente, parece que los esquemas deterministas que hacen predicciones válidas en

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

cada caso particular no son válidos en una amplia gama de fenómenos”. “No sabemos
describir la realidad tal como se presentaría para un observador que en cierto modo, se
hallara situado fuera del mundo” (Prigogine, pág. 36).

Otras demostraciones contribuyen a lo mismo en universos parciales pero importantes. El


famoso teorema de Gödel contribuye a sostener que, en ciertos universos, existe
indeterminación irresoluble, ciertas inevitables restricciones al conocimiento. En todo
sistema axiomático de complejidad mínima (la Aritmética, por ejemplo) existen
proposiciones que son verdaderas pero cuya verdad (o falsedad) no puede ser demostrada.
Dicho en otra forma, siempre existe algún teorema que no puede demostrarse si es
deducible o no de determinado sistema axiomático. (La matemática moderna ha reforzado y
ampliado esta situación) (Kline).

Los lingüistas modernos sostienen que todo lenguaje natural es de extraordinaria


complejidad y que puede generar nuevas ideas, nuevos sentimientos, nuevos matices. Nada
menos determinístico que el lenguaje y por consiguiente que el pensamiento que lo utiliza
para describir el universo. El lenguaje crea siempre universos nuevos.

De igual relevancia que el Principio de la Simetría Cósmica. En un universo sin límites


como el nuestro, nadie puede ocupar un lugar de privilegio para analizar dicho universo.
Este se rige por leyes estadísticas y éstas son las únicas que pueden conocerse. Por
consiguiente, los hechos aislados nunca pueden conocerse totalmente. No puede llegarse a
ellos en su totalidad, sólo a algunos. Para poder abarcarlos todos se necesitaría una posición
privilegiada de observación que resulta imposible.
Imaginemos dice Layzer, una pila infinita de mazos de cartas, sin comienzo ni fin, como
mazos apilados sin límites. Un observador incorporado a la pila sólo puede tener
conocimiento de cierto tramo de esa pila y aún cuando su información acerca de ese tramo
sea completa, nunca podrá saber por donde se encuentra como tampoco puede saber por
donde se encuentra el astrónomo terrestre con respecto al Cosmos. Y eso no es un problema
del observador sino de la infinitud del universo (salvo que el observador sea Dios pero
entonces ¡está fuera de la pila!).

También se presentan problemas conceptualmente sencillos que aún con un computador del
tamaño del universo con 10126 elementos tardarían 20.000 millones de años en ser resueltos
(cinco veces la edad actual del universo). Esos problemas nunca entregarán su solución
(Stockmeyer y Chandra). La incertidumbre se muestra irreductible.

(3) La posición determinista clásica –por la cual el universo es esencialmente desprovisto


de incertidumbre- sostiene que ésta es única y exclusivamente originada en el observador,
en su ignorancia innata, es decir en su falta de conocimiento y en su falta de capacidad de
procesamiento de la información. A mayor información, a mayor procesamiento de la
misma, mayor conocimiento y, por consiguiente, menor incertidumbre. La incertidumbre
es, así, un problema técnico. Pero no es un problema del universo en cuanto tal. Este se
entregará blandamente al hombre a medida que aumente la capacidad de conocer éste.

Las limitaciones del conocimiento humano son totalmente ciertas y la fuente inmediata,
más evidente, de la incertidumbre reside justamente en esas limitaciones. Pero nosotros

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

creemos que, además, existe una incertidumbre inherente a la naturaleza, con


independencia del observador.

En ambos casos, la incertidumbre es siempre una situación de ignorancia, sea ésta reducible
o no. El Principio de Incertidumbre de Heisenberg nos dice que si sabemos cual es la
posición de una partícula no podemos conocer su movimiento, o, al contrario, que no
podemos saber cual es su movimiento si sabemos cual es su posición. La incertidumbre del
observador aparece reducible por el conocimiento, no así la del universo. En ambos casos,
es una situación de ignorancia la que se presenta.

A todos los efectos de la decisión, no importa realmente si Dios juega a los dados o no.
Para el caso, es como si jugara.

Los efectos de la incertidumbre sustancial y de la incertidumbre originada en el observador


son indistinguibles para el observador humano quien está dentro del sistema y no fuera,
como la “inteligencia” de Laplace. Por consiguiente, actuamos admitiendo que el universo
es incierto para nosotros, siempre.

La certeza es una ficción, un caso extremo y teórico de incertidumbre nula o casi. Siempre
actuaremos en un contexto inherentemente incierto, con mayor o menor grado de
incertidumbre, en el cual toda decisión siempre es una apuesta (más precisamente,
siempre existe en ella un elemento aleatorio o incierto irreductible).

Finalmente, el mayor conocimiento siempre nos aportará mayor certeza, siempre reducirá
alguna incertidumbre (si bien transitoriamente puede no suceder así). Pero globalmente, el
universo genera siempre incertidumbre. Tendremos éxitos locales al reducir la
incertidumbre en sub-universos, en contextos parciales. Pero la incertidumbre acompaña en
general al hombre inteligente toda su vida hasta el instante previo a su muerte. Sólo los
genios y los idiotas pueden ufanarse de haber superado la incertidumbre.

(4) La incertidumbre conviene con sus dos orígenes:

(a) sustancial, inherente al universo


(b) subjetiva (operativa), inherente al observador que es incapaz de eliminarla.

En ambos casos, siempre hay ignorancia del observador ya que él es el decididor y el centro
de la atención. El límite entre ambos tipos de incertidumbre no es claro. La incertidumbre
de Heisenberg pertenece claramente a la primera; la incertidumbre sobre la reacción del
público a una moda determinada puede pertenecer a la segunda: una investigación de
mercado puede orientarnos a través de muestras sobre los gustos del público. Podremos
reducir así la incertidumbre pero es difícil asegurar que por medios tecnológicos de
aprendizaje es posible llegar a la certeza, siempre.

En situaciones complejas, aceptaremos la siguiente máxima: existe la seguridad razonable


que a través de la investigación y la adquisición del conocimiento podremos reducir,
finalmente, la incertidumbre pero no existe seguridad que podamos eliminarla. Más aún, en
nuestra posición personal, diremos que existe la seguridad razonable de que no podremos

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

nunca eliminarla del todo y que en algunos pocos casos podremos actuar como si la
hubiéramos eliminado.

Quizás alguien pueda decirnos que este enfoque de la incertidumbre del universo, originado
principalmente en la Física, poco tiene que ver con la problemática de un decididor inmerso
en un mundo esencialmente social, esencialmente condicionado por seres vivos e
inteligentes.

Ello es cierto, pero indudablemente el mundo natural de la Física es también nuestro


mundo. Si la Física se encuentra con nuevas tendencias renovadoras de corte subjetivista y
probabilístico, entonces con más razón estos enfoques se aplican a nuestros universos. Y
finalmente, citando a Prigogine (pág. 36): “Si tenemos en cuenta la inserción del hombre en
la naturaleza, las verdades humanas se convierten en verdades de la naturaleza”.
“Independientemente de lo que denominamos realidad, sólo accedemos a ellas a través de
síntesis mentales”.

2. Incertidumbre como ignorancia, certidumbre como creencia

La falta de conocimiento es un concepto relativo y absolutamente subjetivo. En efecto, el


universo válido para el decididor es el universo percibido. Si el decididor cree que alguien
lo persigue, actuará en consecuencia independientemente de que ello sea cierto o no. El
concepto de verdad, para la decisión, no puede circunscribirse a la verdad científica. El
ámbito de la decisión es mucho más amplio que el campo estructurado y alumbrado por el
conocimiento científico. Si D está convencido que el comportamiento de una variable es
determinado, si su universo percibido es de certeza y su conocimiento cumple con ciertas
condiciones de coherencia interna y de estabilidad, entonces no existirá incertidumbre, con
total prescindencia de lo que puedan pensar otros decididores o de la “realidad”. Si el
decididor ignora la verdad científica, su mundo será cierto o incierto pero válido para él. La
TD no predica la verdad del universo o de los valores; predica la verdad de su metodología,
dado un universo o un conjunto de valores que cumplen requisitos mínimos de coherencia y
estabilidad. Admito lo expuesto en el punto anterior, la incertidumbre es un fenómeno
subjetivo. Un mundo complejo tiende a ser incierto pero sí D lo percibe como simple,
quizás sea altamente determinado por él. Una situación que para un experto es simple y
determinado puede resultar compleja e incierta para D. Lo que vale para la TD es el
universo percibido por el decididor, con su correspondiente incertidumbre. El decididor, en
su permanente cambio, en su permanente devenir, acarrea consigo los parámetros de su
incertidumbre.

Creemos necesario ordenar los conceptos subyacentes en lo expuesto hasta aquí. Lo


haremos disculpándonos ya que trataremos en forma sumamente simplificada los grandes
problemas de la Teoría del Conocimiento o de la Epistemología (muchos de ellos no
resueltos) con la sola finalidad de aproximarnos al significado de la incertidumbre.

(1) Admitamos –sin mayor profundización para no entrar en Epistemología que conocer es
la capacidad de explicar y predecir: explicar y predecir la estructura de un sistema
(pasada, presente o futura) o su comportamiento (pasado, presente o futuro). (Obsérvese
que no entramos en la eficacia de la predicción).

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Ese conocimiento puede estar basado en el resultado de disciplinas científicas o técnicas y


estará respaldado por la garantía del método científico que lo sostiene; aún así, ese
conocimiento científico puede modificarse a través del tiempo por cambio de las ideologías

(FALTA LA PÁGINA 10 ES LO DEBERÍA SEGUIR A CONTINUACIÓN-sigue


pag11)

Establecer leyes macro-sociales (como las macroeconómicas) pero no pueden explicar o


predecir la actitud de un individuo determinado, en un momento y en una situación dados
(en el mismo sentido, la ley de comportamiento de los gases, en Física). Por consiguiente,
aún el conocimiento científico generalmente aceptado y comprobado tiene aspectos que
dejan gran lugar a la incertidumbre.

(3) Veamos ahora que sucede en los campos de la acción humana en los cuales no existe un
conocimiento sistematizado, generalmente aceptado sin discusión. La situación es
equivalente al caso en el cual, existiendo conocimiento científico universal, éste no está al
alcance del decididor (o es rechazado por cualquier razón por el decididor). En esta doble
situación que consideraremos única, pueden darse dos casos.

En uno de ellos, el conocimiento científico es reemplazado por creencias: convencimiento,


experiencia, intuición, superstición, religión, confianza en la opinión del otro, fe revelación,
iluminación, magia delirio, esquizofrenia, sumisión a reglas de juego o a normas. Esta
situación heterogénea que resumimos bajo la denominación de “creencia” es válida como
“conocimiento”. Si esas creencias cumplen con ciertas condiciones de coherencia,
estabilidad y sensitividad, valen como conocimiento. Si un campesino está convencido que
la plaga de su campo es debida a sus pecados, decidirá en consecuencia. Si el inversionista
está convencido que la plaga de su campo es debida a sus pecados, decidirá en
consecuencia. Si el inversionista está convencido que las cotizaciones subirán mañana, si el
gobernante está convencido que se aproxima la Tercera Guerra Mundial, si el político está
convencido que los males del país se deben a una confabulación internacional, tomará sus
decisiones sobre esa base equivalente (y a nuestros efectos, igual) al conocimiento.

No estamos diciendo que aquello está bien y que debamos admitir el conocimiento basado
en creencias equivocadas. Estamos diciendo que ese mundo es suficiente para la toma de
decisión.

En el otro caso, sin conocimiento científico y sin creencia, el decididor se encontrará en


incertidumbre.

En el cuadro 4.1.2.1 se resume lo expuesto anteriormente. Se reitera que la exposición de


los problemas epistemológicos mencionados se ha efectuado en forma superficial dada la
finalidad de este capítulo.

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Conocimiento, Creencia, Incertidumbre

Hay conocimiento Leyes deterministas en Certeza


científico completo, situación considerada ideal.
universalmente aceptado y
es conocido y aceptado por Leyes no deterministas o Incertidumbre
el decididor estadísticas (o situaciones Total en casos particulares.
no ideales para leyes Parcial en cierto número de
deterministas) casos.

No hay conocimiento Creencia: fe, confianza, Certeza


científico completo, superstición, religión, (equivalente a)
universalmente aceptado. intuición, convencimiento,
Existe ese conocimiento etc.
pero no está al alcance o no
es aceptado por el Desconocimiento total o Incertidumbre
decididor. parcial, duda,
indeterminación.
Cuadro 4.1.2.1.

Por consiguiente hay certeza cuando hay creencia, sea en un campo del conocimiento
científico, sea creencia propiamente dicha, suficientemente estructurada para sustituir
válidamente el conocimiento científico existente o no. Hay incertidumbre cuando hay
desconocimiento sea éste el desconocimiento específico asociado a las leyes científicas no
deterministas, o el desconocimiento de las leyes científicas o el desconocimiento que no
pudo ser vencido por el conocimiento científico o técnico.

(4) Este enfoque hace resaltar características especiales de la incertidumbre.


En primer lugar, la incertidumbre tiene siempre, finalmente, por sobre todas las
consideraciones posibles y parcialmente válidas, un sentido esencialmente subjetivo, sin
perjuicio de la incertidumbre sustancial que no discutimos aquí.

En segundo lugar, la incertidumbre, tal como la hemos definido, abarca una parte relevante
de la acción humana. Siendo más precisos, diremos que la mayor parte de las situaciones de
decisión son de incertidumbre. Las leyes deterministas es su estado puro abarcan –nos guste
o no- una proporción reducida del campo de la actividad humana.
Las creencias definitivas –si bien son más importantes y extendidas de lo que comúnmente
se cree- tampoco abarcan muchos casos o situaciones. Salvo los genios y los idiotas,
repetimos, la mayor parte de los seres humanos se encuentran en situaciones de
incertidumbre la mayor parte de las veces. La historia de cómo el ser humano se arregla
para disminuir la incertidumbre es la historia de la civilización.

(5) En el ámbito de las decisiones es mucho más amplio que el de cualquier ciencia o
técnica particular, aún de la suma de todos los campos abocados por el conocimiento
científico y técnico. Siempre se decide, cualquiera sea la situación, haya o no conocimiento
fundado. Si bien es cierto que existe un gran campo de decisiones que se vuelcan hacia

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

situaciones donde existe una buena cantidad de conocimiento válido (hacer o no una
represa, donde y cuando hacerla, invertir o no, viajar o no), también es cierto que la
decisión individual está volcada en amplios campos donde las creencias, las dudas o la
ignorancia son las únicas bases válidas. No importa cuáles son las razones que llevan hacia
esas situaciones (la ignorancia cultural, la falta de recursos, de tiempo, la irracionalidad
ideológica). Es un hecho que certeza e incertidumbre dependen fundamentalmente de la
posición personal del decididor.

3. La incertidumbre como concepto relativo

De todo lo expuesto hasta aquí debe quedar claro que la incertidumbre es un concepto
relativo.

La incertidumbre es siempre percibida. Depende tanto del conocimiento fundado y


generalmente aceptado como de la más salvaje y primitiva creencia. Guste o no, la
incertidumbre es siempre subjetiva porque siempre se aloja en un observador: frente a un
aparato complejo tengo la más absoluta incertidumbre en cuanto a su manejo,
incertidumbre absolutamente nula para los técnicos que diseñaron el aparato.

La incertidumbre depende del decididor, de la información (conocimiento) en su poder y


del momento de observación. Frente al mismo universo, dos decididores distintos con la
misma información y en el mismo momento, pueden percibir distintos grados de
incertidumbre. Ello es debido a como interpreta el decididor ciertos aspectos de la
información de acuerdo con su particular personalidad, su experiencia, sus pautas
culturales, su estado anímico. Ello también es debido a qué elementos y qué relaciones
distinguirá o imaginará su mecanismo de percepción y qué elementos y relaciones quedarán
en la sombra.

Frente al mismo universo, el mismo decididor en dos momentos distintos y con diferente
información, cambiarán su percepción de la incertidumbre. Frente al mismo universo en
dos momentos distintos y con la misma información, el mismo decididor puede tener
diferente apreciación de la incertidumbre. Esta, como el universo, debe ser precisamente
definida en tiempo, decididor y variables.

Por otra parte, hablamos de incertidumbre en forma genérica. En realidad, existen grados de
incertidumbre que en el próximo punto hemos agrupado bajo las clases de: certeza, cuasi-
certeza, cuasi-incertidumbre, incertidumbre (propiamente dicha), hiperincertidumbre y
transincertidumbre.

4.2. La incertidumbre y propensión a suceder

1. Incertidumbre y posibilidad de varios estados: niveles de incertidumbre

En el punto anterior, hemos definido incertidumbre como ignorancia, es decir, falta de


conocimiento suficiente (científico o creencias). A los propósitos de éste trabajo, dicha
definición puede considerarse suficiente.

10

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Pero cabe preguntarse si no estamos incurriendo en una tautología. En efecto, si la


incertidumbre es función de conocimiento, podemos asegurar que ese concepto
“conocimiento”, más allá de los esfuerzos verbales, ¿es un concepto independiente? No
será al fin y al cabo el conocimiento la inexistencia de incertidumbre. Conocimiento e
incertidumbre no serán la misma cosa, con signo cambiado. Es bien sabido, por otra parte,
que la medida de la incertidumbre, la entropía, que analizaremos más adelante, también es
medida de la información. Esta posición es la adoptada por la Teoría de la información de
Shannon que define la incertidumbre (y el conocimiento) desde un punto de vista técnico de
medición en un universo cerrado y con una propensión a suceder conocida medida en
probabilidades objetivas.

Podemos quedarnos con nuestra definición sustancial del punto anterior por la cual, al fin y
al cabo, la incertidumbre es un estado de ánimo y entrar luego en las definiciones técnicas.
Pero antes de hacerlo, trataremos de profundizar la noción de incertidumbre.

La incertidumbre recae sobre los siguientes elementos del universo:

Las variables
Los valores que pueden adoptar
La propensión a suceder de esos valores

Tengamos especialmente en cuenta que la propensión a suceder es una variable más y


que la incertidumbre también puede recaer sobre ella. Dada su trascendencia, la hemos
incluído en forma separada en la enumeración.

Nos proponemos analizar todos (o por lo menos los principales) casos de incertidumbre
posibles a fin de: Clasificarlos para su análisis posterior
Inferir una característica común a todos ellos para profundizar nuestra
definición de incertidumbre.

En el cuadro 4.2.1.1, hemos explicitado los distintos niveles de incertidumbre en función


del conocimiento y pasamos a comentarlos. Trataremos la incertidumbre acerca de una sola
variable, pudiendo combinarse los distintos niveles para las distintas variables.

Nivel de incertidumbre 0 (cero): El decididor percibe un universo determinado, con cierto


número de variables. Si una variable dada, exhibiendo en un momento dado un valor
determinado, asumirá obligatoriamente un único valor conocido en el momento futuro,
fijado arbitrariamente, nos hallamos en certeza total, ignorancia e incertidumbre nula,
conocimiento total de la propensión a suceder. Este caso no nos interesa en este capítulo.

Existirá cierto nivel de incertidumbre cuando el observador pueda determinar más de un


valor, nivel o grado en un arbitrario momento futuro para la variable observada.

Nivel 1 de incertidumbre (cuasi-certeza): Cuando puede asignarse a todos los valores


posibles, a todos los estados posibles asociados a una variable en un momento dado su
correspondiente propensión a suceder y ésta es medible en alguna forma, es decir, cuando
el comportamiento de la propensión a suceder es total, entonces nos encontramos en una

11

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

situación mínima de incertidumbre, en una situación de cuasi-certeza. En la literatura esta


situación se denomina generalmente “riesgo”.

Grados de incertidumbre
Cuadro 4.2.1.1

Estado del conocimiento Situación de decisión Nivel de incertidumbre

1. Variable y valor (estado)


conocido y definido.

Conocimiento de la propensión a
suceder

Total Certeza
Un solo estado posible Certeza 0

Varios estados posibles con Riesgo Cuasi-certeza


propensión a suceder medible 1

Parcial Cuasi-incertidumbre
Simple Posibilidad 2
(eventualidad)

Mixto Ambigüedad 3

Nulo Incertidumbre Incertidumbre


4

2. Variable conocida y definida Hiper-incertidumbre

Desconocimiento total o parcial Hiper-incertidumbre 5


de los estados

3. Variables desconocidas Trans-incertidumbre Trans-incertidumbre


6

Nivel 2 de incertidumbre (cuasi-incertidumbre): cuando existe duda acerca de la


posibilidad de ciertos estados (es decir cuando se presenta la duda de incluir o no un estado
en el conjunto de estados potenciales asumibles por una variable) existe cierta ignorancia
sobre la variable “propensión a suceder”. Esta puede asumir dos niveles: “existir” (hay
cierta propensión a suceder) o “no existir” (no hay propensión a suceder). En términos de

12

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

probabilidad de Xs, P(Xs) puede ser igual a cero o mayor que cero. Existen dos estados
posibles para nuestra variable “propensión a suceder”. Esta variable que mide cierta clase
de incertidumbre: la incertidumbre de la incertidumbre. Se trata de una incertidumbre
potenciada (sugerimos que sea potencia 2). No creemos que haya lugar a una crítica de
infinito regreso (incertidumbre acerca de la incertidumbre acerca de la incertidumbre…y
así infinitamente). Se trata de una incertidumbre mayor que la del riesgo (cuasi-certeza) que
podemos definir como cuasi-incertidumbre acerca de la posibilidad de un estado (hay
posibilidad cuando existe cierta propensión a suceder; cuando ésta se mide con
probabilidad, cuando esta última es mayor que cero).

Nivel 3 de incertidumbre (ambigüedad): pueden darse casos de una incertidumbre mayor


que el nivel 2 descripto anteriormente, pero siempre dentro de la categoría de cuasi-
incertidumbre originada en el conocimiento parcial de la variable “propensión a suceder”.
Se trata de casos mixtos, en los cuales para una misma variable, existen distintos grados de
conocimiento sobre la propensión a suceder de sus estados. Se trata de casos de
ambigüedad (para adoptar la denominación de Ellsberg).

Nivel 4 de incertidumbre (incertidumbre): cuando el decididor puede definir los distintos


estados potenciales de una variable pero no puede definir la propensión a suceder de cada
uno (no sólo no sabe si son posibles o no sino que además no sabe cual es la intensidad de
la propensión a suceder de los posibles, ni siquiera puede ordenarlos; en otras palabras,
ignora absolutamente cuál es la probabilidad de los estados potenciales) se encuentra en un
nivel superior de ignorancia (nivel 4) que en la Teoría de la Decisión, para modelos
específicos que se estudiarán oportunamente, se denominan “incertidumbre” (propiamente
dicha, específica). Debe tenerse cuidado entonces, en no confundir los dos significados con
los cuales utilizamos la palabra “incertidumbre”.

En general, nos referimos a la incertidumbre como cierto estado de ignorancia sobre los
estados de una variable. Es el sentido utilizado en este capítulo y en general en este trabajo
y, además, es el sentido del lenguaje común.

En especial, una situación específica de “incertidumbre” en los modelos de la TD se


refiere al caso particular (del nivel 4) de ignorancia total de la propensión a suceder
(probabilidad) de ciertos estados de una variable.

Hasta aquí nos hemos referido a la incertidumbre que recae sobre cuál será el estado (nivel,
grado, valor) que una variable determinada asumirá en un momento dado. Existen por lo
menos dos casos de incertidumbre de mayor nivel.

Nivel 5 de incertidumbre (hiper-incertidumbre): cuando el observador no ya desconoce


la propensión a suceder de los estados de una variable sino que simplemente ignora cuales
pueden ser estos estados (y con más razón su propensión a suceder). Esta ignorancia se
traduce en que estos estados pueden ser uno o varios o infinitos. Hay más de un estado
posible.

Nivel 6 de incertidumbre (trans-incertidumbre): es la máxima categoría de


incertidumbre. No sólo se ignora la propensión a suceder de los estados, no sólo se

13

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

desconocen éstos sino que se desconocen las mismas variables del universo. Las tinieblas
son totales, la ignorancia es total y absoluta. El observador sólo se aferra al ancla cartesiana
“Cogito, ergo sum”. De allí en más, no se sabe nada. Un caso especial de trans-
incertidumbre es el de la duda acerca de incorporar una o más variables al universo
estudiado.

Si existe incertidumbre en agregar una o más variables a un universo bajo consideración, la


misma se origina en la duda si esa variable es relevante o no. Esa relevancia se origina en la
eventual influencia en los resultados buscados por el decididor y termina finalmente en
ignorancia sobre los mismos valores o preferencias del decididor o sobre la naturaleza del
universo que se quiere modificar. En ambos casos, existe un estado de incertidumbre
porque se le atribuye cierta posibilidad tanto a la relevancia como a la no relevancia, es
decir, a dos estados posibles de la variable: “relevancia de la variable”. Decidida la
incorporación (o la no incorporación), la incertidumbre en cuestión desaparece.

Un caso típico es el de la duda en las preferencias. Una variante consiste en que, dados A y
B, no se pueda vincularlos por una relación de preferencia (o de indiferencia). “No sé cuál
de los dos prefiero”. Ello se interpreta como que A puede ser preferido o que B puede ser
preferido o que ambos son indiferentes. Los tres estados tienen cierta propensión a suceder,
son posibles mientras siga la duda del decididor. Otra variante consiste en que, dado un
elemento A, no sabemos si nos gusta o no.
Aquí también hay dos estados posibles que se transforman en uno solo una vez resuelta la
cavilación.

Por consiguiente, en los niveles descriptos, queda claro que existe incertidumbre en general
cuando una variable puede adoptar, en un momento dado, dos o más estados diferentes,
cuando existen más de dos estados diferentes, cuando existen más de dos estados posibles.
Esa variable puede ser, a su vez, la misma “propensión a suceder”. Evidentemente, la
incertidumbre puede adquirir distintos grados o niveles: la incertidumbre también es una
variable.

Si la existencia de esa incertidumbre es debida al observador o al universo no tiene


importancia en cuanto a la definición. Si tiene importancia en cuanto a la búsqueda de
mayor conocimiento: si creyéramos que la incertidumbre es incompatible, inamovible y
congelada, la búsqueda de información sería inútil. Sea debida a la falta de conocimiento de
leyes establecidas o a falta de ellas, la incertidumbre siempre implica la existencia de más
de un estado posible.

Es importante destacar, una vez más, que este enfoque se aleja de las ciencias naturales.
Estamos hablando de universos (variables, valores, propensión a suceder) percibidos por el
decididor, de una incertidumbre apoyada en sus creencias, sean éstas justificadas o no
científicamente.
Es así como aparecen ciertos rasgos de la incertidumbre que sólo pueden justificarse por la
subjetividad que caracteriza este enfoque. Para un estadístico clásico, por ejemplo, es
difícilmente concebible la incertidumbre acerca de la probabilidad (Savage justamente
introduce esta posición subjetiva en sus “Fundamentos de la Estadística”).

14

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

La TD se ha dedicado preferentemente a los niveles 0, 1 y 4 (certeza, riesgo e


incertidumbre). Los casos de ambigüedad y eventualidad (niveles 2 y 3) han sido apenas
rozados (Ellsberg) si bien existe un fuerte desarrollo de la llamada Teoría de la Posibilidad
como medición de esa variable (Yager).
Los niveles 5 y 6 han tenido un gran desarrollo en los últimos años a través del concepto de
estrategia (“Corporate Strategy”, Planeamiento Estratégico) al impulso de la crisis del
petróleo y de la turbulencia del contexto, si bien esta fuerte tendencia ha tomado un
impulso autónomo, independiente de la TD.

No debe extrañarse ni preocupar en demasía esa falta de extensión del estudio de la


incertidumbre. Los problemas reales que recaen en los niveles de cuasi-certeza son
numerosos y a falta de medición objetiva de la propensión a suceder pueden utilizarse
mediciones subjetivas (cuya teoría se ha desarrollado enormemente). Por otra parte, las
situaciones de incertidumbre (nivel 4), de hiper-incertidumbre (nivel 5) y más aún de trans-
incertidumbre (nivel 6) en su estado puro, son poco frecuentes: siempre existe alguna
información, prejuicio, premonición, intuición, “whishful-thinking”, algún proceso previo
de “prueba y error” que lleva a acotar, en cualquier forma, la incertidumbre. De este modo,
el campo más cómodo de ignorancia se encuentra en el nivel 3, en la ambigüedad.

En este capítulo tenderemos –en la exposición- a hablar del universo con variables
controlables. Pero el concepto de incertidumbre se aplica por igual a ambos tipos de
variables. En efecto, si un fabricante puede elegir entre 1000 niveles distintos de
producción de un artículo determinado, estamos ante una variable controlable (el nivel de
producción) pero si el fabricante no sabe cuál nivel elegirá, la incertidumbre consiguiente
es la misma que si la variable fuese no controlable. Más aún, una variable controlable
puede exhibir más incertidumbre que una no controlable.

En el cuadro 4.2.1.2 se resume las distintas categorías de incertidumbre.

Tipificación de la incertidumbre
Cuadro 4.2.1.2

Nivel de incertidumbre Variable incierta Modelos de TD

Certeza No hay Certeza


(Programación matemática)
Cuasi-certeza Evento Riesgo
(Bayes)
Cuasi-incertidumbre Propensión a suceder Ambigüedad, eventualidad

Incertidumbre Propensión a suceder Incertidumbre


(Mínimas, razón no suficiente)
Hiper-incertidumbre Estados de una variable Estrategia

Trans-incertidumbre Variables de un universo Estrategia

15

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Ejemplo 4.2.1.1

Si cierto material se calienta, se dilatará. Existen fórmulas del tipo:

Lt + 1 = f (Lt, t) donde

Lt = Longitud de determinada forma de material en el momento t.

T = Temperatura a la cual el material es sometido.

t = Intervalo de tiempo durante el cual el material es sometido a la temperatura T.

que eliminan (prácticamente) la incertidumbre sobre la cuál será el estado Lt + 1 del material
si estaba en el momento t en el estado Lt. La trayectoria de este universo se representa en el
espacio-comportamiento por una línea única. En cualquier momento, se puede conocer cuál
será el estado del universo en el futuro y también en el pasado si se conocen las condiciones
(parámetros) a las cuáles fue sometido.

Ejemplo 4.2.1.2

Las situaciones llamadas de filas de espera son situaciones de decisión bajo riesgo. En la
mayor parte de ellas –cajas en supermercados, llegadas de aviones en aeropuertos, teléfonos
ocupados, atención en consultorios, llegada de barcos a puerto- puede establecerse la
distribución de probabilidad del intervalo de llegada de las unidades a ser servidas (clientes,
llamadas, pacientes, aviones, barcos), la distribución de probabilidad de los tiempos de
servicios (atención en caja o en consultorio, ocupación de la pista, tiempo de carga y
descarga) la distribución de probabilidad de espera por más de determinado tiempo, etc.
Frente a distintas alternativas de mecanismo de servicio, pueden evaluarse los resultados de
acuerdo con esas distribuciones.

Los ejemplos de situación de riesgo (nivel 2) son también infinitos. (Los de los puntos 4.4 y
4.5 son de este tipo).

Ejemplo 4.2.1.3

Se supone que las ventas del mes próximo no han de bajar de 400 toneladas y se cree que
no puede pasar de 600 toneladas. Si las ventas bajan de 300 toneladas es necesario detener
la compra de materias primas este mes, dado lo costoso de mantener stocks. Si las ventas
superan las 700 toneladas, máximo de producción posible, hay que subcontratar desde ya.

Se admite que las ventas entre 400 y 600 toneladas inclusive son posibles. Pero, ¿por
debajo y por encima? Se incluirán en el análisis si son posibles y si son posibles es
necesario estimar alguna medida de la propensión a suceder (probabilidad).

16

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Ejemplo 4.2.1.4

Una urna contiene 90 bolillas, 30 de las cuales son rojas, las 60 restantes son negras y
amarillas, pero en una proporción desconocida. Usted puede apostar a rojo o negro, de
acuerdo con la siguiente matriz de decisión:

Rojas Negras Amarillas


? ?
30
bolillas Total 60 bolillas

S1: Apueste a rojo 100 0 0

S2: Apueste a negro 0 100 0

Supongamos otra situación con la misma urna de acuerdo con la siguiente matriz:

Rojas Negras Amarillas


? ?
30
bolillas Total 60 bolillas

S3: Apueste a rojo 100 0 100

S4: Apueste a negro 0 100 100

Elija S1 o S2 por una parte y S3 o S4 por otra. Si elige S1 y S4 o S2 y S3 entrará en


contradicción con ciertos axiomas de conducta (no debería cambiar la elección entre dos
alternativas si a ambas se le agrega o resta el mismo resultado).

Este ejemplo de ambigüedad es de Ellsberg quien defiende la contradicción que es atacada


por Raiffa. ¿Usted qué piensa?

17

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Ejemplo 4.2.1.5

Un decididor se enfrenta con la siguiente situación, donde las consecuencias de las acciones
son resultados, positivos o negativos:

Acontecimientos
N1 N2 N3
Acción S1 100 0 -50
Acción S2 0 -50 100

D piensa que la probabilidad de los tres acontecimientos oscila entre los siguientes rangos:

P(N1) = 0,5 – 1 P(N2) = 0 – 0,5 P(N3) = 0,5 – 1

Esta situación es de ambigüedad ya que su información sobre la probabilidad de los


acontecimientos no es completa. ¿Su creencia es coherente?
Independientemente de ello, ¿qué le aconsejaría a D?

Ejemplo 4.2.1.6

En la matriz del ejemplo 4.2.1.5, suponga que D no tiene información precisa sobre la
propensión a suceder de los estados N1, N2 y N3 pero que estima que:

P(N1) > P(N2) > P(N3)

Y que además que P(N1) es bastante mayor que P(N2) y P(N3) en tanto que el intervalo
entre estos dos últimos es reducido. Este es un caso de ambigüedad: se ha establecido la
posibilidad, un orden entre las probabilidades y un orden entre los intervalos (sin llegar a
una escala de intervalo que se estudiará en el próximo capítulo). No estamos en situación de
riesgo (no tenemos suficiente información) pero tampoco de incertidumbre (nos sobra
información).

La técnica para resolver este problema es la del análisis de sensitividad (del cual ya hemos
hablado pero que analizaremos en profundidad en otro lugar).

Este análisis nos dice que la acción S1 siempre será elegida mientras:

P(N1) > 0,6 – 0,8 P(N2)

Esto concuerda con las estimaciones de D. En efecto, suponiendo P(N1)= 0,6; P(N2) = 0,25;
P(N3) = 0,15, deberá elegir S1.

También deberá hacerlo si cree que P(N1) = 0,5; P(N2) = 0,3 y P(N3) = 0,2.

18

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

El análisis de sensitividad le permitirá reducir la ambigüedad sin llegar por ello al nivel 1
de riesgo (cuasi certeza).

Ejemplo 4.2.1.7

De lo alto de la colina, el general contempla el campo de batalla. Sus tropas están


concentradas a sus pies. Al frente y a la derecha se concentran las dos alas enemigas. Sabe
que el adversario no atacará con ambas alas, que debe mantener una en reserva. Pero no
tiene la más mínima idea de cual de las dos alas entrará en la batalla. Su situación es de
incertidumbre total.

(Tratándose de incertidumbre originada en actos humanos, ambos adversarios tratarán de


engañarse, uno para atraer al otro sobre su flanco más fuerte, el otro para hacer concentrar
la defensa en el lugar equivocado. En plena incertidumbre, se genera información falsa, se
busca información fidedigna).

2. Propensión a suceder y universos inciertos

Hasta aquí, hemos hablado en muchas ocasiones de la propensión a suceder o eventualidad.


Volveremos sobre la medición de este concepto (que es una variable más del universo) pero
antes de seguir adelante, insistiremos sobre su significado.

Asociemos a una variable todos los valores imaginables, aún los imposibles. Dejemos
obviamente sin computar los valores que no podemos imaginar (pero admitamos que
pueden existir valores inimaginables). Definamos entre aquellos valores, los concebidos
como imposibles, es decir, que su propensión a suceder es (o se percibe como) nula (Luce y
Krantz; Krantz, Luce, Suples y Tversky, pág. 372). Los valores restantes exhibirán distintos
(o iguales) grados de eventualidad. Dicho en palabras poco exactas, exhibirán distintos (o
iguales) grados de posibilidad. Estos forman el conjunto de valores potenciales de una
variable.

Desde un punto de vista práctico, si existen dudas sobre la posibilidad de cierto valor, se
incluye como posible, pudiendo exhibir una propensión a suceder nula si es que se llega
posteriormente a esa conclusión. Un método es eliminar únicamente los valores con
imposibilidad de suceso evidente e incontrastable o de eliminar, en caso de variables cuyos
valores pueden ser ordenados, los valores imposibles de los extremos pero no los
intermedios.

Una variable determinada puede asumir ciertos valores en un momento dado. Podemos
concebir que cada uno de ellos está asociado con cierta capacidad de evento, o
eventualidad, entendiendo por este concepto la propensión a ser asumido por la variable
bajo análisis.

De todos los valores concebibles que una variable puede asumir, es legítimo pensar que
algunos tienen mayor propensión a ser asumidos que otros o que todos tienen la misma

19

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

propensión). Las razones para ello son variadas pero todas pueden resumirse diciendo que
consisten en restricciones que limitan la afinidad de una variable con ciertos valores.

La noción de propensión a suceder o a ser asumido o eventualidad nos parece una noción
natural e indiscutible que no merece mayor discusión en cuanto a existencia. Toda otra cosa
es su medición o su naturaleza, que constituyen –aún hoy- uno de los grandes campos
polémicos de la ciencia.

Por simplicidad hablamos de propensión a “suceder” pero la palabra “suceder” no debe dar
la sensación de que se trata de variables absolutamente incontrolables cuyos estados
“suceden” solamente. El concepto se aplica en general y la palabra “suceder” debe ser
tomada en sentido amplio. Cuando estamos en la duda si preferimos A o B, decimos que
los dos estados “A es preferido a B” o “B es preferido a A” (o aún podemos agregar el
tercero: “A y B son indiferentes”) tienen cierta propensión a “suceder”. Eso no implica que
la definición de la preferencia vaya a revelarse como salta un resorte por un proceso
misterioso y casual. Ello quiere decir que ambos estados (o los tres estados) tienen
posibilidad de ser elegidos, son factibles y que la duda se da a través de cualquier proceso
de reflexión o de azar.

Debe quedar claro, entonces, que la expresión “propensión a suceder” debe ser tomada en
un sentido amplio de capacidad potencial de ser asumido, exhibido, elegido.

La propensión a suceder es, a su vez, una variable susceptible de adoptar valores, niveles o
grados: un estado tendrá una alta propensión a ser asumido; otro, ninguna, etc. Podemos
imaginar así un contínuo que va desde la imposibilidad (certeza que el valor considerado no
será asumido) hasta la imposición, la obligatoriedad de un estado determinado (certeza que
será asumido). La imposibilidad es así sólo un caso extremo de la eventualidad y constituye
una de las caras de la certeza. La otra cara es su opuesto: la ocurrencia determinada, la
posibilidad total.

La propensión a suceder es una variable del universo “real”. No pertenece al mundo


conceptual, simbólico de los universos numéricos. Como tal, se le aplica todo lo dicho para
la apreciación del universo. La propensión a suceder es una variable percibida,
condicionada a los valores, circunstancias, personalidad del observador, en un momento
determinado, y a su stock de conocimiento, de información en ese momento. Es una
variable sobre la cual se puede tener incertidumbre y que podemos expresar en términos
comparativos y relativos: “Un estado tiene una alta propensión a suceder; la propensión a
suceder de A es mayor que la de B”.

Medir la propensión a suceder es asociarle números de acuerdo con ciertas reglas. La


medida obligada –en la práctica- de la propensión a suceder es la probabilidad.

En esta exposición general preferimos no asociar la eventualidad con ninguna medida


específica. De este modo podemos describir al universo y su comportamiento potencial
como una sucesión de pares de elementos: el valor, nivel o grado de cada variable asociado
con su respectiva propensión a suceder. El estado potencial de una variable en un momento
dado puede simbolizarse de la siguiente forma:

20

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

x1it;… x2it;… xhit;

p1it;… p2it;… phit;


donde:

xsit: valor, nivel o grado (s) de la variable xi en el momento t (de acuerdo a lo establecido
en el capítulo III).

psit: propensión a suceder del valor xsit en el momento t.

Un universo que exhibe estados múltiples asociados con propensiones a suceder no nulas es
llamado universo incierto. Cuando la propensión a suceder es medida en probabilidades (y
éstas son definidas), el universo incierto se llama universo aleatorio. Estrictamente
hablando, los universos aleatorios que constituyen el estudio de los procesos estocásticos
implican probabilidades objetivas. En TD abarcamos con tipo de probabilidades que
pueden cumplir con los axiomas del respectivo cálculo.

En general, todo universo es incierto, por lo menos en su comportamiento potencial, sea


éste futuro o pasado no perfectamente conocido. Seremos afortunados cuando tratemos con
universos aleatorios. Los universos potenciales ciertos, con un solo estado futuro y
propensión a suceder total (probabilidad 1) son casos extremos del mundo de incertidumbre
en el cual estamos inmersos.

Cuando las variables del universo incierto o aleatorio bajo consideración, representan
bienes, riqueza, especialmente en el caso que sus niveles son medibles en unidades
monetarias o susceptibles de algún juicio de valor, se lo define como activo incierto o
aleatorio. Una lotería, descripta con el monto de sus premios asociado con la probabilidad
de obtención de los mismos, es un activo aleatorio. Lo es una cartera de cobranzas,
descripta con los montos a cobrar con su probabilidad asociada de percepción. También lo
es toda descripción de una situación de decisión donde las consecuencias de una acción
pueden describirse acompañadas por su propensión a suceder.

Los activos aleatorios (conocidos en inglés como “lottery” o “prospect” y a veces


denominado en español “loterías” como en Perez o “prospecto” como en Fernandez Pol)
constituyen uno de los elementos fundamentales de la Teoría de la Decisión ya que, en
general, toda decisión recae sobre alguno de ellos o sobre algún activo incierto. Finalmente
se trata de distribuciones probabilísticas, objeto de la Estadística.
La propensión a suceder, como ya hemos dicho, es una variable más del universo y es
evaluada por el decididor como cualquier otra variable. Por lo tanto, en una misma
situación incierta, dos decididores pueden tener una apreciación distinta de la propensión a
suceder solamente puede ser objetiva, con una única medida objetiva que es la probabilidad
también objetiva como la frecuencial, entonces este problema no se presenta. Todo lo que
no sea probabilidad objetiva, de magnitud única y compartida por todos los decididores,
con prescindencia de sus valores y circunstancias, sería así un simple divagar, una creencia
subjetiva inútil o a lo sumo “whisful thinking”. Esta posición facilita el cálculo de la
decisión pero lo reduce o a casos triviales poco frecuentes o a áreas reducidas.

21

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Nosotros tratamos la propensión a suceder como una variable más, sometida a la


percepción del decididor y a su personalidad, siendo así fuertemente teñida de subjetividad.
Al tratar las distintas interpretaciones de la probabilidad, encaremos el tema en
profundidad.

Tradicionalmente, la propensión a suceder siempre ha sido relacionada con eventos. Un


evento es la transformación de un estado Et en otro Et+1 originada en fenómenos naturales o
no deliberados (del propio decididor) (Ver 3.13).

También se acostumbra llamar evento al estado Et+1 (transformada) resultante de la


transformación. Los eventos suceden, acontecen en variables no controlables (y por eso
también se llaman sucesos, acontecimientos).
En general, es en el espacio de los sucesos, en el campo de los eventos, en el estado de las
variables no controlables que introducimos la noción de propensión a suceder. Pero no es
siempre así. En primer lugar, enfrentado a actos alternativos, durante el proceso de
decisión y “a priori” del momento de la selección, el decididor puede tener algún
sentimiento, alguna idea, alguna intuición acerca de la propensión de todas o de algunas
alternativas a ser elegidas.

Quizás al comienzo del proceso de reflexión, todas sean igualmente elegibles, es decir que
tengan todos, la misma propensión a ser seleccionadas.
El decididor se encuentra en estado de incertidumbre: ignora cual alternativa elegirá
finalmente. Cuando decide, sólo le queda una cuya propensión a suceder es total
(probabilidad = 1). Las otras quedan desechadas.
En este sentido exclusivo, la decisión reduce y elimina incertidumbre al terminar con la
etapa de cavilación y de dudas acerca de cual acto elegir.

En segundo lugar, en otro sentido, más específico y técnico, los actos propios del
decididor están asociados a una propensión a suceder. Se trata de la aleatorización de las
decisiones repetidas, o de las estrategias mixtas de la Teoría de los Juegos. En estos casos,
la decisión óptima consiste en elegir sucesivamente las alternativas de acuerdo con una
distribución de frecuencia prevista por la Teoría.

En tercer lugar, cuando dos (o más) actos son indiferentes para el decididor, puede
considerarse que tienen igual probabilidad de ser elegidos. Puede considerarse legítimo
cualquier artefacto aleatorio para seleccionar (no elegir) el curso de acción a seguir.

En cuarto lugar, algún decididor puede resolver, como criterio de decisión, sortear al azar
las alternativas sin entrar a analizarlas. Este criterio es aborrecido por la TD que sólo lo
admite en los casos de indiferencia o de estrategia mixta, comentados arriba. De cualquier
modo, de acuerdo o no con la Teoría, éste es un caso de propensión a suceder
(probablemente igual para todas las alternativas) asignadas a actos.

De este modo, podemos hablar de propensión a suceder (a ser elegido, a ser asumido) tanto
en variables no controlables como en variables controlables. Extendemos así el concepto de
propensión no sólo a los sucesos (propensión a suceder) sino también a los actos
(propensión a ser elegido, seleccionado). De este modo, la propensión no es sólo la

22

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

expresión de fuerzas naturales ciegas o determinadas sino también de los valores y


circunstancias de decididores, distintos del decididor analizado, opuestos o no al mismo y
del mismo decididor analizado.

3. Restricciones, información, incertidumbre, estructuras:

Imaginemos un universo con todas las variables imaginables (y aún las inimaginables!),
cada una de ellas con todos los valores imaginables (y aún inimaginables!) siendo cada uno
de esos valores igualmente probables.
En la medida que probabilidades infinitesimales tengan sentido, este universo se aproxima
al caos puro, a la incertidumbre máxima. El considerar sólo algunas variables y sólo
algunos valores para cada uno de ellos, implica introducir fuertes restricciones sobre el
universo.

En este caso, las restricciones son absolutas ya que definen la pertenencia o no de variables
y valores (finalmente, estados) en los conjuntos analizados. Al descartar variables y
valores, reducen la cantidad de estados posibles. Si aceptamos, por ahora, que la
incertidumbre puede ser medida en función del número de estados (muchos estados, mucha
incertidumbre; pocos estados, poca incertidumbre), podemos decir que una restricción
reduce la incertidumbre ya que todo lo que reduce el número de estados posibles es una
restricción.

Lo mismo pasa en cuanto a la propensión a suceder de los valores posibles de una variable.
Dada una variable determinada y cierta cantidad de valores posibles de la misma, la
incertidumbre será la máxima cuando todos esos valores tienen la misma propensión a
suceder. La equiprobabilidad implica falta de restricciones. La modificación de la
equiprobabilidad implica la introducción de restricciones relativas, es decir que si bien
no convierten ciertos estados en imposibles, modifican su propensión a suceder. No es fácil
darse cuenta si la modificación de las probabilidades de un activo aleatorio es debida a la
introducción de una restricción o a su eliminación, si los estados son varios. Para ello, será
necesario idear una medida sensible, que es la entropía, que trataremos en 4.4.

La incertidumbre es función de restricciones. Toda incertidumbre es debido a la


ausencia de ciertas restricciones. Todo conocimiento es posible por la existencia de
restricciones. La equiprobabilidad implica ausencia de restricciones. La certeza implica la
presencia máxima de restricciones. Una situación intermedia lleva a una incertidumbre
relativa. Todos los conceptos de incertidumbre, información, propensión a suceder,
conocimiento giran alrededor de la noción de restricción sobre el cual volveremos en 4.7.

En particular, la organización se logra a través de la imposición de restricciones, que


imponen la reducción de la incertidumbre, tienden a hacer más predecibles el
comportamiento de los integrantes de la organización y permiten orientarla hacia ciertos
objetivos. La organización, como opuesta a la incertidumbre, permite la información. Hay
información porque hay restricciones. La medida de la información en la Teoría del mismo
nombre es justamente una medida de la organización como concepto opuesto a lo
aleatorio, como ordenamiento, como imposición de estructura. Sólo las restricciones
permiten la información, el orden, la organización, el conocimiento.

23

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Pero en lugar de definir la incertidumbre en función de las restricciones, se definen éstas en


función de la incertidumbre (una restricción es cualquier cosa que reduce la incertidumbre)
y la incertidumbre, a su vez, en función de la existencia de propensión a suceder y de
estados.

Se acostumbra calificar las situaciones de decisión en función de su estructura. Se habla así


de situaciones muy estructuradas o poco estructuradas. Se agrega, además, que la
incertidumbre es mayor en las situaciones poco estructuradas y menor o nula en las muy
estructuradas. En realidad, estas expresiones son tautológicas: estamos diciendo lo mismo
con otras palabras.

Una estructura es un conjunto de elementos con sus relaciones. Un sistema estático


(3.2.1), un sistema relacional (3.2.4), el universo (3.6.1) son estructuradas. Salvo que los
elementos sean infinitos, infinitos también sus valores y todos ellos absolutamente
compatibles, es decir infinitas relaciones entre todos los estados, una estructura implica
siempre ciertas restricciones: incluye determinados elementos y determinadas relaciones.
Las restricciones son máximas cuando elementos y relaciones son fijas y congeladas, de
modo que la estructura puede considerarse como un solo elemento, de probabilidad 1, es
decir de incertidumbre nula. La estructura de un edificio o de un puente puede considerarse
como un solo elemento inamovible e inmodificable. De este modo, existen estructuras
cuando existen restricciones y si bien el relacionar la incertidumbre con la estructura ayuda
a la comprensión de esos conceptos, la medición de ambos es única.

Existe información cuando hay estructura y existe estructura cuando hay restricciones.
Finalmente, estamos siempre hablando de lo mismo y sólo podrían precisarse estos
conceptos cuando inventemos una medida para ellos.

Debe quedar claro que tanto las restricciones como las estructuras deben ser percibidas por
el observador. Una situación puede ser altamente condicionada por restricciones pero si
éstas no son percibidas, entonces hay incertidumbre, bajo grado de estructura y bajo nivel
de conocimiento: una fuerte estructura real tiene una alta potencialidad de conocimiento.
Este se convertirá en conocimiento real a través de un proceso de indagación y de
aprendizaje. Real o impuesta como marco conceptual, la estructura (y por consiguiente las
restricciones) debe ser percibida para reducir efectivamente la incertidumbre.

En la Figura 4.2.3.1. se sintetizan estos conceptos.

Restricciones

Incertidumbre Estructura Información

Restricciones e Incertidumbre
Figura 4.2.3.1

24

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

4.3 Incertidumbre e información

1. Efectos de la información sobre la incertidumbre:

La palabra “información” es amplia y excesivamente utilizada, al punto de ser ambigua.


Algunos autores, como Bunge (1983, 5, pág. 103) se rehúsan a utilizarla para evitar
confusiones.

Definiremos información como conocimiento. Obtener información es obtener


conocimiento, finalmente aprender. Dar información es entregar conocimiento, finalmente
enseñar. Para que exista conocimiento es necesario que exista cierta estructura sobre el
universo conocido. La información reconoce así cierto grado de estructura revelada a través
de su procesamiento.

En el lenguaje común, es fácil advertir una confusión entre información y mensaje.


Mensaje es todo lo que acarrea información a través de un proceso de comunicación, con
independencia del soporte o naturaleza de dicho mensaje: una pedrada, un grito hostil, un
guiño, una muestra estadística, la comunicación de un acuerdo, la particular combinación
de luces de un semáforo son mensajes. En el caso de la pedrada, la información consiste en
algo así como el descubrimiento o la confirmación de un ánimo que nos es hostil; el soporte
de ese mensaje es la piedra; el proceso de comunicación comienza en el lanzador, pasa por
la piedra y su trayectoria y termina en la caída de la piedra y la interpretación que
efectuamos de todo el proceso. En este caso está claro que el medio es la información.

Es fundamental tener en cuenta que cuando nos referimos a conocimiento incluimos las
creencias, tal como lo expusimos en 4.1.2.

En principio, la adquisición de conocimiento acerca de un universo incierto debe reducir la


incertidumbre (si ese conocimiento recae sobre los aspectos inciertos, claro está). Si no
sabeos quien está en el cuarto, al abrir la puerta lo sabremos. El “abrir la puerta” es un
mensaje que acarrea cierta información (conoceremos quien está en el cuarto) y nuestra
incertidumbre se habrá eliminado totalmente (si es que conocemos quien o quienes están en
el cuarto).

En general, entonces, obtenemos información para reducir incertidumbre. (Ello es posible


cuando la incertidumbre está originada en el observador, que es la única que tendremos en
cuenta en todo este trabajo).

Es así que información e incertidumbre son términos antagónicos, en ese campo. Gran parte
de la actividad humana está dedicada a la obtención de información para reducir la
incertidumbre. Es así también que la Teoría de la Información adoptada la misma medida,
la entropía, pero con signo distinto, para información e incertidumbre. La información es
incertidumbre con signo contrario. Y es asevera, no sin razón, que información es todo lo
que reduce la incertidumbre.

Esto es verdad, pero no es toda la verdad. En efecto, podemos citar muchos casos en que la
“información” no reduce la incertidumbre: o la mantiene idéntica o la aumenta.

25

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

1) No sabemos si el cuarto está ocupado por Pedro, por Juan, por los dos o está
desocupado. Alguien s nos acerca y nos dice: “En el cuarto no hay nadie o está Pedro, o
está Juan o están los dos”.
Nuestra incertidumbre se mantiene idéntica. (Este universo puede asumir cuatro estados
posibles). Ha existido un proceso de comunicación, un mensaje nos fue transmitido
conteniendo información, pero no modificó nuestro conocimiento actual. Se nos transmitió
conocimiento que ya teníamos, que es redundante. Este conocimiento transmitido no
incrementó nuestro conocimiento adquirido previamente. No hemos aprendido nada. (Por
ello, puede decirse que hubo mensaje pero no información).

2) Estamos en la misma situación, pero el informante nos dice que además de Pedro y Juan,
también puede encontrarse Javier. De este modo, de un universo de cuatro estados posibles
hemos pasado a uno de ocho estados posibles (nadie; Pedro; Juan; Javier; Pedro y Juan;
Pedro y Javier; Juan y Javier; Pedro, Juan y Javier). (Asumimos, evidentemente, que el
informante es confiable, que creemos en él).
Hemos recibido un mensaje que acarrea información (conocimiento) pero esta vez aumentó
nuestra incertidumbre, es decir que conocemos menos acerca de quien puede estar en el
cuarto. El conocimiento recibido no se agregó, no se sumó al que teníamos. Al contrario, lo
redujo, lo disminuyó. El conocimiento incremental modificó nuestro stock de conocimiento
previamente adquirido pero no lo aumentó, lo disminuyó.
¿Qué ha pasado? El conocimiento incremental trasmitido por el informante ha aumentado
el número de estados que puede asumir nuestro universo, de cuatro a ocho. Es que nuestro
universo no era un universo cerrado, es decir un universo con un determinado e
inamovible número de estados posibles. No es un universo congelado con determinado
número de variables y cada una de ellas con determinado número de valores, en cantidades
inamovibles.
Nuestro universo –y en general los universos que hacen a la decisión- son universos
abiertos, que admiten la incorporación de nuevos estados tanto bajo la forma de nuevas
variables como bajo la forma de nuevos valores para una misma variable.

3) Volvamos al primer caso. Nuestra incertidumbre consiste en que no sabemos si el cuarto


está vacío, si es Juan o Pedro o ambos quien lo ocupa. Supongamos que, por cualquier
razón, tenemos que una fuerte creencia que Juan sólo está en el cuarto. En nuestra
terminología, diremos que la propensión a suceder del estado “Juan está en el cuarto” es
alta, es más alta que la propensión a suceder de los otros tres estados. Admitamos por ahora
que tenemos incertidumbre pero que la misma es relativamente reducida ya que tenemos
fuertes razones para creer que Juan está allí.
Nuestro informante ahora nos dice que estamos equivocados y nos convence que es tan
probable que Juan como Pedro como ambos estén en el cuarto. Nos convence entonces que,
en lugar de tener un estado (entre cuatro) altamente probable, tres de ellos tienen la misma
probabilidad y es alta.
Debemos admitir que ha aumentado nuestra incertidumbre. Los estados posibles son los
mismos pero de una cuasi certeza que uno de ellos era el “verdadero” pasamos ahora a una
mayor indefinición: tres de ellos son igualmente probables y el otro lo es un poco menos.
Hemos recibido información adicional pero ha aumentado nuestra incertidumbre,
disminuyendo nuestro conocimiento, sin modificar la cantidad estados de nuestro universo,
pero si modificando la propensión a suceder de los mismos, haciéndola más distribuida. En

26

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

términos de probabilidad, diremos que hemos cambiado hacia una mayor equiprobabilidad,
hacia una distribución con mayor dispersión.
¿Qué ha pasado? Es que nuestro universo (percibido) no sólo es abierto a nuevos estados
sino también a modificaciones de la propensión a suceder. Se trata de dos aspectos de un
mismo fenómeno: cuando se agregan estados (tanto a través de nuevas variables como a
través de nuevos valores para la misma variable) lo que realmente hacemos es modificar la
propensión a suceder de los estados no incluidos previamente por cualquier razón,
incluyendo la ignorancia de su existencia.
Tenían propensión a suceder nula. Eran imposibles. Al aceptarlos, le asignamos alguna
propensión a suceder, son ahora posible, son ahora posibles. En términos de probabilidad
han pasado de probabilidad cero a probabilidad mayor que cero.

El ejemplo anterior sugiere la siguiente clasificación de las consecuencias de la


información:

(1) La nueva información no modifica el conocimiento del número de variables, del número
de estados y de su respectiva propensión a suceder. Por lo tanto, el nivel previo de
incertidumbre se mantiene inalterable. En un sentido estricto, no hay información.

(2) La nueva información modifica el número de variables: aumenta o reduce la cantidad de


variables tenidas en cuenta por el decididor.

(3) La nueva información modifica el número de estados de una variable: aumenta o


disminuye el número de niveles, valores o grados que el decididor atribuye a una o varias
variables (y por consiguiente, si la propensión a suceder de esos estados se mide con
probabilidad, se modifica dicha propensión previamente fijada).

(4) La nueva información modifica la propensión a suceder de los estados, sin alterar éstos.

Los tres últimos casos, que son los que implican modificación del conocimiento previo,
pueden reducirse a uno solo: la información modifica la probabilidad asignada a los
distintos estados que el universo puede asumir. Formalmente, puede sostenerse que cuando
una información aporta al observador un estado desconocido o despreciado, se reduce a
asignarle una probabilidad mayor que cero. Todo estado no previamente considerado
(deliberadamente o no, conscientemente o no) puede definirse como estado con
probabilidad nula. El hacerlo entrar a consideración del observador un estado previamente
ignorado es transformar su propensión a suceder desde un valor nulo a cierto valor (y se
trata de probabilidad o de alguna medida con características semejantes –como sucede
siempre o casi- entonces, se modifican automáticamente todas las demás probabilidades
asignadas a otros tantos estados).

Por lo tanto, un mensaje acarrea información cuando modifica la probabilidad previamente


asignada a los estados de una variable dada. Esa modificación puede aumentar o disminuir
la incertidumbre la incertidumbre asociada a esos universos inciertos.

27

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

En general puede establecerse:

(1) Dadas dos variables cualesquiera, N y Z, una puede acarrear información acerca del
comportamiento de la otra, y viceversa, cuando el comportamiento de ambas no es
independiente: si el comportamiento es independiente, no hay información posible.

(2) Si un observador cree que existe una sola información posible, entonces no existe
información. Sólo existe información cuando hay por lo menos dos mensajes posibles, de
acuerdo con lo percibido por el observador.

(3) De un conjunto de mensajes posibles, algunos aumentarán la incertidumbre, otros la


reducirán, otros la mantendrán constante. Pero, en promedio, el conjunto de mensajes
posibles analizados antes de la recepción de alguno de ellos, siempre disminuye la
incertidumbre.

Estas consideraciones generales son de extraordinaria importancia y no es este el lugar para


desarrollarlas en profundidad (véase, Pavesi, 1986) pero volveremos sobre ellas en este
capítulo.

2. Información en universos abiertos y cerrados:

Un universo es cerrado desde el punto de vista de la información cuando:

(1) Sus variables están determinadas y no pueden modificarse.


(2) Los valores posibles de esas variables están determinados y no pueden modificarse.
(3) La propensión a suceder de los estados derivados de valores y variables son
determinados y no pueden alterarse.

Esta definición es más compleja que las clásicas sobre este tema (por ej. Sabih, pág. 24),
pero es esencialmente idéntica. Las circunstancias especiales de la decisión nos obligan a
redefinir los conceptos de clausura y abertura. La definición más precisa de universo
cerrado, aplicable también a nuestro tema, es la matemática de “clausura”: un conjunto de
números es cerrado con respecto a una operación determinada cuando el resultado de esa
operación aplicada a dos números cualesquiera del mencionado conjunto, también es un
elemento de dicho conjunto. Nada se crea: la transformada (resultado) de toda
transformación (operación) ya se encuentra previamente incluida en el universo.

En un universo cerrado, por lo tanto, la incertidumbre se reduce a un vector de


propensiones a suceder del conjunto inamovible de estados posibles.
En un universo cerrado, la incertidumbre se reduce a una distribución objetiva de
probabilidades objetivas. En general, el estudio de la incertidumbre y las técnicas para
tratarla se han desarrollado en universos cerrados. La estadística tradicional, los modelos de
procesos estocásticos (como las Cadenas de Harkov), aún la Teoría del Valor de Von
Neumann y Morgenstern se desenvuelven en sistemas cerrados. De gran importancia para
nosotros, es que la Segunda Ley de Termodinámica, con su concepción de la entropía,
también se desarrollan en universos cerrados.

28

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Pero en un mundo de ignorancia permanente –si bien de diversa intensidad-, en un mundo


donde la creencia puede reemplazar al conocimiento científico, en un mundo donde el
temor, los prejuicios, los estados de ánimo influyen en la concepción y en la percepción del
universo y en la conducta humana, los universos cerrados ya no son suficientes.

Los universos cerrados son cómodos. Están basados en una estructura de certeza dentro de
la cual existe incertidumbre absolutamente acotada. La Teoría de la Información es un
arquetipo de modelos basados en universos cerrados. En una caja existe cierta cantidad de
mensajes posibles. Cada uno de ellos tiene cierta probabilidad de ser emitido, o cada uno de
ellos tiene cierta probabilidad de representar la verdad. Si se me dice que el mensaje cierto
se encuentra en la primera mitad de la caja (o que su numeración es par, por ejemplo), esa
información reduce la incertidumbre a la mitad. No hay otra información posible: siempre
reducirá la incertidumbre porque no hay información posible que pueda modificar la caja,
modificar el número de mensajes incluidos en ella, ni siquiera modificar la probabilidad de
los mensajes. En este caso, siempre, toda información reduce la incertidumbre.

Pero como bien dice Sabih (pág. 242) los supuestos de la Teoría de la Información de
Shannon se cumplen en ingeniería de las telecomunicaciones pero de ninguna manera se
cumplen tan a menudo en el mundo biológico (y mucho menos agregamos nosotros, en el
mundo de los seres inteligentes). Pero tampoco lo pretendía Shannon, quien no deja de
insistir que su teoría es ingenieril y que no se preocupa por el significado de los mensajes
(Shannon, en Shannon y Weawer, pág. 3).

En efecto, para la Teoría de la Información. La “cantidad” de información de un mensaje


no depende de su contenido, de su aspecto semántico sino de la probabilidad de su emisión.
El contenido es importante sólo en la medida en que influye en esa probabilidad. El número
de mensajes (para nosotros, estados) y su probabilidad está dado y es inamovible.

Weawer, el máximo glosador de Shannon, aclara que la palabra “información” es utilizada


en dicha teoría en un sentido diferente al del uso corriente. En particular, “información” no
debe ser confundida con “significado” (o conocimiento en nuestro lenguaje). Agrega que la
información es la medida de la libertad que uno tiene cuando selecciona un mensaje
(Shannon y Weawer, pág. 99/100). “El concepto de información se aplica, no al mensaje
individual (como lo requeriría el concepto de significado) pero más bien a la situación
como un todo” (ibidem, pág. 100). (Confirma Sayres pág. 18 entre otros).
En este contexto, en efecto, la información siempre reduce la incertidumbre, por definición
(véase, por ejemplo, Cherry, pág. 168, pág. 180).

Un universo es abierto cuando cualquiera de las tres condiciones expresadas anteriormente


(o cualquier combinación de las mismas) no se cumple.

En un universo cerrado, la información siempre reduce la incertidumbre. En un universo


abierto, la información reduce, aumenta o mantiene la incertidumbre. La modificación de la
incertidumbre siempre se opera a través de la modificación de la propensión a suceder de
estados incorporados (o no incorporados) al comportamiento del universo.

29

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Un universo cerrado es inmutable. Un universo abierto puede ser considerado como una
sucesión de universos cerrados diferentes. Esta es la situación más importante en la cual
se aplica la decisión.

Un inversor piensa que la cotización de cierta acción puede aumentar levemente, dentro de
cierto rango. En cierto momento, recibe la información que la empresa cotizante está por
celebrar un negocio que puede rendirle gran beneficio o gran pérdida. Esta información
aumenta la incertidumbre del decididor.

D se presenta en una licitación en la cual sabe que competirán con él, tres empresas locales
conocidas. En el momento de la presentación descubre que una cuarta empresa
internacional ha entrada también. Esa información adicional aumenta su incertidumbre.

Un médico diagnostica, en base a ciertos síntomas, una enfermedad determinada. Al recibir


los análisis solicitados descubre más indicios que hacen que sean posibles 2 o 3
enfermedades adicionales y poco frecuentes.

Como veremos más adelante, en un universo abierto, la información reduce, aumenta o


mantiene la incertidumbre según introduzca, finalmente, más restricciones en el universo
considerado, elimine restricciones o las mantenga iguales. Ese proceso de modificación de
restricciones puede ser complejo y desarrollarse a través de una sustitución simultánea de
varias restricciones.

Por consiguiente, “información” tiene dos sentidos:

Amplio, con el sentido de conocimiento y puede aumentar, mantener o disminuir el


universo percibido por el decididor.

Específico, en el sentido de reducción de la incertidumbre. Todo conocimiento que no


reduce la incertidumbre no es información.

3. El exceso de información:

No podemos dejar de referirnos a un problema permanente en la vida diaria. Frente a la


incertidumbre, el decididor recoge información en exceso. Esta información aparece como
contradictoria y su incertidumbre va oscilando pero finalmente se incrementa, aumentando
la desorientación del decididor.

La información es conocimiento y como tal pasa siempre por uno o varios observadores,
inmersos en sus circunstancias, con su propia visión del mundo. Cuando la información
proviene de otra persona, dos son los sujetos intervinientes. El emisor tiene su propia
imagen del universo, condicionada por sus propios valores y su personalidad. Trasmite esa
imagen, generalmente con fallas de transmisión (ruidos). También con fallas la recibe el
receptor que la interpreta con su propia visión del mundo, sus propias circunstancias. Es así
que un exceso de información puede llegar a ser pernicioso.

30

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

El exceso de información se origina generalmente en la dificultad en admitir la


incertidumbre como característica inalterable del universo, incluyendo el propio decididor.
No es fácil saber cuando dejar de indagar, de solicitar información adicional. Restricciones
prácticas (tiempo, recursos) facilitan la metadecisión de seguir o cesar la búsqueda de
información. Un cuidadoso análisis de la información recibida permitirá seleccionarla de
acuerdo con la propia visión del decididor. Pero, finalmente, será necesario zambullirse,
apostar, asumir el riesgo. Es ésta una de las condiciones de los universos abiertos que en
general frecuentamos.

Finalmente, la confusión causada por el exceso de información es originada en el carácter


subjetivo, individual de la incertidumbre y del conocimiento. La información recogida
aporta la percepción de distintos decididores, en distintos momentos, con distinto nivel de
conocimiento y con su particular nivel de discriminación, ponderación, selección y valor.
En un universo “cerrado” y “objetivo” ello no sucedería.

Por lo tanto, el exceso de información puede ser perjudicial en universos abiertos. En


universos cerrados, no hay exceso de información; la inmovilidad de las estructuras
probabilísticas lleva a estados estables de equilibrio (del tipo de las cadenas de Markov).

4.4. Modelo del universo incierto

1. El conjunto de estados posibles:

La incertidumbre puede recaer sobre:

(1) Las variables a ser incorporadas al universo a analizar.

(2) Los valores, niveles, grados a ser incorporados al conjunto de valores potenciales
posibles de esas variables.

(3) La propensión a suceder de esos valores posibles.

No entraremos en la incertidumbre del caso (1). Variables y valores forman estados, de


modo que, finalmente, esa incertidumbre recae sobre el número de estados. La propensión a
suceder cuando es precisamente conocida conforma una situación de incertidumbre. A su
vez, cuando no se le puede determinar exactamente, cuando se convierte en una variable
que también tiene cierta propensión a suceder, entonces la incertidumbre aumenta.

Dado un universo con cierto número m de variables, cada una de ellas con cierto número hi
de valores, todos los estados imaginables están dados por el producto cartesiano:

X1t x X2t x … Xit x … Xmt

donde: Xit : Conjunto de valores potenciales de la variable xi en el momento t (ver 3.6).

31

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Dado el siguiente universo (variables y valores):

X1t : A, B, C

X2t : W, X, Y, Z

X3t : 1, 2

El conjunto de estados imaginables (o el conjunto de todos los estados posibles si todas las
variables y sus valores fuesen compatibles) es el producto cartesiano X1 x X2 x X3:

(A, W, 1), (A, W, 2), (A, X, 1), (A, X, 2), (A, Y, 1), (A, Y, 2), (A, Z, 1), (A, Z, 2)

(B, W, 1), (B, W, 2), (B, X, 1), (B, X, 2), (B, Y, 1), (B, Y, 2), (B, Y, 1), (B, Z, 2)

(C, W, 1), (C, W, 2), (C, X, 1), (C, X, 2), (C, Y, 2), (C, Y, 2), (C, Y, 1), (C, Z, 2)

Este conjunto de estados contiene W = 24 estados.

Podemos imaginar que todos ellos están asociados a alguna propensión a suceder que
mediremos en probabilidad. Esta probabilidad podrá tener en algunos casos valor cero (el
estado correspondiente es imposible), alguna podrá tener valor uno (todos los estados, salvo
el correspondiente a dicha probabilidad, son imposibles). El valor de esa probabilidad
depende de las restricciones absolutas o relativas impuestas a ese universo.

Para mayor comodidad de escritura reemplazaremos la expresión anterior de los estados por
las letras del alfabeto de modo tal que:

(A, W, 1) = a (A, W, 2) = b …... (C, Z, 2) = x

A cada estado del universo en el momento t, corresponde un conjunto de estados posibles


en el momento t+1 con su probabilidad asociada. Decimos estados posibles porque no
tendremos en cuenta los que tienen probabilidad nula. Cada conjunto de estados posibles
asociados con sus probabilidades es un universo (o si se prefiere, un subuniverso)
aleatorio. (4.2.2).

Es legítimo pensar, para que el modelo sea suficientemente general, que la probabilidad de
un estado dado es una probabilidad condicionada por el estado exhibido por la variable en
el momento anterior. Por lo tanto, por ejemplo, si Et = a, p(at + 1) = 0,8 pero si Et = q,
p(at + 1) = 0,2.

Admitamos que en el momento t+1 las probabilidades asociadas a los estados son
condicionales de este tipo: si el estado anterior es j la probabilidad del estado i en el
momento siguiente es pij = p(Eit + 1 /Ejt).

Esta particular probabilidad de pasar de un estado a otro es una probabilidad de


transición. Si el decididor no interviene en la transición, se trata de una probabilidad

32

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

autónoma de transición. Si el decididor influye en la transición (y, por lo tanto, en su


probabilidad) es una probabilidad influenciada de transición.

De este modo, en todo modelo de universo incierto, es necesario tener en cuenta cuatro
clases de probabilidades:

(1) La probabilidad de un estado determinado a priori.


Dado un estado Et, se le asocia una probabilidad p(Et), antes de cualquier cambio de la
variable en cuestión.

(2) La probabilidad de un estado determinado a posteriori.


Dado un estado determinado Eit, la probabilidad de que la variable adopte el estado Ejt + 1
en el momento siguiente es p(Ejt + 1/ Eit) abreviada en este punto en particular como p, y
llamada también en este caso especial probabilidad de transición. Es evidente que,
mientras no se esté al comienzo físico de un universo dado, toda probabilidad a posteriori
del momento t-1. De este modo es necesario no olvidar el carácter relativo de los
calificativos “a priori” y “a posteriori” y especificar los momentos correspondientes.
Si ambos estados son independientes, es decir que el estado anterior no influye sobre el
posterior, tendremos que p(Ejt + 1/ Eit) = P(Ejt + 1). Esta probabilidad se utiliza para las
transiciones autónomas.

(3) La probabilidad de un estado determinado a posteriori dada una acción determinada


del decididor.
Dado un estado determinado Eit, la probabilidad que la variable alcance el estado Ejt + 1 si el
decididor adopta el curso de acción Sq o sea p(Ejt + 1/ Eit *Sq). Esta probabilidad se utiliza
en los casos de transición influenciada.

(4) La probabilidad conjunta de dos estados determinados en dos momentos distintos.


Dado el estado Eit en el momento t y el estado Ejt + 1 en el momento t+1, la probabilidad
que la variable exhiba los estados Ei y Ej en ambos momentos es p(Eit * Ejt + 1).
Si ambos estados son independientes, es decir si el estado anterior no influye sobre la
aparición del posterior, tendremos que p(Eit * Ejt + 1) = p(Eit) * p(Ejt + 1).

De esta forma tendremos dentro del marco expuesto en el Capítulo III, el vector y la matriz
de la figura 4.4.1.1.
Estado en t Estados posibles en t + 1

a (a, Paa); (b, Pab) …… (x, Pax)

b (a, Pba); (b, Pbb) …… (x, Pbx)


. . . .
. . . .
x (a, Pxa); (b, Pxb) …… (x, Pxx)

Matriz de comportamiento incierto


Figura 4.4.1.1

33

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Cada fila de los estados posibles representa un subuniverso incierto (4.2.2). No


obligatoriamente cada universo aleatorio tiene la misma cantidad de estados, si es que se
eliminan los estados imposibles. La ley de comportamiento está representada por la
relación multívoca entre cada estado posible en t y el conjunto de estados posibles en t+1
para cada uno de los de t.
La suma de las Pij en cada columna, evidentemente, debe sumar 1.

De esta forma, todo universo puede representarse por una matriz {E, P} donde cada
columna (o fila) es un vector cuyos elementos son los pares: <Estado, probabilidad de este
estado dado un estado anterior>.

La matriz de comportamiento de la Figura 4.4.1.1 es un instrumento conceptual para


describir el comportamiento de un universo (en este caso, cerrado en cuanto a los estados)
en dos momentos diferentes. Nos ayuda a modelizar universos complejos y dinámicos.
Cada fila nos dice cuales son los estados que el universo puede alcanzar, con sus
respectivas probabilidades, dado un estado actual de partida. En este caso, no hemos hecho
intervenir las alternativas del decididor para modificar estados y probabilidades. Se trata de
una descripción de statu-quo (comportamiento autónomo (3.12) del universo, sin
intervención del decididor) o del comportamiento previsto del universo como consecuencia
de la elección de un curso de acción determinado.

Hemos visto en el Capítulo III que un estado de un universo de m variables es un punto en


el espacio de m dimensiones. Cada fila d la Matriz de Comportamiento puede representarse
en un espacio-comportamiento del universo.

Dado un estado actual cualquiera, supongamos k, una fila de la matriz de la Figura 4.4.1.1
se transforma a su vez en una matriz de decisión descripta en la Figura 4.4.1.2

Estado en t Acciones alternativas en t Estados posibles en t+1

. Sk1 (a, P1ka); (b, P1kb) …. (x, P1kx)

k Sk2 (a, P2ka); (b, P2kb) …. (x, P2kx)


. . . . .
. . . . .
. . . . .
. Skm (a, Pmka); (b, Pmkb) …. (x, Pmkx)

Matriz de comportamiento y de decisión


Figura 4.4.1.2

Las probabilidades pqij indican la probabilidad de obtener el estado Ej, estando en el estado
Ei y utilizando la alternativa (curso de acción) Sq, o sea:

Pqij = p(Ej a través de Sq /Ei)

34

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Se trata de una probabilidad influenciada de transición. Si damos por determinado el estado


inicial o actual en el momento t (como lo haremos comúnmente) entonces ese estado pierde
relevancia y pqij se transforma:

pqij = p(Ej /Sq) = pqj

que es la probabilidad que acostumbraremos utilizar (probabilidad de obtener el estado Ej si


adoptamos la acción Sq).
Si la probabilidad del estado Ej es independiente de Sq (si no es influenciable por la acción
de D) entonces podemos prescindir de Sq y tendremos:

pqj = pj = p(Ej)

Cada fila de la matriz 4.4.1.2 es un universo aleatorio en el sentido definido en el punto


4.2.2.

¿En qué consiste la decisión? En esforzarse en que, dado un estado actual del universo:

(1) Si el estado deseado se encuentra en la fila correspondiente al estado actual (o puede


alcanzarse a través de varios períodos a partir del estado actual), transformar su
probabilidad de suceso en certeza o, por lo menos, en maximizarla.

(2) Si el estado deseado no se encuentra en la fila correspondiente al estado actual por ser
considerado imposible, convertir su probabilidad nula en una probabilidad mayor que cero
y maximizarla.

Para ello, deberá generar los cursos de acción que realicen lo mejor posible este proceso.

Evidentemente, este esfuerzo tendrá un costo de recursos que podrían ser dedicados a otro
esfuerzo. La evaluación de la decisión consistirá en medir si el resultado a obtener tiene un
valor superior a los esfuerzos a brindar.

A los ojos del decididor, entonces, pij como probabilidad condicional de transición
p(Eit+1 /Ejt) aparece como integrando dos tipos de eventualidad:

(1) La originada en la naturaleza de las variables bajo consideración y en la influencia de


las demás variables del contexto.

(2) La originada por la aplicación de recursos (acción del decididor) tales como tiempo,
talento, dinero, etc.

El análisis de la decisión nos obligará a discriminar los distintos elementos de la matriz de


comportamiento a fin de separar las variables controlables (sobre las cuales puede influir el
decididor) de las no controlables (a las cuales debe someterse en el horizonte de la
decisión).

35

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Supongamos que la matriz de la Figura 4.4.1.1 representa una situación de statu-quo


(simbolizada en este trabajo con So, alternativa básica, es decir, que todos los estados
posibles del momento t+1 son estados autónomos (3.12).

Supongamos que el decididor quiere modificar esta situación. A cada estado actual (en t)
posible se le presentan una serie de cursos de acción que lo conducirán hacia un conjunto
de estados posibles con sus respectivas propensiones a suceder (universos o activos
aleatorios). Si las circunstancias son favorables, podrá alcanzar su estado objetivo en el
período de planeamiento. Si no, deberá reiterar varias veces, en la medida de lo posible, sus
procesos de decisión hasta lograr o modificar sus objetivos.

2. El espacio-comportamiento

Hemos tratado el concepto de espacio-comportamiento en el Capítulo III (3.7.1).


Supongamos un universo con dos variables y los siguientes valores posibles:

Variable Valores
X1 =, ?, /
X2 Y, Z

Se origina así un conjunto de 6 estados posibles a través del producto cartesiano X1*X2: (=,
Y) (=, Z) ….(/, Z). Para mayor facilidad de escritura, los simbolizaremos con las letras del
alfabeto a, b, c, d, e, f.

Supongamos que el universo se encuentra actualmente en el estado a (=, Y) y que dejado a


sí mismo (Statu quo S0), la situación futura es la siguiente:

Estado en t Acción en t Estados en t+1 con sus respectivas probabilidades


a S0 ESt+1: a b c d e f

P(ESt+1/S0): 0,3 0,1 0,2 0,1 0,2 0,1

El espacio-comportamiento previsto es el siguiente:

X2

Z b 0,1 d 0,1 f 0,1

Y a 0,3 c 0,2 e 0,2

= ? / X1
Espacio-comportamiento previsto en t para t+1

36

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Supongamos que D desea entrar en Et+1 = f. Decide entonces adoptar un curso de acción S1
que modificará la situación de la siguiente forma:

Et+1 Acción ESt+2, P(ESt+2/S2)


d S3 E: a b c d e f
P: 0 0 0 0 0,1 0,9

Finalmente, en t+3 el universo alcanza el estado f, deseado por D, es decir, su objetivo.

La sucesión de espacios-comportamientos previstos serán:

0,3 0,3 0,2 0,5 0,9

0,2 0,2 0,3 0,1

Previsto en t para t+1 Previsto en t+1 para t+2 Previsto en t+2 para t+3
con S1 con S2 con S3

El gráfico del comportamiento final del universo bajo la influencia de las decisiones de D
es el siguiente:

X2 d f

a e

X1

Comportamiento del universo

Si en cada momento de decisión, D hubiera tenido otras alternativas, cada una de ellas
hubiera marcado en el espacio de comportamiento regiones como las marcadas en los
gráficos anteriores, las que pueden superponerse total o parcialmente.
Las probabilidades de los estados incluidos en esas regiones suman la unidad. Podemos
imaginarnos, por ejemplo, una situación de este tipo:

37

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

La cruz x marca el estado actual antes de la decisión.

Cada región marca los estados posibles esperados como consecuencia de cada alternativa
S1, S2, S3, S4 y S5. Cada una de ellas (con la excepción de S5) se divide en tres subregiones
con una probabilidad determinada.
En el caso de S5, la región de los estados posibles se reduce a un punto, a un solo estado.
(Cada estado, evidentemente, está compuesto de dos valores x1 y x2).

Cada región asociada a cada alternativa tiene cierta incertidumbre. En el caso de S, este
curso de acción lleva hacia un resultado cierto, de incertidumbre nula. El decididor elegirá
alguna de las regiones esperadas en base a criterios de valuación. Evidentemente, el
resultado real puede ser bien distinto al esperado (estimado).

En el punto 4.7 volveremos sobre los espacios-comportamientos al tratar las restricciones.

3. Las matrices aleatorias

Las probabilidades condicionales P(Ejt+1/ Eit) van variando a través del tiempo, por la
misma naturaleza e interacción espontánea de las variables o por la intervención del
decididor.

En ciertos casos pueden suponerse constantes, lo que facilita el cálculo del comportamiento
futuro del universo (con el riesgo de un fuerte alejamiento de la realidad). Técnicas
ampliamente utilizadas como las cadenas de Harkov o las matrices de coeficientes
tecnológicos de Leontieff se basan en esta fuerte premisa.

En la realidad, esas probabilidades, llamadas también de transición van cambiando. Puede


representarse las probabilidades de transición (probabilidades condicionales de obtener un
estado x si el universo se encuentra en un estado y) por una matriz aleatoria como la
siguiente: (x)
a b c

a 0,1 0,3 0,6

(y) b 0,7 0,1 0,2

c 0,3 0,6 0,1

38

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Esta matriz de transición (o transformación) es una matriz aleatoria porque suma la unidad
en sus filas. La flecha de izquierda a derecha indica que los de las filas corresponden a los
estados anteriores (t) y los estados de las columnas a los estados posteriores (t+1). De este
modo, la matriz nos revela que, encontrándose la variable (o el universo) descripta por la
misma en el estado a, la probabilidad de mantenerse en el mismo es 0,1; la de exhibir en
t+1 el estado b es 0,3 y el estado c es 0,6. Evidentemente, cada fila suma 1.

Estas matrices dan lugar, considerando fijas las probabilidades y a través de su aplicación
repetida, a las llamadas cadenas de Harkov que expondremos en ejemplos y ejercicios. La
metodología utilizada trata de averiguar cual será el equilibrio del universo, partiendo de un
estado (o grupo de estados) determinado y aplicando sucesivamente la matriz aleatoria de
transición repetidas veces. Es decir, cuál será el estado del universo luego de repetidas
transformaciones.

Cualquiera sea el estado en que se encuentre el universo, el decididor tratará de llevarlo


hacia el estado-objetivo. Ya hemos visto al tratar el espacio-comportamiento como esa
acción consiste, finalmente, en modificar la matriz de probabilidades de transición para
eliminar estados no deseados e incrementar la probabilidad del estado deseado. De este
modo, lo que se pretende, como objetivo máximo es la siguiente modificación de la matriz
aleatoria, a título de ejemplo:

a b c a b c a b c

a 0,1 0,3 0,6 a 0,1 0,9 0 a 0 1 0

b 0,7 0,1 0,2 b 0 0,9 0,1 b 0 1 0

c 0,3 0,6 0,1 c 0,1 0,8 0,1 c 0 1 0

(1) (2) (3)

La matriz (3) indica que, cualquiera sea el estado en que se encuentra el universo, siempre
se llegará al estado b que es el objetivo. No siempre pueden obtenerse esas probabilidades
(generalmente, no) pero una situación como la (2) puede resultar muy interesante.

Supongamos que el universo se encuentra en Et = a. Por consiguiente podemos representar


el conjunto de estados posibles (universo incierto) por el siguiente vector:

a b c
Et:
1 0 0

en el cual cada elemento está asociado con su probabilidad. ¿Cuál será la probabilidad de
cada estado en el momento t+1? Evidentemente, se multiplica el vector de probabilidades
de los estados actuales por la matriz de transición:

39

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

[ 1, 0, 0 ] * 0,1 0,3 0,6


0,7 0,1 0,2 = [0,1; 0,3; 0,6]
0,3 0,6 0,1

Por consiguiente, si en t el universo está en a, en t+1, la probabilidad de estar en a es 0,1,


en b es 0,3, en c es 0,6.

Si la matriz no se modifica, ¿cuál será la situación en t+2?

[ 0,1; 0,3; 0,6 ] * 0,1 0,3 0,6


0,7 0,1 0,2 = [0,40; 0,42; 0,18]
0,3 0,6 0,1

De la misma forma, en t+3 tendremos [0,388; 0,27; 0,342]

¿Podría llegar un momento en que en el momento siguiente, no obstante la aplicación de la


matriz de transición, el universo aleatorio de estados y sus probabilidades se mantienen
constantes? En este caso, se dice que el sistema ha llegado a una situación de equilibrio.

Hemos visto que, considerando Et como un vector, que

Et+1 = Et * T
donde T es la matriz de transición.

Por consiguiente:
Et+2 = Et+1 * T = Et+1 = Et * T2

y Et+n = Et * Tn = Et+n-1

Utilizando las reglas de multiplicación de un vector por una matriz la situación de


equilibrio puede representarse por las siguientes ecuaciones simultáneas:

a' = 0,1 a + 0,7 b + 0,3 c = a


b' = 0,3 a + 0,1 b + 0,6 c = b
c' = 0,6 a + 0,2 b + 0,1 c = c

donde, a’, b’, c’ son las probabilidades de los estados a, b, c en el momento posterior y a,
b, c son las probabilidades de los estados a, b, c en el momento anterior en condiciones de
equilibrio. Con solo resolver las ecuaciones hallaremos los valores de las probabilidades de
a, b, y c en equilibrio. Observemos que no todas las ecuaciones son independientes ya que
definidas dos incógnitas, la tercera es obligatoriamente determinada. Reemplazaremos una
de las ecuaciones por una ecuación independiente. Evidentemente, ésta será:

a+b+c=1

El resultado será (calcúlelo usted también, el redondeo molesta la prueba):

40

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

p(a) = 0,36
p(b) = 0,33
p(c) = 0,31

Esta será la estructura del universo en equilibrio si no se modifican las probabilidades de


aparición de los estados y luego de varios períodos los estados se aproximan a la
equiprobabilidad. Obsérvese que en el cálculo no aparece ninguna mención al estado
inicial: el equilibrio es independiente del estado inicial. Este universo es de memoria muy
corta: sólo recuerda el estado anterior. Evidentemente, éstos no son los universos que
acostumbramos a manipular, pero creemos importante conocer este tipo de comportamiento
al cual podemos acercarnos introduciendo restricciones metodológicas para reducir la
complejidad del universo.

(De todos modos, la falta de memoria es sólo aparente ya que el estado Et+n “se acuerda”
sólo del estado Et+n-1 pero éste a su vez está condicionado por el Et+n-2…. y así seguido
hasta llegar al estado inicial).

Estas matrices (cadenas de Harkov) no deben sólo servir para describir los estados
autónomos del universo sino que deben inducir a introducir modificaciones que logren
matrices de transformación más acordes con los objetivos del decididor.

4. La carencia de probabilidad

En el punto 4.2.1 hemos analizado los distintos niveles de incertidumbre. La mayor parte de
los modelos se han desarrollado en el ámbito de la cuasi-certeza. Se trata de los modelos de
riesgo, ámbito de la Estadística, donde la propensión a suceder de los distintos estados
posibles es medida en probabilidades y éstas son suficientemente conocidas o inferidas. Se
trata de una situación de información completa.

Todo el punto siguiente, así como el presente, tratan situaciones de probabilidades


conocidas. ¿Qué pasa en los otros casos, en los cuales la propensión a suceder es
difícilmente transformables en una medida de escala racional? Desarrollaremos
oportunamente estos puntos. Pero podemos adelantar que las metodologías son cada vez
menos precisas y cada vez más subjetivas cuando ascendemos los niveles de incertidumbre.
De todos modos, el ser humano se ha arreglado hasta ahora y progresa en el tratamiento de
estas situaciones. En la mayoría de los casos, lo hace imponiendo restricciones, a veces
drásticas, para llevar una situación compleja a ser procesable. (Por ejemplo, el criterio de
Laplace al sustituir el desconocimiento total de la propensión a suceder por la
equiprobabilidad). A veces, sólo impone un ordenamiento, una clasificación que le permite
discriminar distintos criterios. A veces, sólo le queda el procedimiento de prueba y error, en
la esperanza de encontrar alguna regularidad (restricción al fin y al cabo) que le permite
conocer mejor el universo incierto. Finalmente en un universo caótico, donde los estados
son muchos y equiprobables, poco y nada podrá hacer.

En estos casos es legítimo estimar el grado de propensión a suceder con expresiones


verbales: “es altamente probable”, “no es muy probable”, “es muy poco probable”. Ello

41

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

sirve para establecer una escala ordinal que es susceptible, a su vez, de tratamiento
analítico.

Veremos la problemática de la medición de la probabilidad en el capítulo siguiente.

4.5. Una medida de la incertidumbre y de la información: la entropía

1. Características de una medida de la incertidumbre (un caso de “riesgo”):

Ante todo, debemos admitir que la incertidumbre tiene grados, es decir, que la
incertidumbre es, a su vez, una variable susceptible de adquirir niveles.

Aparece como razonable establecer que los grados de incertidumbre dependen de:

(1) Los estados diferentes del universo (variables y valores).

(2) Propensión a suceder de estos valores.

Es evidente que estados y propensión a suceder dependen del decididor y de su


conocimiento en un momento dado.

De este modo, supongamos los tres universos (distribuciones, universos aleatorios)


siguientes:

Universo S Estados 1 2
Probabilidad 0,5 0,5

Universo U Estados 1 2 3 4
Probabilidad 0,25 0,25 0,25 0,25

Universo Z Estados 1 2 3 4
Probabilidad 0,1 0,1 0,7 0,1

El universo S debería exhibir una incertidumbre menor que la del universo U. En ambos los
estados son equiprobables, pero S tiene menos estados.

El universo U debería exhibir una incertidumbre mayor que la del universo Z. Ambos
tienen el mismo número de estados pero en Z uno de ellos tiene una fuerte propensión a
suceder en tanto que en U todos son equiprobables.

No es fácil, a primera vista, comparar el universo S con el universo Z. El primero tiene


pocos estados pero son equiprobables. El segundo tiene más estados pero uno de ellos es
altamente probable. En el próximo punto veremos la medida de incertidumbre de los tres.

Cuando hablamos de estados estamos hablando de todos los que pueden formarse entre los
distintos valores de las variables. El número de estados (el cardinal del conjunto de estados)

42

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

fue simbolizado en 3.8.4; 3.9 y 3.10 por W. Por lo tanto existen W estados posibles. Ese
número puede estar formado por distintas combinaciones de variables y valores y pero ello
no importa desde el punto de vista global de la medida de la incertidumbre.

Por ejemplo, los cuatro estados del universo Z pueden ser cuatro niveles de una misma
variable, o provenir de dos variables con dos niveles cada una o de una variable con 3
niveles y una constante.

Por lo tanto, parece legítimo exigir una medida de incertidumbre que:

(1) Aumente con el aumento del número de estados.

(2) Disminuya con la mayor propensión a suceder de un estado determinado.

(3) Sea insensible a la variación de los niveles de las variables analizadas o de la unidad de
medida de la misma.

Varias han sido las medidas propuestas para medir la incertidumbre. La media (valor
esperado) y la dispersión (varianza o desvío medio cuadrático o desvío standard o momento
segundo) son las más conocidas.

El valor esperado es un pésimo indicador de la incertidumbre y nadie lo propone seriamente


para ello (si bien es muy utilizado como representativo de un activo aleatorio). Universos
de muy distinta incertidumbre pueden exhibir el mismo valor esperado y esta situación es
muy frecuente. Supongamos un universo U con una sola variable que puede alcanzar 100
niveles medidos en unidades monetarias desde $1 a $100 cuya probabilidad asociada es de
1/100 para cada valor y un universo W cuya única variable puede únicamente alcanzar el
valor $50,50 con, evidentemente, probabilidad 1 (certeza). Ambos tienen el mismo valor
esperado pero U exhibe una alta incertidumbre y W no exhibe ninguna.

El desvío medio cuadrático (o la varianza) es, al contrario, una poderosa medida de la


incertidumbre. Decididamente propuesta en la década de los ’30 (Marschak) como
instrumento a ser incorporado al análisis económico, constituye un elemento obligado de
variados y múltiples modelos de decisión, especialmente de finanzas, entre los cuales se
destaca el “Análisis de cartera” (Portfolio Análisis) de Markowitz y seguidores. El desvío
medio cuadrático adolece también del mismo defecto del valor esperado: en ciertos casos,
universos de muy diferente grado de incertidumbre exhiben el mismo.

(Además –eventualmente- del mismo valor esperado, ver ejemplo 4.4.1.1). Pero estos casos
de falta de discriminación del momento segundo son mucho menos frecuentes que para la
media. El problema fundamental de la dispersión como medida general de la incertidumbre
es que, justamente, no es suficientemente general. En efecto, se trata de una medida que
requiere que:

(1) Las variables adquieran valores, niveles o grados numéricos.

43

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

(2) Estos valores numéricos pertenezcan a una escala de intervalo por lo menos, o superior
(en general una escala proporcional). (El problema de las escalas se trata en el próximo
capítulo).

En el lenguaje común –extremadamente inapropiado en estos casos- diríamos que es una


medida cuantitativa u objetiva.
Por ejemplo, supongamos el siguiente universo aleatorio:

Estados Excelente Normal Malo


Propensión a suceder 0,3 0,5 0,2

En este caso, -que es común en ámbito de la decisión- el momento segundo no tiene sentido
ya que no puede calcularse. Tampoco lo tiene en el caso de los universos S, U y Z incluidos
anteriormente si el número asignado a los estados pertenece a una escala nominal, es decir,
si es un simple marbete indicador.

Por otra parte, (y en consecuencia de lo mencionado anteriormente) como podrá apreciarse


en los ejemplos incluidos más adelante, el desvío medio cuadrático está fuertemente
influenciado por el nivel de las variables, además del número de estados y de su
probabilidad, ya que está formado por la particular medida de esos niveles. Estrictamente,
una medida de la incertidumbre debería ser independiente de la medida de los niveles o de
los valores de las variables. En efecto, hemos insistido particularmente en que la
incertidumbre dependía del número, de la cantidad de estados (número de variables y
valores) y no de su medida específica.

La varianza es seguramente válida pero admitamos que mide algo más que la
incertidumbre: puede medir la aversión al riesgo.

Ejemplo 4.5.1.1

Supongamos dos activos aleatorios: X: [100, 0,2; 0, 0,8] y W: [200, 0,2; 100, 0,8]
La media y la varianza ( 2) se calculan por las siguientes fórmulas:

X = pi Xi
2
= pi X2i – X2

X = Media, promedio ponderado.

= Desvío medio cuadrático (raíz cuadrada de la varianza).

pi = probabilidad del estado i.

Xi = nivel, valor, grado del estado i.

Por consiguiente, tendremos:

44

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

X W
Media 20 120
Desvío 40 40

Es fácil demostrar que la suma de una constante a los valores de un activo aleatorio (en este
caso, 100) no afecta a la varianza (ni al desvío medio cuadrático) si bien afecta a la media
(sumándose la constante a la media original). En este caso, la varianza es insensible a la
modificación de los niveles de la variable analizada, que es lo que pretendemos de una
medida de la incertidumbre. Pero en otros casos no sucede así.

Ejemplo 4.5.1.2

Dados los activos aleatorios: Y: {100, 0,5; 120, 0,5} y Z: {120, 0,5; 150, 0,5}

Se trata en ambos casos de dos estados equiprobables. Nuestra noción de incertidumbre nos
lleva a pensar que ambos son igualmente “inciertos”. Las medidas estadísticas no recogen
esa expresión de sentido común. En efecto:

Y Z
Media 110 135
Desvío 10 15

Ejemplo 4.5.1.3

Dados los activos aleatorios: U: {100, 0,25; 200, 0,25; 300, 0,25; 400, 0,25}

V: {100, 0,20; 200, 0,40; 300, 0,10; 400, 0,30}

Podemos pensar que U es más “incierto” que V ya que ambos tienen la misma cantidad de
estados y éstos son iguales en ambas distribuciones. Sin embargo, los estadísticos no lo
revelan así. En efecto:

U V
Media 250 250
Desvío 111,8 111,8

Es decir que para la media y la varianza, ambos activos aleatorios son iguales.

2. La entropía

La medida general de la incertidumbre (en su acepción de riesgo), hoy generalmente


aceptada es llamada entropía, si bien esa denominación se utiliza indistintamente para
designar la misma incertidumbre. Su formulación es la siguiente:
w
H = - pi log2 pi
i

45

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

pi: Probabilidad del estado xi.

log2: Logaritmo de base 2 (salvo indicaciones en contrario, log significa siempre lo


definido aquí).
i: Indicador de los distintos estados para 1, 2, ….., w.

w: número total de estados (por comodidad, se utilizará en minúscula).

El número total de estados w es computado de la forma vista en el capítulo III. Representa


entonces, la complejidad medida por la variedad o simplemente por recuento, inventario o
inspección de los distintos estados potenciales. Se entiende que w es tomado en su medida
natural. La entropía es, así, el promedio ponderado del logaritmo de la propensión a suceder
de los múltiples estados que un universo puede adquirir.

La entropía se mide así en bits ya que se ha adoptado el logaritmo de base 2 como unidad
de medida. Por lo tanto, debe recordarse que lo que, en unidades naturales se multiplica,
aquí se suma, y lo que se divide, aquí se resta.

La entropía tiene entonces en cuenta el número de estados (variables y valores) potenciales


de un universo dado, sin considerar la específica medida de esos valores, y su propensión a
suceder (medida en probabilidades).

En el Anexo a este capítulo, se agrega una Tabla de Entropía de un estado determinado que
ha de ayudar a la computación de H.

Su aplicación es general. Su fuerza reside en que constituye un elemento fundamental de la


Teoría Matemática de la información creado por Shannon pero, sobre todo, en que
constituye una medida ajustada a la realidad a la cual se aplica, que constituye un modelo
aceptable de esa realidad y que es sumamente práctica.

El comportamiento de H es el siguiente:

Máximo: Hmax = lg w cuando pi = p = 1/w

Mínimo: Hmin = 0 cuando pi = p = 1

Máximo y mínimo pueden obtenerse por Cálculo Infinitesimal. Para ello, la fórmula
anterior –y la única que utilizaremos- se refiere a casos discretos, deberá ser convertida a
casos contínuos: w
H = pi lg pi dpi
i

No incluiremos la demostración: sóo veremos el resultado. (Véase Reza, pág. 83).

La fórmula discreta cuando pi = 1/w tendremos:

H = - 1/w [0 – log w] = - 1/w log w = log w

46

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

En la misma fórmula cuando pi = 1

H= lg 1 = w * 0 = 0

Obsérvese que la incertidumbre máxima (cuando pi = 1/w) tiene como medida el logaritmo
del número de estados. Esa medida es la variedad que hemos desarrollado en el Capítulo
III. Al aplicar el logaritmo (de base 2) el número de estados posibles, w, hemos llegado al
valor (máximo) de la entropía cuando los estados son equiprobables (ver 3.11.3). La falta
total de incompatibilidad entre estados que hemos destacado en su oportunidad es debida a
la carencia total de restricciones, es decir, a la incertidumbre máxima que se produce, para
un número dado de estados, cuando éstos son equiprobables. La variedad es, así, un caso
extremo de la entropía.

El signo de la entropía ha sido objeto de discusión (Ross Ashby, pág. 244). La fórmula
tiene signo negativo para dar a la medida de la incertidumbre un número (de bits) positivo
ya que log pi es siempre negativo. No hay otra razón sustancial para dicho signo.

Como puede verse en el ejemplo 4.5.3.1, la entropía es sensible tanto a las variaciones del
número de estados como a su distribución de probabilidad.
La entropía máxima se alcanza, para un mismo número de estados, cuando la distribución
de probabilidades es rectangular, tal como se muestra en la Figura 4.5.2.1.

p=1 H=0

H disminuye

H máxima
p = 1/w

0 w
Propensión a suceder y entropía
Figura 4.5.2.1

Debemos tener cuidado de no caer en la trampa metodológica de pensar que, cuando el


número de estados tiende a infinito, la probabilidad 1/n (en caso de equiprobabilidad)
tiende a cero y la entropía máxima tiende a ser nula.

La fórmula de la entropía es la de la Termodinámica. Más adelante expondremos la


relación entre incertidumbre y Segunda Ley de Termodinámica. Aquí trataremos de
justificar la fórmula a partir de los conceptos desarrollados anteriormente.

47

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

(1) Dado un universo aleatorio cualquiera Z, en los momentos t y t’

E1 , E2 ……. Ei …….Ew
Zt
p1 , p2 ……. pi ……. pw

E’1 , E’2 ……. E’i …….E’w


Zt’
p'1 , p’2 ……. p'i ……. p'w

Ei, E’i: estados del universo (de acuerdo con definición de 3.8.4) en los momentos t, t’.

pi, p’i: probabilidad asociada a los estados Ei, E’i.

w, w’: número de estados posibles del universo en los momentos t, t’.

(2) Definiremos:

Hi: medida numérica de la incertidumbre asociada al estado Ei.

Hij: medida numérica de la incertidumbre asociada al par de estados {Ei, E’j} (que se dé Ei
y si se da, que se dé luego E’j).

H: medida numérica de la incertidumbre asociada al universo Z en el momento t.

pij: probabilidad conjunta del par de estados {Ei, E’j}.

pi/j: probabilidad condicional de Ei si ha sucedido E’j, es decir, P(Ei/E’j).

De acuerdo con el cálculo de probabilidades:

P(Ei y E’j) = P(Ei) * P(E’j/Ei) = P(E’j) * P(Ei/E’j) = pi * pj/i = pj * pi/j.

(3) Definiremos que la medida de incertidumbre de un estado es función de su probabilidad


asociada

Hi = f(pi) y por consiguiente Hij = f(pij) = f(pi * pi/j)

Trataremos de hallar una función (medida de la incertidumbre) que satisfaga los siguientes
axiomas: (otra versión en Reza, pág. 80).

48

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

(4) Axioma 1: Hi < Hk si y sólo si pi > pk.

Axioma 2: Hij = f(pi) + f(pj/i )

El axioma 1 nos dice que, cuanto mayor es la probabilidad de un estado, menor es la


incertidumbre (medida) asociada al mismo. En otras palabras, f es una función monótona
decreciente (la información de un mensaje no está dada por su contenido sino por su
probabilidad).

El axioma 2 nos dice que, f es una función aditiva en caso de probabilidad condicional ya
que vimos que
Hi = f(pi) = f(pi * pj/i) = f(pi) + f(pj/i) (1)

El último término se origina en el axioma 2. Los otros se originan en las definiciones y en


el cálculo de probabilidades.

La exigencia de una medida aditiva de la incertidumbre está originada en las ventajas del
cálculo y en la mayor adecuación a la noción intuitiva de la incertidumbre. El axioma 2 nos
dice que, si dos estados pueden acontecer sucesivamente, la incertidumbre total es igual a la
suma de la incertidumbre del primero más la incertidumbre del segundo una vez que el
primero ha sucedido.

El uso de probabilidad condicional es importante ya que transmite la idea que los estados
anteriores pueden o no influenciar los estados posteriores. Habrá influencia cuando
P(E’j/Ei) P(E’i). No habrá influencia cuando P(E’j/Ei) = P(E’j).

(5) Lo veremos más fácil si utilizamos en (4) símbolos más simples:

f(ab) = f(a) + f(b) donde (a = pi, b = pj/i)

Una función que satisface esta igualdad es la logarítmica. De este modo:

Hi = k log p donde k es una constante cualquiera.

(6) Como el logaritmo de pi es negativo, es conveniente hacer k = -1 a fin de tener una


medida que aumente cuando pi aumente y viceversa.

Por lo tanto:
Hi = - log pi

Se puede demostrar que Hi = k log pi con k < 0 es la única función que satisface los dos
axiomas.

(7) Pasemos ahora de un estado a todos los estados del universo. Parece razonable ponderar
la incertidumbre de un estado por su probabilidad, es decir, hallar el promedio
ponderado de las incertidumbres de cada estado para determinar la incertidumbre de
todo el universo.

49

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Obtendremos así:
w
H = - pi log2 pi
i
Dadas las ventajas representadas por las variables binarias, se eligió el logaritmo de base 2:
la unidad de medida de la incertidumbre es entonces el bit (binary digit).
De este modo. La entropía como medida de la incertidumbre se basa sobre la idea que es
cómodo que sea aditiva como lo es el logaritmo. Pero la idea-fuerza fundamental es que la
incertidumbre es inversa a la probabilidad: a mayor probabilidad, menor
incertidumbre.

En su sentido de medida de la información, sucede lo mismo: a mayor probabilidad de un


mensaje, menor información acarreada. A todos los efectos prácticos, considérese cada
grado, valor, nivel, estado de una variable como un mensaje.

Este enfoque es importante: un mensaje que me comunica que estoy escribiendo en español
no me aporta ninguna información porque no tengo incertidumbre al respecto. Un mensaje
que me comunica que se desató una guerra entre la Unión Soviética y los Estados Unidos
me aporta un montón de información ya que resulta totalmente inesperado (le atribuyo una
bajísima propensión a suceder) (El mensaje revierte mi certeza: de la creencia en la paz me
enrostra con la guerra).

De esta idea, surge la tesis de Shackle –que veremos en el capítulo próximo- de medir la
propensión a suceder por el grado de sorpresa. Cuanto mayor es la sorpresa que me
provoca un mensaje, mayor es la información acarreada por él y menor su probabilidad.

3. Principales características de la entropía como medida de la incertidumbre.

El comportamiento de H:

Es interesante graficar el comportamiento de la entropía. Lo hacemos para dos estados,


cuya probabilidad es p y (1 – p). Para varios estados equiprobables, véase el ejemplo
4.5.3.1.
P 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
H 0 0,469 0,722 0,881 0,971 1 0,971 0,881 0,772 0,469 0

H
1

0 0,5 1 p
Entropía de un universo binario para distintos valores de pi
Figura 4.5.3.1

50

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Como ya hemos dicho, la entropía como medida de la incertidumbre es sensible tantos a los
cambios del número de estados como a las modificaciones de las probabilidades. En el
ejemplo de los tres universos S, U, Z del punto 4.5.1, la entropía es la siguiente:

H(S) = 1 H(U) = 2 H(Z) = 1,357

La medida de la incertidumbre confirma lo dicho en cuanto a la comparación de S con U y


de U con Z, y desaparece la duda acerca de la comparación entre S y Z. La duplicación de
los estados de Z, no obstante ser contrarestada por la mayo concentración de probabilidad
en un estado, amplía la incertidumbre.

Las variables binarias como unidad de medida:

La medida en bits ofrecida por la entropía (y por consiguiente, por la variedad) tiene un
significado preciso y sumamente práctico para comparar la incertidumbre de distintos
universos.

Dado un universo S cualquiera, su entropía H(S) indica cual es el número de variables de


un universo binario S’ de igual incertidumbre cuyos estados son equiprobables. (Un
universo binario es un universo cuyas probabilidades son todas binarias).

Hemos visto que el universo U del ejemplo 4.5.1, tiene una entropía H(U) = 2. Ello
significa que U es equivalente, en cuanto a incertidumbre a un universo de dos variables
binarias. En este caso es evidente. Ya hemos dicho que los 4 estados pueden ser originados
por una variable con 4 estados o por 2 variables con 2 estados cada una, no incompatibles
entre sí. Pero esta propiedad es más interesante en universos más complejos.
El universo Z, por ejemplo, tiene una entropía equivalente a la de un universo con 1,357
variables binarias (ya que H(Z) = 1,357).

Es evidente que ello tiene un sentido conceptual de medición. No tiene sentido real hablar
de 1,357 variables o de una variable y 357/1000 de otra. Sólo debe tomarse como patrón,
Standard de referencia para medición y comparación.

No procederemos a una demostración rigurosa de la afirmación anterior. Sólo detallaremos


la siguiente prueba para un caso particular de w estados equiprobables originados en n
variables con h valores potenciales cada una.

Por definición de logaritmo sabemos que:

Loga N = x .·. ax = N

En el caso tomado como base de la prueba, la entropía H = log w = log hn.

Log hn = H .·. 2H = hn

51

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Pero h es el número (constante) de valores que pueden asumir las variables y n es el


número de variables. Por consiguiente, si
2H = hn

H es el número de variables (por ser equivalente a h) y 2 es el número de valores de esas


variables (por ser equivalentes a n). Por consiguiente H es el número de variables binarias
tal que la variedad del sistema analizado es igual a 2H.

Limitaciones en el uso de H:

La entropía, como medida de la incertidumbre, tiene una limitación importante: no puede


existir incertidumbre en cuanto a la propensión a suceder. Deben existir probabilidades
definidas para calcularlas. El caso de incertidumbre por ignorancia de las probabilidades no
es medible por la entropía. Sólo lo es si se adopta el llamado criterio de Laplace por el cual
la ignorancia total de las probabilidades asociadas con cierta cantidad de estados es
equivalente a considerar esos estados como equiprobables.

También la entropía es inaplicable cuando no puede calcularse el número w de estados o no


pueden discriminarse claramente.

De todos modos, estas limitaciones son comunes a cualquier tipo de medida cardinal que se
ofrece como eventual alternativa.

Propiedades de H:

En resumen, como consecuencia de los axiomas impuestos a H, sus principales propiedades


formales son:

1. Continuidad: Cualquier cambio por pequeño que sea, en las probabilidades de los
estados (y en número de esos estados, ya que agregar o eliminar un estado se reduce a
considerar su probabilidad nula o a considerarla mayor que cero), debe reflejarse en la
medida H.

Ello puede observarse en el ejemplo 4.5.3.2. Por otra parte, las probabilidades son
contínuas en el intervalo [0,1] (se trata de números reales) y su logaritmo también lo es.

2. Máximo y mínimo: el máximo de entropía debe producirse cuando, dado un número de


estados, su probabilidad es igual para todos. El mínimo de entropía, debe producirse cuando
hay certeza absoluta, es decir, un solo estado con probabilidad igual a la unidad.

Hemos visto que H cumple con estos requisitos destinados a hacerla más efectiva en su
apreciación por el usuario.

3. Simetría: H es simétrica en el sentido que H (A, B) = H (B, A). En general, H es


independiente del orden de los estados.

4. Aditividad: Supongamos el universo aleatorio S : { 0,6; 0,3; 0,1} con H (S) = 1,29546.

52

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Supongamos que el estado E1 con p(E1) = 0,6 se divide a su vez en E11 con p = 0,4 y E12
con p = 0,2.
Evidentemente la entropía del nuevo universo S’:{ 0,4; 0,2; 0,3; 0,1} ha de aumentar a
H(S’) = 1,84644.

El fraccionamiento de E1 puede ser considerado como la introducción de un nuevo universo


aleatorio cuyas probabilidades relativas son:

q1 / p1 ; q2 / p1;……….qn / p1, cuya suma es 1

donde qi es la probabilidad de la fracción i de E1, medida con respecto al universo. En este


caso, tendremos las probabilidades relativas:

p(E11) = 0,4 / 0,6 = 0,6666 y p(E12) = 0,2 / 0,6 = 0,3333


El universo será entonces: S’: {0,6 (2/3; 1/3); 0,3; 0,1}

La aditividad implica que la entropía original se incrementa en la entropía del nuevo


universo aleatorio Q creado, ponderada por la probabilidad total de ese nuevo universo.
Tendremos así:
H (S’) = H (S) + pq H (Q) (4)

Se puede demostrar esta igualdad con facilidad (véase Reza, pág. 84).

Por otra parte, al ser H no negativa, la partición de un estado dado en varios subastados no
puede disminuir nunca la entropía original. En (4), el segundo término de la derecha es
siempre 0).

En nuestro ejemplo,

H(Q) = H(0,6666; 0,3333) = 0,9183

H(S) + 0,6 H(Q) = H(S’) = 1,2954 + 0,5510 = 1,84646

El problema de la aditividad –tal como lo hemos planteado- ha sido discutido pero


estimamos que finalmente debemos admitirlo como sensato.
La crítica consiste en que la incertidumbre depende de la forma como dividamos los
estados posibles de las variables inciertas. De acuerdo a la forma como las agrupamos o
dividamos cambia la entropía, lo que no se considera aceptable por los críticos. Sin
embargo, consideramos que están equivocados dada la subjetividad de la incertidumbre y
de la observación. El agrupamiento (que reduce H) se efectúa porque no nos importan los
estados constituyentes y por consiguiente disminuye nuestra incertidumbre. Mismo
razonamiento en caso de subdivisión (ver ejemplo 4.5.3.7). La misma discusión se presenta
en el caso de la aplicación del criterio de Laplace en situación de incertidumbre, lo que
veremos en otra oportunidad).

53

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Ejemplo 4.5.3.1

Si consideramos un universo de entropía máxima (estados equiprobables), veremos que ésta


aumenta a medida que aumenta el número de estados.

Estados Hmax Estados Hmax


1 0 6 2,585
2 1 7 2,8074
3 1,585 8 3
4 2 9 3,1699
5 2,3219 10 3,3219
100 6,6433

Sin guardar proporciones, el gráfico de la entropía máxima en función del número de


estados es exponencial.

H(max)

Por lo tanto, H es sensible al número de estados cuando éstos son pocos. Cuando éstos
aumentan, H es incrementalmente menos sensible.

Aquí, Hmax es igual a la variedad medida en bits. De acuerdo con lo expuesto en el punto
3.11.3:
w = 2Hmax y Hmax = lg w

donde w es el número de estados. De este modo, Hmax indica cual sería el número de
variables binarias de un sistema de igual entropía.

Obsérvese como H(100) = 2 H(10). En medidas logarítmicas la multiplicación equivale a la


potenciación en números naturales. La multiplicación de la entropía por un número k
implica la potenciación de su incertidumbre natural (o absoluta) por ese número k. La suma
de dos entropías implica la multiplicación de las incertidumbres absolutas, etc.

Ejemplo 4.5.3.2

En el ejemplo anterior, vimos el comportamiento de H al modificar el número de estados


equiprobables. En el ejemplo de 4.5.3, vimos el comportamiento de H con dos estados y

54

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

probabilidades cambiantes. Veremos algunos casos de universos con un número constante


de estados pero con variación de la probabilidad de los mismos.

Estados Ei U1 U2 U3 U4 U5 U6
1 0,25 0,26 0,24 0,1 0,9 0,99
2 0,25 0,24 0,25 0,2 0,05 0,005
3 0,25 0,24 0,25 0,3 0,03 0,003
4 0,25 0,26 0,26 0,4 0,02 0,002
H(Uj) 2 1,9989 1,994 1,8464 0,6175 0,0956

Se grafican a continuación algunas distribuciones (con línea contínua para mayor facilidad
de percepción).
P(Ei)

U6

U4
U2

U1

Ei

(El orden de los estados no es relevante para la entropía).


Se nota claramente como la dispersión de la distribución influye sobre la entropía.

Ejemplo 4.5.3.3

En los ejemplos del punto 4.5 introduciremos la entropía.

(1) Ejemplo 4.5.1.1:

Media Desvío Entropía


X 20 40 0,722
W 120 40 0,722

(2) Ejemplo 4.5.1.2:

Media Desvío Entropía


X 110 10 1
Z 135 15 1

Para H no cambia la incertidumbre por el hecho de modificar los resultados.

55

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

(3) Ejemplo 4.5.1.3:

Media Desvío Entropía


U 250 111,80 2
V 250 111,80 1,8464

Aquí H revela la innegable incertidumbre de U, de nivel superior a la de V.

Ejemplo 4.5.3.4

En este ejemplo, las contradicciones entre la media, el desvío medio cuadrático y la


entropía son aún más flagrantes:

0 250 -100 300 100 200 300 400


K: L: M:
0,2 0,8 0,5 0,5 0,4 0,3 0,2 0,1

Obtenemos de estos activos aleatorios:

Media Desvío Entropía


K 200 100 0,7219
L 200 100 1
M 200 100 1,8644

Indudablemente, como medida de la incertidumbre de estas distribuciones, H se revela


superior.

Ejemplo 4.5.3.5

Dados tres activos aleatorios S, W, Z, con idénticos resultados pero distintas probabilidades

Niveles 10 20 30 40 50
S: probabilidad 0,2 0,2 0,2 0,2 0,2
W: probabilidad 0,1 0,3 0,4 0,1 0,1
Z: probabilidad 0,1 0,1 0,1 0,3 0,4

Calcularemos distintos estadísticos que puedan indicarnos el grado de incertidumbre de los


activos aleatorios.

S W Z
Número de estados 5 5 5
Media 30 28 38
Varianza 200 116 176
Entropía 2,3219 2,0464 2,0464

56

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Ni el número de estados, ni la media son buenas medidas. Para S y W, varianza y entropía


indican que S está más cargado de incertidumbre que W. La varianza de S es 72,4% mayor
que la de W, en tanto que la variedad de S es sólo 21% mayor que la de W (2(2,3219-2,0464)).
La entropía aparece como más exacta.

Pero el problema se presenta entre W y Z. Ambos tienen el mismo número de estados y las
mismas probabilidades, si bien la asignación de uno a otros es diferente. Aparece como
razonable pensar que la incertidumbre de ambos universos es la misma, que no ha
cambiado al pasar de W a Z. Así lo expresa la entropía que es la misma para ambos.

Pero la varianza indica que hay mayor incertidumbre en Z que en W (no obstante ser su
valor esperado mayor). Como ya hemos dicho, la varianza recoge la influencia de los
niveles que consideramos razonable no tener en cuenta en la medición de la incertidumbre.

Ejemplo 4.5.3.6

La memoria de un computador contiene 32 módulos. Se produce un desperfecto en un


módulo, ignorándose cual. Un sistema secuencial de búsqueda al azar puede implicar hasta
32 test (si el desperfecto se encuentra en el último módulo testeado). Los sistemas de
búsqueda tratan de reducir al máximo el tiempo invertido en ella y utilizan para ello
sistemas binarios de testeo que pueden controlar grupos de módulos contestando la
pregunta: “¿La falla está en este grupo de módulos?” por la respuesta si o no.

La forma más rápida de encontrar la falla es aplicar la pregunta varias veces a la mitad de
los módulos donde se espera que se encuentre la falla. Con 5 test se logrará encontrarla. En
efecto, se pregunta a los primeros 16, luego a los primeros 8, etc.

La entropía del sistema es 25 = 32, es decir, 5 variables binarias (los bloques obtenidos de la
división por dos). Cada aplicación del test es un bit de información que reduce la
incertidumbre a la mitad. (En el Capítulo III se han incluido ejercicios similares).

Ejemplo 4.5.3.7

Un juego de salón siempre de moda consiste en lo siguiente: una persona piensa el nombre
de, por ejemplo, alguna persona (o de alguna flor, o de algún objeto, etc.) y los demás
participantes deben adivinar haciendo preguntas que sólo pueden contestarse por si o por
no. Generalmente el nombre pensado se adivina antes de las 20 preguntas.

Cada pregunta implica un bit de información y reduce la incertidumbre a la mitad.


Preguntas tales como “¿Vive?”, “¿Es hombre?”, etcétera, van localizando al, en este caso,
personaje pensado. De cualquier modo 220 implica 1.048.576 nombres posibles y en general
las pautas culturales, la moda, los focos de atención, las experiencias compartidas, implican
una variedad mucho menor. En efecto, estas restricciones hacen que los nombres de
Napoleón o Marie Curie tengan mayor propensión a ser elegidos que el hombre que le puso
la escafandra a los astronautas del Apollo X.

57

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Ejemplo 4.5.3.8

Supongamos dos activos aleatorios:

-8.000 2.000 0 10.000


L: M:
0,1 0,9 0,9 0,1

¿Cuál de los dos prefiere usted?


Si no lo sabe, tratemos de evaluarlos por su incertidumbre.

L M
Valor esperado 1.000 1.000
Varianza 3.000 3.000
Entropía 0,4690 0,4690

Todas las medidas son iguales. El autor, no obstante ello, elegiría M y ¿usted? Es que, aquí,
además de la incertidumbre interviene la preferencia hacia el riesgo que constituye la base
de la Teoría del Valor, tratada en otro capítulo y que se refiere a la fuerza de las
preferencias.

Ejemplo 4.5.3.9

Un agricultor analiza la conveniencia de adelantar unos días la cosecha en función de las


condiciones climáticas. Llega a la siguiente conclusión en cuanto a si llueve o no el día
siguiente (donde Rij = Resultado estimado al adoptar Sij y al suceder Nj).

Llueve Llueve Llueve No llueve


mucho bastante poco
S1: Cosecha R11 R12 R13 R14
S2: Espera R21 R22 R23 R24
Probabilidad 0,2 0,1 0,3 0,4

¿Cuál es la incertidumbre de esta situación?

Al verificar sus cálculos se da cuenta que R12= R13 y que R22 = R23.
Por consiguiente, piensa que no vale la pena separar los estados “llueve bastante” y “llueve
poco” ya que la distinción no afecta los resultados. Establece entonces la siguiente
situación:
P(llueve mucho) = 0,2
P(llueve algo) = 0,4
P(no llueve) = 0,4

¿Cuál es la entropía de la nueva estimación? Evidentemente ha disminuido. Ello debe


considerarse legítimo: al unificar estados que no necesita diversificar, no hace más que

58

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

reconocer que su incertidumbre es menor, situación que H revela. La situación es similar si


subdividiera más la variable incierta.

4. Relación entre incertidumbre de distintos universos

Recordemos que toda medida en bits de un universo determinado nos indica el número de
variables binarias de un universo binario de incertidumbre equivalente.

Ya que la entropía es una medida en términos de logaritmos, la resta en bits es equivalente


a una división en números naturales. Dados los universos S y Z, H(S) – H(Z) nos da la
medida en bits de la relación entre la incertidumbre de S y Z. Desde otro punto de vista, nos
dice cual es la cantidad de información necesaria para reducir la incertidumbre de S a la
incertidumbre de Z. Si queremos llevar esta relación a números naturales, debemos calcular
el antilogaritmo (en base 2) de la diferencia en bits. (Ver ejercicio 3.11).

Supongamos que S tiene 3 variables binarias (variedad = 8, H(S) = 3) y que Z tiene 3


variables con 2, 3 y 4 niveles cada una (variedad = 24, H(Z) = 4,585). (Evidentemente,
todos los estados posibles son equiprobables).

La diferencia H(Z) – H(S) = 4,585 – 3 = 1,585 indica que se necesitan 1,585 bits (de
información) para reducir la incertidumbre de Z a la incertidumbre de S. En forma
equivalente, el antilogaritmo de esa diferencia 21,585 = 3 indica que la incertidumbre de Z es
3 veces mayor que la de S (ya que 24/8 = 3).

El ejemplo anterior está basado sobre la variedad, donde las probabilidades son iguales.
Veamos ahora un caso más general.

Universo S = 8 estados equiprobables (w = 8, pi = 1/8) (variedad = 8).

Universo Z = 3 estados con probabilidad 0,6; 0,3 y 0,1.

¿Cómo comparar ambos universos?

La entropía H(S) = 3 y H(Z) = 1,29546

Es decir, que S tiene una incertidumbre equivalente a la de un universo de 3 variables


binarias, totalmente compatibles donde los estados son equiprobables. A su vez, Z tiene una
incertidumbre equivalente a la del universo de 1,29546 variables binarias en las mismas
condiciones. Por lo tanto, la variedad de ambos universos es:

V(Z) = 21,29546 = 2,45455

V(S) = 8

Debe recordarse que V(S) = variedad de S, medida en números naturales y


H(S) = entropía de S o variedad medida en bits.

59

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

La relación entre ambas variedades es:

V(Z) / V(S) = 8/2,45455 = 3,25925

La variedad de Z es 3,25925 veces mayor que la de S. El mismo resultado se obtiene


calculando:

V(Z) / V(S) = Antilog {H(Z) – H(S)} = Antilog 1,70454 = 3,25925

En general entonces:
Variedad (K) = 2H(K)

Variedad (K) / Variedad (G) = 2H(K) – H(G) (1)

La diferencia H(Z) – H(S) indica la cantidad de bits de información para reducir la


incertidumbre de Z a la incertidumbre de S. Supóngase que H(S) es la cantidad de
información que puede obtenerse cada vez que Z nos envía un mensaje (o cada vez que
indagamos o investigamos Z).
Antes de comenzar el cuestionamiento, Z nos ofrece una incertidumbre de H(Z). A la
primera pregunta reducimos la incertidumbre de Z en H(S), quedando una incertidumbre
residual de H(Z) – H(S). ¿Cuántas preguntas debemos formular para lograr que la
incertidumbre acerca de Z desaparezca totalmente? Evidentemente H(Z)/H(S). Si el
cociente no es un número entero, deberemos redondear al entero superior.

Vimos este problema en distintos ejercicios del Capítulo III (3.12; 3.15; 3.16) donde
tratábamos la variedad máxima. Este es un caso extremo de la entropía donde las
probabilidades de los w estados son iguales. Por lo tanto, lo utilizado allí se aplica aquí, con
más generalidad.

Si tenemos 27 monedas una de las cuales es más liviana y una balanza de fiel que puede
adoptar tres posiciones para indagar cuál es la moneda falsa, ¿cuántas pesadas deberemos
hacer por lo menos? Como 27 = 3, (la base es el número de estados que puede asumir la
balanza, el exponente es el número de pesadas necesarias) entonces necesitamos 3 pesadas.
Con la primera pesada dividiremos las 27 monedas en 3 partes de 9 cada una. En una de
esas partes se encuentra la moneda falsa. Con otra pesada, dividiremos el conjunto de 9
monedas en 3 partes de 3 cada una. Una de esas partes contiene la moneda falsa. Con la
tercera y última pesada dividiremos las 3 monedas en 3, hallando la moneda falsa.

Entropía del universo a indagar: H(27) = 4,73489

Entropía del canal de indagación: H(3) = 1,58496

Utilización de canal (nº de pesadas): H(27)/H(3) = 3

En general podemos establecer que:

60

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

H(Z)
n = ------- (2)
H(S)

H(Z): Entropía (incertidumbre) del universo Z, la que se quiere eliminar.

H(S): Entropía (información) acerca del universo Z obtenida cuando se utiliza el


mecanismo de indagación S (o información obtenida o entropía del número de
estados susceptibles de ser adoptados o procesados por un procesador de
información S).

n: Número de veces que el procesador de información o canal S debe ser utilizado para
procesar la entropía de Z.

La división de (2) es legítima ya que H es un número cardinal que representa la cantidad de


variables binarias de un universo de incertidumbre equivalente.

Para eliminar la entropía, recordemos lo visto en el Capítulo III donde se estableció que:

hn = w

n: número de variables del universo.

h: número de niveles (constante en este caso) que pueden adoptar las n variables.

w: número de comportamientos posibles.

Ello puede traducirse en:


V(S)n = V(Z) (3)

V(S): Variedad (en números naturales) de los niveles adoptados por las variables (o del
alfabeto procesador).

V(Z): Variedad (en números naturales) de los comportamientos posibles del universo (o del
universo a explorar).

n: variedad (en números naturales) del número de variables (o del número de veces que el
procesador debe ser utilizado o del lago de una palabra).

(Las definiciones anteriores se relacionan con el cuadro 3.11.3.1).

Es fácil demostrar que (2) y (3) son equivalentes. En efecto, reemplazando n en (3) por su
formulación en (2):
V(S)H(Z)/H(S) = V(Z)

V(S)H(Z) = V(Z)H(S)

61

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Aplicando logaritmos:
H(Z) Lg V(S) = H(S) Lg V(Z)

Por definición: Lg V(S) = H(S)

Por lo tanto: H(Z) H(S) = H(S) H(Z)

En estos usos se aprecia el poder de la medida de entropía al dar el número de variables


binarias (con niveles equiprobables) de un universo de igual incertidumbre, es decir,
llevando todas las medidas a la variedad (en bits).

La diferencia H(S) – H(Z) indica al muy importante: la medida del conocimiento acerca de
un sistema determinado. Si nuestro conocimiento de Z fuese nulo, la entropía H(Z) sería
máxima. Si tenemos cierto conocimiento acerca de Z, H(Z) < H(Z)max y la diferencia
H(Z)max – H(Z) nos indica la cantidad de conocimiento adquirido acerca de Z. Como
veremos en el punto siguiente, puede también utilizarse para ello la eficiencia y la
redundancia.

Eficiencia y redundancia

La relación H(Z) / Hmax (Z) indica la eficiencia del sistema de información o del universo
considerado. En el ejemplo 3.11.3.4, de los semáforos, la variedad máxima del sistema es 8
mensajes. Si se utilizan sólo 3, la eficiencia de 3/8 es baja. La medición a través de la
entropía facilita las comparaciones.

H (S) entropía de la indagación


Eficiencia = ------------- = -----------------------------------
Hmax (S) entropía de lo indagado

Máximo = 1 Mínimo = 0

La relación de eficiencia tiene también otros significados. Indica la capacidad de


indagación del procesador con respecto a la incertidumbre del universo indagado. En el
ejemplo de la balanza (Ejercicio 3.16) la relación de la entropía de la balanza con la
entropía del conjunto de monedas es 1,58496/4,75489 = 1/3, es decir, que la balanza sólo
puede procesar 1/3 de la entropía en cada pesada. Desde otro punto de vista, la eficiencia
marca las restricciones existentes sobre un universo determinado.
Si un universo S cuenta con tres variables que pueden adoptar cada una 3, 4 y 5 niveles, la
variedad máxima es 60 estados (5,9 bits). Si el universo sólo puede asumir 17 estados de
los 60 potenciales, su entropía real será 4,09 bits. La relación 4,07/5,9 = 0,69 indica que las
restricciones existentes reducen su entropía en un 31%.

Cuando la eficiencia es menor que 1, es decir, cuando existen restricciones en un sistema


dado o en su acople con otro sistema dado, se dice que existe redundancia (ver Capítulo
III).

62

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Hmax (S) – H (S) H (Z) – H (S)


Redundancia = ------------------------ = ------------------- = 1 – Eficiencia
Hmax (S) H (Z)

Máximo =1 Mínimo = 0

La redundancia es máxima cuando la eficiencia es nula y viceversa. Existe redundancia


cuando la capacidad de un sistema no está aprovechada al máximo o cuando las
restricciones reducen su entropía. También se puede decir que existe redundancia cuando el
universo tiene mayor entropía que la que corresponde.

Supongamos que el semáforo con 8 mensajes posibles es utilizado para 3 mensajes pero
que cada uno de ellos se envía con dos combinaciones diferentes de luces. La redundancia
consiste en que se están utilizando seis mensajes cuando sólo son necesarios tres. El
lenguaje, especialmente el hablado, es altamente redundante (un 80% en inglés). Ello
quiere decir, que se utilizan 5 veces más elementos que los estrictamente necesarios.

En ambas interpretaciones, la redundancia reduce la incertidumbre. Es más fácil


comprender un lenguaje redundante, existe menor incertidumbre en un universo con
restricciones. Existen interesantes experimentos sobre la capacidad de descifrar mensajes
verbales incompletos. No es necesario conocer perfectamente un idioma para comprenderlo
en forma suficientemente operativa. Una frase donde faltan elementos puede interpretarse.
Las abreviaturas se entienden no obstante, no utilizar todas las letras. En todos los casos, la
redundancia hace que la incertidumbre sea menor que la que se produciría si la eficiencia
del lenguaje fuese perfecta. La mejor demostración son los avisos en los diarios. Si no
hubiese redundancia en el idioma el siguiente aviso de venta de un departamento sería
incomprensible: “(Barrio) X, 2 amb., bcon.ctfe. bño. coc. lav. 43 m vta./pan. dño.
vend.dir.”.

Reducción de la incertidumbre

Dadas dos variables N y Z, cualquiera de ellas puede acarrear información acerca de la otra
si su comportamiento mutuo no es independiente es decir, si el comportamiento de una
afecta el comportamiento de la otra).

Si el observador tiene cierta opinión acerca del comportamiento de, digamos N, esa opinión
exhibirá cierta entropía H(N). Si a posteriori observa algún estado Zk de Z, su
conocimiento medido H (N /Zk) acerca de N podrá aumentar o disminuir (disminuirá o
aumentará su incertidumbre).

Si analiza cual será su comportamiento para todos los estados Zi de Z, éste será medido por
la entropía H (N/Zi) ponderada por la probabilidad de aparición de Zi, es decir p(Zi). Esa
entropía promedio se simboliza H (N/Z).

Puede demostrarse que siempre cuando N y Z no son independientes:

H (N) > H (N/Z)

63

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Cuando N y Z son independientes: H (N) = H (N/Z)

Este importante resultado nos dice que existiendo dos variables interdependientes, el
conocimiento de una reducirá siempre en promedio, la incertidumbre acerca del
comportamiento de la otra. En el peor de los casos, la incertidumbre promedio se mantiene
constante. Este teorema, debido originalmente a Shannon, es de gran trascendencia (véase
Pavesi, 1986, b).

7. Los inconvenientes de la entropía

La entropía sólo puede medir la incertidumbre cuando pueden definirse las probabilidades
asociadas a los estados. Tiene la ventaja que es independiente de la medición de los
estados, lo que le da superioridad sobre los estadísticos comúnmente utilizados. Pero, como
ellos, no puede liberarse de la cadena impuesta por el requisito de una propensión a suceder
medida en una escala proporcional.

Más allá, no existen medidas y quizás no sean necesarias. Pero del mismo modo que Cantor
supo distinguir distintos niveles de infinitud (y medirlos por comparación) quizás podamos
hacerlo con la incertidumbre y sus categorías superiores. Hasta ahora, no se ha presentado
la urgencia de investigar en esa dirección.

Cuando no pueden obtenerse las probabilidades que cumplan con los requisitos del cálculo
respectivo, las mediciones se hacen en escalas ordinales y, con suerte, en escalas de
intervalo, las que son sumamente flexibles pero menos precisas.

4.6 La entropía como concepto fundamental del universo: orden y caos

Hemos definido una medida de la incertidumbre llamada entropía. En este punto trataremos
de comprender la entropía no ya como medida sino como característica fundamental del
universo, característica de la cual la incertidumbre sólo es una de sus facetas. Ello debería
ayudarnos a comprender mejor la incertidumbre y también al universo al cual dedicamos
nuestras decisiones.

El tema es de gran complejidad y hace a los fundamentos mismos de ciencias básicas como
la Biología, la Física, la Química, la Cosmología. Sólo se pretende destacar algunas ideas
dominantes de la ciencia moderna que, a nuestro juicio, tienen relevancia para la
comprensión del universo para una Teoría de la Decisión.

Un tratamiento extenso y más profundo de este tema puede encontrarse en Pavesi, 1986,
(a), del cual este punto es un resumen.

1. La extensión del concepto de entropía

La entropía como medida de la incertidumbre y de la información ha sido introducida en la


cibernética por Wiener (1948, pág. 62) y en la Teoría de la Información por Shannon en
1949.

64

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Lo importante consiste en que esta medida surge de la Termodinámica donde ocupa un


lugar de fundamental trascendencia. Además la entropía puede ser utilizada para otros
conceptos: el orden, la libertad y, desde luego, la información.

Este hecho no puede ser casual y vale la pena investigar cual es la similitud de estructura,
de conceptos que ha dado lugar a una medida idéntica de fenómenos aparentemente tan
disímiles. Por otra parte, este tema constituye uno de los dos grandes tópicos de la ciencia
moderna.

La tarea de relacionar incertidumbre (información) con Termodinámica no es fácil y Sabih


cree que sólo debe ser encarada por expertos (Sabih, pág. 242) en tanto que Cherry,
estimando que el concepto de entropía es de considerable dificultad y de decepcionante
simplicidad aparente, prefiere aferrarse al concepto puramente matemático de entropía y
considera que “cualquiera sea la semejanza que pueda existir (entre incertidumbre y
entropía termodinámica), es una semejanza entre descripciones matemáticas, entre fórmulas
y métodos” (pág. 212). Pierce adopta la misma posición. Georgescu-Roegen en (Rifkin)
directamente se burla de los esfuerzos de unificar entropía física e información (pág. 269).

Si es difícil relacionar información con termodinámica también lo es para relacionar con


ambas la incertidumbre y el orden, pero creemos que la tarea no puede dejar de encararse
aún al nivel superficial en el cual lo haremos. El concepto de incertidumbre es demasiado
importante para nosotros para no tratar de explorar todos sus matices y las analogías
creadoras que permitirán una mayor comprensión de la realidad escurridiza que el
decididor, siempre, quiere modificar.

2. Del orden al caos: las Leyes de la Termodinámica

La energía de Clausius:

La termodinámica no es sólo una parte de la Física como puede serlo la Mecánica o la


Óptica. Hace a los fundamentos de la Física, es trascendente, es polémica, especialmente
por dar lugar a las leyes no determinísticas (estadísticas) y por no exhibir la objetividad
exigida por la Física tradicional (de allí el mote de “antropomórfica” que le dan algunos
científicos).

La Termodinámica (literalmente: el movimiento del calor) se inicia con Sadi Carnot, hijo
de un ministro de Napoleón, joven ingeniero interesado en la eficiencia de los motores a
vapor que en 1824 establece la posibilidad de utilizar energía a condición que exista una
diferencia de temperatura.

Rudolf Clausius en 1868 establece definitivamente las dos leyes básicas de la


Termodinámica, introduciendo la palabra “entropía” (del griego, transformación).

La Termodinámica tata de la energía en el universo. Su primera Ley, llamada


Conservación de la energía, afirma que en todo universo cerrado (como supuestamente lo
es el nuestro) la energía ni se crea ni se destruye: sólo se transforma. La energía es una

65

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

cantidad fija e inamovible pero adopta variadas formas, diversos aspectos. El pasar de una
forma a otra, el transformarse en sus distintos ropajes es lo único permitido.

La Ley de Conservación de la Energía es trascendente si se piensa que, con prescindencia


de considerar al Universo como cerrado. Toda la energía de la tierra está almacenada por el
proceso cósmico de su creación o generada por el sol. Esa energía es constante y no se crea:
sólo se transforma.

Más importante que la Primera Ley es la Segunda, la ley de la entropía creciente, que
afirma que cada vez que se usa energía, ésta se transforma y se degrada. Esa degradación
tiende a que la energía se haga inutilizable. Por consiguiente, la cantidad de energía es
siempre constante pero la proporción de energía utilizable por el hombre es decreciente en
tanto que la proporción de energía degradada es creciente.

Usar energía significa transformar energía utilizable en energía menos utilizable, lo que
implica un costo importante. La degradación consiste en que si hemos pasado de un estado
de alta concentración de energía a un estado de baja concentración, el retornar al estado
primitivo requiere más energía de la que hemos liberado en el primer proceso. Elevar agua
desde el lago a la montaña para seguir alimentando la turbina requiere más energía de la
que hemos de producir. Se deduce de la Segunda Ley que no puede existir un motor
contínuo que se alimente a sí mismo sin necesidad de extraer energía de otro lado.

Clausius llama “entropía” a la cantidad de energía degradada, no aprovechable para el


trabajo, uso o transformación. La Segunda Ley establece que si bien la energía total
siempre es constante de acuerdo con la Primera Ley, la cantidad de energía degradada
(entropía) siempre es creciente (energía perdida para el hombre pero no aniquilada).

La entropía marca así un proceso irreversible. Cada vez que se usa (se transforma) energía,
queda un residuo inaprovechable, siempre creciente.
El equilibrio termodinámico final se alcanza cuando ya no existe energía aprovechable,
cuando ya no puede producirse ninguna transformación de energía, cuando la energía
degradada e inútil es la única forma de energía existente. Ese equilibrio es inevitable,
inexorable (en un universo cerrado).

El orden estadístico de Boltzmann:

Boltzmann termina el trabajo de sus antecesores, transforma la expresión de la Segunda


Ley en una ley estadística. Ese cambio aparentemente sutil no modifica la esencia
energética de la Segunda Ley. Pero su verdadera, inconmensurable importancia reside en
que, al iniciar la concepción de la medida estadística de la entropía (y por consiguiente
medida macroscópica del comportamiento global de un sistema y no de cada uno de sus
elementos) introduce:
(1) El concepto de orden, que es el que nos interesa.
(2) La posibilidad (pero no la probabilidad) de reversión espontánea del proceso
entrópico.

66

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

En primer lugar, la entropía mide ahora un aspecto relevante, íntimamente relacionado con
la energía: el número de configuraciones posibles de las moléculas (o de los elementos) que
forman un universo determinado. Esas configuraciones, desde un punto de vista estático,
pueden ser comportamientos desde un punto de vista dinámico. La entropía llega a medir el
número de formas en que un universo determinado puede arreglarse ponderado por la
probabilidad que cada una de estas formas tiene de ser adoptada.

En una situación de equilibrio termodinámico, las partículas que componen el sistema


estudiado (cerrado y aislado) pueden combinarse en un gran número de configuraciones,
todas ellas igualmente probables. (Esta idea lleva al concepto de equifinalidad). No hay
orden, la entropía es máxima (no hay energía aprovechable). Es un estado de desorden. Al
alejarse el equilibrio, hay menos combinaciones de partículas posibles que justifican ese
estado de no equilibrio. Existen restricciones sobre todos esos estados posibles, las que
reducen su número. La entropía es menor que la máxima, existe un orden, hay energía
aprovechable.

En segundo lugar, el transformarse en una ley estadística, la Segunda Ley adquiere


características peculiares: rige el comportamiento de sistemas complejos, no de sus
elementos. Surge así la posibilidad de reversibilidad. Si un sistema ha entrado en un
proceso entrópico de degradación, de incremento del desorden hacia el particular equilibrio
de la entropía máxima, existe una probabilidad –muy pequeña, mínima, pero no trivial- de
que el proceso se revierta espontáneamente, que el orden se reconstruya y que la energía
disponible se incremente.

Supongamos dos recipientes conteniendo un mismo gas a razón de un centímetro cúbico


cada uno. En uno el gas tiene una temperatura de 10º y en el otro de 50º. Si se comunican
los recipientes, se obtendrá una temperatura uniforme de 30º. Para que los gases volvieran a
concentrarse en cada recipiente con la temperatura original se necesitarán más de
1010.000.000.000 de años.

Esa probabilidad es tan baja que a los efectos prácticos puede considerarse nula e imposible
la reversión entrópica: la reversibilidad de los procesos empíricos aparecía como
interesante para los filósofos pero no para los ingenieros ni para los decididores.

Existe una infinitésima probabilidad que barajando indefinidamente un mazo de cartas,


puede reconstruirse el orden que el mazo tenía cuando era nuevo. También existe una
infinitésima probabilidad que todas las moléculas de mi mesa se concentren en un punto y
que aparezca un agujero justo donde estoy escribiendo o deje caer mi lápiz y que éste se
mantenga en el aire o que pueda reconstruir el madero que acaba de consumirse en el hogar
a partir del calor irradiado, el humo y las cenizas. Pero estos hechos son virtualmente
imposibles. De este modo, la irreversibilidad se considera absoluta.

Las consecuencias físicas de la Segunda Ley:

Las consecuencias de la Segunda Ley son de una importancia inconmensurable. La energía


se encuentra en constante degradación. La tendencia hacia el equilibrio total, al degradarse
los diferenciales de energía, es irreversible. El futuro del universo está determinado: el

67

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

equilibrio tomará la forma del frío absoluto, de la desaparición total de toda energía
potencialmente utilizable, la llanura glacial, sin una altura de donde pueda caer una piedra o
un chorro de agua, sin un soplo de viento, en la oscuridad absoluta y desde ya, sin la más
ínfima manifestación de vida: ningún ser humano asistirá a tamaña desolación, la especie
habrá desaparecido mucho tiempo antes. En este mundo de máxima entropía, nada se
distingue, todo es igual.

Frente a esta inevitable catástrofe final pueden adoptarse muchas actitudes. El hombre del
común pensará inmediatamente que para ello falta mucho tiempo. Es cierto: algunos
millones de años, lo que equivale a la eternidad. Pero son muchos los que sostienen que el
problema no radica allí sino en que la Segunda Ley rige inexorablemente el agotamiento de
las distintas formas de la energía disponible y transformable: el agotamiento de la madera,
del carbón, del petróleo son etapas en la marcha irresistible de la entropía creciente, que
han modificado la cultura y la tecnología de la civilización. Los problemas de adaptación
de la especie humana son tremendos, las consecuencias sobre las formas de vida, la cultura,
las ideologías, insospechadas.

3. Entropía y orden:

Hemos visto que en el universo físico, si es cerrado, la energía no se crea, sólo se


transforma. Esa transformación sólo se opera para ciertas formas de energía si existen
desniveles, diferencias localizadas en intensidad, concentración de energía aprovechable.

Estas trasformaciones también se operan desde energía disponible hacia energía no


disponible. En cada transformación se originan nuevos estados cada vez más difíciles de
transformar de nuevo, hasta que el proceso se hace imposible de continuar, llegándose a un
final que consiste en un estado de equilibrio: ya no hay diferencias aprovechables. El
proceso de transformación aplicado a un estado de la energía sólo produce el mismo estado.

La cantidad de energía no transformable –y ya no disponible para el ser humano- es medida


por la entropía y crece inexorablemente en el universo cerrado, hasta llegar a un máximo
definitivo.

La entropía máxima implica el caos absoluto donde todos los estados posibles son
igualmente probables. Es el desorden máximo.
Por consiguiente, una baja entropía termodinámica (mucha energía transformable) nos lleva
a la idea de orden, en tanto que una alta entropía termodinámica nos lleva a la idea de
desorden (mucha energía degradada). De este modo, estamos llevados a utilizar la entropía
como medida del orden.

La entropía como medida, también puede definirse, en este contexto, como el número de
formas en que un universo determinado puede arreglarse.
Esta es la definición de variedad de Sabih. Cuantos menos arreglos puedan hacerse (cuántas
más restricciones existen) mayor el orden y menor la entropía. Al revés, cuantos más
arreglos, mayor desorden, mayor entropía. Cuando no existen restricciones sobre el número
de arreglos posibles, cuando todos son igualmente probables, el desorden es máximo, la
falta de estructura es total, la información es nula, la incertidumbre es máxima y también lo

68

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

es la entropía. De esta forma, parece natural utilizar el concepto de entropía para medir el
orden. De esta forma, parece natural utilizar el concepto de entropía para medir el orden. El
hecho que el orden requiere energía para ser constituido refuerza su unificación con el
concepto termodinámico.

El ejemplo más claro para satisfacer nuestra comprensión intuitiva del proceso orden-
desorden es el del mazo de cartas. Un mazo de cartas de poker (o cualquier tipo de cartas)
tiene 52 naipes, divididos en 2 colores, cada uno de ellos en dos palos y cada palo en 13
naipes (10 números y 3 figuras) (olvidémonos de los jokers). Al salir de fábrica, los naipes
están ordenados en forma estricta. Existe una estructura: en cada palo, los naipes están
ordenados del 1 al 10 y luego las tres figuras, J, Q, K. La información es total, la
incertidumbre es nula. Puede ubicarse cualquier naipe sin problemas. La probabilidad de
encontrar cierto naipe en cierto lugar del mazo es 1. El abrir el mazo en determinado corte
conduce a un naipe (estado) previsto con toda seguridad.
Existe orden porque las cartas están unívocamente relacionadas, un solo comportamiento es
posible, las relaciones son estrictas, la estructura es definida. No hay lugar a ambigüedad.

Si mezclamos las cartas una vez, el orden se rompe. Nace cierta incertidumbre, cierta
ambigüedad sobre la ubicación de las cartas, si bien podemos arreglarnos, con más o menos
esfuerzo, para ubicar una carta. Si seguimos mezclando una gran cantidad de veces, la
estructura, el orden habrán desaparecido completamente: el desorden es total, la
probabilidad de encontrar cierto naipe en cierto lugar es igual para todos los naipes (1/52, el
abrir el mazo en determinado lugar puede llevar a encontrar cualquiera de los naipes: la
entropía es máxima).

Cabe ensayar una definición general de orden. ¿Cuándo decimos que hay orden, que un
sistema está desordenado?
Un sistema está ordenado cuando las relaciones entre todos los elementos del sistema
configuran una situación que nos aparece como no debida al azar, al hecho fortuito. De un
gran número de configuraciones posibles, surge una que es poco probable que sea debida al
puro azar o que, por lo menos, es poco probable que haya surgido espontáneamente. Este es
el sentido profundo de frases como: “El tráfico está ordenado” o “El cuarto está ordenado”.

Obsérvese que esta definición no se refiere a la génesis del orden. Normas estrictas, cultura
ciudadana, control eficiente originaron el orden del tráfico. Energía y diligencia ordenaron
el cuarto. Pero podemos imaginar que una tirada de seis dados simultáneos puede producir
una configuración de los seis elementos formando una línea o una figura con sus caras
superiores mostrando la sucesión de los seis primeros números enteros. Un observador diría
que los dados están ordenados. El hecho que ese orden sea fortuito y no debido al propósito
deliberado de un actor no afecta la definición de orden.

Tampoco la definición se refiere a ciertas reglas determinadas de orden, a aspectos de


armonía, coherencia, simetría o estética. Estos son atributos que surgen de una cultura
determinada y de una particular visión del mundo y que no afectan al orden en su
característica universal que destacamos aquí.

69

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

También es posible que dos observadores tengan ideas diferentes acerca del orden (o del
grado de orden) de un sistema determinado. En efecto, este aspecto de la realidad participa
de la apreciación subjetiva y de la percepción individual que caracterizan la aprehensión del
universo desarrollada en nuestros trabajos. De ahí que la Segunda Ley de Boltzmann haya
sido atacada como antropomórfica, en el sentido de subjetiva.

Las relaciones de orden (desde el preorden transitivo y reflexivo hasta el orden estricto
transitivo y asimétrico) constituyen un caso específico del orden general.

El orden evoca la existencia de restricciones a través de las relaciones que asocian los
distintos elementos del sistema observado. En efecto, su carácter antialeatorio surge del
hecho que ciertas relaciones no se dan; que ciertas asociaciones no se presentan. El tráfico
está ordenado porque todos los vehículos van por la derecha. Estaría desordenado si los
vehículos viajasen en cualquier sentido. Es la restricción por la cual ciertos sentidos de
marcha no pueden utilizarse la que provoca orden.

La noción de orden se deriva de la idea, explícita o no, que el orden no surge


espontáneamente o que por lo menos es muy difícil que ello suceda. Existe una experiencia
–que podríamos asignar a la especie- que el desorden es natural y que el azar genera orden.
Y esta es justamente la conclusión de la Segunda Ley con respecto a la energía. Energía
potencial y orden; energía degradada y desorden apelan irresistiblemente a su consideración
como conceptos únicos.

Resumiendo, agruparemos conceptos similares en las clases de caos y orden.

CAOS ORDEN
Equilibrio (termodinámico) Desequilibrio (termodinámico)
Entropía máxima Grados de entropía, entropía
nula
Desorden Orden
Simetría Asimetría, antisimetría
Equivalencia Precedencia
Semejanza Diferenciación
No estructura Grados de estructura
Equiprobabilidad Diferenciación de probabilidad
(distribución rectangular) (distribución no rectangular)
Reversibilidad Irreversibilidad
Incertidumbre total Grados de incertidumbre,
incertidumbre nula
Desorganización Organización
Ignorancia Conocimiento

70

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

4. Del caos al orden: la reversión planificada (“allopoiesis”)

Es altamente improbable que reordenemos el mazo con sólo barajarlo. Pero podemos
ordenarlo expresamente. Ello requiere tiempo, voluntad, cierto ingenio. Finalmente, ello
requiere energía. La Segunda Ley nos dice que la energía requerida para remontar el
proceso entrópico de barajar es mayor no sólo que la energía necesitada para barajar pero
también es superior a la energía que el desordenar el mazo hubiera podido liberar. De este
modo, el proceso de desorden, de introducción del azar, es irreversible si es dejado a sí
mismo. Puede revertirse pero a costa de un esfuerzo costoso. El orden cuesta. No hay que
pagar para obtener desorden: éste llega sólo. La jungla invade el templo abandonado, las
huellas del camino se borran solas y se confunden con el contexto si no se transitan, la
organización se desmigaja si no se emiten órdenes (justamente las “órdenes” crean “orden”)
y reglamentos y si no se hacen cumplir, controlando su implementación; la seguridad
desaparece si no trabaja la policía: el proceso de desorden es natural y poco cuesta
obtenerlo. El revertir ese proceso cuesta esfuerzo, recursos, talento, vidas, finalmente:
energía. El combate contra la entropía consiste en crear restricciones utilizando otras
restricciones menos fuertes. El orden, la estructura cuestan. A su vez permiten, como lo
permite la concentración de energía, la creación de nuevas formas, la libertad de actuar y
sobre todo, permiten el conocimiento, la predictibilidad del universo ordenado. Pero
seamos cuidadosos. El orden absoluto es el determinista total, el universo cerrado y
congelado, la coerción de la libertad. Sólo en un rango intermedio de entropía puede actuar
creativamente el ser humano.

Lo importante de lo dicho hasta aquí es que ciertos procesos de desorden, de


descomposición, de tendencia a la incertidumbre son, hasta cierto punto, reversibles si se
utiliza para ello la energía suficiente. Pero, para ello, el universo bajo consideración, el
subsistema en el cual se interviene, debe ser abierto. En un universo cerrado, la entropía
galopa sin freno. No hay posibilidad (práctica) que el proceso se revierta. Es necesario traer
energía (recurso, talento, combustible, o simplemente eso, energía) desde afuera del
sistema. Por consiguiente, éste debe ser abierto a la introducción de esa energía.

Un motor sólo puede funcionar si se lo alimenta con combustible. La energía producida


bajo la forma de trabajo será siempre menor que la utilizada, extraída del contexto, aún en
motor ideal. La heladera, el aparato de aire acondicionado crean en un recinto cerrado una
temperatura menor que la del ambiente pero para ello aumenta la temperatura externa.
Es un proceso antientrópico ya que rompen el equilibrio y crean diferencia de temperatura
entre interior y exterior, crean un orden y lo mantienen. Pero lo hacen a costa de
incrementar la entropía general del planeta y del universo. De esta forma pueden crearse
bolsas antientrópicas, con entropía negativa o negentropía pero a costa de crear más
entropía en el contexto.

Las actividades más destacadas del ser humano son una muestra de esa lucha contra la
entropía. Las organizaciones en su más amplio significado son universos semicerrados
donde se combate la entropía a través de normas, regulaciones, manuales, controles,
decisiones aplicados internamente pero aún sobre el contexto (Wiener, 1950). Ello puede
realizarse creando más entropía en el contexto, obteniendo recursos, tiempo, talento,
finalmente energía. La energía creada en la organización será siempre menor que la energía

71

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

deteriorada enviada al contexto, que el desorden creado en el mismo, de acuerdo con la


Segunda Ley.

La vida misma es el más extraordinario fenómeno antientrópico (Schrödinger, Premio


Nobel de Física, 1933). A través del metabolismo (del griego, intercambio) el ser vivo toma
del contexto la energía necesaria para sobrevivir y actuar y volcar hacia él restricciones y
orden. Este proceso antientrópico es extraordinario: la mejor demostración es observar la
forma salvaje en que la entropía devora un cadáver a las pocas horas de la muerte, cuando
la lucha contra ella ha cesado.

Cuando el hombre edifica un rascacielos en medio de la llanura o una represa en la montaña


o un satélite para cruzar los espacios exteriores o un sistema administrativo o se prepara a
lanzar un nuevo producto, reduce entropía localmente. La energía producida es
seguramente superior que la necesitada para alimentar a los hombre que han intervenido,
pero es menor, en términos de energía disponible que la preexistente en el contexto si se
tiene en cuenta, de acuerdo con la Segunda Ley, todos los esfuerzos y materiales incluidos
en el rascacielos, la represa o el satélite artificial.

El ser humano impone restricciones para crear orden. Pero lo hace utilizando otros recursos
y finalmente, creando un desorden mayor en otra parte. Se crea orden localmente, donde
nos importa, creando desorden donde no nos importa (por ahora). La acción se reduce a un
intercambio de restricciones donde el valor hoy de lo sacrificado es menor que el valor hoy
de lo obtenido.

La energía es aprovechable cuando está diferenciada y por lo tanto ordenada. El


aprovechamiento de la energía consiste en desordenar el estado inicial, en crear energía no
aprovechable llamada entropía.

El proceso de creación de la entropía es natural: surge sólo con dejar el mundo a sí mismo.
Evidentemente, se lo puede acelerar para utilizar intensivamente la energía aprovechable.
Este proceso lleva de la diferenciación a la igualdad, del desequilibrio creador al equilibrio
inanimado, de las estructuras a lo informe, de lo informable a lo desconocido, de la
certidumbre a la ignorancia.

Este proceso (de acuerdo con la tradición) es espontáneamente (prácticamente) irreversible.


Para revertirlo es necesario aplicar energía, esfuerzos, recursos, tiempo, información. Es
decir, revertir el desorden implica introducir restricciones. El costo de ese proceso en
términos de energía y de desorden del universo global es alto. Por lo menos, es siempre más
alto que el valor de la energía del orden obtenido. “En términos de entropía, el costo de un
desayuno es siempre mayor que su precio” (Nicolás Gorgescu-Roegen, economista).

De todos modos, el hombre actúa permanentemente revirtiendo el proceso en y con


universos semicerrados (organizaciones, computadoras, herramientas, motores, comida)
creados por él. Esos universos, universos en el universo mayor e infinito son, dentro de sus
límites, ordenados, organizados, antientrópicos. Pero funcionan extrayendo energía del
contexto, aparentemente inagotable a escala humana pero incrementando la entropía total.
La lucha antientrópica no sólo caracteriza la vida en sí misma sino toda actividad humana.

72

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Siendo finalmente el Universo cerrado, todo está destinado a ser derribado por la entropía
universal, como los antiguos templos por la selva.

5. Del caos al orden: la reversión espontánea (“autopoiesis”)

Un problema fundamental que desvela al hombre de ciencia es la contradicción aparente


entre la descripción física del universo surgida de la Segunda Ley y ciertos aspectos de este
universo, todos ellos de relevante importancia. En efecto, la Segunda Ley dictamina que el
universo se desliza inexorablemente desde el orden hacia el caos, desde el desequilibrio
hacia el equilibrio, desde la precedencia hacia la equivalencia, desde la vida hacia la
muerte.

Sin embargo, la evolución biológica muestra un desarrollo opuesto: espontáneamente se


van creando estructuras y formas cada vez más complejas, más diversificadas, más
adaptadas al ambiente, más preparadas para modificarlo. La evolución socio-cultural sigue
las mismas pautas.
Hoy puede observarse otro fenómeno similar: el de la información, del conocimiento. La
humanidad marcha hacia mayor organización, mayor estructuración conceptual y biológica,
mayor innovación, es decir, hacia un destino contrario al marcado por la Segunda Ley.
¿Cómo conciliar ambos aspectos de la vida? Clausius y Darwin, que fueron
contemporáneos, ¿pueden tener razón a la vez? Será necesario introducir un nuevo
principio de la naturaleza, una fuerza natural opuesta a la Segunda Ley, que tiende a la
organización, tal como lo preconizaba Spencer, o en lugar de esta fuerza natural (que hace
que la evolución no sea creación sino revelación de la naturaleza) ¿tendría razón Bergson
que veía en la evolución la expresión de una fuerza creadora absoluta? (Monod, pág. 127).

Ya hemos mencionado la respuesta clásica en cuanto a la evolución biológica se refiere: los


seres vivos son universos abiertos que absorben más energía de la que producen.
Constituyen bolsas antientrópicas que generan entropía externa como costo de su orden
interno, costo mayor que el producto obtenido (Shrödinger).

Esta explicación es aceptada pero ya no se la considera suficiente. Choca al sentido común


que la vida sólo pueda mantenerse a través de una lucha sin cuartel contra las leyes físicas
de la naturaleza. Ya no se trata de la lucha por la supervivencia de las especies vivientes
entre sí y entre éstas y el contexto. Se trata de una lucha que proviene de las fuerzas
fundamentales que rigen la sustancia de la vida y del universo. La vida aparece así como un
fenómeno “contra natura” que logra subsistir gracias a un fantástico sistema de desigual
intercambio de energía.

Tan fantástica es la super-supervivencia de los universos vivos que cabe preguntarse ¿cómo
pudo aparecer la vida en un universo no sólo hostil en sus actitudes sino esencialmente
hostil en sus leyes fundamentales. Es así que algunos prestigiosos pensadores llegan a la
conclusión que la vida se ha originado por azar, por casualidad (Monod). “La vida,
considerada como un resultado de condiciones iniciales improbables es compatible con las
leyes físicas pero no se deduce de las leyes físicas”.

73

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

La vida requiere, aún en sus aspectos más simples, un fantástico sistema de coordinación,
control y regulación que desarrolle estructuras, funciones y jerarquías cada vez más
complejas. Estos fenómenos se repiten a gran escala en las grandes organizaciones
económicas y sociales, las grandes aglomeraciones urbanas, las grandes bases de datos y de
conocimiento.

La vida y el comportamiento de conjuntos de seres vivos también son irreversibles. Pero


para la Física, evolución e irreversibilidad implican destrucción de estructuras, desorden,
olvido de condiciones iniciales, equilibrio termodinámico. En Biología, Sociología,
Antropología y Ciencias Humanas, evolución e irreversibilidad implican autoorganización,
complejidad creciente, diversificación, innovación, desequilibrio.

El orden espontáneo:

En los últimos años, distintas corrientes científicas se han dedicado a estudiar la


problemática de la lucha contra la entropía especialmente en el ámbito biológico, donde el
triunfo del orden aparece como más llamativo.

Es así que han surgido distintos modelos que exhiben como característica común la
posibilidad de que el orden surja no solamente cómo producto de una gran importación de
energía desde el contexto de los sistemas estudiados sino que la aparición y desarrollo de
ese orden son fomentados y ayudados por generación espontánea, por mecanismos de auto-
organización que exigen un muy bajo aporte de energía.

Estos procesos, finalmente, no contradicen la Segunda Ley pero sí explican cómo han
podido crearse y desarrollarse sistemas tan fantásticos como los biológicos y los sociales
con una aparente facilidad y con un éxito que la dureza de la Segunda Ley, por sí sola, no
permitía predecir fácilmente.

Prigogine, Premio Nobel de Química 1977, descubre las estructuras disipativas y el orden
por fluctuaciones. En un universo de cierta complejidad y sometido a cierto proceso de
desorden, al superar ciertos umbrales, se generan espontáneamente procesos de
organización que revierten el proceso entrópico. Estos fenómenos se encuentran en distintas
situaciones biológicas y sociales.

Un grupo de investigadores chilenos, encabezado por Maturana y Varela, descubre


procesos de auto-organización llamados autopoiesis. Otros científicos desarrollan
conceptos similares como el de autocatálisis, hiperciclos, etc. El caos resulta inestable y en
ciertas condiciones genera orden espontáneo.

Esta línea de pensamiento se desarrolla con gran vigor tratando de encontrar similitudes
con otros ámbitos: curación psicoanalítica de sistemas familiares a través de la
incentivación de los conflictos, surgimiento de sistemas sociales organizados a partir de
situaciones caóticas, creación de hábitos rutinarios y estables a partir de comportamientos
aleatorios, etc.

74

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Una vez desencadenado un proceso de orden (espontánea o deliberadamente) y superados


ciertos umbrales de complejidad, el orden existente va ayudando a crear nuevo orden, la
complejidad promueve la creación de más complejidad.
Superados los primeros pasos de aprendizaje de un lenguaje, el acumulado sirve para
desarrollar el nuevo; superado cierto nivel de organización, la organización existente
empuja a la creación de nueva. El orden se produce ayudando a contrarrestar más
fácilmente la Segunda Ley.

La convivencia del caos y del orden

Una importante conclusión de estos trabajos modernos es que caos y orden no son
obligatoriamente conceptos alternativos sino que ambos pueden –y en ciertos casos, deben-
convivir. Orden y desorden conviven sobre el marco inevitable de la Segunda Ley, el caos
sigue su camino irreversible en algunos dominios; es condición necesaria para la aparición
de nuevas estructuras en otros. El determinismo no ha sido sustituido por la incertidumbre
general. Azar y certeza conviven y ello surge claramente en el ámbito biológico y social.
(Monod inicia su libro titulado: “El azar y la necesidad” con una frase de Demócrito: “Todo
lo que existe en el universo es fruto del azar y de la necesidad”).

El aprendizaje

Todo universo vivo implica un sistema de aprendizaje. En el ser humano-individuo (quién


es el único apto para aprender, el grupo no aprende en cuanto tal) el aprendizaje como
proceso de adquisición de conocimiento, es el único método válido de reducción de la
entropía del contexto arbitrariamente definido. Lo logra al imponer restricciones al
universo-objeto, lo que implica ordenarlo. Esa imposición de restricciones puede surgir de
aprendizaje anterior, del ejercicio de la razón o simplemente por prueba y error. En este
último caso, aparece una vez más el azar que genera restricciones que se utilizarán o no de
acuerdo con el éxito obtenido. Al acumularse el conocimiento en las memorias, la
reducción de la entropía se acelera.

Existen procesos de aprendizaje no formales extraordinarios como es el de aprendizaje del


lenguaje por los niños que supera toda metodología racional. Pero aquí también existe un
umbral crítico (edad) para este tipo de aprendizaje, superado el cual, el proceso cambia
radicalmente y la adquisición de una estructura del lenguaje demanda, en general,
considerable esfuerzo.

Por otra parte, existen experimentos que tienden a demostrar que el uso de la experiencia no
es espontáneo ni siquiera común (Bunge, pág. 46-47).
Lo que sí son genéticamente generados son los programas por los cuales se guía y forma el
aprendizaje (Monod, pág. 164). No heredamos el conocimiento: sólo heredamos la
habilidad de adquirirlo en condiciones biológicas y sociales apropiadas (Bunge, pág. 56).

Pero lo más importante del aprendizaje a los fines de este punto es que también se trata de
un proceso autocatalítico de auto-organización y crecimiento exponencial (“no es el relleno
de estantes prefabricados”, Bunge, pág. 50).

75

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

El cerebro humano tiene capacidad de auto-organización y el aprendizaje exhibe un


comportamiento de crecimiento exponencial: más conocimiento nos prepara para adquirir
mayor cantidad de conocimientos y para mejorar nuestros procedimientos de aprendizaje. Y
en una sociedad donde todo el mundo puede ejercer el derecho de aprender, el stock de
conocimiento no tiene límites en base a esa capacidad de auto-organización.
No obstante las limitaciones (física, biológicas, sociales, económicas) al aprendizaje, el
progreso ilimitado del conocimiento (por el aprendizaje) es posible pero no inexorable
(Bunge). (En contradicción con el Teorema de Shannon, citado anteriormente).
Debe quedar como conclusión final que los universos hacia los cuales volcamos nuestra
atención aparecen:

Regidos por la Segunda Ley.

Organizados (ordenados) a través de un esfuerzo costoso (en recursos, incluyendo


tiempo).

Generadores de procesos de auto-organización que aparecen al superarse ciertos


umbrales de complejidad y que colaboran a hacer menos costoso el combate de la
entropía (sin lograr, de todos modos, eliminar la pérdida neta).

Impregnados de incertidumbre (sustancial o procesal) que el esfuerzo de organización


sólo logra vencer localmente.

6. El orden como categoría universal: conclusiones

El concepto y la medida de entropía se aplican no solamente a la incertidumbre y a la


información, a la energía y al desequilibrio. En especial, la entropía es una medida de la
libertad (Pavesi, 1983).

Un decididor (y cualquier ser humano) tiene la máxima libertad cuando tiene infinitas
alternativas entre las cuales elegir, pudiendo elegir indistintamente cualquiera de ellas
(teniendo así todas ellas la misma propensión a ser adoptadas).

Esta libertad extrema (y utópica) corresponde a la entropía máxima imaginable (y al


desorden máximo). Se va reduciendo a medida que recortamos el número de alternativas
posibles y a medida que alguna (o algún subconjunto) tenga mayor propensión a ser
elegida, sea dominante. Este proceso de reducción se va produciendo por la imposición de
restricciones sobre la conducta y sobre le universo del decididor (condicionando sus gustos,
su personalidad, su visión del mundo o coartando las variables y alternativas disponibles.
En realidad ese doble proceso de pinzas se realimenta a sí mismo).

La libertad es nula (y el orden es absoluto) y la entropía es cero cuando el decididor tiene


un solo y único curso de acción. No elige, obedece. No hay alternativas. Su conducta es
determinada. La situación es aproximadamente la misma cuando, teniendo varias
alternativas, una se impone con una propensión a suceder cercana a 1.

76

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

La libertad es mínima (pero no nula) cuando el decididor tiene dos alternativas igualmente
elegibles (entropía igual a, o próxima a 1, es decir, 1 bit de libertad).

La libertad máxima definida anteriormente es una entelequia. Se trata de una situación de


máximo desorden: todo es posible, nada es predecible, todo depende de las circunstancias
momentáneas del individuo. No hay estructura, no hay posibilidad de desarrollo, de
crecimiento, de creación. Es el caos y de allí, la muerte.

La libertad nula también es la muerte. El orden perfecto es el de los cementerios, por lo


menos desde un punto de vista macroscópico.

La vida, como fenómeno biológico, cultural y social, se sitúa en algún punto intermedio.
Del mismo modo que información e incertidumbre se complementan en un sistema cerrado
para sumar una constante (así como la energía potencial y la energía irrecuperable,
cumpliendo la Primera Ley) orden y libertad se complementan. Un justo equilibrio entre
ambos, decidido en alguna forma por los individuos involucrados, en una franja de
optimalidad no tan estrecha, constituye una situación de máxima realización de la
potencialidad humana, de máxima creatividad e innovación, de máxima realización de
individuo y sociedad.

Del mismo modo, la entropía mide el grado de organización de un universo dado tal como
ya se ha mencionado varias veces. Una organización es una estructura y consiste en:

(1) Elementos, variables.

(2) Niveles, valores, grados de esos elementos y variables.

(3) Relaciones entre variables, siendo las mínimas relaciones de precedencia (de orden).

Una organización implica un grado de orden superior, obtenido a través de un proceso


antientrópico. La entropía mide el grado de orden, es decir, de organización de un sistema
determinado.

El conocimiento es posible sólo si existe cierto grado de orden en el universo conocido y en


el sujeto cognoscente, regidos ambos por la Ley de la Variedad Obligada. No hay
conocimiento sin orden y, por consiguiente, sin restricciones. Algunos teóricos de la
información (como Pierce) sostienen que conocimiento y orden son sinónimos. Nosotros no
nos atrevemos a tanto: el orden es condición necesaria (pero no suficiente) del
conocimiento y éste es función de aquél (y, a su vez, tiende a crear más orden). Lo que
resulta diferente que decir que ambos son lo mismo. Al medir el orden, la entropía mide el
grado de conocimiento o, para ser más precisos, el grado de información, habiendo definido
a ésta como conocimiento.

Incertidumbre, orden, libertad, estructura, información, organización, he aquí una reducida


lista de conceptos fundamentales medidos de la misma forma. Ello nos lleva a una
conjetura (en el sentido positivo de Turing, pág. 2107, y no en el sentido despectivo de
“metáfora” utilizado por Bunge) que creemos importante.

77

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

La entropía aparece como un concepto unificador de gran trascendencia al revelar su


medida el grado de orden de un sistema determinado. Pero no queremos decir por ello que
existen distintos conceptos fundamentales (orden, incertidumbre, estructura, libertad) que
pueden equipararse de acuerdo con ciertas características comunes en una medida única
llamada entropía.

Queremos decir que la entropía es un único concepto fundamental que ha ido revelándose a
través de nuestras culturas bajo distintos ropajes, con distintas denominaciones, en
circunstancias específicas. No existen distintos actores, con distintos disfraces y distintas
actuaciones, que pueden acomodarse bajo una denominación común, un rol compartido. La
situación es inversa. Existe un solo actor, un solo protagonista, un solo papel: el orden, la
estructura, o como se prefiera llamarlo. Denominémoslo “entropía”.
Ese actor aparece en nuestras múltiples escenas bajo diferentes hábitos representando
distintos matices del mismo rol. Primero está la entropía como categoría fundamental y
universal. Luego vienen sus distintas expresiones condicionadas por las distintas
situaciones en las cuales van apareciendo.

De esta forma, las palabras comúnmente empleadas como orden, organización,


información, incertidumbre, grados de libertad, son sólo formas diversas de hacer resaltar
diferentes matices de una misma variable, un mismo concepto fundamental del universo: la
entropía. La entropía no es un concepto creado por la ciencia para interpretar los aspectos
distintos de la realidad que hemos recorrido aquí. Al contrario, estos aspectos distintos han
surgido de la cultura universal para expresar una variable real del universo, subyacente en
todos ellos: la entropía entendida como orden, como estructura.

Esta palabra no forma parte del bagaje verbal diario como “peso”, “longitud”,
“temperatura”. Quizás ello sea por su gran universalidad, por el ropaje múltiple que va
exhibiendo en la experiencia diaria de los seres humanos, lo que lleva a éstos a destacar con
palabras diferentes los distintos disfraces de esta sutil y poderosa protagonista de la
realidad.

Al querer encontrar qué tenían en común el orden, la incertidumbre, la información con la


entropía, hemos llegado finalmente a la idea que todas ellas son distintas denominaciones
de la misma categoría.

De esta forma, decir, por ejemplo, que la información es una estructura o que en las
situaciones poco estructuradas existe cierta incertidumbre es una tautología, ya que se están
utilizando distintas palabras que tienen el mismo sentido. Ello es válido desde el punto de
vista de la comprensión, para llamar la atención sobre ciertas aristas que tienen una
respuesta emocional, que hacen al marco de conocimientos, a la vivencia diaria. Pero
estrictamente, estamos utilizando distintas palabras para denominar lo que proponemos
llamar la entropía, el orden universal.

Nos reencontramos aquí con el genio de Descartes quien introduce en la Ciencia Occidental
Moderna, la importancia del orden al promover la aplicación del Método para descubrir la
verdad en un universo que, para él, era determinista. Pero Descartes va más allá: propugna

78

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

una “ciencia del orden”, base de todas las ciencias y de todo conocimiento: la Mathesis
Universalis.

En sus “Reglas para la dirección de la mente”, la Regla I comienza por criticar el uso de la
semejanza y de la analogía y promueve una dirección (es decir, un orden) para mente. En la
Regla IV afirma que para la investigación de la verdad es necesario el Método. Descartes
no es piadoso con sus contemporáneos que buscan la verdad como “un hombre que ardiera
en un deseo tan estúpido de encontrar un tesoro que le hiciera vagabundear sin cesar por las
plazas públicas, buscando si por casualidad encontraba alguno perdido por algún viajero”.
El Método es para Descartes “reglas ciertas y fáciles cuya exacta observancia permite que
nadie tome nunca como verdadero nada falso y que sin gastar inútilmente ningún esfuerzo
de inteligencia, llegue, mediante un acrecentamiento gradual y contínuo de ciencia, al
verdadero conocimiento de todo lo que sea capaz de conocer”.

Pero el Método es par Descartes algo que debe utilizarse para tareas más importantes que
ser aplicado a las “ciencias más fáciles: la aritmética y la geometría”. No es ello admirable
si se piensa que fue escrito en 1628 (aproximadamente). “Pues no estimaría en mucho mis
Reglas si no bastaran nada más que para resolver los problemas varios que sirven
habitualmente de juego al legista o al geómetra ocioso”. Estas son banalidades. No piensa
en las matemáticas “ordinarias”. Está exponiendo otra disciplina (de la que ella son la
vestidura más bien que las partes) que debe contener los primeros rudimentos de la razón
humana y extender su acción “hasta hacer brotar las verdades de cualquier tema”.

Esa disciplina es la Mathesis Universales (para Descartes, que escribía en latín sus
“Regulae ad directionem ingenii”) deficientemente traducida como “Matemática
Universal”. Pero Descartes se empeña afanosamente para aclarar que su propósito es
mucho más ambicioso. Quiere fundar una disciplina (mathesis: enseñanza, en griego) que
permita descubrir el orden subyacente en el universo, en la cual “solamente se examina el
orden y la medida, sin considerar si esta medida hay que buscarla en los números, las
figuras, los astros, los sonidos o cualquier otro objeto”.

Qué frescura surge de las lecturas de estas Reglas, escritas algo así como una década antes
del “Discurso”, cuando Descartes había apenas pasado la treintena pero publicadas por
primera vez medio siglo después de su muerte.

Descartes establece por primera vez claramente en la ciencia occidental moderna que no
puede haber conocimiento sin orden: orden en el proceso de aprendizaje y orden (real o
impuesto) en el objeto conocido. El Método consiste en el orden y en la disposición de los
objetos sobre los cuales hay que centrar la penetración de la inteligencia para descubrir
alguna verdad (Regla IV) y el orden implica reducir las proposiciones complicadas y
oscuras a proposiciones más simples y luego partir de las más simples de todas para
elevarnos al conocimiento de todas las demás.

Ese estudio de la medida del orden tan claramente expuesto por él, arranca según el mismo
Descartes en Diófanes y Palpos. Ferrater Mora (“Mathesis Universales”) cita fuentes que
hacen remontar la idea de Espeusipo y expone los distintos tratamientos de este proyecto

79

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

que aparece en distintos autores y especialmente en Leibnitz (pero con un sentido algo
distinto).

La Mathesis Universales cartesiana aparece así como una ciencia realmente universal que
abarca o fundamenta todas las ciencias (pero de la cual no se derivan proposiciones
específicas pertenecientes a esas ciencias). Para ello, es necesario que exista una categoría
básica del universo: el orden (la estructura) medible, en muchos de sus aspectos, por la
entropía.
El destacado antropólogo Michael Foucault (pág. 79) analiza el impacto de esta visión
cartesiana del orden en la ciencia y en la cultura occidental, impacto que se prolonga en
nuestros días, después de cuatro siglos de dominancia.

Reiteremos, una vez más, que de la misma forma que lo hicimos para el equilibrio y el
desequilibrio (Pavesi, 1977) no estamos diciendo que el orden es bueno y que el desorden
es malo. Estamos diciendo que no puede haber conocimiento sin cierto grado de orden. Y
que tampoco puede haber libertad, creatividad, crecimiento, desarrollo, sin cierto grado de
orden. Existen ciertas situaciones de desorden que son buenas y otras que son malas, así
como existen ciertas situaciones de desorden que son buenas y otras que son malas. Más
aún, pensemos que cierto grado de orden es necesario para permitir cierto grado de
desorden creador –y que en muchos casos- cierto nivel de desorden puede desencadenar
ciertos niveles de orden. Orden-desorden, equilibrio-desequilibrio, autopoiesis-allopoiesis
conviven y en cierto rango de mezcla de ambos términos, encuentra el ser humano las
mejores condiciones para desarrollarse.
En conclusión postulamos que:

(1) La entropía aparece como la medida de una categoría básica de todo universo: el orden
y su gradación.

(2) En general, ciertos aspectos del universo aparecen arrastrados espontáneamente hacia el
desorden.

(3) En especial, ciertos aspectos del universo aparecen contrarrestando eficazmente y con
éxito permanente ese deslizamiento a costa de acelerarlo de alguna forma en otros
aspectos (organización, evolución biológica).

(4) Esta ciclópea tarea se ve facilitada por mecanismos espontáneos antientrópicos (orden
por fluctuación, barrera de complejidad, autocatálisis, autopoiesis).

(5) En otros aspectos, no puede asegurarse que la reversibilidad de la entropía sea estable ni
que su costo (inevitable) sea mínimo.

(6) Orden y desorden, incertidumbre y conocimiento, se producen conjuntamente en el


universo, presentando diversos grados, conviviendo en permanente interacción e
intercambio.

80

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

(7) La incertidumbre es un componente permanente pero inestable de nuestro universo, no


como un aspecto corregible sino como expresión de una característica sustancial e
inexorable.

(8) El determinismo se halla así definitivamente erradicado de nuestra visión del universo.
De la interacción del hombre con el universo surgen mundos nuevos e inesperados.
Dentro de cierta franja de mezcla óptima de orden-desorden, la innovación, la
creatividad, la modificación del mundo, la incertidumbre enriquecedora de ciertos
aspectos basada sobre la certeza tranquilizante de otros son el arquetipo de un mundo
cambiante y generoso.

4.7 Las restricciones

1. Definición:

Hemos hablado a menudo de restricciones y ordenaremos este importante tema en el


presente punto.

Un universo exhibe restricciones cuando su entropía (variedad) real es menor que su


entropía (variedad) máxima hipotética. Ello significa, finalmente, que existen restricciones
cuando todos sus estados potencialmente posibles no son equiprobables. Esa ruptura de la
equiprobabilidad puede expresarse de dos formas (separada o en conjunto):

(1) Los estados percibidos como realmente posibles no son equiprobables (restricción
relativa).

(2) Los estados percibidos como potencialmente posibles no son todos percibidos como
realmente posibles (restricción absoluta).

Es cierto que esta definición adolece de la imprecisión de los calificativos “potencialmente”


y “realmente” posibles pero ello significa, finalmente, que la existencia de restricciones
depende de la forma en que el observador define al universo.

Es importante destacar que no entramos a definir las restricciones por su origen o causa
sino por su efecto. Basta que la equiprobabilidad del suceso de los estados del universo
desaparezca para que existan restricciones. Y basta que disminuya (aumente) la entropía
para que se hayan introducido (relevado) restricciones.
Las mismas surgen del comportamiento de las variables del universo o del contexto que
influyen sobre las variables del mismo universo: variables susceptibles de asumir valores
incompatibles entre sí, valores que modifican la aparición de valores, que influyen el
comportamiento de otras variables, valores cautivos de otros valores, etcétera, son fuentes
de restricciones.

Una restricción se define siempre para un sistema, un observador, un momento y un


conocimiento determinado. Las restricciones son variables del universo, son las percibidas
por D y vale para ellas lo dicho en 4.1.

81

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Un sistema puede ser observado hoy y ser restringido hoy y mañana pero no serlo pasado
mañana. Si cambiamos el momento de observación, el período de proyección de la
observación o el observador, la restricción puede modificarse.

En realidad, un universo sin restricciones resulta difícilmente concebible. Sólo el acto puro
aristotélico podría ser considerado un sistema sin restricciones. Un sistema con infinitas
variables, que asumen infinitos estados no enumerables, es un sistema sin restricciones sí,
además, cumple con el requisito que todos los estados sean igualmente probables.

2. Restricciones absolutas:

Puede introducirse una distinción en el concepto de restricción al distinguir las restricciones


absolutas de las relativas.

Dado un universo U, existe una restricción absoluta sobre el estado ESt de ese universo
cuando la propensión a suceder de ese estado es nula. Más simplemente, cuando su
probabilidad de aparición es cero, cuando es imposible. Toda definición, de cualquier tipo,
implica la introducción de una restricción absoluta.

La vida, el conocimiento, la sobrevivencia son imposibles sin restricciones absolutas. Estas


surgen tan naturalmente que no llaman la atención. El hecho de constituir universos
parciales es tan familiar y obligatorio que no prestamos atención al hecho natural de tener
fronteras: se es algo, se analiza algo, lo que implica que se ha dejado de ser, de analizar
algo.

Al asignar probabilidad cero a ciertos estados, la restricción reduce la complejidad. Un


punto o un conjunto de puntos (región) del espacio-comportamiento es inalcanzable.

Desde un punto de vista de la observación empírica de la realidad, existe la tentación de


aplicar una gradación en la “imposibilidad” de estados determinados. Ciertas restricciones
implican estados aparentemente “más imposibles” que otros. No le daremos expresión
formal a esta diferenciación de grados de imposibilidad: en general, la misma se basa sobre
la percepción, por parte del observador, de la eventual remoción de la causa de la
restricción en un período determinado. La idea es que si bien dos estados son imposibles,
podemos imaginarnos con cierta razonabilidad que uno de ellos puede llegar a ser posible
en algún momento en tanto que para el otro no se nos ocurre ningún cambio posible.

Dentro de esa apariencia de gradación de la imposibilidad, algunas restricciones absolutas


implican una fuerte imposibilidad y otras, una imposibilidad menor. Podemos distinguir así
restricciones absolutas fuertes y débiles.

Un trozo de plomo no puede convertirse en un trozo de oro o en una estrella de ballet. Un


automóvil actual no puede alcanzar la velocidad del sonido. Al cruzar una calle, con autos
que se aproximan, sabemos que no pueden acelerar a 1000 Km/hora en una fracción
infinitesimal de segundo. No puedo levantar solo una bolsa de 150 Kg.
Pueden multiplicarse los ejemplos, desde los más absurdos hasta los más comunes, de este
tipo fuerte de restricciones absolutas.

82

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Toda porción de la “realidad”, todo sistema que la representa aparece entonces restringido,
en este sentido absoluto fuerte: el tiempo no se revierte, la mosca no se convierte en
máquina de calcular. Este tipo de restricción absoluta parece tan obvio que generalmente se
da por supuesto y no se considera específicamente.

Dentro de las restricciones absolutas, algunas implican una imposibilidad menos fuerte.
Bajo ciertas circunstancias, los estados vedados aparecen como imposibles pero pueden
imaginarse como posibles de acuerdo con la particular visión del mundo y del tiempo del
observador. Las restricciones absolutas débiles imposibilitan estados potenciales
imaginables que pueden llegar a ser posibles: No puedo gastar más de $10.000 en el
mercado porque olvidé traer más dinero, no puedo producir más porque me faltan
máquinas, no puedo instalarme en la colina 841 porque allí se encuentra el enemigo, no
puedo subir a pie los 17 pisos por una dolencia coronaria, podemos hacer la ruta o el
puente, pero no ambos simultáneamente por falta de recursos, etc.

La existencia de restricciones absolutas (fuertes o débiles) que obligan a ciertos estados a


exhibir una propensión a suceder nula, tiene ciertas implicancias teóricas. En efecto, si
incluimos en el conjunto de valores potenciales los que tienen probabilidad nula de ser
asumidos, eliminamos forzosamente la entropía máxima del universo definido de esa
forma. En efecto, la equiprobabilidad es ahora imposible: ciertos estados tienen
probabilidad cero y otros, probabilidad mayor que cero. Hemos eliminado así la posibilidad
teórica de un universo sin restricciones ya que esta definición implica obligatoriamente la
existencia de restricciones (absolutas).

En nuestra definición del conjunto de valores potenciales de una variable (o estados


potenciales de un universo) hemos incluído sólo valores o estados con cierta propensión a
suceder, eliminando los de probabilidad nula. De allí que es concebible la existencia de
universos con equiprobabilidad y ausencia de restricciones. Esa definición, al poner a
consideración del observador sólo estados posibles, elimina la existencia de restricciones
absolutas, y sólo deja viables la existencia de restricciones relativas.

Pero en la práctica de la decisión, no es necesario –y a veces, es costoso- considerar sólo


estados posibles. Se analizan conjuntos de estados potenciales donde algunos pueden
aparecer como imposibles, es decir, con probabilidad nula de suceder. Ello sucede en
general por razones prácticas (es más fácil arrastrar en el análisis algunos estados
imposibles que luego se desecharán) que eliminarlos al comienzo del análisis. (Por ejemplo,
si la variable es contínua, es preferible a veces analizar toda una serie de estados, no
obstante ser algunos de ellos, intermedios, imposibles). También algunos estados pueden
percibirse como “posibles” al comenzar el análisis y luego resultar (o percibirse) como
imposibles. O se incluyen algunos estados de posibilidad dudosa “por si acaso” que, más
adelante, son definitivamente imposibles.
De todos modos, el análisis de estados imposibles, de existencia de restricciones absolutas
debe ser previo a fin de eliminar trabajo de análisis inútil y de reducir incertidumbre
percibida.

83

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Desde un punto de vista más general, la existencia de restricciones absolutas radica


finalmente en que la imaginación, las necesidades, los deseos del observador humano
superan su realidad y sus recursos para modificarla en cierto plazo.

3. Restricciones relativas:

La restricción es relativa cuando, dentro de un conjunto de estados posibles (es decir, cuya
probabilidad es mayor que cero), la probabilidad que los mismos sean asumidos por el
sistema, en un período determinado, no es igual par todos. No hay equiprobabilidad.
Algunos estados son más probables que otros. La restricción absoluta opera sobre el
número de estados potenciales (variables y niveles). La restricción relativa opera sobre la
distribución de probabilidad de los estados posibles definidos por las restricciones
absolutas. Existirán restricciones relativas en la medida que esa distribución se aleje de la
distribución rectangular.

En la Figura 4.5.2.1, dicha distribución indica entropía máxima. Por definición, todos los
estados son posibles e igualmente probables. La más mínima distorsión de esa distribución
revela la existencia de una restricción: la entropía real es menor que la máxima. En el otro
extremo, la entropía es nula, el comportamiento del sistema es determinístico. Se trata de
una situación de certeza.

La representación de la situación de entropía máxima tal como se ha efectuado en la Figura


4.5.2.1, no debe inducir a error. El eje de las abcisas sólo enumera, ordena los estados
posibles. Si dicho eje representase los valores asimilables por la variable, podemos
imaginar una situación similar pero con una representación diferente.

Supongamos que una variable puede adquirir todos los valores enteros entre $1.000 y
$2.000 inclusive, salvo los valores: (1) $1.150/1.200 y (2) $1.800/1.900 todos inclusive
(sólo hay 849 valores posibles). Admitiendo una representación contínua tendríamos la
Figura 4.7.3.1.

1/849

0 1.000 (1) (2) 2.000

Restricciones absolutas sobre valores intermedios


Figura 4.7.3.1

84

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Si los valores no fuesen igualmente probables, la representación podría asemejarse a la de


la Figura 4.7.3.2.
Las abcisas aquí no solamente ordenan los valores sino que, además, los representan en su
función de modelo de los universos reales.
De todas formas la medida en probabilidades, la superficie de las distribuciones es igual a
1.

p=1

0 1.000 (1) (2) 2.000


Restricciones absolutas y relativas
Figura 4.7.3.2

4. Espacio-comportamiento

Las restricciones, al obligar a ciertos estados a ser menos probables que otros, pueden
aparecer en los espacios-comportamientos si añadimos a éstos una dimensión para
representar la propensión a suceder. Si para un universo de una o dos variables utilizamos
el recurso gráfico de representar agrupados los estados que tienen la misma propensión a
suceder, podremos tener un mapa sobre los comportamientos más o menos probables de
nuestro universo.

Valores Valores
400
0,9
0,1 0,7
300
0,2 0,5 0,5
200 0,2 1 0,2 0,1

100 0,3 0,3 0,3 0,3 0,4

0,4 0,5 0,7 1 0,2 0,1


t 0,1 t
0 1 2 3 4 5 0 1 2 3 4 5

Propensión a suceder de los comportamientos de un universo a través del tiempo


Figura 4.7.4.1

85

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

En la Figura 4.7.4.1 (a) la variable tiende a transformarse en constante a través del tiempo.
Debe entenderse que las probabilidades registradas en el gráfico son representadas por la
superficie, de modo que todos los estados representados por esa superficie tienen la misma
probabilidad de suceder. Los subespacios son regiones de equiprobabilidad.
El gráfico se lee así: todos los valores entre 100 y 200 tienen probabilidad 0,3 de ser
asumidos entre los momentos 0 y 2, en tanto que el valor 300 es imposible en el momento
2.

En la Figura 4.7.4.1 (b), el tiempo disminuye la incertidumbre existente sobre la variable


pero, a su vez, coarta la libertad y el control del decididor. Si éste quiere minimizar la
variable no tendrá problemas en el primer período ya que todos los estados posibles –
cualesquiera que éstos sean– son equiprobables pero, aproximándose al período 5º, los
estados inferiores tienen menos probabilidad de ser alcanzados. Lo importante es que en
cada período la probabilidad de todos los estados posibles suma 1.

En la Figura 4.7.4.2, se representa un universo de dos variables en un momento


determinado, con sus estados pero no la propensión a suceder asociada a los mismos.

Espacio-comportamiento probabilístico de dos variables


Figura 4.7.4.2

La envoltura de la Figura representada define la región de estados potenciales del universo


para un (o varios) momentos siguiente. Fuera de esta envoltura, el subespacio marcado con
A está constituido por estados no factibles, existen dos regiones aisladas, también marcadas
con A, que tienen propensión nula a suceder. Las demás regiones son constituidas por
estados que tienen la misma probabilidad asociada siendo distinta para cada región. Cada
región tiene cierta probabilidad de ser alcanzada. En este caso, la distribución de
probabilidad de suceso puede ser la siguiente:

86

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Región A B C D E F Total
Probabilidad 0 0,20 0,25 0,30 0,15 0,10 1

Si en el momento t, el Estado Et del universo es X, la representación nos dice que en el


momento t+1, el estado del universo ha de modificarse obligatoriamente ya que Et se
encuentra en la zona A donde la probabilidad de situarse en t+1 es nula. Suponiendo que
ambas variables sean contiguas, todos los puntos agrupados en regiones calificadas por la
misma letra representan estados que tendrán, en conjunto, cierta probabilidad de ser
exhibidos. Por ejemplo, todos los estados agrupados bajo las dos regiones E tienen, en
conjunto, una probabilidad de 0,15 de ser asumido en t+1. El gráfico no aclara cual es la
distribución de esos estados E entre sí pero podemos suponer que son equiprobables, de
modo que cada región es una clase de indiferencia con respecto a la probabilidad de
suceder. Si no hubiese equiprobabilidad dentro de cada región, sería necesario subdividirlas
a su vez en nuevas clases de indiferencia.

La situación de la Figura 4.7.4.2, es sumamente compleja y generalmente nos encontramos


con (o nos arreglamos para tener) situaciones más simples.
La Figura 4.7.4.2, puede convertirse en una figura más familiar, como la 4.7.4.3, donde
hemos unificado las dos dimensiones, X1, X2 en X1*X2 = E y hemos agregado la dimensión
correspondiente a la propensión a suceder.

En las abscisas se agrupan los estados posibles bajo la denominación de clase de


indiferencia. En las situaciones reales, las restricciones relativas sobre los valores aparecen
como menos complejas, en tanto, que las restricciones absolutas son mucho más extensas
que en el ejemplo de las figuras anteriores. El trabajar con valores discretos, por ejemplo,
implica la existencia (real o supuesta) de una poderosa restricción absoluta que elimina
todos los valores que no sean números enteros o racionales. Se le agrega frecuentemente
otra restricción férrea: la que los valores asuman números positivos solamente. En los
ejemplos 4.7.4.1 y 4.7.4.2, incluidos más adelante, se introducen esas restricciones.

P(Et+1)

0,30
0,25

0,20
0,15

0,10

Et+1
D C B E F A

Distribución de probabilidades de los estados Et+1


Figura 4.7.4.3

87

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Estas representaciones gráficas son sumamente simples y hasta burdas desde un punto de
vista práctico. No ignoramos sus defectos, pero pretendemos que ilustren, el hecho que el
decididor se enfrenta con un universo que puede ser conceptualmente pensado como un
espacio-comportamiento con una constelación de estados asociados a su propensión a
suceder.

La acción del decididor no consiste solamente en dejarse llevar hacia los estados de mayor
propensión a suceder. Consiste, al contrario, en modificar dicha propensión, en eliminar
restricciones, en sustituirlas, hasta hacer alcanzable los estados deseados. La acción del
decididor no consiste tanto en elegir el mejor estado dentro de las restricciones (si bien lo
hace cuando no tiene recursos –que también son restricciones- especialmente, el tiempo)
sino en remover y modificar restricciones para liberar el estado deseado. Ello implica, entre
otros recursos, tiempo. Por ello, los economistas distinguen los comportamientos a corto y
largo plazo, siendo éstos, a menudo, muy diferentes a los primeros. En efecto, el largo
plazo sugiere la posibilidad de remover restricciones. Pero el tiempo –si bien es una
restricción de vasta relevancia- no es la única utilizada para sustituir restricciones más
reacias.

Ejemplo 4.7.4.1

Dos variables independientes pueden adquirir los siguientes valores con su correspondiente
propensión a suceder (probabilidad).

X1 1.000 2.000 3.000


P(XS1) 0,3 0,4 0,3

X2 a b c d
P(XS2) 0,25 0,25 0,25 0,25

Siendo independientes no existen restricciones en su comportamiento conjunto, siendo


todos los valores compatibles: la variedad es de 12 estados posibles con su correspondiente
probabilidad de acuerdo con el siguiente detalle:

Estado P(Ei) Estado P(Ei) Estado P(Ei)


1 1.000, a 0,075 5 2.000, a 0,10 9 3.000, a 0,075
2 1.000, b 0,075 6 2.000, b 0,10 10 3.000, b 0,075
3 1.000, c 0,075 7 2.000, c 0,10 11 3.000, c 0,075
4 1.000, d 0,075 8 2.000, d 0,10 12 3.000, d 0,075

88

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Evidentemente, la probabilidad total suma 1.

X1
3.000

0,075 0,075 0,075 0,075


2.000
0,10 0,10 0,10 0,10
1.000

0,075 0,075 0,075 0,075


0 a b c d X2

El espacio-comportamiento se representa como sigue, suponiendo que los valores


expuestos anteriormente son los extremos superiores de un intervalo.
La figura representa el conjunto potencial de estados del universo en cuestión en el
momento t+1. Este espacio-comportamiento puede condensarse en una distribución más
tradicional, como la siguiente: donde se han unificado los valores de cada variable en
estados y agregado la probabilidad de los mismos.

P(Ei)

0,10

0,075

0 6 12 Ei

Ejemplo 4.7.4.2

Dos variables X1 y X2 están relacionadas de la siguiente forma: X1 = 100 X2, donde X2 sólo
puede tomar valores enteros entre 0 y 40 de acuerdo con la siguiente tabla:

Valores de X2 0/10 11/20 21/30 31/40


Probabilidad 0,10 0,20 0,30 0,40

89

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

El espacio comportamiento se grafica del siguiente modo:

X1

4.000

3.000

2.000

1.000

0,10 0,20 0,30 0,40


X2
0 10 20 30 40

Este espacio-comportamiento puede condensarse en la respectiva distribución:

X1 0/1.000 1.001/2.000 2.001/3.000 3.001/4.000


X2 0/10 11/20 21/30 31/40

Tal como se ha planteado el ejemplo, se supone que dentro de cada intervalo, los valores
enteros son equiprobables.

P(Ei)
0,40

0,30

0,20

0,10

Ei

5. Restricciones metodológicas:

Felizmente las situaciones de la realidad que generalmente analizamos están regidas por
restricciones más fuertes que las exhibidas por la Figura 4.7.4.2, si bien ésta no es
imposible. Si esas restricciones no pertenecen naturalmente al universo, introduciremos las
necesarias tanto en la porción de realidad como en su modelo abstracto a fin de hacerlo más
procesable, predecible, manipuleable. En general, la palabra restricción evoca algo

90

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

incómodo que es necesario superar o eliminar. No siempre es así. Como insistiremos luego,
podemos vivir en este mundo porque existen restricciones. Si no existen, las inventamos.
En efecto, no debemos olvidar que una restricción reduce la variedad. Por consiguiente, se
introducen restricciones en una situación determinada en forma expresa, adrede, a fin de
circunscribir el campo de comportamiento factible. Definiremos estas restricciones como
metodológicas.

Hasta cierto punto, es preferible perder en exactitud para ganar en capacidad de análisis y
reflexión. Se trata de un delicado balance, no siempre bien resuelto. Muchos modelos de
comportamiento implican (expresa o tácitamente) tantas restricciones que son inhábiles de
describir en forma suficientemente exacta el sistema bajo decisión, llevando al fracaso al
decididor. La brecha entre el modelo y el universo es demasiado grande. En el otro
extremo, la falta de restricciones hace absolutamente imposible el análisis de la situación.
El compromiso entre complejidad y análisis constituye una metadecisión permanente en los
procesos decisorios. Restricciones metodológicas muy frecuentes, introducidas
expresamente por el observador para reducir la variedad son:

Linealidad: Se considera el comportamiento de una variable como un universo lineal, de


amplio desarrollo matemático.
Continuidad: Se ingresa el sistema al universo contínuo para aprovechar las poderosas
herramientas conceptuales del cálculo matemático.

Discreción: Al contrario, si el universo es muy complejo, es conveniente considerarlo


como discreto a fin de reducir la variedad, aún cuando las herramientas
matemáticas sean a veces menos poderosas.

Constancia: Se considera que los factores que rigen el comportamiento de ciertas


variables son constantes, sobre un lapso determinado. (El “ceteris paribus”
es una variante de este caso).

Certeza: Se trata de una restricción muy fuerte, es decir, que reduce fuertemente el
espacio-comportamiento pero qué es utilizada con frecuencia. Se elimina así
toda una gama de estados posibles, condicionados por eventos no controlados
por el decididor, reduciéndolos a uno solo, es decir, a una variedad cero. Esta
restricción se opera con cuidado, aplicándola a corto plazo o a través de
mecanismos que la aproximan, como el valor esperado en caso de
comportamientos repetidos.

Información completa: Se considera que los estados tomados en cuenta son todos
posibles.

Selección: Es la restricción obligada de todo conocimiento, de toda indagación. Se aíslan


sólo algunas variables y se suponen que forman un sistema cerrado.

Debe entenderse que la certeza implica siempre la información completa pero, que lo
contrario no es cierto: la información completa no implica necesariamente la certeza. Se

91

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

tiene información completa sobre el comportamiento de un dado al ser arrojado, pero no se


tiene certeza de cual será la cara que exhibirá.

La variedad de restricciones metodológicas es infinita. Cualquier hipótesis o suposición


introducida en una cadena de reflexiones sobre el comportamiento de un sistema y
aceptadas, aún provisoriamente como las llamadas hipótesis de trabajo, constituyen
restricciones: limitación sobre el número de variables o de niveles que un sistema puede
adoptar, adopción de métodos de simbolización de todo tipo, desprecio de eventos poco
probables, y muchas otras, son recursos metodológicos comunes.

Su única y expresa finalidad es reducir variedad en aras de una mayor facilidad de


pensamiento. Lamentablemente, es fácil olvidar que las restricciones metodológicas son
solamente eso y que las mismas fueron introducidas en algún momento en el razonamiento
y que no pertenecen al universo percibido. Ello lleva indefectiblemente al fracaso de la
acción desencadenada por la decisión.

6. Restricciones lineales y contínuas:

Existe todo un campo en el cual las restricciones están constituidas por relaciones lineales,
sean éstas reales o metodológicas. Un caso especial de estas restricciones es el constituido
por el espacio-comportamiento factible convexo, más precisamente un poliedro convexo.
Un espacio o poliedro es convexo cuando cualquier línea o plano trazado desde o hacia
cualquier punto de sus límites recorre únicamente puntos incluidos en ese poliedro. Esto
constituye una ventaja muy importante para el hallazgo de estados óptimos. En la Figura
4.7.6.1, se representa una muestra típica de este caso especial, de universo cerrado.

a1

0 a2

Figura 4.7.6.1

Existen tres restricciones lineales que pueden formalizarse de la siguiente forma:

m1 a1 + n1 a2 <= b1

m2 a1 + n2 a2 <= b2

m3 a1 + n3 a2 <= b3

92

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

El signo <= define el campo factible y el campo de restricción. En este caso, el campo
factible incluye los puntos del límite del mismo. Si el signo fuera los puntos de las tres
rectas formarían parte del campo considerado imposible.

Este enfoque de las restricciones, utilizado en programación lineal, constituye a su vez una
restricción por ser un caso especial en un ámbito mucho más amplio de restricciones de
cualquier tipo. Dado el enorme y fácil instrumental matemático lineal, es común introducir
premisas para convertir restricciones no lineales en lineales, perdiendo exactitud pero
ganando en posibilidad de análisis y procesamiento. Por otra parte, el comportamiento
lineal es más común de lo que se cree (Kozielicki, pág. 103/5).

La hipótesis metodológica de continuidad es también frecuentemente utilizada como


restricción. En general, la variedad de un sistema de comportamiento contínuo es mayor
que la de un sistema discreto, pero su procesamiento es más fácil.

Existe una confusión semántica en este caso. Una variable contínua debe obligatoriamente
asumir más estados que una discreta (en realidad, el infinito del contínuo). Pero es
frecuente oir decir que una variable contínua es más previsible que una discreta. Ello no es
cierto: lo que se está haciendo es confundir continuidad con determinismo y discontinuidad
con aleatoriedad. Los comportamientos representados por las siguientes fórmulas son
igualmente predecibles:
(1) Xt+1 = a Xt + b

(2) dv/dt + 2 v = 2/5 F

Es igualmente previsible un auto que lanzado a determinada velocidad necesita 100 metros
y 5 segundos para detenerse, que uno que puede detenerse de inmediato en 0 metro y 0
segundo.

7. Restricciones y decisión:

Debe tenerse cuidado en el hecho de que, si bien toda restricción tiende a reducir la
complejidad en determinado nivel de resolución (punto 3.1), puede no resultar eficaz en
otro nivel. Más aún, la restricción metodológica puede adoptar formas sutiles para reducir
complejidad.

La Teoría de la Decisión es una teoría universal que pretende aplicarse a un gran número de
decididores. Evidentemente, la variedad de éstos es infinita. En lugar de reducir su campo,
consagrándose a unos pocos decididores –lo que la llevaría a su destrucción en cuanto a
teoría como conocimiento universal sistematizado- logra su fin pasando a un alto nivel de
abstracción, tan amplio que abarca infinitos decididores, disminuyendo la complejidad al
reducir lo específico, al hacerse más general. Más aún si tuviera que reducirse al
comportamiento decisorio de un solo individuo, su complejidad sería mayor ya que estaría
supeditada al alto número de estados que un decididor puede adoptar con respecto a una
situación de decisión.

93

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

En realidad, la abstracción oculta un proceso de restricción metodológica: consiste en aislar


sólo unas pocas características del decididor y considerarlas universales, a través de la
axiomatización. En esto consiste la verdadera reducción de la complejidad y no en
introducir tantas restricciones como para circunscribirla a un solo individuo.

Toda decisión y toda acción derivada de ella originan o constituyen restricciones. Un


conjunto de alternativas tiene una variedad determinada. La selección de una sola entre
ellas, reduce a cero esa variedad, la elimina. Elimina también el estado de ambigüedad en el
cual se encontraba el decididor.

Las decisiones programadas constituyen típicas restricciones: se aplican una vez por todas a
múltiples situaciones similares pero que admiten soluciones distintas. La decisión
programada implica una conducta, una solución única para todas esas situaciones
eliminando la variedad, la incertidumbre, que podía existir sobre ellas.

La organización constituye a su vez el sistema más importante de restricciones que la


especie humana ha sabido crear, ya que tiende a reducir los infinitos estados que el
conjunto de hombres y recursos que la componen pueden asumir. Las normas, las leyes, las
instituciones, los manuales, los organigramas, los cursogramas, los edictos, los usos y
costumbres, las órdenes constituyen los elementos de un poderoso sistema de restricciones,
conjuntamente con las normas morales, las pautas culturales, los prejuicios, la
consideración social.
Cuanto más restricciones, más predecible y menos incierto es el comportamiento de un
sistema.

Al conducir un sistema hacia sus objetivos o al intervenir en su comportamiento, el


decididor necesita maximizar la predictibilidad del sistema. Esto se obtiene no sólo
actuando sobre la estructura del sistema sino especialmente sobre las variables de entrada
para controlar la influencia del contexto sobre el sistema y, si es posible, sobre el mismo
contexto a través de las variables de salida. Esto constituye la mayor parte del trabajo de
todos los decididores que, además de decidir, actúan.
Los convenios de trabajo, los escalafones salariales, los contratos, los seguros, los
convenios de mercado o de precios, el cohecho, el nepotismo, las reglamentaciones, la
auditoria, los principios generalmente aceptados de contabilidad, los relojes de los serenos,
la censura, el Poder Judicial, la amenaza de muerte, constituyen unos muy pocos ejemplos
de restricciones que, conjuntamente con las que surgen de la organización, de la cultura, de
las normas sociales, hacen que el comportamiento de determinado sistema sea predecible.
Reflexione el lector: se encontrará sumergido en una jungla de restricciones que desde
antes de su nacimiento le quitan grados de libertad, arrinconan, le marcan sendas en su
camino. Verá que, a su vez, está transmitiendo restricciones heredadas., está imponiendo
nuevas restricciones inventadas. Se dará cuenta que todos los días está buscando caminos
entre restricciones de todo tipo, de recursos, de leyes, morales, etc.

Reflexione el lector: ¿no ha sentido alguna vez reprobación o desconfianza o temor hacia
quienes no se consideraban involucrados en las restricciones que él ha aceptado desde un
remoto pasado? ¿No se ha sentido integrado con quienes comparten ciertas restricciones

94

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

comunes? ¿No se ha sentido oprimido por las restricciones impuestas? ¿No ha necesitado
restricciones de donde aferrarse cuando se ha asomado a las tinieblas de un futuro incierto?

8. Necesidad y realidad de un universo restringido:

Nuestro mundo humano es un sistema complejo de restricciones de todo tipo. Esto puede
ser malo pero indudablemente esto aparece como bueno desde puntos de vista
trascendentales: un mundo sin restricciones es el caos, absolutamente inconcebible para la
especie humana. En efecto, para la Biología, la sola presencia de la vida implica la
existencia de restricciones. Se trata de materia organizada, de un repliegue en el
inconmensurable espacio-comportamiento de un universo absolutamente libre, una
reducción de estados posibles. Las leyes físicas, los planetas girando, el agua bajando por el
camino del menor esfuerzo, un brin de pasto, implican restricciones al caos, que deja así de
serlo.

Una sola molécula, la manifestación más embrionaria de vida implica una distorsión y una
disminución en la variedad potencial, una restricción.
Cuando el comportamiento de una variable puede describirse por una función determinada,
dicho comportamiento se halla absolutamente restringido; la variedad de los niveles que
puede asumir, en un momento determinado, es cero. Gracias a esas restricciones,
aprovechando esas restricciones, a través de esas restricciones, la especie ha podido
desarrollarse como vida organizada e inteligente. En especial, gracias a restricciones puede
existir un proceso de aprendizaje. Si un sistema puede asumir, en cualquier momento,
cualquier estado, es imposible conocer, aprender su comportamiento. La existencia de
restricciones reduce el número de estados factibles, introduce regularidades detectables,
implica leyes, aún en un mundo aleatorio a través de las variables estadísticas.

Justamente la única forma de ocultar la propia estrategia en conflictos con otros decididores
tan inteligentes como nosotros y que implican la repetición de decisiones sobre un conjunto
finito de alternativas, es eligiendo éstas al azar. Le será imposible al oponente adivinar cuál
será nuestra próxima jugada, aún cuando pueda detectar ciertas regularidades a través de la
media, en caso de un gran número de jugadas. Este es el método utilizado por la Teoría de
los Juegos en los casos de estrategias mixtas.

9. Restricción como causa y efecto:

Una restricción puede ser provocada por el tiempo escaso, por los recursos, por la
incompatibilidad de caracteres, por el desconocimiento de un idioma, por incomprensión de
pautas culturales, por imágenes distintas evocadas por distintos decididores frente a una
misma palabra, por regulaciones estatales, por normas morales, por falta de poder, de
imaginación, de información. Infinitos son los soportes de las restricciones. Su efecto es
siempre el mismo: ciertos estados no pueden realizarse o son difícilmente alcanzables,
ciertos comportamientos están eliminados o son más probables que otros. Las restricciones
reducen, disminuyen la variedad potencial y permiten cierta predicción del
comportamiento.

95

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Es importante señalar que la palabra restricción no ha sido definida hasta aquí. Hemos
dicho cuando existe una restricción pero no qué es una restricción. Una restricción es
simplemente cualquier entidad que introduce una diferencia entre variedad potencial y real,
entre incertidumbre máxima y real, que elimina estados, que hace que algunos sean más
probables que otros. Por entidad se entiende todo lo imaginable, real o ficticio, físico o
abstracto, cualquiera sea su origen, su forma, su expresión.

No importa definir a priori, universalmente, una restricción. Lo que importa es su efecto. Es


por ello que la palabra se utiliza indiferentemente para la entidad que reduce la variedad
como para la misma reducción.

10. La acción como sustitución de restricciones:

Simon ha dicho que para un buen decididor no importa el mecanismo de selección de la


mejor alternativa, más importan las restricciones. Es aquí donde se ubica la frase atribuida a
San Francisco de Asis y que hemos adaptado a este capítulo: no basta conocer las
restricciones, es necesario, es necesario saber cuáles son removibles, cuáles no pueden
modificarse y tener la sabiduría necesaria para distinguir entre ellas.

¿Cuáles son los campos totalmente vedados?, ¿cuáles son los que no lo son tanto?, ¿cuál es
el riesgo de infringir las vallas impuestas?, ¿cuál es la posibilidad de correrlas un poco más
allá?, ¿cuál es la probabilidad de alcanzar ciertas regiones del espacio-comportamiento?,
¿qué perdemos y qué ganamos en la transacción de las restricciones?

El problema e concentra entonces en la aceptación o en la remoción total o parcial de las


restricciones o de su origen, dentro del horizonte de planeamiento. Las restricciones
implican la imposibilidad absoluta o la dificultad de asumir ciertos estados, ciertos puntos
en el espacio-comportamiento, en un lapso determinado. La definición del tiempo es
fundamental ya que haciendo el período de análisis tan prolongado como se quiera, no
existe restricción alguna que no pueda considerarse superable. Existen, por ejemplo, fuertes
restricciones a que nuestro país de habla hispana pase a ser de habla inglesa. Sin embargo,
de contar con el tiempo necesario y de mantenerse la voluntad de cambio durante ese
tiempo, podemos imaginar que ese propósito puede ser logrado.

Por consiguiente, podemos aceptar el principio de que no existe restricción absoluta e


inamovible, cualquiera sea su causa.
La remoción de las restricciones es cuestión de recursos. Es conveniente dividir os recursos
en dos: el tiempo
los otros recursos: energía, talento, hombres, máquinas, dinero, información.

Pero los recursos son, a su vez, restricciones. Por consiguiente, se necesitan restricciones
para remover restricciones.
La lucha contra las restricciones implica una sustitución de restricciones más fuertes por
otras más débiles. La remoción de restricciones es un proceso por el cual se reemplaza,

96

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

sobre uno o varios períodos, restricciones poco alcanzables por otras constituidas por
recursos disponibles: esfuerzo, perseverancia, dinero, talento, fuerza, etc.

El horizonte temporal de planeamiento tiende a adaptarse a la duración de la vida humana,


relativamente ínfima en comparación con el universo. Por otra parte, los recursos efectivos
siempre son escasos. Estas características llevan a que este intercambio de restricciones
pueda analizarse con las herramientas conceptuales desarrolladas por la disciplina que se
ocupa fundamentalmente de ciertos intercambios específicos: la economía política.
La Teoría de la Decisión, que incluye las decisiones de intercambio, abarca el combate
contra las restricciones al tratar de resolver problemas como los siguientes: ¿qué restricción
eliminar o debilitar?, ¿qué restricción utilizar y hasta dónde, en una dimensión temporal y
espacial?, etc.

Queda claro, al introducir el concepto de la sustitución de restricciones, que no siempre es


necesario eliminar restricciones de una sola vez. Puede debilitarse restricciones,
sustituyéndolas por otras con mayor grado de remoción.

Desde el punto de vista del espacio-comportamiento, la lucha contra las restricciones


implica, por lo tanto, no sólo abrir un campo vedado sino también reducirlo o sustituirlo por
otros cuya existencia constriñe menos el comportamiento deseado para el sistema bajo
decisión.

Desde las restricciones débiles, removibles de inmediato y sin esfuerzo hasta las
restricciones fuertes, removibles a largo plazo y con mucho esfuerzo, pueden escalarse
todas las restricciones imaginables, desde prohibiciones, vallas invencibles, imposibilidad
física, económica, hasta castigos y costos por superar la restricción. No es necesario que
este costo sea indefectible: puede ser aleatorio. Las restricciones relativas definen un campo
de riesgo. Evidentemente, esto implica una gradación en la fuerza de las restricciones. La
imposibilidad absoluta surge de una restricción más fuerte que la restricción que impone
solamente un costo aleatorio al ser transgredida.

El decididor no puede vencer una restricción absoluta, total, dentro de su horizonte de


planeamiento si no cuenta con los recursos necesarios. Pero puede arriesgarse cuando la
valla es franqueable a un costo determinado o aleatorio. Ello implica entonces un cálculo
decisorio, la posibilidad de recorrer caminos difíciles, de asumir riesgos que constituyen, al
efectivizarse, un costo, es decir, el uso de una restricción.

Al conducir un sistema hacia un estado poco probable, por ser restringido por una
restricción relativa, pueden suceder distintas cosas, de acuerdo con la naturaleza de la
restricción: el estado puede ser alcanzado o no, con el uso de ciertas restricciones o no. El
cálculo decisorio implica evaluar si el uso de restricciones para superar otras, es
conveniente.

La reglamentación de tránsito prohíbe cruzar una calle cuando el semáforo está rojo. Esta
prohibición (restricción) no es absoluta: puede ser infringida. De cualquier modo, logra
reducir la probabilidad de que la calle se cruce cuando el flujo de tránsito de la calle
transversal está abierto.

97

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

El infringir la restricción implica dos tipos de consecuencias: se pasa sin problemas o sí se


recogen problemas (un choque, una multa). Estos se resuelven con el uso de recursos que, a
su vez, constituyen restricciones: dinero, un ojo negro, la vida.

Esta visión de las restricciones, aparentemente evidente, es de enorme importancia para una
Teoría de la Decisión volcada hacia la acción, para una praxiología efectiva.
Lamentablemente, la relatividad de las restricciones tiende a olvidarse en el análisis
decisorio. La conocida frase “la única verdad es la realidad”, es sumamente peligrosa en ese
sentido. Tiende a crear la imagen de que esa única verdad es inamovible y que el hombre
debe someterse a esa realidad. Con ese criterio, el ser humano no hubiera superado la etapa
cavernícola. Sin discutir el sentido de la palabra “realidad” consideramos que se trata de un
vocablo que describe un conjunto de restricciones: la realidad es una serie de restricciones
con distintos grados de removilizad, de desplazamiento.
El ser humano en general –y el decididor en especial- no se somete a esa realidad sino que
la modifica, comenzando, supuestamente, por las restricciones de más fácil remoción.

La frase mencionada sólo toma sentido trascendental cuando se interpreta como una
advertencia a que no debe tratarse de remover restricciones no eliminables dentro del
período de planeamiento, no deben atacarse restricciones con mucho poder.

4.8 Incertidumbre, aversión, libertad, complejidad

1. La actitud ante la incertidumbre:

La incertidumbre es un fenómeno subjetivo. Esta afirmación no está afectada por el hecho


que muchos observadores compartan la misma sensación de incertidumbre o que esa
sensación pueda ser reflejada por una medida objetiva de la complejidad del universo. En
general, se percibe en el ser humano cierta aversión a la incertidumbre, cierto temor a lo
desconocido. Sea ese temor originado en oscuros condicionamientos genéticos y evolutivos
(el temor como producto de la evolución biológica), sea originado por el enfrentamiento
súbito con un universo brillante y ruidoso al ser extraído de la cómoda oscuridad del seno
materno, sea fenómeno cultural o existencial, sea influencia del pensamiento griego, el
hecho es que la especie humana exhibe en general cierta aversión a la incertidumbre.

Esta aversión lleva a que una de las más importantes actividades del ser humano es el
combate de la incertidumbre. Ese combate, trata de lograr un universo predecible. La
incertidumbre se elimina al reducir a una sola el conjunto de respuestas posibles a la
indagación, a la duda.

El ser humano logra vencer a la incertidumbre a través de imponer restricciones al


comportamiento del universo. Las leyes, normas, órdenes, obediencia, recompensa y
castigo, prohibiciones, sistemas, rutinas, instrucciones, programas y especialmente,
organización, son elementos anti-incertidumbre. A través de esas medidas, se logra un
universo predecible, se reducen los estados y los comportamientos posibles, se acota y se

98

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

reduce la complejidad, se incrementa la propensión a suceder de ciertos estados en


detrimento de otros.

El ser humano necesita que su entorno sea predecible. Espera encontrar su casa, a la noche,
cuando vuelve de su oficina. Espera que su orden sea obedecida cuando es jefe y espera que
el sueldo le llegue puntualmente a fin de mes. Esperas que su cliente le pague a una fecha
determinada y con eso cancelar a su vez una deuda que otro hombre espera se le abone.
Espera que la gente en el mostrador atienda bien a la otra gente y no la muela a palos, que
el auto de adelante no se detenga de repente, ni que otro venga de contramano. Espera que
su amigo no lo engañe, que su mujer no lo apuñale, que cuando abra la puerta del baño no
se encuentre con la caja del ascensor. Cuando se transforma en ejecutivo, necesita dominar
su contexto, la empresa en que se encuentra. Necesita saber que pasa, acotar los grados de
libertad de sus subordinados, saber que cuando se lanza un nuevo producto, se están
realizando paso a paso todas las etapas necesarias, que el contenido de los informes tiene el
mismo sentido para quien los confecciona como para él, que la ley vigente lo es realmente
y que no depende del prejuicio o de la indigestión de un juez, que las reglas del gran juego
de su vida y de su actividad son estables y seguras y de permanencia suficientes y cuando
cambien, lo pueda hacer. No quiere vivir un personaje de Kafka, despertándose a la mañana
transformándose en insecto o procesado en un mundo que exhibe una férrea coherencia que
no es la suya. En fin, trata de reducir la cantidad de estados posibles de las variables que le
interesan, de llevarlos a un solo estado necesario. Azar y necesidad se contraponen y
conviven (Monod).

Para logra eso, la especie humana organiza. La historia del hombre es la historia de la
organización, de la sociedad, de las fuerzas armadas, de la religión. Organizar es armar un
gran rompecabezas de decisiones programadas, de instrucciones lo más precisas posibles,
de control y de castigo para evitar que se transgredan. Surgen así las pautas culturales, las
leyes escritas y las otras, las normas, las regulaciones, los reflejos condicionados, las Tablas
de la Ley, la Moral y la moralina. Todo ello a fin de evitar la incertidumbre, en especial
para que el universo sea predecible para las elites dirigentes, cualesquiera sean. Surge el
repudio social, el castigo para quien transgredí la organización. Es una amenaza, no tanto
porque amenaza el funcionamiento de un sistema determinado sino porque introduce la
incertidumbre.

La organización se basa sobre la información. Esta es una forma de organización. La


organización establece bolsas dentro de la gran corriente de entropía creciente, bolsas
donde se revierte el proceso. Dentro de la organización, se corta la corriente irreversible
que nos lleva hacia el caos, se frena, se remonta la pendiente ineludible. Se logra reducir la
incertidumbre, a veces eliminarla totalmente. Para ello es necesario bombear energía desde
fuera de la organización. Mantener ésta, cuesta mucho.

Todo el proceso de organización se efectúa a través de un proceso permanente de conflicto,


de ejercicio del poder, de desarrollo de negociación. Aparecen así corrientes
contradictorias. En algunos aspectos los subordinados prefieren la certidumbre y los
dirigentes la incertidumbre, para la mejor defensa de sus intereses; en otros aspectos sucede
lo contrario.

99

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

No solamente el hombre lucha contra la incertidumbre sino que también trata de


amaestrarla, de convivir con ella cuando no se puede vencerla, utilizando distintos
instrumentos, más o menos imperfectos, que –finalmente- implican distintos gados de
información.

El de máxima jerarquía es la planificación, el anti-azar como lo denominó Masse. El plan


estratégico, en su versión óptima, implica analizar todos los cursos de acción posibles hoy,
seleccionar uno, analizar todos los eventos inciertos asociados al mismo y para cada uno,
establecer el curso de acción a seguir en cada eventualidad, mañana. Se sigue analizando
para este segundo curso de acción todos los eventos inciertos posibles y para cada uno de
ellos, el curso de acción a seguir pasado mañana. Se continúa así hasta el horizonte de
planeamiento fijado. (En realidad, la técnica aconseja trabajar al revés, comenzando desde
el futuro hacia el presente).

Evidentemente, esta versión máxima del planeamiento es de difícil realización, salvo en


casos triviales, por la cantidad de meditación y procesamiento necesario. Pero, de cualquier
modo, las técnicas aplicadas siguen esa línea con mayor o menor simplificación.

Al revés, podemos convivir con la incertidumbre tomando muchas decisiones a corto plazo
y altamente reversibles. En época de caos económico, el proceso de decisión se acorta y se
multiplica la frecuencia.

En todos los casos pueden utilizarse distintas técnicas entre las cuales se destaca el análisis
de sensitividad, sobre el cual volveremos en otra oportunidad. Se trata de establecer dentro
de qué rango podemos permitir que varíe la realidad en comparación con nuestras
expectativas sin necesidad de modificar las decisiones basadas sobre éstas últimas. Esto se
hace comúnmente, sin saberlo a veces. Permanentemente, se utiliza la información
adicional. Perdido en las tinieblas, el decididor tira manotazos en todas las direcciones para
obtener información sobre el universo desconocido en el cual se encuentra. Todos sus
sentidos van detectando información que su cerebro procesa e interpreta. Se reconstruye el
universo incierto sobre la marcha, tomando muestras y tropezando, por el viejo método de
la prueba y error. Esa información se irá tomando y pagando de algún modo mientras su
costo sea menor que el valor esperado del conocimiento adquirido. El chimento del amigo
bien informado, la investigación de mercado, la prueba y ensayo, el espionaje, son métodos
de obtención de información adicional.

También se negocia con la incertidumbre. Se trata de llegar a un arreglo, de comprender y


comprometerse, de obtener garantías, se reparte el mercado, se coimea, se buscan acuerdos.
El arte de la negociación, al concretar un convenio, se transforma en método de reducción
de lo incierto mientras el convenio no sea traicionado.

Uno de los métodos más difundidos es pasar la incertidumbre a otros, cuanto más son,
mejor. Se trata de una colección de individuos que tienen problemas similares de
incertidumbre. En la medida que los estados inciertos son perjudiciales, podemos encontrar
una forma de anular sus efectos formando una comunidad que sufragio entre todos sus
integrantes las pérdidas sufridas por cada uno de ellos. Es el seguro. A veces, la delegación

100

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

de la incertidumbre es más simple: el empleado cede su incertidumbre a su patrón mediante


el pago de un sueldo y cierta estabilidad.
El escalafón, el organigrama son métodos eficaces para dominar el contexto, para
organizarlo, para hacerlo predecible. A su vez alguien asume una mayor incertidumbre pero
exigirá compensación por ello.

Una actitud muy común con la incertidumbre –y con todo lo que se teme- es ignorarla. El
ser humano ha desarrollado una serie de defensas psicológicas que logran a menudo
convencerlo que la incertidumbre no existe o que podemos actuar como si no existiera. Ese
método primitivo de convivencia –ampliamente generalizado- con la incertidumbre puede
dar resultado: se enfrentan los hechos a medida que aparecen.

Su versión más sofisticada es tomar como cierto lo que consideramos más probable, el
modo de una ignota distribución aleatoria. No se ponderan todos los estados posibles, no se
examinan todos los comportamientos. Se elige sólo una variante y se apuesta a ella como si
fuera única. No se asume conscientemente el riesgo, la incertidumbre no constituye un
compromiso, no se la incorpora realmente al proceso de decisión.

Muchos no pueden soportar su aversión al riesgo, la angustia de la duda, la molestia de la


apuesta, el miedo sutil que paraliza, la racionalización en círculo que coarta y anula. Se
anquilosa el decididor, no decide, se arrincona, se autodestruye. Es la fuga ante la
incertidumbre.

La actitud más racional de la fuga es la de la máxima seguridad, incorporada en celebrados


criterios de la Teoría de la Decisión: el maximin, el criterio de Wald. Este consiste siempre
en seguir siempre la acción que lleva a la mejor de las peores alternativas. No se podrá estar
peor nunca y, si el cielo nos sonríe, quizás estemos mejor. Este criterio, que se impone
obligatoriamente en la Teoría de los Juegos, resulta ineficaz en muchas situaciones de
decisiones que no recaen en ese campo. En efecto, el no hacer nada, el encogerse sobre sí
mismo para ofrecer menor superficie a la adversidad, como el gusano de Nietzsche, resulta
ser la acción más comúnmente aconsejada por ese criterio.

La aversión al riesgo surge claramente de la Teoría del Valor de Daniel Bernouilli (1700-
1782). Partiendo del principio que el valor de un incremento de patrimonio es inversamente
proporcional al valor del capital (el mismo incremento es más valioso para un pobre que
para un rico), Bernouilli llega a la conclusión de la función numérica que representa el
valor de los bienes para un individuo es una función logarítmica. Esta función, sobre la cual
nos extenderemos en otra oportunidad, implica aversión al riesgo: se pretende altas
probabilidades a favor para arriesgar un poco. Se tiende así a no asumir riesgos. Más
técnicamente, no tiende a aceptar riesgos equitativos en los cuales el valor esperado de
asumir el riesgo es igual al valor esperado de no asumirlo (más aún, se demuestra que no se
debería asumir nunca un riesgo en tales condiciones).

La utilidad marginal decreciente de los bienes desarrollada por la Escuela Austríaca


(Gossen, 1810-1858) (si bien parece haber ignorado totalmente a Bernouilli que había
planteado el problema un siglo antes) lleva de la misma forma a aseverar que el hombre es
naturalmente averso al riesgo.

101

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Pero si bien la aversión a la incertidumbre es muy difundida, no es la única reacción del ser
humano. Existe también la propensión a la incertidumbre y, porque no, la neutralidad ante
ella. El decididor audaz, el jugador, el tomador de riesgos, no sólo convive con la
incertidumbre sino también la busca, la ansía. De todos modos, los casos más definidos de
propensión al riesgo pertenecen a la fantasía literaria. También se demuestra que es
sumamente común exhibir aversión al riesgo en cierto rango de valor y propensión al riesgo
en otro ámbito.

La literatura trata a menudo este problema. No podemos dejar de mencionar a Borges en


“La lotería en Babilonia”. Todos y cada uno de los actos y acontecimientos de la vida de un
pueblo estaban regidos por el azar: la posición social, la fortuna, los amores, la familia, la
profesión, la vida y la muerte dependían de un sorteo periódico. “Como todos los hombres
de Babilonia, he sido procónsul; como todos, esclavo. También he conocido el oprobio, la
omnipotencia, las cárceles… He conocido lo que ignoran los griegos: la incertidumbre”.
Esa incertidumbre pasó a ser la forma de vida de los habitantes de Babilonia.
Todos los días cambiaba la suerte: el esclavo de hoy podía ser el procónsul de mañana o ser
ahorcado pasado mañana, no por sus méritos y acciones, no por haber influenciado el
mundo sino simplemente por los designios del azar. Pero lo importante de la fantasía
borgiana era que el pueblo era feliz con esta incertidumbre máxima.

Otro ejemplar literario –entre los muchos existentes- es “El hombre de los dados” de Luke
Rhinehart. Un conocido psicólogo somete a los dados todos los hechos de su vida, todas las
personalidades que se le ocurren. Elige con los dados el tiempo que asumirá esas
personalidades que se le ocurren. Elige con los dados el tiempo que asumirá esas
personalidades, el azar le dicta su vida.

¿Qué distingue estos dos casos? En primer lugar, que son absolutamente coherente. El
confiar a un mecanismo aleatorio la doble selección del conjunto de alternativas y, dentro
del mismo, la elección del curso de acción específico a seguir, constituye un criterio no tan
extraño como aparece a primera vista. El problema reside en que se trata de un criterio
burdo, generalmente de alto costo, pero fundamentalmente un criterio que tiende a coartar
las facultades de reflexión del ser humano y que consiste en ignorar las preferencias
individuales y sociales. Se sustituye el orden en las preferencias por el girar de la rueda de
la kermese. Pero desde un punto de vista lógico, el criterio es coherente. Más aún, en caso
de no poder ordenar esas preferencias o ante exigencias de estricta equivalencia, el criterio
de la selección aleatoria es legítimo. Y lo utilizamos tanto para asignar la posición de los
equipos en un partido de fútbol como para decidir qué película ver. Aparentemente, cuando
los valores arriesgados no son muy importantes, cuando se quiere evitar la posibilidad de
toda distorsión malintencionada, el criterio aleatorio es empleado frecuentemente. Pero su
aspecto más tenebroso, su aplicación más violatoria de la inteligencia humana lo reportan,
no las ficciones literarias sino las crónicas históricas: es el Juicio de Dios de las
persecuciones religiosas. Y su aspecto más trágico está en la ruleta rusa. Cuando termina la
reflexión, comienza el azar.

En segundo lugar, los hombres de las ficciones comentadas, estuvieron dispuestos a vivir
en el azar puro –lo que implica un costo considerado elevado para nuestras pautas
culturales- pero obtuvieron una ventaja: eliminaron la problemática de la decisión, se

102

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

liberaron de la duda y de la angustia y de la responsabilidad de decidir con pleno albedrío:


delegaron la facultad de decisión al azar. La suerte está echada. No va más. La lotería, el
dado, han decidido.

Obsérvese que la aplicación sistemática del criterio aleatorio tiene una implicancia
insospechada: el sistema de vida se vuelva determinista, pasivo. Más aún, el azar confiere
certeza: la certeza de que otro decida y que se aceptarán dictámenes. Es una certeza
extraña; no hay información completa, la incertidumbre sobre el comportamiento se
mantiene, pero ya no importa. Siendo la incertidumbre una posición personal, individual, el
confiar la propia vida al azar es una forma de superarla a través de lo irreversible: “Alea
Jacta Est”. La suerte está echada. A cada golpe de dado, el Rubicón se cruza. Y no puede
volverse atrás. Los grados de libertad se han reducido a cero, han desaparecido para
siempre bajo la tiranía de la suerte.

2. Incertidumbre y libertad:

Incertidumbre y libertad, entendida ésta como libertad de elección, no son conceptos


estrictamente paralelos. El decididor puede elegir libremente (y contar con muchos grados
de libertad) en una situación carente de incertidumbre.

Pero la medición de la libertad es similar a la de la incertidumbre. Cuanto más


comportamientos posibles existen y cuan más probables sean éstos, mayores será los grados
de libertad de elección entre ellos. De este modo, un universo donde todos sus integrantes
tienen la más absoluta libertad será un universo incierto. La libertad absoluta tiene la misma
medida que la incertidumbre absoluta (Pavesi, 1981).

Si libertad implica incertidumbre (o más exactamente, si distintos grados de libertad


implican distintos grados de incertidumbre) y si incertidumbre implica desorden y si existe
aversión a la incertidumbre, existe aversión a la libertad. Evidentemente, esta compleja
relación no exhibe características transitivas tan nítidas, pero existe el miedo a la libertad
(Fromm, E.). Ese miedo, originado en el miedo a la incertidumbre vencido por severas
pautas culturales, es el que reclama restricciones que impondrán orden. Ese miedo puede
transformar una sociedad y llevarla a la aberración del nazi-fascismo y del genocidio.

Cabe preguntarse ¿cuántas restricciones impone el sistema económico, social y cultural


sobre la libertad de elegir? Creemos que muchas. Pero aún así, cabe suficiente libertad
como para alimentar angustias, promover realizaciones y justificar una Teoría de la
Decisión (Pavesi, 1981).

3. La incertidumbre como característica del universo:

La incertidumbre recae sobre los siguientes elementos del universo:

(1) Las variables

(2) Los valores que puedan adoptar

103

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

(3) La propensión a suceder de esos valores

La medida de la complejidad, que hemos llamado variedad en el capítulo precedente,


abarca los dos primeros elementos: variables y valores.
Su conjunción forma los estados y su número es la base para el cómputo de la medida de
incertidumbre que veremos más adelante.

En la Teoría de la Decisión existe una fuerte tendencia a considerar a la incertidumbre


solamente desde la propensión a suceder (Niveles 1 y 4 del cuadro 4.2.1.1, principalmente).
Así también tienden a hacerlo otras disciplinas como la Estadística.

Sin embargo, la incertidumbre, como fenómeno subjetivo, recae implacablemente sobre


todos los elementos del universo, incluido el propio decididor, como la duda cartesiana.

No solamente existe incertidumbre por el hecho que una variable dada que en un momento
dado exhibe cierto valor determinado, puede exhibir en el momento siguiente uno entre una
cantidad definida de valores posibles. La incertidumbre existe porque existe ignorancia
sobre cuáles son los valores posibles que esa variable tiene a su alcance en el momento
siguiente. El punto de partida es definir el conjunto de todos los valores imaginables y
separar los posibles de los no posibles, sin entrar a discutir si son más o menos “posibles”,
es decir, sin eventualidad, su propensión a suceder. Pero ha de presentarse, en general, la
duda si un valor determinado es posible o no. Más aún, ha de presentarse la duda si hemos
imaginado todos los valores.

Pero también tendremos duda si hemos incluido todas las variables del universo, si no
hemos dejado algunas sin considerar.
La duda no termina allí. La más cruel es la que recae sobre las preferencias. Entre dos
valores A y B, podemos adoptar tres comportamientos:
A es preferido a B
B es preferido a A
A y B son indiferentes
Pero sucede frecuentemente que no sabemos definir cualquiera de estas tres relaciones.

Esta situación de incertidumbre permanente puede parecer dantesca pero, realmente, no lo


es. El hombre está conviviendo con la incertidumbre desde hace miles de millones de años
y el mundo sigue andando. Pero si quisiéramos insistir sobre el hecho, demasiado
frecuentemente subestimado, que todos nuestros actos se desarrollan en un ambiente de
incertidumbre. La incertidumbre es la característica general del universo y no un caso
excepcional o extremo como muchos parecen creer.
Estamos inmersos en la incertidumbre y ésta es nuestra condición natural de la vida. Los
mismos mecanismos desarrollados por el hombre para preservarse de lo incierto llevan a
desconocerlo. Muchos decididores se desesperan por la incertidumbre y pretenden que el
experto la elimine. Ello es imposible. Puede reducirse la incertidumbre en un caso
determinado pero, en general, finalmente, llegará el momento en que será necesario apostar
sin otra ayuda que la seguridad de haber analizado suficientemente la situación. En ese

104

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

momento, el decididor está sólo, absolutamente, desoladamente sólo. Y deberá decidir sin
que nadie lo ayude (porque aceptar ayuda, también constituye una decisión solitaria).

Borch (pág. 24) cuenta una anécdota ilustrativa al respecto. El Directorio de una compañía
de seguros exigía de su consultor que le ayudara más en cuanto a la posibilidad de un
siniestro, contestando el consultor que no era a él a quien debía llamar el Directorio sino a
un astrólogo. El Directorio pensó entonces que la respuesta evasiva había sido dada para
lograr un puesto en el mismo Directorio.

La práctica de la decisión indica claramente que existe cierta tendencia a exigir el


esclarecimiento total del problema pretendiendo acumular información hasta lograrlo, o
adoptar la máxima actitud pasiva o a lamentar, a posteriori, el no haber acertado.

Estas dos últimas actitudes están contempladas en la Teoría de la Decisión a través de los
llamados criterios de Wald (o maximin o pesimismo absoluto) y de Savage (o del
arrepentimiento).
El afán de eliminar la incertidumbre lleva a la excesiva acumulación de información,
muchas veces contradictoria, que incrementa la incertidumbre en lugar de reducirla. La
falta de comprensión de la incertidumbre lleva a la persecución a posteriori por no haber
acertado el estado “verdadero”. La propuesta de incorporar el costo de oportunidad
(originado en las alternativas rechazadas al decidir) a la contabilidad mucho tiene que ver
con esta falta de comprensión (Pavesi, 1981).

La incertidumbre es esencia del universo percibido, sea ella sustancial u operativa. Su


origen reside, más que en los hechos de la naturaleza, en los hechos de los hombres. La
Estadística es sólo a medias una técnica de la incertidumbre: en realidad es una técnica de
la cuasi-certeza, basada sobre variantes, expresas o tácitas, de la premisa de cierta
estabilidad subyacente en el comportamiento del universo, en el apartar variaciones
ocasionales para centrarse en las tendencias estructurales.

De poco sirven estas disciplinas cuando debemos afrontar la imaginación, el talento de un


adversario por lo menos tan inteligente como nosotros. Tampoco sirven mucho cuando
deben afrontar la creatividad humana en general y los cambios permanentes originados en
la movilidad, la inquietud, la curiosidad de la especie que no en vano desciende de los
primates.

El lector podría entonces preguntar ¿“Entonces, siempre se apuesta”? ¡Si! Siempre se


apuesta (en mayor o en menor grado).

4. Incertidumbre y complejidad:

Creemos necesario comentar el significado de la palabra “complejidad” y su relación con lo


expuesto en este trabajo.

Comúnmente se utiliza la palabra “complejidad” como sinónimo de “incertidumbre” en el


sentido que un alto grado de complejidad implica un alto grado de incertidumbre (nosotros

105

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

también lo hemos hecho). Pero es necesario ser preciso, ya que no siempre los universos se
presentan así.

Ante todo, dejamos sentado que también la complejidad implica grados, es una variable que
exhibe distintos niveles. La complejidad se refiere a una estructura determinada y recae
sobre los elementos de la misma.

El grado de complejidad de un universo dado se mide por:

(1) El número de elementos o variables

(2) El número de niveles, grados o valores que pueden adoptar esas variables

(3) El número o tipo de relaciones que asocian esos elementos o variables.

Cuanto mayor es el número de variables, de niveles que pueden adoptar y el número de


relaciones n-arias que los asocian, todo ello de acuerdo con la percepción del decididor,
mayor es la complejidad.

Pero no obligatoriamente una alta complejidad implica una alta incertidumbre (y


viceversa). El factor decisivo no es la complejidad sino el conocimiento que se tenga sobre
la misma. Un universo de gran complejidad por el alto número de elementos y una red
tupida de relaciones entre los mismos puede tener un comportamiento único o una
estructura estable y no ofrecer ninguna resistencia a su conocimiento: un computador, un
avión supersónico, un rascacielos son sumamente complejos pero su nivel de incertidumbre
es bajo o nulo para el experto. Su comportamiento es cuasi-determinado, con una
aleatoriedad cuasi nula o despreciable.

Un dado es un sistema sumamente simple, de bajo grado de complejidad estructural. Sin


embargo, la incertidumbre sobre su comportamiento es alta.

Por consiguiente, debe pasarse de la complejidad a la incertidumbre cruzando el requisito


del conocimiento. Para un neófito, un dado (baja complejidad) ofrece menos incertidumbre
que una bomba de hidrógeno. Pero sucede exactamente lo contrario para el experto en
bombas de hidrógeno.

Es cierto que cuanto más complejo es un sistema, más propenso es a la incertidumbre (y lo


mismo en sentido contrario). Pero ello no es una ley obligatoria, ya que depende finalmente
del observador. Cuando, por comodidad, asimilamos complejidad con incertidumbre, no
debe olvidarse que se trata de una licencia literaria utilizada en situaciones donde no es
necesaria mayor precisión.

La complejidad aparece así, como una característica del mundo físico, independiente de la
incertidumbre (si bien es cierto que un sistema complejo tiene mayor propensión a exhibir
incertidumbre para muchos observadores).

106

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

ANEXO

ENTROPÍA DE UNA VARIABLE1

pi Hi = -pi *lg2 pi pi Hi = -pi *lg2 pi pi Hi = -pi *lg2 pi pi Hi = -pi *lg2 pi


0,01 0,06644 0,26 0,50529 0,51 0,49543 0,76 0,30091
0,02 0,11288 0,27 0,51002 0,52 0,49058 0,77 0,29034
0,03 0,15177 0,28 0,51422 0,53 0,48545 0,78 0,27959
0,04 0,18575 0,29 0,51790 0,54 0,48004 0,79 0,26866
0,05 0,21610 0,30 0,52109 0,55 0,47437 0,80 0,25754
0,06 0,24353 0,31 0,52379 0,56 0,46844 0,81 0,24624
0,07 0,26855 0,32 0,52603 0,57 0,46225 0,82 0,23477
0,08 0,29151 0,33 0,52782 0,58 0,45581 0,83 0,22312
0,09 0,31265 0,34 0,52917 0,59 0,44912 0,84 0,21129
0,10 0,33219 0,35 0,53010 0,60 0,44218 0,85 0,19929
0,11 0,35029 0,36 0,53061 0,61 0,43500 0,86 0,18713
0,12 0,35707 0,37 0,53073 0,62 0,42759 0,87 0,17479
0,13 0,38264 0,38 0,53045 0,63 0,41994 0,88 0,16229
0,14 0,39711 0,39 0,52980 0,64 0,41207 0,89 0,14963
0,15 0,41054 0,40 0,52877 0,65 0,40397 0,90 0,13690
0,16 0,42302 0,41 0,52738 0,66 0,39564 0,91 0,12382
0,17 0,43459 0,42 0,52565 0,67 0,38710 0,92 0,11067
0,18 0,44531 0,43 0,52356 0,68 0,37835 0,93 0,09764
0,19 0,45523 0,44 0,52115 0,69 0,36938 0,94 0,08391
0,20 0,46439 0,45 0,51840 0,70 0,36020 0,95 0,07030
0,21 0,47292 0,46 0,51333 0,71 0,35082 0,96 0,05654
0,22 0,48057 0,47 0,51196 0,72 0,34123 0,97 0,04262
0,23 0,48767 0,48 0,50827 0,73 0,33144 0,98 0,02956
0,24 0,49413 0,49 0,50428 0,74 0,32146 0,99 0,01435
0,25 0,50000 0,50 0,50000 0,75 0,31128 1,00 0,00000

1
La entropía total se halla por la suma. Por ejemplo: H(0,6; 0,3; 0,1) = 0,44218 + 0,52109 + 0,33219 = 1,29546

105

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

BIBLIOGRAFÍA

Sabih, W. Ross, “Introducción a la Cibernética”, Nueva Visión, Buenos Aires, 1960.


(Primera edición original 1956).

Ayala, Francisco, “Origen y evolución del hombre”, Alianza, Madrid, 1980.

Borch, K. Henrik, “La economía de la incertidumbre”, Tecnos, Madrid, 1977. (Edición


original 1968).

Boulding, Kenneth, “Prefacio” al libro de Zeleny, Milan.

Brillouin, León, “La información y la incertidumbre en la ciencia”, Universidad Autónoma


de Méjico, Méjico, 1969.

Bunge, Mario, “Treatise on Basic Philosophy: Epistemology and Methodology. Vol 5:


Exploring the World”, Reidel, Dondrecht, 1983.

Cherry, Colin, “On human communication”. Science Editions, New York, 1961. (Primera
edición MIT 1957).

Coombs, Dawes, Tversky, “Introducción a la Psicología Matemática”, Alianza, Madrid,


1981. (Primera edición en inglés, 1970).

Descartes, Renato, “Reglas para la dirección de la mente”, Aguilar, Buenos Aires, 1980.

Ellsberg, Daniel, “Risk, ambiguity and the Savage axioms”, Quaterly Journal of
Economics, 1961, 75, 643/669.

Fernandez, Pol, Jorge, “Utilidad en el sentido de Von Neumann y Morgenstern” Tesis,


Buenos Aires, 1984.

Ferrater Mora, José, “Diccionario de Filosofía”, Alianza, Madrid, 3ª edición, 1981.

Foucault, Michel, “Las palabras y las cosas”, Siglo XXI. Méjico 1968. (Edición original
1966).

Pavesi, Pedro F. J., “Orden y entropía: de la Autopoiesis a la Mathesis Universales”,


Instituto de Investigaciones Administrativas, Facultad de Ciencias
Económicas, UBA, Buenos Aires, 1986, a.

Pavesi, Pedro F. J., “Estructuras Bayesianas y teoría de la información”, Instituto de


Investigaciones Administrativas, Facultad de Ciencias Económicas, UBA,
Buenos Aires, 1986, b.

Perez, Rodolfo, “Cómo decidir”, Editorial Cangallo, Buenos Aires, 1981.

106

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)


lOMoARcPSD|16285517

Pierce, John, “Symbols, Signals and Noise”, Harper, New York, 1961.

Poincare, Henri, “La ciencia y la hipótesis”, Espasa-Calpe, Buenos Aires, 1943.

Popper, Kart, “El universo abierto”, Tecnos, Madrid, 1984. (Edición original 1956).

Prigogine, Ilya, “Tan sólo una ilusión”, Tusquets Editores, Barcelona, 1984.

Rifkin, Jeremy, “Entropy”, Viking Press, New York, 1980.

Savage, Leonard, “Foundations of Statistics”, Wiley, New York, 1954.

Shannon, Claude, “The Mathematical Theory of Communication”, The University of


Illinois Press, Urbana, 1949.

Stockmayer, L. y Chandra, A., “Problemas intrínsecamente difíciles”, Investigación y


Ciencia, 39, Julio 1979, 92/102.

Turing, Alan M., “Can a machine think?”, En: Newman, James, (comp), “The world of
mathematics”, Vol. 4, Simon and Schuster, New York, 1956. (Edición
original de Turing, 1950). (Hay version en español por Seix Barral).

Weawer, Warren, “Recent Contributions to the Mathematical Theory of Communication”,


The University of Illinois Press. Urbana, 1949.

Wiener, Norbert, “Cybernetics” M.I.T. Press, Boston, 1961. (Edición original 1948). (Hay
versión al español por Tusquets).

Wiener, Norbert, “The human use of human beings: cybernetics and society”, Doubleday,
New York, 1954. (Edición original 1950). (Hay edición en español por
Sudamericana).

Yager, Ronald, “An Introduction to Applications of Possibility Theory”, Human Systems


Management, 1983, 3, 246/269.

Zeleny, Milan, “What is Autopoiesis”, En: Zeleny, M. (comp), “Autopoiesis: A Theory of


Living Organisation”, North Holland, New York, 1980.

107

Descargado por Juan Bonfigli (bonfiglijuan@gmail.com)

También podría gustarte