Documentos de Académico
Documentos de Profesional
Documentos de Cultura
LA
INCERTIDUMBRE
DEL
UNIVERSO
Pavesi, Pedro
CAPÍTULO IV
“Dios mío, dame la serenidad para aceptar las restricciones que no puedo remover, el
valor para remover las que puedo y la sabiduría para distinguir entre ambas”.
“Por azar” es la más antigua nobleza del mundo. Yo se la he restituido a todas las cosas, ya
las he librado de la servidumbre del fin.
CAPÍTULO IV
Como consecuencia de la misma, puede establecerse una definición más operativa. Para un
decididor D, en un momento t, en posesión de cierto conocimiento (o información) H,
existe cierto grado de incertidumbre en el universo U bajo su consideración, cuando D
percibe que ese universo tiene más de un conocimiento posible. Un comportamiento es
posible cuando tiene cierta propensión a suceder. En términos de probabilidad, un
comportamiento es posible cuando su probabilidad es mayor que cero.
Pero la incertidumbre (y la información) son conceptos tan complejos que la única forma de
definirlos y explicarlos es a través de la fórmula de su medición. (“Los términos
incertidumbre e información obtienen su significado técnico preciso de las fórmulas
utilizadas para calcularlos”. Coombs, Daves, Tversky, pág. 387. El capítulo 10 de estos
destacados autores muestra claramente la dificultad de definir precisamente los conceptos
de incertidumbre e información).
Nuestra posición es que la incertidumbre tiene ambas características pero, desde el punto de
vista de una Teoría de la Decisión, el aspecto subjetivo es suficiente, sin necesidad de
entrar a discutir el objetivo. De todos modos, no podemos sustraernos a algunas ligeras
consideraciones.
Esta posición acerca del universo –nacida con los presocráticos como Parménides -fue
adoptada consciente o inconscientemente, expresa o tácitamente por toda la Ciencia –
especialmente las ciencias naturales, específicamente la física- hasta el presente. De todos
modos, desde el desarrollo de la Física Cuántica y en las últimas décadas, esta posición está
fuertemente desafiliada de la misma Física.
Einstein muere en 1955, aferrado (a medias según Popper, pág. 26, Nota 2) a sus ideas
deterministas que alguien sintetizó en una famosa “bontade”: “Dios no juega a los dados”.
En realidad, Einstein expresa en una carta a Max Born, otro físico dedicado a la Teoría de
los Quanta: “Usted cree en un Dios que juega a los dados y yo en una ley y un orden
completo en un mundo que existe objetivamente….Creo en ello firmemente… aunque
estoy muy consciente de que nuestro jóvenes colegas interpretan esta convicción como
signo de senilidad”.
Pero también se adhirieron grandes filósofos como Spinoza, Hume O Kant. Este universo
sin sombras existe realmente. Sólo es accesible a una inteligencia superior (el acto puro
aristotélico, el Dios de las religiones, o el Dios geométrico de Spinoza) que se encuentra
afuera del universo.
Por otra parte el tiempo pierde importancia: el observador sobrenatural puede recorrer el
universo desde el presente hacia el futuro o hacia el pasado con toda libertad. Para ese
observador, el tiempo no existe (la eternidad no necesita el tiempo). El tiempo en su raíz de
duración es esencialmente una característica del observador humano. Unos pocos meses
antes de morir, Einstein escribe: “Para nosotros, físicos convencidos, la distinción entre
pasado, presente y futuro es sólo una ilusión, por persistente que ésta sea” (citado por
Prigogine, pág. 12).
(2) Una fuerte corriente moderna, iniciada con la Física Cuántica, pone en duda este
universo determinista. Deducido de la mecánica cuántica, el principio de Heisenberg nos
dice que es imposible conocer al mismo tiempo el movimiento y la posición de una
partícula (Heisenberg, Hofstadter). Toda Teoría de la Evolución está basada en una etapa
de azar puro (Monod, Ayala, Mayr).
Tenemos esa creencia –entre otras razones- porque creemos que el ser humano es
esencialmente innovador y creativo. Nos rehusamos a admitir que, en el preciso instante de
la Gran Explosión que dio lugar a nuestro Cosmos, ya estaba determinado que una noche de
invierno de 1985 en Buenos Aires estaría escribiendo estas palabras mientras escucho
Vivaldi y mi gato ronronea entre mis piernas buscando una caricia. (Un argumento parecido
en Boulding en Zeleny).
Es cierto que esta posición es a veces más emocional que científica. Pero también es cierto
que muchos otros argumentos –desde la indefinición de la mecánica cuántica hasta la
invalidez lógica del determinismo- abonan esta idea. De todos modos, desde el punto de
vista de la TD, sea la incertidumbre originada en el universo o en el observador, siempre
constituye el mismo problema para ser enfrentada.
cada caso particular no son válidos en una amplia gama de fenómenos”. “No sabemos
describir la realidad tal como se presentaría para un observador que en cierto modo, se
hallara situado fuera del mundo” (Prigogine, pág. 36).
También se presentan problemas conceptualmente sencillos que aún con un computador del
tamaño del universo con 10126 elementos tardarían 20.000 millones de años en ser resueltos
(cinco veces la edad actual del universo). Esos problemas nunca entregarán su solución
(Stockmeyer y Chandra). La incertidumbre se muestra irreductible.
Las limitaciones del conocimiento humano son totalmente ciertas y la fuente inmediata,
más evidente, de la incertidumbre reside justamente en esas limitaciones. Pero nosotros
En ambos casos, la incertidumbre es siempre una situación de ignorancia, sea ésta reducible
o no. El Principio de Incertidumbre de Heisenberg nos dice que si sabemos cual es la
posición de una partícula no podemos conocer su movimiento, o, al contrario, que no
podemos saber cual es su movimiento si sabemos cual es su posición. La incertidumbre del
observador aparece reducible por el conocimiento, no así la del universo. En ambos casos,
es una situación de ignorancia la que se presenta.
A todos los efectos de la decisión, no importa realmente si Dios juega a los dados o no.
Para el caso, es como si jugara.
La certeza es una ficción, un caso extremo y teórico de incertidumbre nula o casi. Siempre
actuaremos en un contexto inherentemente incierto, con mayor o menor grado de
incertidumbre, en el cual toda decisión siempre es una apuesta (más precisamente,
siempre existe en ella un elemento aleatorio o incierto irreductible).
Finalmente, el mayor conocimiento siempre nos aportará mayor certeza, siempre reducirá
alguna incertidumbre (si bien transitoriamente puede no suceder así). Pero globalmente, el
universo genera siempre incertidumbre. Tendremos éxitos locales al reducir la
incertidumbre en sub-universos, en contextos parciales. Pero la incertidumbre acompaña en
general al hombre inteligente toda su vida hasta el instante previo a su muerte. Sólo los
genios y los idiotas pueden ufanarse de haber superado la incertidumbre.
En ambos casos, siempre hay ignorancia del observador ya que él es el decididor y el centro
de la atención. El límite entre ambos tipos de incertidumbre no es claro. La incertidumbre
de Heisenberg pertenece claramente a la primera; la incertidumbre sobre la reacción del
público a una moda determinada puede pertenecer a la segunda: una investigación de
mercado puede orientarnos a través de muestras sobre los gustos del público. Podremos
reducir así la incertidumbre pero es difícil asegurar que por medios tecnológicos de
aprendizaje es posible llegar a la certeza, siempre.
nunca eliminarla del todo y que en algunos pocos casos podremos actuar como si la
hubiéramos eliminado.
Quizás alguien pueda decirnos que este enfoque de la incertidumbre del universo, originado
principalmente en la Física, poco tiene que ver con la problemática de un decididor inmerso
en un mundo esencialmente social, esencialmente condicionado por seres vivos e
inteligentes.
(1) Admitamos –sin mayor profundización para no entrar en Epistemología que conocer es
la capacidad de explicar y predecir: explicar y predecir la estructura de un sistema
(pasada, presente o futura) o su comportamiento (pasado, presente o futuro). (Obsérvese
que no entramos en la eficacia de la predicción).
(3) Veamos ahora que sucede en los campos de la acción humana en los cuales no existe un
conocimiento sistematizado, generalmente aceptado sin discusión. La situación es
equivalente al caso en el cual, existiendo conocimiento científico universal, éste no está al
alcance del decididor (o es rechazado por cualquier razón por el decididor). En esta doble
situación que consideraremos única, pueden darse dos casos.
No estamos diciendo que aquello está bien y que debamos admitir el conocimiento basado
en creencias equivocadas. Estamos diciendo que ese mundo es suficiente para la toma de
decisión.
Por consiguiente hay certeza cuando hay creencia, sea en un campo del conocimiento
científico, sea creencia propiamente dicha, suficientemente estructurada para sustituir
válidamente el conocimiento científico existente o no. Hay incertidumbre cuando hay
desconocimiento sea éste el desconocimiento específico asociado a las leyes científicas no
deterministas, o el desconocimiento de las leyes científicas o el desconocimiento que no
pudo ser vencido por el conocimiento científico o técnico.
En segundo lugar, la incertidumbre, tal como la hemos definido, abarca una parte relevante
de la acción humana. Siendo más precisos, diremos que la mayor parte de las situaciones de
decisión son de incertidumbre. Las leyes deterministas es su estado puro abarcan –nos guste
o no- una proporción reducida del campo de la actividad humana.
Las creencias definitivas –si bien son más importantes y extendidas de lo que comúnmente
se cree- tampoco abarcan muchos casos o situaciones. Salvo los genios y los idiotas,
repetimos, la mayor parte de los seres humanos se encuentran en situaciones de
incertidumbre la mayor parte de las veces. La historia de cómo el ser humano se arregla
para disminuir la incertidumbre es la historia de la civilización.
(5) En el ámbito de las decisiones es mucho más amplio que el de cualquier ciencia o
técnica particular, aún de la suma de todos los campos abocados por el conocimiento
científico y técnico. Siempre se decide, cualquiera sea la situación, haya o no conocimiento
fundado. Si bien es cierto que existe un gran campo de decisiones que se vuelcan hacia
situaciones donde existe una buena cantidad de conocimiento válido (hacer o no una
represa, donde y cuando hacerla, invertir o no, viajar o no), también es cierto que la
decisión individual está volcada en amplios campos donde las creencias, las dudas o la
ignorancia son las únicas bases válidas. No importa cuáles son las razones que llevan hacia
esas situaciones (la ignorancia cultural, la falta de recursos, de tiempo, la irracionalidad
ideológica). Es un hecho que certeza e incertidumbre dependen fundamentalmente de la
posición personal del decididor.
De todo lo expuesto hasta aquí debe quedar claro que la incertidumbre es un concepto
relativo.
Frente al mismo universo, el mismo decididor en dos momentos distintos y con diferente
información, cambiarán su percepción de la incertidumbre. Frente al mismo universo en
dos momentos distintos y con la misma información, el mismo decididor puede tener
diferente apreciación de la incertidumbre. Esta, como el universo, debe ser precisamente
definida en tiempo, decididor y variables.
Por otra parte, hablamos de incertidumbre en forma genérica. En realidad, existen grados de
incertidumbre que en el próximo punto hemos agrupado bajo las clases de: certeza, cuasi-
certeza, cuasi-incertidumbre, incertidumbre (propiamente dicha), hiperincertidumbre y
transincertidumbre.
10
Podemos quedarnos con nuestra definición sustancial del punto anterior por la cual, al fin y
al cabo, la incertidumbre es un estado de ánimo y entrar luego en las definiciones técnicas.
Pero antes de hacerlo, trataremos de profundizar la noción de incertidumbre.
Las variables
Los valores que pueden adoptar
La propensión a suceder de esos valores
Nos proponemos analizar todos (o por lo menos los principales) casos de incertidumbre
posibles a fin de: Clasificarlos para su análisis posterior
Inferir una característica común a todos ellos para profundizar nuestra
definición de incertidumbre.
11
Grados de incertidumbre
Cuadro 4.2.1.1
Conocimiento de la propensión a
suceder
Total Certeza
Un solo estado posible Certeza 0
Parcial Cuasi-incertidumbre
Simple Posibilidad 2
(eventualidad)
Mixto Ambigüedad 3
12
probabilidad de Xs, P(Xs) puede ser igual a cero o mayor que cero. Existen dos estados
posibles para nuestra variable “propensión a suceder”. Esta variable que mide cierta clase
de incertidumbre: la incertidumbre de la incertidumbre. Se trata de una incertidumbre
potenciada (sugerimos que sea potencia 2). No creemos que haya lugar a una crítica de
infinito regreso (incertidumbre acerca de la incertidumbre acerca de la incertidumbre…y
así infinitamente). Se trata de una incertidumbre mayor que la del riesgo (cuasi-certeza) que
podemos definir como cuasi-incertidumbre acerca de la posibilidad de un estado (hay
posibilidad cuando existe cierta propensión a suceder; cuando ésta se mide con
probabilidad, cuando esta última es mayor que cero).
En general, nos referimos a la incertidumbre como cierto estado de ignorancia sobre los
estados de una variable. Es el sentido utilizado en este capítulo y en general en este trabajo
y, además, es el sentido del lenguaje común.
Hasta aquí nos hemos referido a la incertidumbre que recae sobre cuál será el estado (nivel,
grado, valor) que una variable determinada asumirá en un momento dado. Existen por lo
menos dos casos de incertidumbre de mayor nivel.
13
desconocen éstos sino que se desconocen las mismas variables del universo. Las tinieblas
son totales, la ignorancia es total y absoluta. El observador sólo se aferra al ancla cartesiana
“Cogito, ergo sum”. De allí en más, no se sabe nada. Un caso especial de trans-
incertidumbre es el de la duda acerca de incorporar una o más variables al universo
estudiado.
Un caso típico es el de la duda en las preferencias. Una variante consiste en que, dados A y
B, no se pueda vincularlos por una relación de preferencia (o de indiferencia). “No sé cuál
de los dos prefiero”. Ello se interpreta como que A puede ser preferido o que B puede ser
preferido o que ambos son indiferentes. Los tres estados tienen cierta propensión a suceder,
son posibles mientras siga la duda del decididor. Otra variante consiste en que, dado un
elemento A, no sabemos si nos gusta o no.
Aquí también hay dos estados posibles que se transforman en uno solo una vez resuelta la
cavilación.
Por consiguiente, en los niveles descriptos, queda claro que existe incertidumbre en general
cuando una variable puede adoptar, en un momento dado, dos o más estados diferentes,
cuando existen más de dos estados diferentes, cuando existen más de dos estados posibles.
Esa variable puede ser, a su vez, la misma “propensión a suceder”. Evidentemente, la
incertidumbre puede adquirir distintos grados o niveles: la incertidumbre también es una
variable.
Es importante destacar, una vez más, que este enfoque se aleja de las ciencias naturales.
Estamos hablando de universos (variables, valores, propensión a suceder) percibidos por el
decididor, de una incertidumbre apoyada en sus creencias, sean éstas justificadas o no
científicamente.
Es así como aparecen ciertos rasgos de la incertidumbre que sólo pueden justificarse por la
subjetividad que caracteriza este enfoque. Para un estadístico clásico, por ejemplo, es
difícilmente concebible la incertidumbre acerca de la probabilidad (Savage justamente
introduce esta posición subjetiva en sus “Fundamentos de la Estadística”).
14
En este capítulo tenderemos –en la exposición- a hablar del universo con variables
controlables. Pero el concepto de incertidumbre se aplica por igual a ambos tipos de
variables. En efecto, si un fabricante puede elegir entre 1000 niveles distintos de
producción de un artículo determinado, estamos ante una variable controlable (el nivel de
producción) pero si el fabricante no sabe cuál nivel elegirá, la incertidumbre consiguiente
es la misma que si la variable fuese no controlable. Más aún, una variable controlable
puede exhibir más incertidumbre que una no controlable.
Tipificación de la incertidumbre
Cuadro 4.2.1.2
15
Ejemplo 4.2.1.1
Lt + 1 = f (Lt, t) donde
que eliminan (prácticamente) la incertidumbre sobre la cuál será el estado Lt + 1 del material
si estaba en el momento t en el estado Lt. La trayectoria de este universo se representa en el
espacio-comportamiento por una línea única. En cualquier momento, se puede conocer cuál
será el estado del universo en el futuro y también en el pasado si se conocen las condiciones
(parámetros) a las cuáles fue sometido.
Ejemplo 4.2.1.2
Las situaciones llamadas de filas de espera son situaciones de decisión bajo riesgo. En la
mayor parte de ellas –cajas en supermercados, llegadas de aviones en aeropuertos, teléfonos
ocupados, atención en consultorios, llegada de barcos a puerto- puede establecerse la
distribución de probabilidad del intervalo de llegada de las unidades a ser servidas (clientes,
llamadas, pacientes, aviones, barcos), la distribución de probabilidad de los tiempos de
servicios (atención en caja o en consultorio, ocupación de la pista, tiempo de carga y
descarga) la distribución de probabilidad de espera por más de determinado tiempo, etc.
Frente a distintas alternativas de mecanismo de servicio, pueden evaluarse los resultados de
acuerdo con esas distribuciones.
Los ejemplos de situación de riesgo (nivel 2) son también infinitos. (Los de los puntos 4.4 y
4.5 son de este tipo).
Ejemplo 4.2.1.3
Se supone que las ventas del mes próximo no han de bajar de 400 toneladas y se cree que
no puede pasar de 600 toneladas. Si las ventas bajan de 300 toneladas es necesario detener
la compra de materias primas este mes, dado lo costoso de mantener stocks. Si las ventas
superan las 700 toneladas, máximo de producción posible, hay que subcontratar desde ya.
Se admite que las ventas entre 400 y 600 toneladas inclusive son posibles. Pero, ¿por
debajo y por encima? Se incluirán en el análisis si son posibles y si son posibles es
necesario estimar alguna medida de la propensión a suceder (probabilidad).
16
Ejemplo 4.2.1.4
Una urna contiene 90 bolillas, 30 de las cuales son rojas, las 60 restantes son negras y
amarillas, pero en una proporción desconocida. Usted puede apostar a rojo o negro, de
acuerdo con la siguiente matriz de decisión:
Supongamos otra situación con la misma urna de acuerdo con la siguiente matriz:
17
Ejemplo 4.2.1.5
Un decididor se enfrenta con la siguiente situación, donde las consecuencias de las acciones
son resultados, positivos o negativos:
Acontecimientos
N1 N2 N3
Acción S1 100 0 -50
Acción S2 0 -50 100
D piensa que la probabilidad de los tres acontecimientos oscila entre los siguientes rangos:
Ejemplo 4.2.1.6
En la matriz del ejemplo 4.2.1.5, suponga que D no tiene información precisa sobre la
propensión a suceder de los estados N1, N2 y N3 pero que estima que:
Y que además que P(N1) es bastante mayor que P(N2) y P(N3) en tanto que el intervalo
entre estos dos últimos es reducido. Este es un caso de ambigüedad: se ha establecido la
posibilidad, un orden entre las probabilidades y un orden entre los intervalos (sin llegar a
una escala de intervalo que se estudiará en el próximo capítulo). No estamos en situación de
riesgo (no tenemos suficiente información) pero tampoco de incertidumbre (nos sobra
información).
La técnica para resolver este problema es la del análisis de sensitividad (del cual ya hemos
hablado pero que analizaremos en profundidad en otro lugar).
Este análisis nos dice que la acción S1 siempre será elegida mientras:
Esto concuerda con las estimaciones de D. En efecto, suponiendo P(N1)= 0,6; P(N2) = 0,25;
P(N3) = 0,15, deberá elegir S1.
También deberá hacerlo si cree que P(N1) = 0,5; P(N2) = 0,3 y P(N3) = 0,2.
18
El análisis de sensitividad le permitirá reducir la ambigüedad sin llegar por ello al nivel 1
de riesgo (cuasi certeza).
Ejemplo 4.2.1.7
Asociemos a una variable todos los valores imaginables, aún los imposibles. Dejemos
obviamente sin computar los valores que no podemos imaginar (pero admitamos que
pueden existir valores inimaginables). Definamos entre aquellos valores, los concebidos
como imposibles, es decir, que su propensión a suceder es (o se percibe como) nula (Luce y
Krantz; Krantz, Luce, Suples y Tversky, pág. 372). Los valores restantes exhibirán distintos
(o iguales) grados de eventualidad. Dicho en palabras poco exactas, exhibirán distintos (o
iguales) grados de posibilidad. Estos forman el conjunto de valores potenciales de una
variable.
Desde un punto de vista práctico, si existen dudas sobre la posibilidad de cierto valor, se
incluye como posible, pudiendo exhibir una propensión a suceder nula si es que se llega
posteriormente a esa conclusión. Un método es eliminar únicamente los valores con
imposibilidad de suceso evidente e incontrastable o de eliminar, en caso de variables cuyos
valores pueden ser ordenados, los valores imposibles de los extremos pero no los
intermedios.
Una variable determinada puede asumir ciertos valores en un momento dado. Podemos
concebir que cada uno de ellos está asociado con cierta capacidad de evento, o
eventualidad, entendiendo por este concepto la propensión a ser asumido por la variable
bajo análisis.
De todos los valores concebibles que una variable puede asumir, es legítimo pensar que
algunos tienen mayor propensión a ser asumidos que otros o que todos tienen la misma
19
propensión). Las razones para ello son variadas pero todas pueden resumirse diciendo que
consisten en restricciones que limitan la afinidad de una variable con ciertos valores.
La noción de propensión a suceder o a ser asumido o eventualidad nos parece una noción
natural e indiscutible que no merece mayor discusión en cuanto a existencia. Toda otra cosa
es su medición o su naturaleza, que constituyen –aún hoy- uno de los grandes campos
polémicos de la ciencia.
Por simplicidad hablamos de propensión a “suceder” pero la palabra “suceder” no debe dar
la sensación de que se trata de variables absolutamente incontrolables cuyos estados
“suceden” solamente. El concepto se aplica en general y la palabra “suceder” debe ser
tomada en sentido amplio. Cuando estamos en la duda si preferimos A o B, decimos que
los dos estados “A es preferido a B” o “B es preferido a A” (o aún podemos agregar el
tercero: “A y B son indiferentes”) tienen cierta propensión a “suceder”. Eso no implica que
la definición de la preferencia vaya a revelarse como salta un resorte por un proceso
misterioso y casual. Ello quiere decir que ambos estados (o los tres estados) tienen
posibilidad de ser elegidos, son factibles y que la duda se da a través de cualquier proceso
de reflexión o de azar.
Debe quedar claro, entonces, que la expresión “propensión a suceder” debe ser tomada en
un sentido amplio de capacidad potencial de ser asumido, exhibido, elegido.
La propensión a suceder es, a su vez, una variable susceptible de adoptar valores, niveles o
grados: un estado tendrá una alta propensión a ser asumido; otro, ninguna, etc. Podemos
imaginar así un contínuo que va desde la imposibilidad (certeza que el valor considerado no
será asumido) hasta la imposición, la obligatoriedad de un estado determinado (certeza que
será asumido). La imposibilidad es así sólo un caso extremo de la eventualidad y constituye
una de las caras de la certeza. La otra cara es su opuesto: la ocurrencia determinada, la
posibilidad total.
20
xsit: valor, nivel o grado (s) de la variable xi en el momento t (de acuerdo a lo establecido
en el capítulo III).
Un universo que exhibe estados múltiples asociados con propensiones a suceder no nulas es
llamado universo incierto. Cuando la propensión a suceder es medida en probabilidades (y
éstas son definidas), el universo incierto se llama universo aleatorio. Estrictamente
hablando, los universos aleatorios que constituyen el estudio de los procesos estocásticos
implican probabilidades objetivas. En TD abarcamos con tipo de probabilidades que
pueden cumplir con los axiomas del respectivo cálculo.
Cuando las variables del universo incierto o aleatorio bajo consideración, representan
bienes, riqueza, especialmente en el caso que sus niveles son medibles en unidades
monetarias o susceptibles de algún juicio de valor, se lo define como activo incierto o
aleatorio. Una lotería, descripta con el monto de sus premios asociado con la probabilidad
de obtención de los mismos, es un activo aleatorio. Lo es una cartera de cobranzas,
descripta con los montos a cobrar con su probabilidad asociada de percepción. También lo
es toda descripción de una situación de decisión donde las consecuencias de una acción
pueden describirse acompañadas por su propensión a suceder.
21
Quizás al comienzo del proceso de reflexión, todas sean igualmente elegibles, es decir que
tengan todos, la misma propensión a ser seleccionadas.
El decididor se encuentra en estado de incertidumbre: ignora cual alternativa elegirá
finalmente. Cuando decide, sólo le queda una cuya propensión a suceder es total
(probabilidad = 1). Las otras quedan desechadas.
En este sentido exclusivo, la decisión reduce y elimina incertidumbre al terminar con la
etapa de cavilación y de dudas acerca de cual acto elegir.
En segundo lugar, en otro sentido, más específico y técnico, los actos propios del
decididor están asociados a una propensión a suceder. Se trata de la aleatorización de las
decisiones repetidas, o de las estrategias mixtas de la Teoría de los Juegos. En estos casos,
la decisión óptima consiste en elegir sucesivamente las alternativas de acuerdo con una
distribución de frecuencia prevista por la Teoría.
En tercer lugar, cuando dos (o más) actos son indiferentes para el decididor, puede
considerarse que tienen igual probabilidad de ser elegidos. Puede considerarse legítimo
cualquier artefacto aleatorio para seleccionar (no elegir) el curso de acción a seguir.
En cuarto lugar, algún decididor puede resolver, como criterio de decisión, sortear al azar
las alternativas sin entrar a analizarlas. Este criterio es aborrecido por la TD que sólo lo
admite en los casos de indiferencia o de estrategia mixta, comentados arriba. De cualquier
modo, de acuerdo o no con la Teoría, éste es un caso de propensión a suceder
(probablemente igual para todas las alternativas) asignadas a actos.
De este modo, podemos hablar de propensión a suceder (a ser elegido, a ser asumido) tanto
en variables no controlables como en variables controlables. Extendemos así el concepto de
propensión no sólo a los sucesos (propensión a suceder) sino también a los actos
(propensión a ser elegido, seleccionado). De este modo, la propensión no es sólo la
22
Imaginemos un universo con todas las variables imaginables (y aún las inimaginables!),
cada una de ellas con todos los valores imaginables (y aún inimaginables!) siendo cada uno
de esos valores igualmente probables.
En la medida que probabilidades infinitesimales tengan sentido, este universo se aproxima
al caos puro, a la incertidumbre máxima. El considerar sólo algunas variables y sólo
algunos valores para cada uno de ellos, implica introducir fuertes restricciones sobre el
universo.
En este caso, las restricciones son absolutas ya que definen la pertenencia o no de variables
y valores (finalmente, estados) en los conjuntos analizados. Al descartar variables y
valores, reducen la cantidad de estados posibles. Si aceptamos, por ahora, que la
incertidumbre puede ser medida en función del número de estados (muchos estados, mucha
incertidumbre; pocos estados, poca incertidumbre), podemos decir que una restricción
reduce la incertidumbre ya que todo lo que reduce el número de estados posibles es una
restricción.
Lo mismo pasa en cuanto a la propensión a suceder de los valores posibles de una variable.
Dada una variable determinada y cierta cantidad de valores posibles de la misma, la
incertidumbre será la máxima cuando todos esos valores tienen la misma propensión a
suceder. La equiprobabilidad implica falta de restricciones. La modificación de la
equiprobabilidad implica la introducción de restricciones relativas, es decir que si bien
no convierten ciertos estados en imposibles, modifican su propensión a suceder. No es fácil
darse cuenta si la modificación de las probabilidades de un activo aleatorio es debida a la
introducción de una restricción o a su eliminación, si los estados son varios. Para ello, será
necesario idear una medida sensible, que es la entropía, que trataremos en 4.4.
23
Existe información cuando hay estructura y existe estructura cuando hay restricciones.
Finalmente, estamos siempre hablando de lo mismo y sólo podrían precisarse estos
conceptos cuando inventemos una medida para ellos.
Debe quedar claro que tanto las restricciones como las estructuras deben ser percibidas por
el observador. Una situación puede ser altamente condicionada por restricciones pero si
éstas no son percibidas, entonces hay incertidumbre, bajo grado de estructura y bajo nivel
de conocimiento: una fuerte estructura real tiene una alta potencialidad de conocimiento.
Este se convertirá en conocimiento real a través de un proceso de indagación y de
aprendizaje. Real o impuesta como marco conceptual, la estructura (y por consiguiente las
restricciones) debe ser percibida para reducir efectivamente la incertidumbre.
Restricciones
Restricciones e Incertidumbre
Figura 4.2.3.1
24
Es fundamental tener en cuenta que cuando nos referimos a conocimiento incluimos las
creencias, tal como lo expusimos en 4.1.2.
Es así que información e incertidumbre son términos antagónicos, en ese campo. Gran parte
de la actividad humana está dedicada a la obtención de información para reducir la
incertidumbre. Es así también que la Teoría de la Información adoptada la misma medida,
la entropía, pero con signo distinto, para información e incertidumbre. La información es
incertidumbre con signo contrario. Y es asevera, no sin razón, que información es todo lo
que reduce la incertidumbre.
Esto es verdad, pero no es toda la verdad. En efecto, podemos citar muchos casos en que la
“información” no reduce la incertidumbre: o la mantiene idéntica o la aumenta.
25
1) No sabemos si el cuarto está ocupado por Pedro, por Juan, por los dos o está
desocupado. Alguien s nos acerca y nos dice: “En el cuarto no hay nadie o está Pedro, o
está Juan o están los dos”.
Nuestra incertidumbre se mantiene idéntica. (Este universo puede asumir cuatro estados
posibles). Ha existido un proceso de comunicación, un mensaje nos fue transmitido
conteniendo información, pero no modificó nuestro conocimiento actual. Se nos transmitió
conocimiento que ya teníamos, que es redundante. Este conocimiento transmitido no
incrementó nuestro conocimiento adquirido previamente. No hemos aprendido nada. (Por
ello, puede decirse que hubo mensaje pero no información).
2) Estamos en la misma situación, pero el informante nos dice que además de Pedro y Juan,
también puede encontrarse Javier. De este modo, de un universo de cuatro estados posibles
hemos pasado a uno de ocho estados posibles (nadie; Pedro; Juan; Javier; Pedro y Juan;
Pedro y Javier; Juan y Javier; Pedro, Juan y Javier). (Asumimos, evidentemente, que el
informante es confiable, que creemos en él).
Hemos recibido un mensaje que acarrea información (conocimiento) pero esta vez aumentó
nuestra incertidumbre, es decir que conocemos menos acerca de quien puede estar en el
cuarto. El conocimiento recibido no se agregó, no se sumó al que teníamos. Al contrario, lo
redujo, lo disminuyó. El conocimiento incremental modificó nuestro stock de conocimiento
previamente adquirido pero no lo aumentó, lo disminuyó.
¿Qué ha pasado? El conocimiento incremental trasmitido por el informante ha aumentado
el número de estados que puede asumir nuestro universo, de cuatro a ocho. Es que nuestro
universo no era un universo cerrado, es decir un universo con un determinado e
inamovible número de estados posibles. No es un universo congelado con determinado
número de variables y cada una de ellas con determinado número de valores, en cantidades
inamovibles.
Nuestro universo –y en general los universos que hacen a la decisión- son universos
abiertos, que admiten la incorporación de nuevos estados tanto bajo la forma de nuevas
variables como bajo la forma de nuevos valores para una misma variable.
26
términos de probabilidad, diremos que hemos cambiado hacia una mayor equiprobabilidad,
hacia una distribución con mayor dispersión.
¿Qué ha pasado? Es que nuestro universo (percibido) no sólo es abierto a nuevos estados
sino también a modificaciones de la propensión a suceder. Se trata de dos aspectos de un
mismo fenómeno: cuando se agregan estados (tanto a través de nuevas variables como a
través de nuevos valores para la misma variable) lo que realmente hacemos es modificar la
propensión a suceder de los estados no incluidos previamente por cualquier razón,
incluyendo la ignorancia de su existencia.
Tenían propensión a suceder nula. Eran imposibles. Al aceptarlos, le asignamos alguna
propensión a suceder, son ahora posible, son ahora posibles. En términos de probabilidad
han pasado de probabilidad cero a probabilidad mayor que cero.
(1) La nueva información no modifica el conocimiento del número de variables, del número
de estados y de su respectiva propensión a suceder. Por lo tanto, el nivel previo de
incertidumbre se mantiene inalterable. En un sentido estricto, no hay información.
(4) La nueva información modifica la propensión a suceder de los estados, sin alterar éstos.
Los tres últimos casos, que son los que implican modificación del conocimiento previo,
pueden reducirse a uno solo: la información modifica la probabilidad asignada a los
distintos estados que el universo puede asumir. Formalmente, puede sostenerse que cuando
una información aporta al observador un estado desconocido o despreciado, se reduce a
asignarle una probabilidad mayor que cero. Todo estado no previamente considerado
(deliberadamente o no, conscientemente o no) puede definirse como estado con
probabilidad nula. El hacerlo entrar a consideración del observador un estado previamente
ignorado es transformar su propensión a suceder desde un valor nulo a cierto valor (y se
trata de probabilidad o de alguna medida con características semejantes –como sucede
siempre o casi- entonces, se modifican automáticamente todas las demás probabilidades
asignadas a otros tantos estados).
27
(1) Dadas dos variables cualesquiera, N y Z, una puede acarrear información acerca del
comportamiento de la otra, y viceversa, cuando el comportamiento de ambas no es
independiente: si el comportamiento es independiente, no hay información posible.
(2) Si un observador cree que existe una sola información posible, entonces no existe
información. Sólo existe información cuando hay por lo menos dos mensajes posibles, de
acuerdo con lo percibido por el observador.
Esta definición es más compleja que las clásicas sobre este tema (por ej. Sabih, pág. 24),
pero es esencialmente idéntica. Las circunstancias especiales de la decisión nos obligan a
redefinir los conceptos de clausura y abertura. La definición más precisa de universo
cerrado, aplicable también a nuestro tema, es la matemática de “clausura”: un conjunto de
números es cerrado con respecto a una operación determinada cuando el resultado de esa
operación aplicada a dos números cualesquiera del mencionado conjunto, también es un
elemento de dicho conjunto. Nada se crea: la transformada (resultado) de toda
transformación (operación) ya se encuentra previamente incluida en el universo.
28
Los universos cerrados son cómodos. Están basados en una estructura de certeza dentro de
la cual existe incertidumbre absolutamente acotada. La Teoría de la Información es un
arquetipo de modelos basados en universos cerrados. En una caja existe cierta cantidad de
mensajes posibles. Cada uno de ellos tiene cierta probabilidad de ser emitido, o cada uno de
ellos tiene cierta probabilidad de representar la verdad. Si se me dice que el mensaje cierto
se encuentra en la primera mitad de la caja (o que su numeración es par, por ejemplo), esa
información reduce la incertidumbre a la mitad. No hay otra información posible: siempre
reducirá la incertidumbre porque no hay información posible que pueda modificar la caja,
modificar el número de mensajes incluidos en ella, ni siquiera modificar la probabilidad de
los mensajes. En este caso, siempre, toda información reduce la incertidumbre.
Pero como bien dice Sabih (pág. 242) los supuestos de la Teoría de la Información de
Shannon se cumplen en ingeniería de las telecomunicaciones pero de ninguna manera se
cumplen tan a menudo en el mundo biológico (y mucho menos agregamos nosotros, en el
mundo de los seres inteligentes). Pero tampoco lo pretendía Shannon, quien no deja de
insistir que su teoría es ingenieril y que no se preocupa por el significado de los mensajes
(Shannon, en Shannon y Weawer, pág. 3).
29
Un universo cerrado es inmutable. Un universo abierto puede ser considerado como una
sucesión de universos cerrados diferentes. Esta es la situación más importante en la cual
se aplica la decisión.
Un inversor piensa que la cotización de cierta acción puede aumentar levemente, dentro de
cierto rango. En cierto momento, recibe la información que la empresa cotizante está por
celebrar un negocio que puede rendirle gran beneficio o gran pérdida. Esta información
aumenta la incertidumbre del decididor.
D se presenta en una licitación en la cual sabe que competirán con él, tres empresas locales
conocidas. En el momento de la presentación descubre que una cuarta empresa
internacional ha entrada también. Esa información adicional aumenta su incertidumbre.
3. El exceso de información:
La información es conocimiento y como tal pasa siempre por uno o varios observadores,
inmersos en sus circunstancias, con su propia visión del mundo. Cuando la información
proviene de otra persona, dos son los sujetos intervinientes. El emisor tiene su propia
imagen del universo, condicionada por sus propios valores y su personalidad. Trasmite esa
imagen, generalmente con fallas de transmisión (ruidos). También con fallas la recibe el
receptor que la interpreta con su propia visión del mundo, sus propias circunstancias. Es así
que un exceso de información puede llegar a ser pernicioso.
30
(2) Los valores, niveles, grados a ser incorporados al conjunto de valores potenciales
posibles de esas variables.
Dado un universo con cierto número m de variables, cada una de ellas con cierto número hi
de valores, todos los estados imaginables están dados por el producto cartesiano:
31
X1t : A, B, C
X2t : W, X, Y, Z
X3t : 1, 2
El conjunto de estados imaginables (o el conjunto de todos los estados posibles si todas las
variables y sus valores fuesen compatibles) es el producto cartesiano X1 x X2 x X3:
(A, W, 1), (A, W, 2), (A, X, 1), (A, X, 2), (A, Y, 1), (A, Y, 2), (A, Z, 1), (A, Z, 2)
(B, W, 1), (B, W, 2), (B, X, 1), (B, X, 2), (B, Y, 1), (B, Y, 2), (B, Y, 1), (B, Z, 2)
(C, W, 1), (C, W, 2), (C, X, 1), (C, X, 2), (C, Y, 2), (C, Y, 2), (C, Y, 1), (C, Z, 2)
Podemos imaginar que todos ellos están asociados a alguna propensión a suceder que
mediremos en probabilidad. Esta probabilidad podrá tener en algunos casos valor cero (el
estado correspondiente es imposible), alguna podrá tener valor uno (todos los estados, salvo
el correspondiente a dicha probabilidad, son imposibles). El valor de esa probabilidad
depende de las restricciones absolutas o relativas impuestas a ese universo.
Para mayor comodidad de escritura reemplazaremos la expresión anterior de los estados por
las letras del alfabeto de modo tal que:
Es legítimo pensar, para que el modelo sea suficientemente general, que la probabilidad de
un estado dado es una probabilidad condicionada por el estado exhibido por la variable en
el momento anterior. Por lo tanto, por ejemplo, si Et = a, p(at + 1) = 0,8 pero si Et = q,
p(at + 1) = 0,2.
Admitamos que en el momento t+1 las probabilidades asociadas a los estados son
condicionales de este tipo: si el estado anterior es j la probabilidad del estado i en el
momento siguiente es pij = p(Eit + 1 /Ejt).
32
De este modo, en todo modelo de universo incierto, es necesario tener en cuenta cuatro
clases de probabilidades:
De esta forma tendremos dentro del marco expuesto en el Capítulo III, el vector y la matriz
de la figura 4.4.1.1.
Estado en t Estados posibles en t + 1
33
De esta forma, todo universo puede representarse por una matriz {E, P} donde cada
columna (o fila) es un vector cuyos elementos son los pares: <Estado, probabilidad de este
estado dado un estado anterior>.
Dado un estado actual cualquiera, supongamos k, una fila de la matriz de la Figura 4.4.1.1
se transforma a su vez en una matriz de decisión descripta en la Figura 4.4.1.2
Las probabilidades pqij indican la probabilidad de obtener el estado Ej, estando en el estado
Ei y utilizando la alternativa (curso de acción) Sq, o sea:
34
pqj = pj = p(Ej)
¿En qué consiste la decisión? En esforzarse en que, dado un estado actual del universo:
(2) Si el estado deseado no se encuentra en la fila correspondiente al estado actual por ser
considerado imposible, convertir su probabilidad nula en una probabilidad mayor que cero
y maximizarla.
Para ello, deberá generar los cursos de acción que realicen lo mejor posible este proceso.
Evidentemente, este esfuerzo tendrá un costo de recursos que podrían ser dedicados a otro
esfuerzo. La evaluación de la decisión consistirá en medir si el resultado a obtener tiene un
valor superior a los esfuerzos a brindar.
A los ojos del decididor, entonces, pij como probabilidad condicional de transición
p(Eit+1 /Ejt) aparece como integrando dos tipos de eventualidad:
(2) La originada por la aplicación de recursos (acción del decididor) tales como tiempo,
talento, dinero, etc.
35
Supongamos que el decididor quiere modificar esta situación. A cada estado actual (en t)
posible se le presentan una serie de cursos de acción que lo conducirán hacia un conjunto
de estados posibles con sus respectivas propensiones a suceder (universos o activos
aleatorios). Si las circunstancias son favorables, podrá alcanzar su estado objetivo en el
período de planeamiento. Si no, deberá reiterar varias veces, en la medida de lo posible, sus
procesos de decisión hasta lograr o modificar sus objetivos.
2. El espacio-comportamiento
Variable Valores
X1 =, ?, /
X2 Y, Z
Se origina así un conjunto de 6 estados posibles a través del producto cartesiano X1*X2: (=,
Y) (=, Z) ….(/, Z). Para mayor facilidad de escritura, los simbolizaremos con las letras del
alfabeto a, b, c, d, e, f.
X2
= ? / X1
Espacio-comportamiento previsto en t para t+1
36
Supongamos que D desea entrar en Et+1 = f. Decide entonces adoptar un curso de acción S1
que modificará la situación de la siguiente forma:
Previsto en t para t+1 Previsto en t+1 para t+2 Previsto en t+2 para t+3
con S1 con S2 con S3
El gráfico del comportamiento final del universo bajo la influencia de las decisiones de D
es el siguiente:
X2 d f
a e
X1
Si en cada momento de decisión, D hubiera tenido otras alternativas, cada una de ellas
hubiera marcado en el espacio de comportamiento regiones como las marcadas en los
gráficos anteriores, las que pueden superponerse total o parcialmente.
Las probabilidades de los estados incluidos en esas regiones suman la unidad. Podemos
imaginarnos, por ejemplo, una situación de este tipo:
37
Cada región marca los estados posibles esperados como consecuencia de cada alternativa
S1, S2, S3, S4 y S5. Cada una de ellas (con la excepción de S5) se divide en tres subregiones
con una probabilidad determinada.
En el caso de S5, la región de los estados posibles se reduce a un punto, a un solo estado.
(Cada estado, evidentemente, está compuesto de dos valores x1 y x2).
Cada región asociada a cada alternativa tiene cierta incertidumbre. En el caso de S, este
curso de acción lleva hacia un resultado cierto, de incertidumbre nula. El decididor elegirá
alguna de las regiones esperadas en base a criterios de valuación. Evidentemente, el
resultado real puede ser bien distinto al esperado (estimado).
Las probabilidades condicionales P(Ejt+1/ Eit) van variando a través del tiempo, por la
misma naturaleza e interacción espontánea de las variables o por la intervención del
decididor.
En ciertos casos pueden suponerse constantes, lo que facilita el cálculo del comportamiento
futuro del universo (con el riesgo de un fuerte alejamiento de la realidad). Técnicas
ampliamente utilizadas como las cadenas de Harkov o las matrices de coeficientes
tecnológicos de Leontieff se basan en esta fuerte premisa.
38
Esta matriz de transición (o transformación) es una matriz aleatoria porque suma la unidad
en sus filas. La flecha de izquierda a derecha indica que los de las filas corresponden a los
estados anteriores (t) y los estados de las columnas a los estados posteriores (t+1). De este
modo, la matriz nos revela que, encontrándose la variable (o el universo) descripta por la
misma en el estado a, la probabilidad de mantenerse en el mismo es 0,1; la de exhibir en
t+1 el estado b es 0,3 y el estado c es 0,6. Evidentemente, cada fila suma 1.
Estas matrices dan lugar, considerando fijas las probabilidades y a través de su aplicación
repetida, a las llamadas cadenas de Harkov que expondremos en ejemplos y ejercicios. La
metodología utilizada trata de averiguar cual será el equilibrio del universo, partiendo de un
estado (o grupo de estados) determinado y aplicando sucesivamente la matriz aleatoria de
transición repetidas veces. Es decir, cuál será el estado del universo luego de repetidas
transformaciones.
a b c a b c a b c
La matriz (3) indica que, cualquiera sea el estado en que se encuentra el universo, siempre
se llegará al estado b que es el objetivo. No siempre pueden obtenerse esas probabilidades
(generalmente, no) pero una situación como la (2) puede resultar muy interesante.
a b c
Et:
1 0 0
en el cual cada elemento está asociado con su probabilidad. ¿Cuál será la probabilidad de
cada estado en el momento t+1? Evidentemente, se multiplica el vector de probabilidades
de los estados actuales por la matriz de transición:
39
Et+1 = Et * T
donde T es la matriz de transición.
Por consiguiente:
Et+2 = Et+1 * T = Et+1 = Et * T2
y Et+n = Et * Tn = Et+n-1
donde, a’, b’, c’ son las probabilidades de los estados a, b, c en el momento posterior y a,
b, c son las probabilidades de los estados a, b, c en el momento anterior en condiciones de
equilibrio. Con solo resolver las ecuaciones hallaremos los valores de las probabilidades de
a, b, y c en equilibrio. Observemos que no todas las ecuaciones son independientes ya que
definidas dos incógnitas, la tercera es obligatoriamente determinada. Reemplazaremos una
de las ecuaciones por una ecuación independiente. Evidentemente, ésta será:
a+b+c=1
40
p(a) = 0,36
p(b) = 0,33
p(c) = 0,31
(De todos modos, la falta de memoria es sólo aparente ya que el estado Et+n “se acuerda”
sólo del estado Et+n-1 pero éste a su vez está condicionado por el Et+n-2…. y así seguido
hasta llegar al estado inicial).
Estas matrices (cadenas de Harkov) no deben sólo servir para describir los estados
autónomos del universo sino que deben inducir a introducir modificaciones que logren
matrices de transformación más acordes con los objetivos del decididor.
4. La carencia de probabilidad
En el punto 4.2.1 hemos analizado los distintos niveles de incertidumbre. La mayor parte de
los modelos se han desarrollado en el ámbito de la cuasi-certeza. Se trata de los modelos de
riesgo, ámbito de la Estadística, donde la propensión a suceder de los distintos estados
posibles es medida en probabilidades y éstas son suficientemente conocidas o inferidas. Se
trata de una situación de información completa.
41
sirve para establecer una escala ordinal que es susceptible, a su vez, de tratamiento
analítico.
Ante todo, debemos admitir que la incertidumbre tiene grados, es decir, que la
incertidumbre es, a su vez, una variable susceptible de adquirir niveles.
Aparece como razonable establecer que los grados de incertidumbre dependen de:
Universo S Estados 1 2
Probabilidad 0,5 0,5
Universo U Estados 1 2 3 4
Probabilidad 0,25 0,25 0,25 0,25
Universo Z Estados 1 2 3 4
Probabilidad 0,1 0,1 0,7 0,1
El universo S debería exhibir una incertidumbre menor que la del universo U. En ambos los
estados son equiprobables, pero S tiene menos estados.
El universo U debería exhibir una incertidumbre mayor que la del universo Z. Ambos
tienen el mismo número de estados pero en Z uno de ellos tiene una fuerte propensión a
suceder en tanto que en U todos son equiprobables.
Cuando hablamos de estados estamos hablando de todos los que pueden formarse entre los
distintos valores de las variables. El número de estados (el cardinal del conjunto de estados)
42
fue simbolizado en 3.8.4; 3.9 y 3.10 por W. Por lo tanto existen W estados posibles. Ese
número puede estar formado por distintas combinaciones de variables y valores y pero ello
no importa desde el punto de vista global de la medida de la incertidumbre.
Por ejemplo, los cuatro estados del universo Z pueden ser cuatro niveles de una misma
variable, o provenir de dos variables con dos niveles cada una o de una variable con 3
niveles y una constante.
(3) Sea insensible a la variación de los niveles de las variables analizadas o de la unidad de
medida de la misma.
Varias han sido las medidas propuestas para medir la incertidumbre. La media (valor
esperado) y la dispersión (varianza o desvío medio cuadrático o desvío standard o momento
segundo) son las más conocidas.
(Además –eventualmente- del mismo valor esperado, ver ejemplo 4.4.1.1). Pero estos casos
de falta de discriminación del momento segundo son mucho menos frecuentes que para la
media. El problema fundamental de la dispersión como medida general de la incertidumbre
es que, justamente, no es suficientemente general. En efecto, se trata de una medida que
requiere que:
43
(2) Estos valores numéricos pertenezcan a una escala de intervalo por lo menos, o superior
(en general una escala proporcional). (El problema de las escalas se trata en el próximo
capítulo).
En este caso, -que es común en ámbito de la decisión- el momento segundo no tiene sentido
ya que no puede calcularse. Tampoco lo tiene en el caso de los universos S, U y Z incluidos
anteriormente si el número asignado a los estados pertenece a una escala nominal, es decir,
si es un simple marbete indicador.
La varianza es seguramente válida pero admitamos que mide algo más que la
incertidumbre: puede medir la aversión al riesgo.
Ejemplo 4.5.1.1
Supongamos dos activos aleatorios: X: [100, 0,2; 0, 0,8] y W: [200, 0,2; 100, 0,8]
La media y la varianza ( 2) se calculan por las siguientes fórmulas:
X = pi Xi
2
= pi X2i – X2
44
X W
Media 20 120
Desvío 40 40
Es fácil demostrar que la suma de una constante a los valores de un activo aleatorio (en este
caso, 100) no afecta a la varianza (ni al desvío medio cuadrático) si bien afecta a la media
(sumándose la constante a la media original). En este caso, la varianza es insensible a la
modificación de los niveles de la variable analizada, que es lo que pretendemos de una
medida de la incertidumbre. Pero en otros casos no sucede así.
Ejemplo 4.5.1.2
Dados los activos aleatorios: Y: {100, 0,5; 120, 0,5} y Z: {120, 0,5; 150, 0,5}
Se trata en ambos casos de dos estados equiprobables. Nuestra noción de incertidumbre nos
lleva a pensar que ambos son igualmente “inciertos”. Las medidas estadísticas no recogen
esa expresión de sentido común. En efecto:
Y Z
Media 110 135
Desvío 10 15
Ejemplo 4.5.1.3
Dados los activos aleatorios: U: {100, 0,25; 200, 0,25; 300, 0,25; 400, 0,25}
Podemos pensar que U es más “incierto” que V ya que ambos tienen la misma cantidad de
estados y éstos son iguales en ambas distribuciones. Sin embargo, los estadísticos no lo
revelan así. En efecto:
U V
Media 250 250
Desvío 111,8 111,8
Es decir que para la media y la varianza, ambos activos aleatorios son iguales.
2. La entropía
45
La entropía se mide así en bits ya que se ha adoptado el logaritmo de base 2 como unidad
de medida. Por lo tanto, debe recordarse que lo que, en unidades naturales se multiplica,
aquí se suma, y lo que se divide, aquí se resta.
En el Anexo a este capítulo, se agrega una Tabla de Entropía de un estado determinado que
ha de ayudar a la computación de H.
El comportamiento de H es el siguiente:
Máximo y mínimo pueden obtenerse por Cálculo Infinitesimal. Para ello, la fórmula
anterior –y la única que utilizaremos- se refiere a casos discretos, deberá ser convertida a
casos contínuos: w
H = pi lg pi dpi
i
46
H= lg 1 = w * 0 = 0
Obsérvese que la incertidumbre máxima (cuando pi = 1/w) tiene como medida el logaritmo
del número de estados. Esa medida es la variedad que hemos desarrollado en el Capítulo
III. Al aplicar el logaritmo (de base 2) el número de estados posibles, w, hemos llegado al
valor (máximo) de la entropía cuando los estados son equiprobables (ver 3.11.3). La falta
total de incompatibilidad entre estados que hemos destacado en su oportunidad es debida a
la carencia total de restricciones, es decir, a la incertidumbre máxima que se produce, para
un número dado de estados, cuando éstos son equiprobables. La variedad es, así, un caso
extremo de la entropía.
El signo de la entropía ha sido objeto de discusión (Ross Ashby, pág. 244). La fórmula
tiene signo negativo para dar a la medida de la incertidumbre un número (de bits) positivo
ya que log pi es siempre negativo. No hay otra razón sustancial para dicho signo.
Como puede verse en el ejemplo 4.5.3.1, la entropía es sensible tanto a las variaciones del
número de estados como a su distribución de probabilidad.
La entropía máxima se alcanza, para un mismo número de estados, cuando la distribución
de probabilidades es rectangular, tal como se muestra en la Figura 4.5.2.1.
p=1 H=0
H disminuye
H máxima
p = 1/w
0 w
Propensión a suceder y entropía
Figura 4.5.2.1
47
E1 , E2 ……. Ei …….Ew
Zt
p1 , p2 ……. pi ……. pw
Ei, E’i: estados del universo (de acuerdo con definición de 3.8.4) en los momentos t, t’.
(2) Definiremos:
Hij: medida numérica de la incertidumbre asociada al par de estados {Ei, E’j} (que se dé Ei
y si se da, que se dé luego E’j).
Trataremos de hallar una función (medida de la incertidumbre) que satisfaga los siguientes
axiomas: (otra versión en Reza, pág. 80).
48
El axioma 2 nos dice que, f es una función aditiva en caso de probabilidad condicional ya
que vimos que
Hi = f(pi) = f(pi * pj/i) = f(pi) + f(pj/i) (1)
La exigencia de una medida aditiva de la incertidumbre está originada en las ventajas del
cálculo y en la mayor adecuación a la noción intuitiva de la incertidumbre. El axioma 2 nos
dice que, si dos estados pueden acontecer sucesivamente, la incertidumbre total es igual a la
suma de la incertidumbre del primero más la incertidumbre del segundo una vez que el
primero ha sucedido.
El uso de probabilidad condicional es importante ya que transmite la idea que los estados
anteriores pueden o no influenciar los estados posteriores. Habrá influencia cuando
P(E’j/Ei) P(E’i). No habrá influencia cuando P(E’j/Ei) = P(E’j).
Por lo tanto:
Hi = - log pi
Se puede demostrar que Hi = k log pi con k < 0 es la única función que satisface los dos
axiomas.
(7) Pasemos ahora de un estado a todos los estados del universo. Parece razonable ponderar
la incertidumbre de un estado por su probabilidad, es decir, hallar el promedio
ponderado de las incertidumbres de cada estado para determinar la incertidumbre de
todo el universo.
49
Obtendremos así:
w
H = - pi log2 pi
i
Dadas las ventajas representadas por las variables binarias, se eligió el logaritmo de base 2:
la unidad de medida de la incertidumbre es entonces el bit (binary digit).
De este modo. La entropía como medida de la incertidumbre se basa sobre la idea que es
cómodo que sea aditiva como lo es el logaritmo. Pero la idea-fuerza fundamental es que la
incertidumbre es inversa a la probabilidad: a mayor probabilidad, menor
incertidumbre.
Este enfoque es importante: un mensaje que me comunica que estoy escribiendo en español
no me aporta ninguna información porque no tengo incertidumbre al respecto. Un mensaje
que me comunica que se desató una guerra entre la Unión Soviética y los Estados Unidos
me aporta un montón de información ya que resulta totalmente inesperado (le atribuyo una
bajísima propensión a suceder) (El mensaje revierte mi certeza: de la creencia en la paz me
enrostra con la guerra).
De esta idea, surge la tesis de Shackle –que veremos en el capítulo próximo- de medir la
propensión a suceder por el grado de sorpresa. Cuanto mayor es la sorpresa que me
provoca un mensaje, mayor es la información acarreada por él y menor su probabilidad.
El comportamiento de H:
H
1
0 0,5 1 p
Entropía de un universo binario para distintos valores de pi
Figura 4.5.3.1
50
Como ya hemos dicho, la entropía como medida de la incertidumbre es sensible tantos a los
cambios del número de estados como a las modificaciones de las probabilidades. En el
ejemplo de los tres universos S, U, Z del punto 4.5.1, la entropía es la siguiente:
La medida en bits ofrecida por la entropía (y por consiguiente, por la variedad) tiene un
significado preciso y sumamente práctico para comparar la incertidumbre de distintos
universos.
Hemos visto que el universo U del ejemplo 4.5.1, tiene una entropía H(U) = 2. Ello
significa que U es equivalente, en cuanto a incertidumbre a un universo de dos variables
binarias. En este caso es evidente. Ya hemos dicho que los 4 estados pueden ser originados
por una variable con 4 estados o por 2 variables con 2 estados cada una, no incompatibles
entre sí. Pero esta propiedad es más interesante en universos más complejos.
El universo Z, por ejemplo, tiene una entropía equivalente a la de un universo con 1,357
variables binarias (ya que H(Z) = 1,357).
Es evidente que ello tiene un sentido conceptual de medición. No tiene sentido real hablar
de 1,357 variables o de una variable y 357/1000 de otra. Sólo debe tomarse como patrón,
Standard de referencia para medición y comparación.
Loga N = x .·. ax = N
Log hn = H .·. 2H = hn
51
Limitaciones en el uso de H:
De todos modos, estas limitaciones son comunes a cualquier tipo de medida cardinal que se
ofrece como eventual alternativa.
Propiedades de H:
1. Continuidad: Cualquier cambio por pequeño que sea, en las probabilidades de los
estados (y en número de esos estados, ya que agregar o eliminar un estado se reduce a
considerar su probabilidad nula o a considerarla mayor que cero), debe reflejarse en la
medida H.
Ello puede observarse en el ejemplo 4.5.3.2. Por otra parte, las probabilidades son
contínuas en el intervalo [0,1] (se trata de números reales) y su logaritmo también lo es.
Hemos visto que H cumple con estos requisitos destinados a hacerla más efectiva en su
apreciación por el usuario.
4. Aditividad: Supongamos el universo aleatorio S : { 0,6; 0,3; 0,1} con H (S) = 1,29546.
52
Supongamos que el estado E1 con p(E1) = 0,6 se divide a su vez en E11 con p = 0,4 y E12
con p = 0,2.
Evidentemente la entropía del nuevo universo S’:{ 0,4; 0,2; 0,3; 0,1} ha de aumentar a
H(S’) = 1,84644.
Se puede demostrar esta igualdad con facilidad (véase Reza, pág. 84).
Por otra parte, al ser H no negativa, la partición de un estado dado en varios subastados no
puede disminuir nunca la entropía original. En (4), el segundo término de la derecha es
siempre 0).
En nuestro ejemplo,
53
Ejemplo 4.5.3.1
H(max)
Por lo tanto, H es sensible al número de estados cuando éstos son pocos. Cuando éstos
aumentan, H es incrementalmente menos sensible.
Aquí, Hmax es igual a la variedad medida en bits. De acuerdo con lo expuesto en el punto
3.11.3:
w = 2Hmax y Hmax = lg w
donde w es el número de estados. De este modo, Hmax indica cual sería el número de
variables binarias de un sistema de igual entropía.
Ejemplo 4.5.3.2
54
Estados Ei U1 U2 U3 U4 U5 U6
1 0,25 0,26 0,24 0,1 0,9 0,99
2 0,25 0,24 0,25 0,2 0,05 0,005
3 0,25 0,24 0,25 0,3 0,03 0,003
4 0,25 0,26 0,26 0,4 0,02 0,002
H(Uj) 2 1,9989 1,994 1,8464 0,6175 0,0956
Se grafican a continuación algunas distribuciones (con línea contínua para mayor facilidad
de percepción).
P(Ei)
U6
U4
U2
U1
Ei
Ejemplo 4.5.3.3
55
Ejemplo 4.5.3.4
Ejemplo 4.5.3.5
Dados tres activos aleatorios S, W, Z, con idénticos resultados pero distintas probabilidades
Niveles 10 20 30 40 50
S: probabilidad 0,2 0,2 0,2 0,2 0,2
W: probabilidad 0,1 0,3 0,4 0,1 0,1
Z: probabilidad 0,1 0,1 0,1 0,3 0,4
S W Z
Número de estados 5 5 5
Media 30 28 38
Varianza 200 116 176
Entropía 2,3219 2,0464 2,0464
56
Pero el problema se presenta entre W y Z. Ambos tienen el mismo número de estados y las
mismas probabilidades, si bien la asignación de uno a otros es diferente. Aparece como
razonable pensar que la incertidumbre de ambos universos es la misma, que no ha
cambiado al pasar de W a Z. Así lo expresa la entropía que es la misma para ambos.
Pero la varianza indica que hay mayor incertidumbre en Z que en W (no obstante ser su
valor esperado mayor). Como ya hemos dicho, la varianza recoge la influencia de los
niveles que consideramos razonable no tener en cuenta en la medición de la incertidumbre.
Ejemplo 4.5.3.6
La forma más rápida de encontrar la falla es aplicar la pregunta varias veces a la mitad de
los módulos donde se espera que se encuentre la falla. Con 5 test se logrará encontrarla. En
efecto, se pregunta a los primeros 16, luego a los primeros 8, etc.
La entropía del sistema es 25 = 32, es decir, 5 variables binarias (los bloques obtenidos de la
división por dos). Cada aplicación del test es un bit de información que reduce la
incertidumbre a la mitad. (En el Capítulo III se han incluido ejercicios similares).
Ejemplo 4.5.3.7
Un juego de salón siempre de moda consiste en lo siguiente: una persona piensa el nombre
de, por ejemplo, alguna persona (o de alguna flor, o de algún objeto, etc.) y los demás
participantes deben adivinar haciendo preguntas que sólo pueden contestarse por si o por
no. Generalmente el nombre pensado se adivina antes de las 20 preguntas.
57
Ejemplo 4.5.3.8
L M
Valor esperado 1.000 1.000
Varianza 3.000 3.000
Entropía 0,4690 0,4690
Todas las medidas son iguales. El autor, no obstante ello, elegiría M y ¿usted? Es que, aquí,
además de la incertidumbre interviene la preferencia hacia el riesgo que constituye la base
de la Teoría del Valor, tratada en otro capítulo y que se refiere a la fuerza de las
preferencias.
Ejemplo 4.5.3.9
Al verificar sus cálculos se da cuenta que R12= R13 y que R22 = R23.
Por consiguiente, piensa que no vale la pena separar los estados “llueve bastante” y “llueve
poco” ya que la distinción no afecta los resultados. Establece entonces la siguiente
situación:
P(llueve mucho) = 0,2
P(llueve algo) = 0,4
P(no llueve) = 0,4
58
Recordemos que toda medida en bits de un universo determinado nos indica el número de
variables binarias de un universo binario de incertidumbre equivalente.
La diferencia H(Z) – H(S) = 4,585 – 3 = 1,585 indica que se necesitan 1,585 bits (de
información) para reducir la incertidumbre de Z a la incertidumbre de S. En forma
equivalente, el antilogaritmo de esa diferencia 21,585 = 3 indica que la incertidumbre de Z es
3 veces mayor que la de S (ya que 24/8 = 3).
El ejemplo anterior está basado sobre la variedad, donde las probabilidades son iguales.
Veamos ahora un caso más general.
V(S) = 8
59
En general entonces:
Variedad (K) = 2H(K)
Vimos este problema en distintos ejercicios del Capítulo III (3.12; 3.15; 3.16) donde
tratábamos la variedad máxima. Este es un caso extremo de la entropía donde las
probabilidades de los w estados son iguales. Por lo tanto, lo utilizado allí se aplica aquí, con
más generalidad.
Si tenemos 27 monedas una de las cuales es más liviana y una balanza de fiel que puede
adoptar tres posiciones para indagar cuál es la moneda falsa, ¿cuántas pesadas deberemos
hacer por lo menos? Como 27 = 3, (la base es el número de estados que puede asumir la
balanza, el exponente es el número de pesadas necesarias) entonces necesitamos 3 pesadas.
Con la primera pesada dividiremos las 27 monedas en 3 partes de 9 cada una. En una de
esas partes se encuentra la moneda falsa. Con otra pesada, dividiremos el conjunto de 9
monedas en 3 partes de 3 cada una. Una de esas partes contiene la moneda falsa. Con la
tercera y última pesada dividiremos las 3 monedas en 3, hallando la moneda falsa.
60
H(Z)
n = ------- (2)
H(S)
n: Número de veces que el procesador de información o canal S debe ser utilizado para
procesar la entropía de Z.
Para eliminar la entropía, recordemos lo visto en el Capítulo III donde se estableció que:
hn = w
h: número de niveles (constante en este caso) que pueden adoptar las n variables.
V(S): Variedad (en números naturales) de los niveles adoptados por las variables (o del
alfabeto procesador).
V(Z): Variedad (en números naturales) de los comportamientos posibles del universo (o del
universo a explorar).
n: variedad (en números naturales) del número de variables (o del número de veces que el
procesador debe ser utilizado o del lago de una palabra).
Es fácil demostrar que (2) y (3) son equivalentes. En efecto, reemplazando n en (3) por su
formulación en (2):
V(S)H(Z)/H(S) = V(Z)
V(S)H(Z) = V(Z)H(S)
61
Aplicando logaritmos:
H(Z) Lg V(S) = H(S) Lg V(Z)
La diferencia H(S) – H(Z) indica al muy importante: la medida del conocimiento acerca de
un sistema determinado. Si nuestro conocimiento de Z fuese nulo, la entropía H(Z) sería
máxima. Si tenemos cierto conocimiento acerca de Z, H(Z) < H(Z)max y la diferencia
H(Z)max – H(Z) nos indica la cantidad de conocimiento adquirido acerca de Z. Como
veremos en el punto siguiente, puede también utilizarse para ello la eficiencia y la
redundancia.
Eficiencia y redundancia
La relación H(Z) / Hmax (Z) indica la eficiencia del sistema de información o del universo
considerado. En el ejemplo 3.11.3.4, de los semáforos, la variedad máxima del sistema es 8
mensajes. Si se utilizan sólo 3, la eficiencia de 3/8 es baja. La medición a través de la
entropía facilita las comparaciones.
Máximo = 1 Mínimo = 0
62
Máximo =1 Mínimo = 0
Supongamos que el semáforo con 8 mensajes posibles es utilizado para 3 mensajes pero
que cada uno de ellos se envía con dos combinaciones diferentes de luces. La redundancia
consiste en que se están utilizando seis mensajes cuando sólo son necesarios tres. El
lenguaje, especialmente el hablado, es altamente redundante (un 80% en inglés). Ello
quiere decir, que se utilizan 5 veces más elementos que los estrictamente necesarios.
Reducción de la incertidumbre
Dadas dos variables N y Z, cualquiera de ellas puede acarrear información acerca de la otra
si su comportamiento mutuo no es independiente es decir, si el comportamiento de una
afecta el comportamiento de la otra).
Si el observador tiene cierta opinión acerca del comportamiento de, digamos N, esa opinión
exhibirá cierta entropía H(N). Si a posteriori observa algún estado Zk de Z, su
conocimiento medido H (N /Zk) acerca de N podrá aumentar o disminuir (disminuirá o
aumentará su incertidumbre).
Si analiza cual será su comportamiento para todos los estados Zi de Z, éste será medido por
la entropía H (N/Zi) ponderada por la probabilidad de aparición de Zi, es decir p(Zi). Esa
entropía promedio se simboliza H (N/Z).
63
Este importante resultado nos dice que existiendo dos variables interdependientes, el
conocimiento de una reducirá siempre en promedio, la incertidumbre acerca del
comportamiento de la otra. En el peor de los casos, la incertidumbre promedio se mantiene
constante. Este teorema, debido originalmente a Shannon, es de gran trascendencia (véase
Pavesi, 1986, b).
La entropía sólo puede medir la incertidumbre cuando pueden definirse las probabilidades
asociadas a los estados. Tiene la ventaja que es independiente de la medición de los
estados, lo que le da superioridad sobre los estadísticos comúnmente utilizados. Pero, como
ellos, no puede liberarse de la cadena impuesta por el requisito de una propensión a suceder
medida en una escala proporcional.
Más allá, no existen medidas y quizás no sean necesarias. Pero del mismo modo que Cantor
supo distinguir distintos niveles de infinitud (y medirlos por comparación) quizás podamos
hacerlo con la incertidumbre y sus categorías superiores. Hasta ahora, no se ha presentado
la urgencia de investigar en esa dirección.
Cuando no pueden obtenerse las probabilidades que cumplan con los requisitos del cálculo
respectivo, las mediciones se hacen en escalas ordinales y, con suerte, en escalas de
intervalo, las que son sumamente flexibles pero menos precisas.
Hemos definido una medida de la incertidumbre llamada entropía. En este punto trataremos
de comprender la entropía no ya como medida sino como característica fundamental del
universo, característica de la cual la incertidumbre sólo es una de sus facetas. Ello debería
ayudarnos a comprender mejor la incertidumbre y también al universo al cual dedicamos
nuestras decisiones.
El tema es de gran complejidad y hace a los fundamentos mismos de ciencias básicas como
la Biología, la Física, la Química, la Cosmología. Sólo se pretende destacar algunas ideas
dominantes de la ciencia moderna que, a nuestro juicio, tienen relevancia para la
comprensión del universo para una Teoría de la Decisión.
Un tratamiento extenso y más profundo de este tema puede encontrarse en Pavesi, 1986,
(a), del cual este punto es un resumen.
64
Este hecho no puede ser casual y vale la pena investigar cual es la similitud de estructura,
de conceptos que ha dado lugar a una medida idéntica de fenómenos aparentemente tan
disímiles. Por otra parte, este tema constituye uno de los dos grandes tópicos de la ciencia
moderna.
La energía de Clausius:
La Termodinámica (literalmente: el movimiento del calor) se inicia con Sadi Carnot, hijo
de un ministro de Napoleón, joven ingeniero interesado en la eficiencia de los motores a
vapor que en 1824 establece la posibilidad de utilizar energía a condición que exista una
diferencia de temperatura.
65
cantidad fija e inamovible pero adopta variadas formas, diversos aspectos. El pasar de una
forma a otra, el transformarse en sus distintos ropajes es lo único permitido.
Más importante que la Primera Ley es la Segunda, la ley de la entropía creciente, que
afirma que cada vez que se usa energía, ésta se transforma y se degrada. Esa degradación
tiende a que la energía se haga inutilizable. Por consiguiente, la cantidad de energía es
siempre constante pero la proporción de energía utilizable por el hombre es decreciente en
tanto que la proporción de energía degradada es creciente.
Usar energía significa transformar energía utilizable en energía menos utilizable, lo que
implica un costo importante. La degradación consiste en que si hemos pasado de un estado
de alta concentración de energía a un estado de baja concentración, el retornar al estado
primitivo requiere más energía de la que hemos liberado en el primer proceso. Elevar agua
desde el lago a la montaña para seguir alimentando la turbina requiere más energía de la
que hemos de producir. Se deduce de la Segunda Ley que no puede existir un motor
contínuo que se alimente a sí mismo sin necesidad de extraer energía de otro lado.
La entropía marca así un proceso irreversible. Cada vez que se usa (se transforma) energía,
queda un residuo inaprovechable, siempre creciente.
El equilibrio termodinámico final se alcanza cuando ya no existe energía aprovechable,
cuando ya no puede producirse ninguna transformación de energía, cuando la energía
degradada e inútil es la única forma de energía existente. Ese equilibrio es inevitable,
inexorable (en un universo cerrado).
66
En primer lugar, la entropía mide ahora un aspecto relevante, íntimamente relacionado con
la energía: el número de configuraciones posibles de las moléculas (o de los elementos) que
forman un universo determinado. Esas configuraciones, desde un punto de vista estático,
pueden ser comportamientos desde un punto de vista dinámico. La entropía llega a medir el
número de formas en que un universo determinado puede arreglarse ponderado por la
probabilidad que cada una de estas formas tiene de ser adoptada.
Esa probabilidad es tan baja que a los efectos prácticos puede considerarse nula e imposible
la reversión entrópica: la reversibilidad de los procesos empíricos aparecía como
interesante para los filósofos pero no para los ingenieros ni para los decididores.
67
equilibrio tomará la forma del frío absoluto, de la desaparición total de toda energía
potencialmente utilizable, la llanura glacial, sin una altura de donde pueda caer una piedra o
un chorro de agua, sin un soplo de viento, en la oscuridad absoluta y desde ya, sin la más
ínfima manifestación de vida: ningún ser humano asistirá a tamaña desolación, la especie
habrá desaparecido mucho tiempo antes. En este mundo de máxima entropía, nada se
distingue, todo es igual.
Frente a esta inevitable catástrofe final pueden adoptarse muchas actitudes. El hombre del
común pensará inmediatamente que para ello falta mucho tiempo. Es cierto: algunos
millones de años, lo que equivale a la eternidad. Pero son muchos los que sostienen que el
problema no radica allí sino en que la Segunda Ley rige inexorablemente el agotamiento de
las distintas formas de la energía disponible y transformable: el agotamiento de la madera,
del carbón, del petróleo son etapas en la marcha irresistible de la entropía creciente, que
han modificado la cultura y la tecnología de la civilización. Los problemas de adaptación
de la especie humana son tremendos, las consecuencias sobre las formas de vida, la cultura,
las ideologías, insospechadas.
3. Entropía y orden:
La entropía máxima implica el caos absoluto donde todos los estados posibles son
igualmente probables. Es el desorden máximo.
Por consiguiente, una baja entropía termodinámica (mucha energía transformable) nos lleva
a la idea de orden, en tanto que una alta entropía termodinámica nos lleva a la idea de
desorden (mucha energía degradada). De este modo, estamos llevados a utilizar la entropía
como medida del orden.
La entropía como medida, también puede definirse, en este contexto, como el número de
formas en que un universo determinado puede arreglarse.
Esta es la definición de variedad de Sabih. Cuantos menos arreglos puedan hacerse (cuántas
más restricciones existen) mayor el orden y menor la entropía. Al revés, cuantos más
arreglos, mayor desorden, mayor entropía. Cuando no existen restricciones sobre el número
de arreglos posibles, cuando todos son igualmente probables, el desorden es máximo, la
falta de estructura es total, la información es nula, la incertidumbre es máxima y también lo
68
es la entropía. De esta forma, parece natural utilizar el concepto de entropía para medir el
orden. De esta forma, parece natural utilizar el concepto de entropía para medir el orden. El
hecho que el orden requiere energía para ser constituido refuerza su unificación con el
concepto termodinámico.
El ejemplo más claro para satisfacer nuestra comprensión intuitiva del proceso orden-
desorden es el del mazo de cartas. Un mazo de cartas de poker (o cualquier tipo de cartas)
tiene 52 naipes, divididos en 2 colores, cada uno de ellos en dos palos y cada palo en 13
naipes (10 números y 3 figuras) (olvidémonos de los jokers). Al salir de fábrica, los naipes
están ordenados en forma estricta. Existe una estructura: en cada palo, los naipes están
ordenados del 1 al 10 y luego las tres figuras, J, Q, K. La información es total, la
incertidumbre es nula. Puede ubicarse cualquier naipe sin problemas. La probabilidad de
encontrar cierto naipe en cierto lugar del mazo es 1. El abrir el mazo en determinado corte
conduce a un naipe (estado) previsto con toda seguridad.
Existe orden porque las cartas están unívocamente relacionadas, un solo comportamiento es
posible, las relaciones son estrictas, la estructura es definida. No hay lugar a ambigüedad.
Si mezclamos las cartas una vez, el orden se rompe. Nace cierta incertidumbre, cierta
ambigüedad sobre la ubicación de las cartas, si bien podemos arreglarnos, con más o menos
esfuerzo, para ubicar una carta. Si seguimos mezclando una gran cantidad de veces, la
estructura, el orden habrán desaparecido completamente: el desorden es total, la
probabilidad de encontrar cierto naipe en cierto lugar es igual para todos los naipes (1/52, el
abrir el mazo en determinado lugar puede llevar a encontrar cualquiera de los naipes: la
entropía es máxima).
Cabe ensayar una definición general de orden. ¿Cuándo decimos que hay orden, que un
sistema está desordenado?
Un sistema está ordenado cuando las relaciones entre todos los elementos del sistema
configuran una situación que nos aparece como no debida al azar, al hecho fortuito. De un
gran número de configuraciones posibles, surge una que es poco probable que sea debida al
puro azar o que, por lo menos, es poco probable que haya surgido espontáneamente. Este es
el sentido profundo de frases como: “El tráfico está ordenado” o “El cuarto está ordenado”.
Obsérvese que esta definición no se refiere a la génesis del orden. Normas estrictas, cultura
ciudadana, control eficiente originaron el orden del tráfico. Energía y diligencia ordenaron
el cuarto. Pero podemos imaginar que una tirada de seis dados simultáneos puede producir
una configuración de los seis elementos formando una línea o una figura con sus caras
superiores mostrando la sucesión de los seis primeros números enteros. Un observador diría
que los dados están ordenados. El hecho que ese orden sea fortuito y no debido al propósito
deliberado de un actor no afecta la definición de orden.
69
También es posible que dos observadores tengan ideas diferentes acerca del orden (o del
grado de orden) de un sistema determinado. En efecto, este aspecto de la realidad participa
de la apreciación subjetiva y de la percepción individual que caracterizan la aprehensión del
universo desarrollada en nuestros trabajos. De ahí que la Segunda Ley de Boltzmann haya
sido atacada como antropomórfica, en el sentido de subjetiva.
Las relaciones de orden (desde el preorden transitivo y reflexivo hasta el orden estricto
transitivo y asimétrico) constituyen un caso específico del orden general.
El orden evoca la existencia de restricciones a través de las relaciones que asocian los
distintos elementos del sistema observado. En efecto, su carácter antialeatorio surge del
hecho que ciertas relaciones no se dan; que ciertas asociaciones no se presentan. El tráfico
está ordenado porque todos los vehículos van por la derecha. Estaría desordenado si los
vehículos viajasen en cualquier sentido. Es la restricción por la cual ciertos sentidos de
marcha no pueden utilizarse la que provoca orden.
CAOS ORDEN
Equilibrio (termodinámico) Desequilibrio (termodinámico)
Entropía máxima Grados de entropía, entropía
nula
Desorden Orden
Simetría Asimetría, antisimetría
Equivalencia Precedencia
Semejanza Diferenciación
No estructura Grados de estructura
Equiprobabilidad Diferenciación de probabilidad
(distribución rectangular) (distribución no rectangular)
Reversibilidad Irreversibilidad
Incertidumbre total Grados de incertidumbre,
incertidumbre nula
Desorganización Organización
Ignorancia Conocimiento
70
Es altamente improbable que reordenemos el mazo con sólo barajarlo. Pero podemos
ordenarlo expresamente. Ello requiere tiempo, voluntad, cierto ingenio. Finalmente, ello
requiere energía. La Segunda Ley nos dice que la energía requerida para remontar el
proceso entrópico de barajar es mayor no sólo que la energía necesitada para barajar pero
también es superior a la energía que el desordenar el mazo hubiera podido liberar. De este
modo, el proceso de desorden, de introducción del azar, es irreversible si es dejado a sí
mismo. Puede revertirse pero a costa de un esfuerzo costoso. El orden cuesta. No hay que
pagar para obtener desorden: éste llega sólo. La jungla invade el templo abandonado, las
huellas del camino se borran solas y se confunden con el contexto si no se transitan, la
organización se desmigaja si no se emiten órdenes (justamente las “órdenes” crean “orden”)
y reglamentos y si no se hacen cumplir, controlando su implementación; la seguridad
desaparece si no trabaja la policía: el proceso de desorden es natural y poco cuesta
obtenerlo. El revertir ese proceso cuesta esfuerzo, recursos, talento, vidas, finalmente:
energía. El combate contra la entropía consiste en crear restricciones utilizando otras
restricciones menos fuertes. El orden, la estructura cuestan. A su vez permiten, como lo
permite la concentración de energía, la creación de nuevas formas, la libertad de actuar y
sobre todo, permiten el conocimiento, la predictibilidad del universo ordenado. Pero
seamos cuidadosos. El orden absoluto es el determinista total, el universo cerrado y
congelado, la coerción de la libertad. Sólo en un rango intermedio de entropía puede actuar
creativamente el ser humano.
Las actividades más destacadas del ser humano son una muestra de esa lucha contra la
entropía. Las organizaciones en su más amplio significado son universos semicerrados
donde se combate la entropía a través de normas, regulaciones, manuales, controles,
decisiones aplicados internamente pero aún sobre el contexto (Wiener, 1950). Ello puede
realizarse creando más entropía en el contexto, obteniendo recursos, tiempo, talento,
finalmente energía. La energía creada en la organización será siempre menor que la energía
71
El ser humano impone restricciones para crear orden. Pero lo hace utilizando otros recursos
y finalmente, creando un desorden mayor en otra parte. Se crea orden localmente, donde
nos importa, creando desorden donde no nos importa (por ahora). La acción se reduce a un
intercambio de restricciones donde el valor hoy de lo sacrificado es menor que el valor hoy
de lo obtenido.
El proceso de creación de la entropía es natural: surge sólo con dejar el mundo a sí mismo.
Evidentemente, se lo puede acelerar para utilizar intensivamente la energía aprovechable.
Este proceso lleva de la diferenciación a la igualdad, del desequilibrio creador al equilibrio
inanimado, de las estructuras a lo informe, de lo informable a lo desconocido, de la
certidumbre a la ignorancia.
72
Siendo finalmente el Universo cerrado, todo está destinado a ser derribado por la entropía
universal, como los antiguos templos por la selva.
Tan fantástica es la super-supervivencia de los universos vivos que cabe preguntarse ¿cómo
pudo aparecer la vida en un universo no sólo hostil en sus actitudes sino esencialmente
hostil en sus leyes fundamentales. Es así que algunos prestigiosos pensadores llegan a la
conclusión que la vida se ha originado por azar, por casualidad (Monod). “La vida,
considerada como un resultado de condiciones iniciales improbables es compatible con las
leyes físicas pero no se deduce de las leyes físicas”.
73
La vida requiere, aún en sus aspectos más simples, un fantástico sistema de coordinación,
control y regulación que desarrolle estructuras, funciones y jerarquías cada vez más
complejas. Estos fenómenos se repiten a gran escala en las grandes organizaciones
económicas y sociales, las grandes aglomeraciones urbanas, las grandes bases de datos y de
conocimiento.
El orden espontáneo:
Es así que han surgido distintos modelos que exhiben como característica común la
posibilidad de que el orden surja no solamente cómo producto de una gran importación de
energía desde el contexto de los sistemas estudiados sino que la aparición y desarrollo de
ese orden son fomentados y ayudados por generación espontánea, por mecanismos de auto-
organización que exigen un muy bajo aporte de energía.
Estos procesos, finalmente, no contradicen la Segunda Ley pero sí explican cómo han
podido crearse y desarrollarse sistemas tan fantásticos como los biológicos y los sociales
con una aparente facilidad y con un éxito que la dureza de la Segunda Ley, por sí sola, no
permitía predecir fácilmente.
Prigogine, Premio Nobel de Química 1977, descubre las estructuras disipativas y el orden
por fluctuaciones. En un universo de cierta complejidad y sometido a cierto proceso de
desorden, al superar ciertos umbrales, se generan espontáneamente procesos de
organización que revierten el proceso entrópico. Estos fenómenos se encuentran en distintas
situaciones biológicas y sociales.
Esta línea de pensamiento se desarrolla con gran vigor tratando de encontrar similitudes
con otros ámbitos: curación psicoanalítica de sistemas familiares a través de la
incentivación de los conflictos, surgimiento de sistemas sociales organizados a partir de
situaciones caóticas, creación de hábitos rutinarios y estables a partir de comportamientos
aleatorios, etc.
74
Una importante conclusión de estos trabajos modernos es que caos y orden no son
obligatoriamente conceptos alternativos sino que ambos pueden –y en ciertos casos, deben-
convivir. Orden y desorden conviven sobre el marco inevitable de la Segunda Ley, el caos
sigue su camino irreversible en algunos dominios; es condición necesaria para la aparición
de nuevas estructuras en otros. El determinismo no ha sido sustituido por la incertidumbre
general. Azar y certeza conviven y ello surge claramente en el ámbito biológico y social.
(Monod inicia su libro titulado: “El azar y la necesidad” con una frase de Demócrito: “Todo
lo que existe en el universo es fruto del azar y de la necesidad”).
El aprendizaje
Por otra parte, existen experimentos que tienden a demostrar que el uso de la experiencia no
es espontáneo ni siquiera común (Bunge, pág. 46-47).
Lo que sí son genéticamente generados son los programas por los cuales se guía y forma el
aprendizaje (Monod, pág. 164). No heredamos el conocimiento: sólo heredamos la
habilidad de adquirirlo en condiciones biológicas y sociales apropiadas (Bunge, pág. 56).
Pero lo más importante del aprendizaje a los fines de este punto es que también se trata de
un proceso autocatalítico de auto-organización y crecimiento exponencial (“no es el relleno
de estantes prefabricados”, Bunge, pág. 50).
75
Un decididor (y cualquier ser humano) tiene la máxima libertad cuando tiene infinitas
alternativas entre las cuales elegir, pudiendo elegir indistintamente cualquiera de ellas
(teniendo así todas ellas la misma propensión a ser adoptadas).
76
La libertad es mínima (pero no nula) cuando el decididor tiene dos alternativas igualmente
elegibles (entropía igual a, o próxima a 1, es decir, 1 bit de libertad).
La vida, como fenómeno biológico, cultural y social, se sitúa en algún punto intermedio.
Del mismo modo que información e incertidumbre se complementan en un sistema cerrado
para sumar una constante (así como la energía potencial y la energía irrecuperable,
cumpliendo la Primera Ley) orden y libertad se complementan. Un justo equilibrio entre
ambos, decidido en alguna forma por los individuos involucrados, en una franja de
optimalidad no tan estrecha, constituye una situación de máxima realización de la
potencialidad humana, de máxima creatividad e innovación, de máxima realización de
individuo y sociedad.
Del mismo modo, la entropía mide el grado de organización de un universo dado tal como
ya se ha mencionado varias veces. Una organización es una estructura y consiste en:
(3) Relaciones entre variables, siendo las mínimas relaciones de precedencia (de orden).
77
Queremos decir que la entropía es un único concepto fundamental que ha ido revelándose a
través de nuestras culturas bajo distintos ropajes, con distintas denominaciones, en
circunstancias específicas. No existen distintos actores, con distintos disfraces y distintas
actuaciones, que pueden acomodarse bajo una denominación común, un rol compartido. La
situación es inversa. Existe un solo actor, un solo protagonista, un solo papel: el orden, la
estructura, o como se prefiera llamarlo. Denominémoslo “entropía”.
Ese actor aparece en nuestras múltiples escenas bajo diferentes hábitos representando
distintos matices del mismo rol. Primero está la entropía como categoría fundamental y
universal. Luego vienen sus distintas expresiones condicionadas por las distintas
situaciones en las cuales van apareciendo.
Esta palabra no forma parte del bagaje verbal diario como “peso”, “longitud”,
“temperatura”. Quizás ello sea por su gran universalidad, por el ropaje múltiple que va
exhibiendo en la experiencia diaria de los seres humanos, lo que lleva a éstos a destacar con
palabras diferentes los distintos disfraces de esta sutil y poderosa protagonista de la
realidad.
De esta forma, decir, por ejemplo, que la información es una estructura o que en las
situaciones poco estructuradas existe cierta incertidumbre es una tautología, ya que se están
utilizando distintas palabras que tienen el mismo sentido. Ello es válido desde el punto de
vista de la comprensión, para llamar la atención sobre ciertas aristas que tienen una
respuesta emocional, que hacen al marco de conocimientos, a la vivencia diaria. Pero
estrictamente, estamos utilizando distintas palabras para denominar lo que proponemos
llamar la entropía, el orden universal.
Nos reencontramos aquí con el genio de Descartes quien introduce en la Ciencia Occidental
Moderna, la importancia del orden al promover la aplicación del Método para descubrir la
verdad en un universo que, para él, era determinista. Pero Descartes va más allá: propugna
78
una “ciencia del orden”, base de todas las ciencias y de todo conocimiento: la Mathesis
Universalis.
En sus “Reglas para la dirección de la mente”, la Regla I comienza por criticar el uso de la
semejanza y de la analogía y promueve una dirección (es decir, un orden) para mente. En la
Regla IV afirma que para la investigación de la verdad es necesario el Método. Descartes
no es piadoso con sus contemporáneos que buscan la verdad como “un hombre que ardiera
en un deseo tan estúpido de encontrar un tesoro que le hiciera vagabundear sin cesar por las
plazas públicas, buscando si por casualidad encontraba alguno perdido por algún viajero”.
El Método es para Descartes “reglas ciertas y fáciles cuya exacta observancia permite que
nadie tome nunca como verdadero nada falso y que sin gastar inútilmente ningún esfuerzo
de inteligencia, llegue, mediante un acrecentamiento gradual y contínuo de ciencia, al
verdadero conocimiento de todo lo que sea capaz de conocer”.
Pero el Método es par Descartes algo que debe utilizarse para tareas más importantes que
ser aplicado a las “ciencias más fáciles: la aritmética y la geometría”. No es ello admirable
si se piensa que fue escrito en 1628 (aproximadamente). “Pues no estimaría en mucho mis
Reglas si no bastaran nada más que para resolver los problemas varios que sirven
habitualmente de juego al legista o al geómetra ocioso”. Estas son banalidades. No piensa
en las matemáticas “ordinarias”. Está exponiendo otra disciplina (de la que ella son la
vestidura más bien que las partes) que debe contener los primeros rudimentos de la razón
humana y extender su acción “hasta hacer brotar las verdades de cualquier tema”.
Esa disciplina es la Mathesis Universales (para Descartes, que escribía en latín sus
“Regulae ad directionem ingenii”) deficientemente traducida como “Matemática
Universal”. Pero Descartes se empeña afanosamente para aclarar que su propósito es
mucho más ambicioso. Quiere fundar una disciplina (mathesis: enseñanza, en griego) que
permita descubrir el orden subyacente en el universo, en la cual “solamente se examina el
orden y la medida, sin considerar si esta medida hay que buscarla en los números, las
figuras, los astros, los sonidos o cualquier otro objeto”.
Qué frescura surge de las lecturas de estas Reglas, escritas algo así como una década antes
del “Discurso”, cuando Descartes había apenas pasado la treintena pero publicadas por
primera vez medio siglo después de su muerte.
Descartes establece por primera vez claramente en la ciencia occidental moderna que no
puede haber conocimiento sin orden: orden en el proceso de aprendizaje y orden (real o
impuesto) en el objeto conocido. El Método consiste en el orden y en la disposición de los
objetos sobre los cuales hay que centrar la penetración de la inteligencia para descubrir
alguna verdad (Regla IV) y el orden implica reducir las proposiciones complicadas y
oscuras a proposiciones más simples y luego partir de las más simples de todas para
elevarnos al conocimiento de todas las demás.
Ese estudio de la medida del orden tan claramente expuesto por él, arranca según el mismo
Descartes en Diófanes y Palpos. Ferrater Mora (“Mathesis Universales”) cita fuentes que
hacen remontar la idea de Espeusipo y expone los distintos tratamientos de este proyecto
79
que aparece en distintos autores y especialmente en Leibnitz (pero con un sentido algo
distinto).
La Mathesis Universales cartesiana aparece así como una ciencia realmente universal que
abarca o fundamenta todas las ciencias (pero de la cual no se derivan proposiciones
específicas pertenecientes a esas ciencias). Para ello, es necesario que exista una categoría
básica del universo: el orden (la estructura) medible, en muchos de sus aspectos, por la
entropía.
El destacado antropólogo Michael Foucault (pág. 79) analiza el impacto de esta visión
cartesiana del orden en la ciencia y en la cultura occidental, impacto que se prolonga en
nuestros días, después de cuatro siglos de dominancia.
Reiteremos, una vez más, que de la misma forma que lo hicimos para el equilibrio y el
desequilibrio (Pavesi, 1977) no estamos diciendo que el orden es bueno y que el desorden
es malo. Estamos diciendo que no puede haber conocimiento sin cierto grado de orden. Y
que tampoco puede haber libertad, creatividad, crecimiento, desarrollo, sin cierto grado de
orden. Existen ciertas situaciones de desorden que son buenas y otras que son malas, así
como existen ciertas situaciones de desorden que son buenas y otras que son malas. Más
aún, pensemos que cierto grado de orden es necesario para permitir cierto grado de
desorden creador –y que en muchos casos- cierto nivel de desorden puede desencadenar
ciertos niveles de orden. Orden-desorden, equilibrio-desequilibrio, autopoiesis-allopoiesis
conviven y en cierto rango de mezcla de ambos términos, encuentra el ser humano las
mejores condiciones para desarrollarse.
En conclusión postulamos que:
(1) La entropía aparece como la medida de una categoría básica de todo universo: el orden
y su gradación.
(2) En general, ciertos aspectos del universo aparecen arrastrados espontáneamente hacia el
desorden.
(3) En especial, ciertos aspectos del universo aparecen contrarrestando eficazmente y con
éxito permanente ese deslizamiento a costa de acelerarlo de alguna forma en otros
aspectos (organización, evolución biológica).
(4) Esta ciclópea tarea se ve facilitada por mecanismos espontáneos antientrópicos (orden
por fluctuación, barrera de complejidad, autocatálisis, autopoiesis).
(5) En otros aspectos, no puede asegurarse que la reversibilidad de la entropía sea estable ni
que su costo (inevitable) sea mínimo.
80
(8) El determinismo se halla así definitivamente erradicado de nuestra visión del universo.
De la interacción del hombre con el universo surgen mundos nuevos e inesperados.
Dentro de cierta franja de mezcla óptima de orden-desorden, la innovación, la
creatividad, la modificación del mundo, la incertidumbre enriquecedora de ciertos
aspectos basada sobre la certeza tranquilizante de otros son el arquetipo de un mundo
cambiante y generoso.
1. Definición:
(1) Los estados percibidos como realmente posibles no son equiprobables (restricción
relativa).
(2) Los estados percibidos como potencialmente posibles no son todos percibidos como
realmente posibles (restricción absoluta).
Es importante destacar que no entramos a definir las restricciones por su origen o causa
sino por su efecto. Basta que la equiprobabilidad del suceso de los estados del universo
desaparezca para que existan restricciones. Y basta que disminuya (aumente) la entropía
para que se hayan introducido (relevado) restricciones.
Las mismas surgen del comportamiento de las variables del universo o del contexto que
influyen sobre las variables del mismo universo: variables susceptibles de asumir valores
incompatibles entre sí, valores que modifican la aparición de valores, que influyen el
comportamiento de otras variables, valores cautivos de otros valores, etcétera, son fuentes
de restricciones.
81
Un sistema puede ser observado hoy y ser restringido hoy y mañana pero no serlo pasado
mañana. Si cambiamos el momento de observación, el período de proyección de la
observación o el observador, la restricción puede modificarse.
En realidad, un universo sin restricciones resulta difícilmente concebible. Sólo el acto puro
aristotélico podría ser considerado un sistema sin restricciones. Un sistema con infinitas
variables, que asumen infinitos estados no enumerables, es un sistema sin restricciones sí,
además, cumple con el requisito que todos los estados sean igualmente probables.
2. Restricciones absolutas:
Dado un universo U, existe una restricción absoluta sobre el estado ESt de ese universo
cuando la propensión a suceder de ese estado es nula. Más simplemente, cuando su
probabilidad de aparición es cero, cuando es imposible. Toda definición, de cualquier tipo,
implica la introducción de una restricción absoluta.
82
Toda porción de la “realidad”, todo sistema que la representa aparece entonces restringido,
en este sentido absoluto fuerte: el tiempo no se revierte, la mosca no se convierte en
máquina de calcular. Este tipo de restricción absoluta parece tan obvio que generalmente se
da por supuesto y no se considera específicamente.
Dentro de las restricciones absolutas, algunas implican una imposibilidad menos fuerte.
Bajo ciertas circunstancias, los estados vedados aparecen como imposibles pero pueden
imaginarse como posibles de acuerdo con la particular visión del mundo y del tiempo del
observador. Las restricciones absolutas débiles imposibilitan estados potenciales
imaginables que pueden llegar a ser posibles: No puedo gastar más de $10.000 en el
mercado porque olvidé traer más dinero, no puedo producir más porque me faltan
máquinas, no puedo instalarme en la colina 841 porque allí se encuentra el enemigo, no
puedo subir a pie los 17 pisos por una dolencia coronaria, podemos hacer la ruta o el
puente, pero no ambos simultáneamente por falta de recursos, etc.
83
3. Restricciones relativas:
La restricción es relativa cuando, dentro de un conjunto de estados posibles (es decir, cuya
probabilidad es mayor que cero), la probabilidad que los mismos sean asumidos por el
sistema, en un período determinado, no es igual par todos. No hay equiprobabilidad.
Algunos estados son más probables que otros. La restricción absoluta opera sobre el
número de estados potenciales (variables y niveles). La restricción relativa opera sobre la
distribución de probabilidad de los estados posibles definidos por las restricciones
absolutas. Existirán restricciones relativas en la medida que esa distribución se aleje de la
distribución rectangular.
En la Figura 4.5.2.1, dicha distribución indica entropía máxima. Por definición, todos los
estados son posibles e igualmente probables. La más mínima distorsión de esa distribución
revela la existencia de una restricción: la entropía real es menor que la máxima. En el otro
extremo, la entropía es nula, el comportamiento del sistema es determinístico. Se trata de
una situación de certeza.
Supongamos que una variable puede adquirir todos los valores enteros entre $1.000 y
$2.000 inclusive, salvo los valores: (1) $1.150/1.200 y (2) $1.800/1.900 todos inclusive
(sólo hay 849 valores posibles). Admitiendo una representación contínua tendríamos la
Figura 4.7.3.1.
1/849
84
p=1
4. Espacio-comportamiento
Las restricciones, al obligar a ciertos estados a ser menos probables que otros, pueden
aparecer en los espacios-comportamientos si añadimos a éstos una dimensión para
representar la propensión a suceder. Si para un universo de una o dos variables utilizamos
el recurso gráfico de representar agrupados los estados que tienen la misma propensión a
suceder, podremos tener un mapa sobre los comportamientos más o menos probables de
nuestro universo.
Valores Valores
400
0,9
0,1 0,7
300
0,2 0,5 0,5
200 0,2 1 0,2 0,1
85
En la Figura 4.7.4.1 (a) la variable tiende a transformarse en constante a través del tiempo.
Debe entenderse que las probabilidades registradas en el gráfico son representadas por la
superficie, de modo que todos los estados representados por esa superficie tienen la misma
probabilidad de suceder. Los subespacios son regiones de equiprobabilidad.
El gráfico se lee así: todos los valores entre 100 y 200 tienen probabilidad 0,3 de ser
asumidos entre los momentos 0 y 2, en tanto que el valor 300 es imposible en el momento
2.
86
Región A B C D E F Total
Probabilidad 0 0,20 0,25 0,30 0,15 0,10 1
P(Et+1)
0,30
0,25
0,20
0,15
0,10
Et+1
D C B E F A
87
Estas representaciones gráficas son sumamente simples y hasta burdas desde un punto de
vista práctico. No ignoramos sus defectos, pero pretendemos que ilustren, el hecho que el
decididor se enfrenta con un universo que puede ser conceptualmente pensado como un
espacio-comportamiento con una constelación de estados asociados a su propensión a
suceder.
La acción del decididor no consiste solamente en dejarse llevar hacia los estados de mayor
propensión a suceder. Consiste, al contrario, en modificar dicha propensión, en eliminar
restricciones, en sustituirlas, hasta hacer alcanzable los estados deseados. La acción del
decididor no consiste tanto en elegir el mejor estado dentro de las restricciones (si bien lo
hace cuando no tiene recursos –que también son restricciones- especialmente, el tiempo)
sino en remover y modificar restricciones para liberar el estado deseado. Ello implica, entre
otros recursos, tiempo. Por ello, los economistas distinguen los comportamientos a corto y
largo plazo, siendo éstos, a menudo, muy diferentes a los primeros. En efecto, el largo
plazo sugiere la posibilidad de remover restricciones. Pero el tiempo –si bien es una
restricción de vasta relevancia- no es la única utilizada para sustituir restricciones más
reacias.
Ejemplo 4.7.4.1
Dos variables independientes pueden adquirir los siguientes valores con su correspondiente
propensión a suceder (probabilidad).
X2 a b c d
P(XS2) 0,25 0,25 0,25 0,25
88
X1
3.000
P(Ei)
0,10
0,075
0 6 12 Ei
Ejemplo 4.7.4.2
Dos variables X1 y X2 están relacionadas de la siguiente forma: X1 = 100 X2, donde X2 sólo
puede tomar valores enteros entre 0 y 40 de acuerdo con la siguiente tabla:
89
X1
4.000
3.000
2.000
1.000
Tal como se ha planteado el ejemplo, se supone que dentro de cada intervalo, los valores
enteros son equiprobables.
P(Ei)
0,40
0,30
0,20
0,10
Ei
5. Restricciones metodológicas:
Felizmente las situaciones de la realidad que generalmente analizamos están regidas por
restricciones más fuertes que las exhibidas por la Figura 4.7.4.2, si bien ésta no es
imposible. Si esas restricciones no pertenecen naturalmente al universo, introduciremos las
necesarias tanto en la porción de realidad como en su modelo abstracto a fin de hacerlo más
procesable, predecible, manipuleable. En general, la palabra restricción evoca algo
90
incómodo que es necesario superar o eliminar. No siempre es así. Como insistiremos luego,
podemos vivir en este mundo porque existen restricciones. Si no existen, las inventamos.
En efecto, no debemos olvidar que una restricción reduce la variedad. Por consiguiente, se
introducen restricciones en una situación determinada en forma expresa, adrede, a fin de
circunscribir el campo de comportamiento factible. Definiremos estas restricciones como
metodológicas.
Hasta cierto punto, es preferible perder en exactitud para ganar en capacidad de análisis y
reflexión. Se trata de un delicado balance, no siempre bien resuelto. Muchos modelos de
comportamiento implican (expresa o tácitamente) tantas restricciones que son inhábiles de
describir en forma suficientemente exacta el sistema bajo decisión, llevando al fracaso al
decididor. La brecha entre el modelo y el universo es demasiado grande. En el otro
extremo, la falta de restricciones hace absolutamente imposible el análisis de la situación.
El compromiso entre complejidad y análisis constituye una metadecisión permanente en los
procesos decisorios. Restricciones metodológicas muy frecuentes, introducidas
expresamente por el observador para reducir la variedad son:
Certeza: Se trata de una restricción muy fuerte, es decir, que reduce fuertemente el
espacio-comportamiento pero qué es utilizada con frecuencia. Se elimina así
toda una gama de estados posibles, condicionados por eventos no controlados
por el decididor, reduciéndolos a uno solo, es decir, a una variedad cero. Esta
restricción se opera con cuidado, aplicándola a corto plazo o a través de
mecanismos que la aproximan, como el valor esperado en caso de
comportamientos repetidos.
Información completa: Se considera que los estados tomados en cuenta son todos
posibles.
Debe entenderse que la certeza implica siempre la información completa pero, que lo
contrario no es cierto: la información completa no implica necesariamente la certeza. Se
91
Existe todo un campo en el cual las restricciones están constituidas por relaciones lineales,
sean éstas reales o metodológicas. Un caso especial de estas restricciones es el constituido
por el espacio-comportamiento factible convexo, más precisamente un poliedro convexo.
Un espacio o poliedro es convexo cuando cualquier línea o plano trazado desde o hacia
cualquier punto de sus límites recorre únicamente puntos incluidos en ese poliedro. Esto
constituye una ventaja muy importante para el hallazgo de estados óptimos. En la Figura
4.7.6.1, se representa una muestra típica de este caso especial, de universo cerrado.
a1
0 a2
Figura 4.7.6.1
m1 a1 + n1 a2 <= b1
m2 a1 + n2 a2 <= b2
m3 a1 + n3 a2 <= b3
92
El signo <= define el campo factible y el campo de restricción. En este caso, el campo
factible incluye los puntos del límite del mismo. Si el signo fuera los puntos de las tres
rectas formarían parte del campo considerado imposible.
Este enfoque de las restricciones, utilizado en programación lineal, constituye a su vez una
restricción por ser un caso especial en un ámbito mucho más amplio de restricciones de
cualquier tipo. Dado el enorme y fácil instrumental matemático lineal, es común introducir
premisas para convertir restricciones no lineales en lineales, perdiendo exactitud pero
ganando en posibilidad de análisis y procesamiento. Por otra parte, el comportamiento
lineal es más común de lo que se cree (Kozielicki, pág. 103/5).
Existe una confusión semántica en este caso. Una variable contínua debe obligatoriamente
asumir más estados que una discreta (en realidad, el infinito del contínuo). Pero es
frecuente oir decir que una variable contínua es más previsible que una discreta. Ello no es
cierto: lo que se está haciendo es confundir continuidad con determinismo y discontinuidad
con aleatoriedad. Los comportamientos representados por las siguientes fórmulas son
igualmente predecibles:
(1) Xt+1 = a Xt + b
Es igualmente previsible un auto que lanzado a determinada velocidad necesita 100 metros
y 5 segundos para detenerse, que uno que puede detenerse de inmediato en 0 metro y 0
segundo.
7. Restricciones y decisión:
Debe tenerse cuidado en el hecho de que, si bien toda restricción tiende a reducir la
complejidad en determinado nivel de resolución (punto 3.1), puede no resultar eficaz en
otro nivel. Más aún, la restricción metodológica puede adoptar formas sutiles para reducir
complejidad.
La Teoría de la Decisión es una teoría universal que pretende aplicarse a un gran número de
decididores. Evidentemente, la variedad de éstos es infinita. En lugar de reducir su campo,
consagrándose a unos pocos decididores –lo que la llevaría a su destrucción en cuanto a
teoría como conocimiento universal sistematizado- logra su fin pasando a un alto nivel de
abstracción, tan amplio que abarca infinitos decididores, disminuyendo la complejidad al
reducir lo específico, al hacerse más general. Más aún si tuviera que reducirse al
comportamiento decisorio de un solo individuo, su complejidad sería mayor ya que estaría
supeditada al alto número de estados que un decididor puede adoptar con respecto a una
situación de decisión.
93
Las decisiones programadas constituyen típicas restricciones: se aplican una vez por todas a
múltiples situaciones similares pero que admiten soluciones distintas. La decisión
programada implica una conducta, una solución única para todas esas situaciones
eliminando la variedad, la incertidumbre, que podía existir sobre ellas.
Reflexione el lector: ¿no ha sentido alguna vez reprobación o desconfianza o temor hacia
quienes no se consideraban involucrados en las restricciones que él ha aceptado desde un
remoto pasado? ¿No se ha sentido integrado con quienes comparten ciertas restricciones
94
comunes? ¿No se ha sentido oprimido por las restricciones impuestas? ¿No ha necesitado
restricciones de donde aferrarse cuando se ha asomado a las tinieblas de un futuro incierto?
Nuestro mundo humano es un sistema complejo de restricciones de todo tipo. Esto puede
ser malo pero indudablemente esto aparece como bueno desde puntos de vista
trascendentales: un mundo sin restricciones es el caos, absolutamente inconcebible para la
especie humana. En efecto, para la Biología, la sola presencia de la vida implica la
existencia de restricciones. Se trata de materia organizada, de un repliegue en el
inconmensurable espacio-comportamiento de un universo absolutamente libre, una
reducción de estados posibles. Las leyes físicas, los planetas girando, el agua bajando por el
camino del menor esfuerzo, un brin de pasto, implican restricciones al caos, que deja así de
serlo.
Una sola molécula, la manifestación más embrionaria de vida implica una distorsión y una
disminución en la variedad potencial, una restricción.
Cuando el comportamiento de una variable puede describirse por una función determinada,
dicho comportamiento se halla absolutamente restringido; la variedad de los niveles que
puede asumir, en un momento determinado, es cero. Gracias a esas restricciones,
aprovechando esas restricciones, a través de esas restricciones, la especie ha podido
desarrollarse como vida organizada e inteligente. En especial, gracias a restricciones puede
existir un proceso de aprendizaje. Si un sistema puede asumir, en cualquier momento,
cualquier estado, es imposible conocer, aprender su comportamiento. La existencia de
restricciones reduce el número de estados factibles, introduce regularidades detectables,
implica leyes, aún en un mundo aleatorio a través de las variables estadísticas.
Justamente la única forma de ocultar la propia estrategia en conflictos con otros decididores
tan inteligentes como nosotros y que implican la repetición de decisiones sobre un conjunto
finito de alternativas, es eligiendo éstas al azar. Le será imposible al oponente adivinar cuál
será nuestra próxima jugada, aún cuando pueda detectar ciertas regularidades a través de la
media, en caso de un gran número de jugadas. Este es el método utilizado por la Teoría de
los Juegos en los casos de estrategias mixtas.
Una restricción puede ser provocada por el tiempo escaso, por los recursos, por la
incompatibilidad de caracteres, por el desconocimiento de un idioma, por incomprensión de
pautas culturales, por imágenes distintas evocadas por distintos decididores frente a una
misma palabra, por regulaciones estatales, por normas morales, por falta de poder, de
imaginación, de información. Infinitos son los soportes de las restricciones. Su efecto es
siempre el mismo: ciertos estados no pueden realizarse o son difícilmente alcanzables,
ciertos comportamientos están eliminados o son más probables que otros. Las restricciones
reducen, disminuyen la variedad potencial y permiten cierta predicción del
comportamiento.
95
Es importante señalar que la palabra restricción no ha sido definida hasta aquí. Hemos
dicho cuando existe una restricción pero no qué es una restricción. Una restricción es
simplemente cualquier entidad que introduce una diferencia entre variedad potencial y real,
entre incertidumbre máxima y real, que elimina estados, que hace que algunos sean más
probables que otros. Por entidad se entiende todo lo imaginable, real o ficticio, físico o
abstracto, cualquiera sea su origen, su forma, su expresión.
¿Cuáles son los campos totalmente vedados?, ¿cuáles son los que no lo son tanto?, ¿cuál es
el riesgo de infringir las vallas impuestas?, ¿cuál es la posibilidad de correrlas un poco más
allá?, ¿cuál es la probabilidad de alcanzar ciertas regiones del espacio-comportamiento?,
¿qué perdemos y qué ganamos en la transacción de las restricciones?
Pero los recursos son, a su vez, restricciones. Por consiguiente, se necesitan restricciones
para remover restricciones.
La lucha contra las restricciones implica una sustitución de restricciones más fuertes por
otras más débiles. La remoción de restricciones es un proceso por el cual se reemplaza,
96
sobre uno o varios períodos, restricciones poco alcanzables por otras constituidas por
recursos disponibles: esfuerzo, perseverancia, dinero, talento, fuerza, etc.
Desde las restricciones débiles, removibles de inmediato y sin esfuerzo hasta las
restricciones fuertes, removibles a largo plazo y con mucho esfuerzo, pueden escalarse
todas las restricciones imaginables, desde prohibiciones, vallas invencibles, imposibilidad
física, económica, hasta castigos y costos por superar la restricción. No es necesario que
este costo sea indefectible: puede ser aleatorio. Las restricciones relativas definen un campo
de riesgo. Evidentemente, esto implica una gradación en la fuerza de las restricciones. La
imposibilidad absoluta surge de una restricción más fuerte que la restricción que impone
solamente un costo aleatorio al ser transgredida.
Al conducir un sistema hacia un estado poco probable, por ser restringido por una
restricción relativa, pueden suceder distintas cosas, de acuerdo con la naturaleza de la
restricción: el estado puede ser alcanzado o no, con el uso de ciertas restricciones o no. El
cálculo decisorio implica evaluar si el uso de restricciones para superar otras, es
conveniente.
La reglamentación de tránsito prohíbe cruzar una calle cuando el semáforo está rojo. Esta
prohibición (restricción) no es absoluta: puede ser infringida. De cualquier modo, logra
reducir la probabilidad de que la calle se cruce cuando el flujo de tránsito de la calle
transversal está abierto.
97
Esta visión de las restricciones, aparentemente evidente, es de enorme importancia para una
Teoría de la Decisión volcada hacia la acción, para una praxiología efectiva.
Lamentablemente, la relatividad de las restricciones tiende a olvidarse en el análisis
decisorio. La conocida frase “la única verdad es la realidad”, es sumamente peligrosa en ese
sentido. Tiende a crear la imagen de que esa única verdad es inamovible y que el hombre
debe someterse a esa realidad. Con ese criterio, el ser humano no hubiera superado la etapa
cavernícola. Sin discutir el sentido de la palabra “realidad” consideramos que se trata de un
vocablo que describe un conjunto de restricciones: la realidad es una serie de restricciones
con distintos grados de removilizad, de desplazamiento.
El ser humano en general –y el decididor en especial- no se somete a esa realidad sino que
la modifica, comenzando, supuestamente, por las restricciones de más fácil remoción.
La frase mencionada sólo toma sentido trascendental cuando se interpreta como una
advertencia a que no debe tratarse de remover restricciones no eliminables dentro del
período de planeamiento, no deben atacarse restricciones con mucho poder.
Esta aversión lleva a que una de las más importantes actividades del ser humano es el
combate de la incertidumbre. Ese combate, trata de lograr un universo predecible. La
incertidumbre se elimina al reducir a una sola el conjunto de respuestas posibles a la
indagación, a la duda.
98
El ser humano necesita que su entorno sea predecible. Espera encontrar su casa, a la noche,
cuando vuelve de su oficina. Espera que su orden sea obedecida cuando es jefe y espera que
el sueldo le llegue puntualmente a fin de mes. Esperas que su cliente le pague a una fecha
determinada y con eso cancelar a su vez una deuda que otro hombre espera se le abone.
Espera que la gente en el mostrador atienda bien a la otra gente y no la muela a palos, que
el auto de adelante no se detenga de repente, ni que otro venga de contramano. Espera que
su amigo no lo engañe, que su mujer no lo apuñale, que cuando abra la puerta del baño no
se encuentre con la caja del ascensor. Cuando se transforma en ejecutivo, necesita dominar
su contexto, la empresa en que se encuentra. Necesita saber que pasa, acotar los grados de
libertad de sus subordinados, saber que cuando se lanza un nuevo producto, se están
realizando paso a paso todas las etapas necesarias, que el contenido de los informes tiene el
mismo sentido para quien los confecciona como para él, que la ley vigente lo es realmente
y que no depende del prejuicio o de la indigestión de un juez, que las reglas del gran juego
de su vida y de su actividad son estables y seguras y de permanencia suficientes y cuando
cambien, lo pueda hacer. No quiere vivir un personaje de Kafka, despertándose a la mañana
transformándose en insecto o procesado en un mundo que exhibe una férrea coherencia que
no es la suya. En fin, trata de reducir la cantidad de estados posibles de las variables que le
interesan, de llevarlos a un solo estado necesario. Azar y necesidad se contraponen y
conviven (Monod).
Para logra eso, la especie humana organiza. La historia del hombre es la historia de la
organización, de la sociedad, de las fuerzas armadas, de la religión. Organizar es armar un
gran rompecabezas de decisiones programadas, de instrucciones lo más precisas posibles,
de control y de castigo para evitar que se transgredan. Surgen así las pautas culturales, las
leyes escritas y las otras, las normas, las regulaciones, los reflejos condicionados, las Tablas
de la Ley, la Moral y la moralina. Todo ello a fin de evitar la incertidumbre, en especial
para que el universo sea predecible para las elites dirigentes, cualesquiera sean. Surge el
repudio social, el castigo para quien transgredí la organización. Es una amenaza, no tanto
porque amenaza el funcionamiento de un sistema determinado sino porque introduce la
incertidumbre.
99
Al revés, podemos convivir con la incertidumbre tomando muchas decisiones a corto plazo
y altamente reversibles. En época de caos económico, el proceso de decisión se acorta y se
multiplica la frecuencia.
En todos los casos pueden utilizarse distintas técnicas entre las cuales se destaca el análisis
de sensitividad, sobre el cual volveremos en otra oportunidad. Se trata de establecer dentro
de qué rango podemos permitir que varíe la realidad en comparación con nuestras
expectativas sin necesidad de modificar las decisiones basadas sobre éstas últimas. Esto se
hace comúnmente, sin saberlo a veces. Permanentemente, se utiliza la información
adicional. Perdido en las tinieblas, el decididor tira manotazos en todas las direcciones para
obtener información sobre el universo desconocido en el cual se encuentra. Todos sus
sentidos van detectando información que su cerebro procesa e interpreta. Se reconstruye el
universo incierto sobre la marcha, tomando muestras y tropezando, por el viejo método de
la prueba y error. Esa información se irá tomando y pagando de algún modo mientras su
costo sea menor que el valor esperado del conocimiento adquirido. El chimento del amigo
bien informado, la investigación de mercado, la prueba y ensayo, el espionaje, son métodos
de obtención de información adicional.
Uno de los métodos más difundidos es pasar la incertidumbre a otros, cuanto más son,
mejor. Se trata de una colección de individuos que tienen problemas similares de
incertidumbre. En la medida que los estados inciertos son perjudiciales, podemos encontrar
una forma de anular sus efectos formando una comunidad que sufragio entre todos sus
integrantes las pérdidas sufridas por cada uno de ellos. Es el seguro. A veces, la delegación
100
Una actitud muy común con la incertidumbre –y con todo lo que se teme- es ignorarla. El
ser humano ha desarrollado una serie de defensas psicológicas que logran a menudo
convencerlo que la incertidumbre no existe o que podemos actuar como si no existiera. Ese
método primitivo de convivencia –ampliamente generalizado- con la incertidumbre puede
dar resultado: se enfrentan los hechos a medida que aparecen.
Su versión más sofisticada es tomar como cierto lo que consideramos más probable, el
modo de una ignota distribución aleatoria. No se ponderan todos los estados posibles, no se
examinan todos los comportamientos. Se elige sólo una variante y se apuesta a ella como si
fuera única. No se asume conscientemente el riesgo, la incertidumbre no constituye un
compromiso, no se la incorpora realmente al proceso de decisión.
La aversión al riesgo surge claramente de la Teoría del Valor de Daniel Bernouilli (1700-
1782). Partiendo del principio que el valor de un incremento de patrimonio es inversamente
proporcional al valor del capital (el mismo incremento es más valioso para un pobre que
para un rico), Bernouilli llega a la conclusión de la función numérica que representa el
valor de los bienes para un individuo es una función logarítmica. Esta función, sobre la cual
nos extenderemos en otra oportunidad, implica aversión al riesgo: se pretende altas
probabilidades a favor para arriesgar un poco. Se tiende así a no asumir riesgos. Más
técnicamente, no tiende a aceptar riesgos equitativos en los cuales el valor esperado de
asumir el riesgo es igual al valor esperado de no asumirlo (más aún, se demuestra que no se
debería asumir nunca un riesgo en tales condiciones).
101
Pero si bien la aversión a la incertidumbre es muy difundida, no es la única reacción del ser
humano. Existe también la propensión a la incertidumbre y, porque no, la neutralidad ante
ella. El decididor audaz, el jugador, el tomador de riesgos, no sólo convive con la
incertidumbre sino también la busca, la ansía. De todos modos, los casos más definidos de
propensión al riesgo pertenecen a la fantasía literaria. También se demuestra que es
sumamente común exhibir aversión al riesgo en cierto rango de valor y propensión al riesgo
en otro ámbito.
Otro ejemplar literario –entre los muchos existentes- es “El hombre de los dados” de Luke
Rhinehart. Un conocido psicólogo somete a los dados todos los hechos de su vida, todas las
personalidades que se le ocurren. Elige con los dados el tiempo que asumirá esas
personalidades que se le ocurren. Elige con los dados el tiempo que asumirá esas
personalidades, el azar le dicta su vida.
¿Qué distingue estos dos casos? En primer lugar, que son absolutamente coherente. El
confiar a un mecanismo aleatorio la doble selección del conjunto de alternativas y, dentro
del mismo, la elección del curso de acción específico a seguir, constituye un criterio no tan
extraño como aparece a primera vista. El problema reside en que se trata de un criterio
burdo, generalmente de alto costo, pero fundamentalmente un criterio que tiende a coartar
las facultades de reflexión del ser humano y que consiste en ignorar las preferencias
individuales y sociales. Se sustituye el orden en las preferencias por el girar de la rueda de
la kermese. Pero desde un punto de vista lógico, el criterio es coherente. Más aún, en caso
de no poder ordenar esas preferencias o ante exigencias de estricta equivalencia, el criterio
de la selección aleatoria es legítimo. Y lo utilizamos tanto para asignar la posición de los
equipos en un partido de fútbol como para decidir qué película ver. Aparentemente, cuando
los valores arriesgados no son muy importantes, cuando se quiere evitar la posibilidad de
toda distorsión malintencionada, el criterio aleatorio es empleado frecuentemente. Pero su
aspecto más tenebroso, su aplicación más violatoria de la inteligencia humana lo reportan,
no las ficciones literarias sino las crónicas históricas: es el Juicio de Dios de las
persecuciones religiosas. Y su aspecto más trágico está en la ruleta rusa. Cuando termina la
reflexión, comienza el azar.
En segundo lugar, los hombres de las ficciones comentadas, estuvieron dispuestos a vivir
en el azar puro –lo que implica un costo considerado elevado para nuestras pautas
culturales- pero obtuvieron una ventaja: eliminaron la problemática de la decisión, se
102
Obsérvese que la aplicación sistemática del criterio aleatorio tiene una implicancia
insospechada: el sistema de vida se vuelva determinista, pasivo. Más aún, el azar confiere
certeza: la certeza de que otro decida y que se aceptarán dictámenes. Es una certeza
extraña; no hay información completa, la incertidumbre sobre el comportamiento se
mantiene, pero ya no importa. Siendo la incertidumbre una posición personal, individual, el
confiar la propia vida al azar es una forma de superarla a través de lo irreversible: “Alea
Jacta Est”. La suerte está echada. A cada golpe de dado, el Rubicón se cruza. Y no puede
volverse atrás. Los grados de libertad se han reducido a cero, han desaparecido para
siempre bajo la tiranía de la suerte.
2. Incertidumbre y libertad:
103
No solamente existe incertidumbre por el hecho que una variable dada que en un momento
dado exhibe cierto valor determinado, puede exhibir en el momento siguiente uno entre una
cantidad definida de valores posibles. La incertidumbre existe porque existe ignorancia
sobre cuáles son los valores posibles que esa variable tiene a su alcance en el momento
siguiente. El punto de partida es definir el conjunto de todos los valores imaginables y
separar los posibles de los no posibles, sin entrar a discutir si son más o menos “posibles”,
es decir, sin eventualidad, su propensión a suceder. Pero ha de presentarse, en general, la
duda si un valor determinado es posible o no. Más aún, ha de presentarse la duda si hemos
imaginado todos los valores.
Pero también tendremos duda si hemos incluido todas las variables del universo, si no
hemos dejado algunas sin considerar.
La duda no termina allí. La más cruel es la que recae sobre las preferencias. Entre dos
valores A y B, podemos adoptar tres comportamientos:
A es preferido a B
B es preferido a A
A y B son indiferentes
Pero sucede frecuentemente que no sabemos definir cualquiera de estas tres relaciones.
104
momento, el decididor está sólo, absolutamente, desoladamente sólo. Y deberá decidir sin
que nadie lo ayude (porque aceptar ayuda, también constituye una decisión solitaria).
Borch (pág. 24) cuenta una anécdota ilustrativa al respecto. El Directorio de una compañía
de seguros exigía de su consultor que le ayudara más en cuanto a la posibilidad de un
siniestro, contestando el consultor que no era a él a quien debía llamar el Directorio sino a
un astrólogo. El Directorio pensó entonces que la respuesta evasiva había sido dada para
lograr un puesto en el mismo Directorio.
Estas dos últimas actitudes están contempladas en la Teoría de la Decisión a través de los
llamados criterios de Wald (o maximin o pesimismo absoluto) y de Savage (o del
arrepentimiento).
El afán de eliminar la incertidumbre lleva a la excesiva acumulación de información,
muchas veces contradictoria, que incrementa la incertidumbre en lugar de reducirla. La
falta de comprensión de la incertidumbre lleva a la persecución a posteriori por no haber
acertado el estado “verdadero”. La propuesta de incorporar el costo de oportunidad
(originado en las alternativas rechazadas al decidir) a la contabilidad mucho tiene que ver
con esta falta de comprensión (Pavesi, 1981).
4. Incertidumbre y complejidad:
105
también lo hemos hecho). Pero es necesario ser preciso, ya que no siempre los universos se
presentan así.
Ante todo, dejamos sentado que también la complejidad implica grados, es una variable que
exhibe distintos niveles. La complejidad se refiere a una estructura determinada y recae
sobre los elementos de la misma.
(2) El número de niveles, grados o valores que pueden adoptar esas variables
La complejidad aparece así, como una característica del mundo físico, independiente de la
incertidumbre (si bien es cierto que un sistema complejo tiene mayor propensión a exhibir
incertidumbre para muchos observadores).
106
ANEXO
1
La entropía total se halla por la suma. Por ejemplo: H(0,6; 0,3; 0,1) = 0,44218 + 0,52109 + 0,33219 = 1,29546
105
BIBLIOGRAFÍA
Cherry, Colin, “On human communication”. Science Editions, New York, 1961. (Primera
edición MIT 1957).
Descartes, Renato, “Reglas para la dirección de la mente”, Aguilar, Buenos Aires, 1980.
Ellsberg, Daniel, “Risk, ambiguity and the Savage axioms”, Quaterly Journal of
Economics, 1961, 75, 643/669.
Foucault, Michel, “Las palabras y las cosas”, Siglo XXI. Méjico 1968. (Edición original
1966).
106
Pierce, John, “Symbols, Signals and Noise”, Harper, New York, 1961.
Popper, Kart, “El universo abierto”, Tecnos, Madrid, 1984. (Edición original 1956).
Prigogine, Ilya, “Tan sólo una ilusión”, Tusquets Editores, Barcelona, 1984.
Turing, Alan M., “Can a machine think?”, En: Newman, James, (comp), “The world of
mathematics”, Vol. 4, Simon and Schuster, New York, 1956. (Edición
original de Turing, 1950). (Hay version en español por Seix Barral).
Wiener, Norbert, “Cybernetics” M.I.T. Press, Boston, 1961. (Edición original 1948). (Hay
versión al español por Tusquets).
Wiener, Norbert, “The human use of human beings: cybernetics and society”, Doubleday,
New York, 1954. (Edición original 1950). (Hay edición en español por
Sudamericana).
107