Está en la página 1de 23

Capítulo 1

Análisis de decisiones

En la vida y particularmente en la gestión nos vemos enfrentados permanente-


mente a la toma de decisiones. Existen decisiones que se toman en condiciones de
certidumbre como la cantidad de cierta materia prima a comprar para producir
un lote de producto de un tamaño determinado, pero también hay decisiones en
las cuales se desconoce lo que va a pasar, como sucede al diseñar una nueva planta
de producción. En este último ejemplo el tamaño y las características de la planta
dependen del éxito del producto y la demanda futura, las cuales son inciertas.

A continuación se presenta una metodología para la toma de decisiones basada en


la probabilidad y la estadística, y en la aplicación de criterios fundamentados en
las posibles consecuencias de una acción determinada.

La Teoría de decisiones consiste en la forma en que deben tomarse las decisiones


(acciones) antes de que ocurran los eventos (hechos de la naturaleza).

Ejemplos cotidianos como la decisión de llevar o no un paraguas cuando se sale


de casa y no está lloviendo, la decisión de llevar un libro cuando vamos a hacer
uso de un servicio en el cual comúnmente debemos esperar para ser atendidos, la
decisión de tomar un taxi cuando acudimos a una cita, etc., implican la presencia
de incertidumbre.

1
Capítulo 1. Análisis de decisiones

1.1 Clases de modelos de decisión

El ámbito en el que se toman las decisiones es muy importante, pues de él depende


el tipo de estrategia a emplear para afrontar un problema de decisión. Así, la toma
de decisiones puede realizarse en ambientes de certidumbre, riesgo e incertidumbre,
como se detalla a continuación:

Bajo Certidumbre: Son aquellas situaciones en las cuales se conoce lo que va


a pasar. Una vez se ha hecho una serie de análisis y supuestos se construyen
modelos para este tipo de problemas, entre los que se destacan los mode-
los determinísticos, como los de planeación de la producción. En estos el
comportamiento del sistema es explicable, sí se asume que ya se ha hecho
un trabajo previo con la demanda, con los tiempos de fabricación y con los
consumos de materias primas, etc.

Bajo Riesgo: Son situaciones en las que no se tiene certeza absoluta de lo que
va a ocurrir, pero se tienen estimaciones de probabilidad para los diferen-
tes resultados posibles. Por lo general, tan solo se tiene conocimiento de
los diferentes eventos o hechos de la naturaleza que pueden ocurrir junto
con una estimación de las probabilidades de ocurrencia de cada uno (estas
probabilidades se estiman a partir del comportamiento histórico del sistema.

Bajo incertidumbre: Se refiere a situaciones en las cuales se conocen los posibles


hechos de la naturaleza o eventos que pueden ocurrir, pero se desconoce
totalmente la probabilidad de ocurrencia de cada uno de esos hechos. En ese
tipo de casos tiene lugar una toma de decisiones basada en reglas claramente
establecidas.

1.2 Características de los problemas de teoría de decisiones

Como puede inferirse de su nombre, un problema de decisión obedece a la elección


de una alternativa, de un conjunto de posibles cursos de acción, con el objetivo
de obtener el mejor resultado posible. Los problemas de decisiones se caracterizan
por:

1. Un conjunto de acciones o alternativas A que el decisor conoce y de las cuales


sólo puede seleccionar una, en adelante se denomina i ∈ A a cada una de las
alternativas.

2. Un conjunto de eventos o estados de la naturaleza S que son las situaciones


que se pueden presentar, y que al presentarse determinan la bondad o no de
una decisión, estos eventos a los que denominaremos con el índice j ∈ S se

2
1.3 Criterios de decisión

caracterizan por ser mutuamente excluyentes y colectivamente exhaustivos,


y porque cada uno de ellos posee una probabilidad de ocurrencia pj .

Con mutuamente excluyentes se hace referencia a que sólo se presenta uno a


la vez y por colectivamente exhaustivos al hecho de que la sumatoria de las
probabilidades de todos los estados es igual a uno.


pj = 1
j∈S

3. Es posible construir una valoración numérica del beneficio para cada par
evento acción ri,j , con lo cual se constituye la llamada tabla o matriz de
recompensas o de pagos, como se observa en tabla 1.1.

Tabla 1.1: Matriz de Recompensas (o matriz de pagos)

Eventos o hechos de la naturaleza


Alternativas 1 2 ... n-1 n
a1 r1,1 r1,2 ... r1,n−1 r1,n
a2 r2,1 r2,2 ... r2,n−1 r2,n
.. .. .. .. .. ..
. . . . . .
am−1 rm−1,1 rm−1,2 . . . rm−1,n−1 rm−1,n
am rm,1 rm,2 ... rm,n−1 rm,n

1.3 Criterios de decisión

Pueden tenerse diferentes criterios para la toma de decisiones, que pueden aplicarse
ante la insuficiencia de datos, cada uno de ellos representa un punto de vista ante
el problema.

1.3.1 Acciones dominadas


El primero de los criterios a tener en cuenta al tomar una decisión tiene lugar ante
la existencia de axiones dominadas.

Se dice que una acción i es dominada por otra acción i� cuando para todo j ∈
S, ri,j ≤ ri� ,j , y para algún estado j � , ri,j � < ri� ,j � .

Lo anterior implica que la acción i en ningún estado j será mejor que i� , por lo que
no habría ninguna razón para elegirla. Dicho de otro modo, es preciso buscar las
3
Capítulo 1. Análisis de decisiones

acciones dominadas para descartarlas como alternativas posibles ante la necesidad


de tomar una decisión.

1.3.2 MaxiMin
Consiste en determinar el peor resultado para cada acción y elegir la acción que
proporcione el mejor de los peores resultados. Esto es elegir para cada acción a i el
valor mı́nj∈S ri,j . y de ellos elegir aquella acción cuyo valor sea el más grande
� �
máx mı́n{ri,j } (1.1)
i∈A j∈S

Se trata de un criterio pesimista que sólo tiene en cuenta el peor resultado para
cada una de las alternativas.

1.3.3 MaxiMax
Consiste en determinar el mejor resultado para cada acción y elegir la acción que
proporcione el mejor de los mejores resultados. Esto es elegir la acción a i con el
valor máxj∈S ri,j y de ellos elegir aquella acción cuyo valor sea el más grande
� �
máx máx{ri,j } (1.2)
i∈A j∈S

Es un criterio de decisión muy optimista, que se basa únicamente en los mejores


resultados para cada una de las alternativas.

1.3.4 Alfa (α) de Hurwicz


Hurwicz propone un criterio alternativo consistente en un promedio ponderado de
los pagos mínimo y máximo de cada alternativa, en este caso se da un peso de α al
pago mínimo y de 1 − α al pago máximo para cada acción posible, con 0 ≤ α ≤ 1.
La acción seleccionada es la que proporcione la máxima recompensa ponderada
promedio. Supera la debilidad de los dos criterios anteriores al considerar dos
pagos por cada alternativa, en este caso el coeficiente α actúa como una medida
de optimismo, pues si su valor es cercano a cero se comporta de manera optimista
y si es cercano a uno de manera pesimista.
� �
máx α mı́n{ri,j } + (1 − α) máx{ri,j } (1.3)
i∈A j∈S j∈S

4
1.3 Criterios de decisión

1.3.5 De Bayes (Laplace)


Según este criterio se fijan probabilidades iguales para lo desconocido, es decir, si se
carece de información respecto de las probabilidades de ocurrencia de los eventos
de la naturaleza, a todos, se les asignan probabilidades iguales y se adopta aquella
que proporcione el pago promedio más alto. Tiene la particularidad de considerar
todos los pagos en lugar de únicamente los extremos.
 
1 � 
máx ri,j (1.4)
i∈A n 
j∈S

1.3.6 Arrepentimiento o pérdida de oportunidad (Savage)


Es una técnica similar a las dos anteriores, pero se basa en una matriz diferente
para la toma de decisiones.

A partir de la matriz de recompensas se elige la mejor recompensa posible para


cada estado de la naturaleza y se crea una nueva matriz en la cual a esta mejor
recompensa para cada estado se le resta el valor correspondiente en la matriz de
recompensas original. En otras palabras es la matriz de lo que se hubiese perdido
(con respecto al mejor valor posible) si ocurre el evento j cuando se toma la acción
i.

La matriz se construye de acuerdo con:

ai,j = máx {ri,j } − ri,j ∀i ∈ A, j ∈ S (1.5)


i∈A

El criterio aplicado en este caso es el de Pérdida MiniMax que consiste en deter-


minar la mayor pérdida posible para cada acción y de ellas escoger la menor.
� �
mı́n máx{ai,j } (1.6)
i∈A j∈S

1.3.7 Estrategias Mixtas


Se trata de la elección de un curso de acción mediante un artificio al azar, como
una moneda o un dado, etc. El decisor puede estimar el beneficio esperado que
proporciona cualquier estrategia mixta. A manera de ejemplo para una estrategia
mixta con dos alternativas a1 y a2 , con probabilidades α1 y α2 , y con α1 + α2 = 1,
pueden calcularse las recompensas como el promedio ponderado de los pagos de

5
Capítulo 1. Análisis de decisiones

cada alternativa e incluir la estrategia mixta a3 a la matriz de recompensas. Para


cada estado de la naturaleza j el pago será r3,j = α1 r1,j + α2 r2,j .

Tabla 1.2: a3 como estrategia mixta

1 2 3
a1 r1,1 r1,2 r1,3
a2 r2,1 r2,2 r2,3
a3 αr1,1 + (1 − α)r2,1 αr1,2 + (1 − α)r2,2 αr1,3 + (1 − α)r2,3

Variando las probabilidades α cambian las recompensas esperadas para la estrate-


gia mixta, y se hace posible determinar con que probabilidades la estrategia mixta
proporciona el valor más alto del maximin o el más bajo de la pérdida minimax.
Tal conjunto de probabilidades constituye una estrategia mixta óptima, lo cual
podría ser deseable para quien toma las decisiones.

En la estrategia mixta presentada, con un valor α = 0,5, puede dejarse la decisión


a una moneda, lo cual es un procedimiento poco común en la toma de decisiones.
Pero esta estrategia es conveniente pues el criterio maximin es el de un decisor
tímido, que siempre teme que su opositor (la naturaleza u otro jugador) siempre
le adivine primero y le gane, lo cual lo lleva a descartar de plano todo excepto el
resultado menos favorable de cualquier escogencia de estrategia pura. El jugar al
azar le da la seguridad de que nadie le saldrá adelante y esas posibilidades que
había descartado se convierten en alternativas reales. El valor de seguridad más
alto de una estrategia mixta debe tratarse como una reflexión sutil del hecho de
que una estrategia mixta puede evitar que el jugador oponente prediga su decisión.

1.3.8 Futuro más probable


Este criterio se basa en convertir una situación probabilística en una determinís-
tica, reemplazando la variable aleatoria con el valor de mayor probabilidad de
ocurrencia. Se hace desde el punto de vista práctico entendiendo que el futuro más
probable proporciona información adecuada para la toma de decisiones. No es un
criterio adecuado cuando la variable aleatoria tiene un gran número de valores
probables, cada uno con una probabilidad muy pequeña, o cuando diversos valores
de la variable aleatoria presentan la misma probabilidad.

6
1.3 Criterios de decisión

1.3.9 Valor esperado


Los criterios vistos hasta ahora no tienen en cuenta las probabilidades de ocurren-
cia de los diferentes estados de la naturaleza. En este caso, aplicando el concepto
de valor esperado que de acuerdo con la teoría de las probabilidades es el promedio
que se obtiene en el largo plazo para una distribución determinada. No debe ser el
único criterio a tener en cuenta para llegar a una decisión, debe servir de guía y la
decisión final debe obedecer a todos los factores pertinentes que afectan al decisor
hacia la utilidad del dinero.

Consiste en determinar la acción cuya recompensa esperada sea mayor (o cuya


pérdida de oportunidad esperada sea menor).
 
� 
máx pj ri,j (1.7)
i∈A  
j∈S

La acción a tomar será la que proporcione el mayor de los valores esperados. Ma-
temáticamente hablando si para una variable aleatoria x con valor esperado E(x)
y varianza σ 2 , se obtiene una muestra de tamaño n de esta será (x1 , x2 , . . . , xn ),
�n 2
su promedio x̄ = n1 i=1 xi , y su varianza σn . Cuando n → ∞, la varianza tiende
a cero y x̄ = E(x), lo que significa que si se utiliza el valor esperado para comparar
alternativas, será conveniente que el procedimiento se repita un número grande de
veces. De lo contrario el promedio podrá ser muy diferente al valor esperado.

1.3.10 Valor esperado - varianza


El criterio del valor esperado es usualmente útil para la toma de decisiones en el
largo plazo y que se repiten muchas veces, pero es conveniente modificarlo para
mejorar su aplicación a problemas de corto plazo, teniendo en cuenta lo siguiente.

Sea x una variable aleatoria con valor esperado E(x) y varianza σ 2 , el promedio
�n 2
de una muestra de tamaño n es x̄ = n1 i=1 xi , y su varianza σn ; en consecuen-
cia cuando σ 2 se hace más pequeño, x̄ tiene una menor dispersión y se aproxi-
ma a E(x) con mayor probabilidad. Por lo tanto es valioso el desarrollo de un
criterio que maximice el beneficio esperado y minimice su varianza. Lo anterior
puede alcanzarse considerando
� múltiples metas en el mismo criterio, por ejemplo:
maximizar E(x) − K var(x), donde x es la variable aleatoria y K una constante
preespecificada.

La constante K se conoce a veces como factor de aversión al riesgo, por ser un


factor de la importancia relativa de la varianza de x repecto de su valor esperado.

7
Capítulo 1. Análisis de decisiones

1.3.11 Nivel de aceptación


Este criterio no proporciona decisiones óptimas en lo que respecta a la maximiza-
ción del beneficio o la minimización del coste, sino condiciones aceptables en un
proceso de decisión. Por ejemplo, cuando se está vendiendo un bien es posible es-
tablecer un valor mínimo ante el cual no venderíamos dicho bien y en consecuencia
aceptaríamos cualquier valor por encima de ese mínimo.

Para este método no se requiere un conocimiento preciso de la distribución de


probabilidad de los precios asociados al bien en venta, pero si un conocimiento del
mercado que evite colocar un precio tan alto como para que no se venda o tan
bajo como para que no proporcione ningún beneficio.

Este tipo de análisis puede aplicarse para fijación de los niveles de servicio o de
aceptación propios de los procesos de manufactura.

1.4 Valor esperado de la información perfecta

Se entiende por información perfecta el hecho de conocer el comportamiento de la


naturaleza de manera anticipada, es decir, conocer que va a pasar y en consecuencia
tomar la mejor decisión independientemente de lo que suceda.

Con información perfecta el pago esperado será igual a la sumatoria de las proba-
bilidades de ocurrencia de cada evento j multiplicadas por la mejor recompensa
posible para ese evento ri∗ ,j , donde i∗ es la acción que proporciona tal recompensa.

El valor esperado de la información perfecta o costo de la incertidumbre será igual


al valor esperado con información perfecta menos el valor esperado original (ecua-
ciones 1.9,1.10), y será lo máximo que se justificaría pagar por un estudio cuya
confiabilidad fuera total.

V ECIP = pj máx{ri,j } (1.8)
i∈A
j∈S
 
� � 
V EIP = pj máx{ri,j } − máx pj ri,j (1.9)
i∈A i∈A  
j∈S j∈S

V EIP = V ECIP − V E (1.10)

8
1.5 Árboles de decisión

1.5 Árboles de decisión

Un árbol de decisión es un diagrama que permite descomponer un problema com-


plejo en varios problemas más pequeños, consiste en representar secuencialmente
las decisiones que deben tomarse. Se llama árbol pues se caracteriza por poseer
puntos de ramificación para determinar las posibles acciones a tomar por el decisor
o los conjuntos de eventos que pueden ocurrir.

El árbol se construye utilizando dos tipos de nodos:

Nodo de decisión, el cual se representa con un cuadrado y,

Nodo de incertidumbre, que se representa con un círculo

r1
s1
s1 r2
a1 2 a3 5 s2 r3
s2 4 s1
1 r4
a4 6
s2 r5
a2 s1
3 r6
s2 r7

Figura 1.1: Representación de un árbol de decisión

Del nodo de decisión inicial se desprende una rama por cada una de las acciones
posibles, a cuyo final se coloca un nodo de incertidumbre, del cual se desprende a
su vez una rama por cada posible estado de la naturaleza. Al final de estas últimas
ramas pueden colocarse nuevos nodos de decisión o los valores de la recompensa
asociada a la rama del árbol (la cual depende tanto de la decisión tomada como
del estado de la naturaleza correspondiente).

El árbol se resuelve de derecha a izquierda de la siguiente manera:

En cada nodo de probabilidad o incertidumbre se calcula el valor esperado


de las ramas inmediatamente subsiguientes, que se define como el valor del
nodo.

En cada nodo de decisión se selecciona el mejor valor (mayor o menor de-


pendiendo de lo que se esté optimizando) que se asociará a ese nodo.

Al finalizar, es decir, al llegar al nodo inicial (izquierda) se determinará la decisión


correspondiente como aquella que conduce a obtener su valor.
9
Capítulo 1. Análisis de decisiones

1.6 Valor esperado de la información experimental

Muchas veces es posible y deseable recurrir al muestreo o experimentación para


obtener información adicional sobre los eventos que pueden ocurrir antes de tomar
una decisión. Por lo general esta búsqueda de información tiene un coste y es
necesario determinar el valor de la información en relación al coste de obtenerla, es
decir, debemos tomar dos decisiones: pagar o no pagar por la información adicional
y la decisión del problema original para el cual estamos buscando información.

Entendiendo estrategia como el curso de acción para cada resultado muestral, el


problema aquí es la selección de la mejor estrategia, que en últimas será determinar
la mejor acción para cada resultado posible de la muestra.

1.6.1 Evaluación de estrategias


La evaluación de las estrategias requiere del conocimiento de como los resultados de
la muestra se relacionan con los eventos. Se requiere conocer la probabilidad de ca-
da uno de los resultados muestrales dado cada evento P (resultado muestral|evento).

Estas probabilidades pueden ser determinadas por el procedimiento de muestreo


o de manera subjetiva según sea el caso, y suelen ser ser resumidas en una tabla
en la cual los resultados del muestreo se listan en filas y los eventos en columnas.

Cada columna de la matriz suma uno por tratarse de una distribución de probabi-
lidad condicional, el conjunto de tales distribuciones se conoce como conjunto de
distribuciones de muestreo del problema.

Una forma de evaluar las estrategias consiste en enumerar todas las posibles com-
binaciones de acción-resultado, lo cual puede no resultar fácil dependiendo del
número de alternativas y del número de estados de la naturaleza.

1.6.2 Probabilidades a posteriori


Por otra parte tenemos:

Acciones (A): Se tiene un conjunto de acciones posibles i ∈ A conocidas de las


cuales se puede seleccionar sólo una.

Eventos (S): Son los estados de la naturaleza j ∈ S posibles, de los cuales se


conoce su probabilidad de ocurrencia P (j) = pj , estas probabilidades se
conocen también como probabilidades a priori .

10
1.6 Valor esperado de la información experimental

Resultados del estudio (E): Son los posibles resultados del experimento o mues-
treo k ∈ E, como se indicó previamente se conocen además las probabilidades
P (k|j), ∀k, ∀j, que denotan la confiabilidad histórica del estudio.

A partir de los datos conocidos es posible calcular las probabilidades de cada uno
de los resultados del experimento haciendo uso de la teoría de las probabilidades,
especialmente de lo que se conoce como probabilidad de una partición, así:


P (k) = P (k|j)pj (1.11)
j∈S

Las probabilidades de cada resultado junto las probabilidades condicionales de


cada par resultado-evento permiten calcular las probabilidades a posteriori de cada
evento, de acuerdo con el teorema de Bayes.

P (k|j)pj
P (j|k) = � (1.12)
P (k|�)p�
�∈S

A partir de un árbol de decisión es posible determinar el Valor esperado con in-


formación muestral (V EIM ).

Ahora, el valor esperado de la información experimental (V EE) será igual a la


diferencia entre el valor esperado con información muestral o experimental y el
valor esperado calculado con las probabilidades a priori (V E), y será el máximo
valor que se justificaría pagar por el experimento.

V EE = V EIM − V E (1.13)

Ejemplo 1.6.1 (Problema de decisión) El problema de decisión median-


te diferentes criterios

/*******************************************************************
* Algunos criterios de teoría de decisiones implementados en GLPK *
*******************************************************************/

set A; #Alternativas
set S; #Estados de la naturaleza
11
Capítulo 1. Análisis de decisiones

param R{i in A, j in S}; #Matriz de recompensas


param P{j in S}; #Probabilidades a priori para cada uno de los estados
param alpha default 0.3; #Coeficiente de pesimismo (para el criterio de Hurwicz)

#Citerio Maximin
param MinF{i in A}:= min{j in S} R[i,j]; #Mínima recompensa para la alternativa i
param Maximin:= max{i in A} MinF[i]; #Máximo de los mínimos

#Criterio Maximax
param MaxF{i in A}:= max{j in S} R[i,j]; #Máxima recompensa para la alternativa i
param Maximax:= max{i in A} MaxF[i]; #Máximo de los máximos

#Criterio de Hurwicz
param Hurwicz{i in A}:= alpha*MinF[i] +(1-alpha)*MaxF[i];
param MaxHurw:= max{i in A} Hurwicz[i];

#Criterio de Bayes (Laplace)


param Bayes{i in A}:= (1/card(S))*sum{j in S}R[i,j];
param MaxBayes:= max{i in A} Bayes[i];

#Criterio del valor esperado, VECIP y VEIP


param VEsp{i in A}:= sum{j in S} P[j]*R[i,j];
param VE:=max{i in A} VEsp[i];
param MaxC{j in S}:= max{i in A} R[i,j];
param VECIP:= sum{j in S} P[j]*MaxC[j];
param VEIP:= VECIP-VE;

#Criterio de Savage
param Savage{i in A, j in S}:= MaxC[j]-R[i,j];
param MaxFS{i in A}:= max{j in S} Savage[i,j];
param MiniMaxS:= min{i in A} MaxF[i];
param VEspS{i in A}:= sum{j in S} P[j]*Savage[i,j];
param VESavage:= min{i in A} VEspS[i];

solve;
printf ’Criterio Maximin... ’;
display MinF;
display Maximin;
printf ’La alternativa seleccionada es’
display MaxF;
display Maximax;
display Hurwicz;
display MaxHurw;
display Bayes;
12
1.6 Valor esperado de la información experimental

display MaxBayes;
display VEsp;
display VE;
display VECIP;
display VEIP;
display MaxC;
display Savage;
display MaxFS;
display MiniMaxS;
display VEspS;
display VESavage;

data;

set A:= a b c d;
set S:= 1 2 3 4;
param R: 1 2 3 4:=
a -5 -10 -18 -25
b -8 -7 -8 -23
c -21 -18 -12 -21
d -30 -22 -19 -15;

param P:= 1 0.2


2 0.1
3 0.5
4 0.2;

end;

Criterio Maximin... Display statement at line 45


MinF[a] = -25
MinF[b] = -23
MinF[c] = -21
MinF[d] = -30
Display statement at line 46
Maximin = -21
Criterio MaxiMax... Display statement at line 51
MaxF[a] = -5
MaxF[b] = -7
MaxF[c] = -12
MaxF[d] = -15
Display statement at line 52
Maximax = -5
Criterio de Hurwicz... Display statement at line 54
13
Capítulo 1. Análisis de decisiones

Hurwicz[a] = -11
Hurwicz[b] = -11.8
Hurwicz[c] = -14.7
Hurwicz[d] = -19.5
Display statement at line 55
MaxHurw = -11
Criterio de Bayes (Laplace)... Display statement at line 57
Bayes[a] = -14.5
Bayes[b] = -11.5
Bayes[c] = -18
Bayes[d] = -21.5
Display statement at line 58
MaxBayes = -11.5
Criterio del valor esperado... Display statement at line 60
VEsp[a] = -16
VEsp[b] = -10.9
VEsp[c] = -16.2
VEsp[d] = -20.7
Display statement at line 61
VE = -10.9
Valor esperado de la información perfecta... Display statement at line 63
VECIP = -8.7
Display statement at line 64
VEIP = 2.2
Display statement at line 65
MaxC[1] = -5
MaxC[2] = -7
MaxC[3] = -8
MaxC[4] = -15
Criterio de pérdida MiniMax (Savage)... Display statement at line 67
Savage[a,1] = 0
Savage[a,2] = 3
Savage[a,3] = 10
Savage[a,4] = 10
Savage[b,1] = 3
Savage[b,2] = 0
Savage[b,3] = 0
Savage[b,4] = 8
Savage[c,1] = 16
Savage[c,2] = 11
Savage[c,3] = 4
Savage[c,4] = 6
Savage[d,1] = 25
Savage[d,2] = 15
14
1.7 Teoría de la utilidad

Savage[d,3] = 11
Savage[d,4] = 0
Display statement at line 68
MaxFS[a] = 10
MaxFS[b] = 8
MaxFS[c] = 16
MaxFS[d] = 25
Display statement at line 69
MiniMaxS = 8
Display statement at line 70
VEspS[a] = 7.3
VEspS[b] = 2.2
VEspS[c] = 7.5
VEspS[d] = 12
Display statement at line 71
VESAvage = 2.2
Model has been successfully processed

1.7 Teoría de la utilidad

Debido a las críticas que tiene el criterio del valor esperado, entre las cuales están:

El resultado real es desconocido, pues en realidad el valor esperado es un


valor promedio que representaría el comportamiento del sistema en el largo
plazo.

Dos problemas de decisión pueden presentar el mismo valor esperado pero


tener diferente elegibilidad. Por ejemplo, una apuesta en la cual se lanza una
moneda y si sale cara se obtiene $1000000 y si cae sello se pagan $1000000,
y una apuesta en la que si cae cara se ganan $500 y si cae sello se pagan
$500; si la moneda y el lanzamiento son legales las dos apuestas presentan
el mismo valor esperado, pero el decisor podría inclinarse más hacia una
apuesta determinada.

Los resultados posibles podrían generar efectos realmente dramáticos para


el decisor (la compañía) en virtud de su magnitud.

La Teoría de la utilidad surge como una alternativa para tener en cuenta tanto la
magnitud relativa de los pagos como su valor esperado. Es común que el decisor
no esté dispuesto a utilizar la teoría del valor esperado como criterio único porque
algunos de los pagos posibles afectaría dramáticamente el futuro de su negocio y
por lo tanto busque tener en cuenta otros factores.
15
Capítulo 1. Análisis de decisiones

Von Neumman - Morgenstern propusieron una función de utilidad como auxiliar


para la toma de decisiones bajo incertidumbre.

Considerando una lotería como una situación en la cual una persona recibe para
cada i = 1, 2, . . . , n una recompensa ri con probabilidad pi , que se denota como
una lotería (p1 , r1 ; p2 , r2 ; . . . ; pn , rn ). Tal lotería puede representarse como un árbol
de probabilidad en el que a cada rama se asigna la probabilidad de su resultado
posible, el cual se coloca al final de la misma.

El uso de boletos de lotería equivalentes para cada pago o recompensa permite


utilizar este tipo de teoría. Es de anotar que los valores de la utilidad o probabilidad
asociados a cada pago equivalente son subjetivos y atemporales, es decir que varían
de un decisor a otro y de un momento en el tiempo a otro conforme cambian las
condiciones del decisor.

Para determinar los valores de las probabilidades asociadas a los pagos, se procede
primero a dar un valor de probabilidad igual a uno (pi = 1) a la mejor recompensa
posible, y un valor de probabilidad de cero a la peor recompensa posible (p i = 0).
Los demás valores deben calcularse a partir de comparaciones subjetivas en las
cuales se consideran loterías equivalentes, al final todos los valores se terminan
expresando como loterías entre el mejor y el peor valor posibles. También es posible
evaluar un conjunto de puntos intermedios y construir una curva de utilidad para
determinar los restantes.

La especificación U (ri ) para una recompensa ri se conoce como la función de


utilidad del decisor, a partir de la enumeración de las utilidades (para todas las
recompensas posibles) es posible calcular la utilidad esperada:

n

E(U ) = pi U (ri ) (1.14)
i=1

1.7.1 Axiomas de Von Neumman Morgenstern


Von Neumman y Morgenstern demostraron que si las preferencias de una persona
satisfacen los siguientes axiomas, entonces debe elegir entre loterías usando el
criterio de la utilidad esperada.

Ordenación completa: para dos recompensas r1 y r2 uno de los siguientes


enunciados es cierto:

1. El decisor prefiere r1 a r2

2. El decisor prefiere r2 a r1
16
1.7 Teoría de la utilidad

3. El decisor es indiferente ante r1 y r2

Además, si prefiere r1 a r2 y r2 a r3 entonces prefiere r1 a r3 , es decir, existe


transitividad en las preferencias.

Continuidad: Si el decisor prefiere r1 a r2 y r2 a r3 entonces para alguna c,


(0 < c < 1), las loterías L1 = (1, r2 ) y L2 = (c, r1 ; 1 − c, r3 ) son equivalentes.

Independencia: suponiendo que el decisor no tiene preferencia entre r1 y r2 y


sea r3 cualquier otra recompensa. Entonces para cualquier valor c, 0 < c < 1,
las loterías L1 = (c, r1 ; 1 − c, r3 ) y L2 = (c, r2 ; 1 − c, r3 ), que sólo difieren en
que L1 tiene una probabilidad c de producir una recompensa r1 y L2 tiene
una probabilidad c de producir una recompensa r2 , el decisor toma el valor
c como idéntico en ambas loterías.

Probabilidad desigual: Si el decisor prefiere la recompensa r1 a la recompensa


r2 , para dos loterías con r1 y r2 como resultados posibles, el decisor prefiere
la lotería con mayor probabilidad de obtener r1 .

Lotería compuesta: Cuando se consideran todos los resultados posibles, una


lotería compuesta L produce para i = 1, 2, . . . , n una probabilidad pi de
obtener una recompensa ri L = (p1 , r1 ; p2 , r2 ; . . . ; pi , L� ; . . . ; pn , rn ) donde
L� = (p�1 , r1� ; p�2 , r2� ; . . . ; p�n , rn� ).

1.7.2 Estimación de la función de utilidad


Como se indicó previamente la función de utilidad puede construirse a partir de
los valores de los pagos para cada uno de los resultados posibles, de acuerdo con
el siguiente procedimiento:

1. Se determinan en primer lugar los pagos menor y mayor rmin y rmax con las
respectivas utilidades U (rmin ) = 0 y U (rmax ) = 1.

2. Se construye una lotería en la cual con probabilidad 0,5 se obtiene un pago de


rmin y con probabilidad 0,5 un pago de rmax , L = (0,5, rmin ; 0,5, rmax ) y se
determina un valor monetario, conocido como el equivalente de certidumbre
(EC(L)), para el que el decisor encuentra indifernte la lotería L. A este valor
r0,5 = EC(L) se asigna la utilidad de 0,5.

3. Posteriormente se repite el paso anterior con loterías similares para cada uno
de los dos intervalos definidos, obteniendo los valores r0,25 y r0,75 .

4. Con los puntos determinados se construye una curva suave en el plano x,


U (x), con la cual es posible hacer la correspondiente conversión de los pagos
en sus utilidades.
17
Capítulo 1. Análisis de decisiones

1.7.3 Propensión y adversión al riesgo


Cada decisor asume el riesgo de manera diferente, así unos son arriesgados mientras
que otros son cautelosos dependiendo de la forma en la cual asumen el riesgo en
sus decisiones.

Para interpretar la propensión o adversión al riesgo del decisor se tienen en cuenta


dos pagos x1 y x2 (puntos en el eje horizontal), y a partir de ellos se construye
una lotería L que con probabilidad p proporcionará x1 y con probabilidad 1 − p
proporcionará x2 , el valor esperado de esta lotería es V E(L) = (p)x1 + (1 − p)x2 .

Si se define además el premio de riesgo P R(L) de la lotería como la diferencia entre


su valor esperado y su equivalente de certidumbre. Esto es: P R(L) = V E(L) −
EC(L). Pueden obtenerse los siguientes comportamientos:

Adverso al riesgo: Se trata del decisor para quien cualquier lotería L presenta
un valor P R(L) > 0, en otras palabras U (x) es cóncava.

Neutral al riesgo: Es el decisor para quien cualquier lotería L presenta un valor


P R(L) = 0, en otras palabras U (x) es cóncava y convexa a la vez (línea
recta).

Propenso al riesgo: Es el decisor para quien cualquier lotería L presenta un


valor P R(L) < 0, en otras palabras U (x) es convexa.

Hacer gráfico en tikz

1.7.4 Utilidad exponencial


Como una forma de simplificar el proceso de construir curvas de utilidad, téorica-
mente se ha trabajado con una función de probabilidad exponencial que emplea
un solo parámetro, de la forma

−x
U (x) = 1 − e R (1.15)

en la cual x es un valor monetario, U (X) es la utilidad asociada a ese valor, y R


es un parámetro ajustable de tolerancia al riesgo. A medida que el parámetro R
aumenta, aumenta la propensión al riesgo del decisor.

Una manera de determinar el valor de R consiste en determinar el valor para el


cual las siguientes dos opciones son indiferentes:

1. No recibir pago alguno,


18
1.8 Proceso de decisión de jerarquía analítica (AHP)

2. Una lotería L en la cual se recibe un pago de R unidades monetarias con pro-


babilidad 0,5 o se pierde R/2 con una probabilidad de 0,5, L = (0,5, R; 0,5, −R/2).

Estudios estadísticos analizados por Howard (1992) han determinado que en pro-
medio, para las empresas, R puede determinarse a partir de los indicadores finan-
cieros ventas netas, ingreso neto o recursos propios, así: R es aproximadamente
igual al 6,4 % de las ventas netas, 124 % del ingreso neto o 15,7 % de los recursos.

1.8 Proceso de decisión de jerarquía analítica (AHP)

El proceso de decisión de jerarquía analítica es sólo una de las múltiples técnicas


para la toma de decisiones multiatributos o multicriterio. Hasta ahora todos los
criterios y técnicas ilustradas para la toma de decisiones obedecían a la búsqueda
del máximo beneficio en términos económicos. Sin embargo, muchas de las decisio-
nes que debemos tomar implican diferentes objetivos y las alternativas disponibles
satisfacen de manera diferente esos objetivos. Por ejemplo, cuando estamos com-
prando un vehículo vamos a decidir entre el tipo de vehículo, el color, el consumo
de combustible, las emisiones contaminantes y el confort que representa su uso,
entre otras características.

Por tratarse de un problema en el cual se tienen varios objetivos y varias alterna-


tivas, es posible caracterizar el problema teniendo en cuenta dos conjuntos:

I: Objetivos a tener en cuenta en la decisión,

J: Alternativas a evaluar (para la satisfacción de los diferentes objetivos)

Para llevar a cabo la decisión se debe determinar un peso relativo (ponderación)


ωi para cada uno de los objetivos, de modo que:


ωi = 1,
i∈I

y una matriz de evaluación M en la cual cada elemento mi,j representa la evalua-


ción del criterio i para la alternativa j.

La evaluación se lleva a cabo calculando el puntaje ponderado Pj para cada una


de las alternativas, así:

Pj = mi,j ωi ∀j.
i∈I

19
Capítulo 1. Análisis de decisiones

1.8.1 Procedimiento de ponderación


La ponderación de los n objetivos tiene lugar tras la construcción de una matriz
cuadrada de n × n de comparación por pares en la cual tanto las filas como las
columnas representan los objetivos, la matriz se construye colocando en cada celda
la valoración cuantitativa de la importancia del elemento de la fila con respecto
al de la columna, teniendo en cuenta que 1 representa que los objetivos poseen la
misma importancia, y 9 significa que es absolutamente más importante, valores
intermedios representan un grado de importancia intermedio.

Es importante tener en cuenta que cuando se compara un objetivo con sí mismo la


valoración deberá ser uno, esto es un objetivo es igual de importante a sí mismo.
Además, para que exista consistencia en la evaluación es posible afirmar que si un
elemento de la matriz tiene una valoración ai,j , con i �= j, entonces el elemento
1
aj,i = ai,j , lo que implica que si el objetivo i es más importante que el objetivo
j, el objetivo j es menos importante que el objetivo i en la misma proporción.
Por lo expuesto, una vez se ha completado la valoración de la importancia de
i con respecto a j, la valoración de j con respecto a i se llenará con el inverso
multiplicativo de tal valoración, tal procedimiento se repetirá hasta completar
todas las valoraciones.

Una vez se ha construido la matriz esta debe normalizarse, dividiendo cada uno de
sus términos entre la sumatoria de los términos de la columna a la que pertenecen,
como se indica en ecuación 1.16. Cada columna de la matriz normalizada sumará
1.

ai,j
āi,j = � (1.16)
ak,j
k∈I

Los pesos relativos para cada objetivo se obtienen promediando los valores de la
matriz normalizada para cada fila como se muestra en ecuación 1.17

1�
ωi = āi,j (1.17)
n
j∈I

Para verificar la consistencia de la ponderación se tiene en cuenta la siguiente


relación

b = Aω = Δω (1.18)
20
1.8 Proceso de decisión de jerarquía analítica (AHP)

El sistema de ecuaciones 1.18 tiene solución no trivial para Δ = n por lo cual el


procedimiento que se muestra permite verificarlo:

1. Calcular el vector b

2. Calcular el índice de consistencia IC

� �
� bi
1
n −n
ωi
i∈I
IC =
n−1

3. Compare el IC con el índice aleatorio IA de la siguiente forma:


IC
< 0,1 Consistencia satisfactoria
IA (1.19)
IC
IA > 0,1 No hay consistencia satisfactoria

Los valores del Índice de Consistencia Aleatorio para los diferentes n, obtenidos
mediante la simulación de 100.000 matrices (Aguarón y Moreno-Jiménez, 2001),
citado por Moreno Jimenez se presentan en la tabla 1.3.

Tabla 1.3: Índice de Consistencia Aleatorio

n 3 4 5 6 7 8 9 10 11 12
IA 0,525 0,882 1,115 1,252 1,341 1,404 1,452 1,484 1,513 1,535
Fuente: (Aguarón y Moreno-Jiménez, 2001)

1.8.2 Valoración de las alternativas


Una vez se han determinado las correspondientes ponderaciones se procede de
forma similar para establecer la valoración de cada una de las alternativas para
cada uno de los objetivos, ecuación 1.16 y ecuación 1.17. En este caso el vector
resultante a la ponderación corresponde a la valoración del criterio para cada una
de las alternativas, y una vez transpuesto hará parte de la matriz de evaluación M
considerada en el establecimiento de los puntajes para cada criterio y alternativa
referidos.

21
Capítulo 1. Análisis de decisiones

1.8.3 Implementación de los cálculos en GLPK


Con el fin de empezar a utilizar el software GLPK se muestra la implementación
de los cálculos correspondientes haciendo uso de ese software.

/*****************************************************
* Proceso de decisión por jerarquía analítica (AHP) *
*****************************************************/

set I; #Criterios
set J; #Alternativas

param A{i in I, j in I};


#Matriz de valoración de los criterios

param Val{i in I, j in J, l in J};


#Matrices de calificación para cada criterio

param NormA{i in I, j in I}:= A[i,j]/(sum{k in I} A[k,j]);


#Normalización de la matriz A

param Omega{i in I}:= (1/card(I))*sum{j in I} NormA[i,j];


#Ponderación de los criterios

param NormVal{i in I, j in J, l in J}:= Val[i,j,l]/(sum{k in J} Val[i,k,l]);


#Normalización de las calificaciones

param M{i in I, j in J}:=(1/card(J))*sum{k in J} NormVal[i,j,k];


#Valoración de las alternativas para los diferentes criterios

param Cal{j in J}:=sum{i in I} Omega[i]*M[i,j];


#Calificación de las alternativas

solve;
/*********************************************************************
* Las declaraciones "display" muestran los diferentes resultados. *
* Se selecciona la alternativa cuya calificación "Cal" sea la mejor *
*********************************************************************/

display NormA;
display Omega;
display NormVal;
display M;
display Cal;

data; #Datos para el ejercicio de Woody en Winston


set I:= Bell Intl Pers;
set J:= Jf Br Ma;

param A: Bell Intl Pers:=


Bell 1 3 5
Intl 0.333 1 3
Pers 0.200 0.333 1;

22
1.8 Proceso de decisión de jerarquía analítica (AHP)

param Val:=
[Bell,*,*]:Jf Br Ma:=
Jf 1 5 3
Br 0.2 1 0.5
Ma 0.333 2 1
[Intl,*,*]:Jf Br Ma:=
Jf 1 0.166 0.25
Br 6 1 2
Ma 4 0.5 1
[Pers,*,*]:Jf Br Ma:=
Jf 1 4 0.25
Br 0.25 1 0.111
Ma 4 9 1;

23

También podría gustarte