Documentos de Académico
Documentos de Profesional
Documentos de Cultura
AnalisisDecisionesPresentacion 1123323 PDF
AnalisisDecisionesPresentacion 1123323 PDF
Abril de 2020
Análisis de decisiones
Contexto
En la vida y particularmente en la gestión nos vemos enfrentados
permanentemente a la toma de decisiones. Existen decisiones que
se toman en condiciones de certidumbre como la cantidad de cierta
materia prima a comprar para producir un lote de producto de un
tamaño determinado, pero también hay decisiones en las cuales se
desconoce lo que va a pasar, como sucede al diseñar una planta de
producción para un producto nuevo. En este último ejemplo el
tamaño y las caracterı́sticas de la planta dependen del éxito del
producto y la demanda futura, las cuales son inciertas
Análisis de decisiones
Toma de decisiones
Fundamentos Metodologı́a para la toma de decisiones basada en:
1 Probabilidad y estadı́stica
2 Aplicación de criterios fundamentados en las posibles
consecuencias de las acciones determinada.
Teorı́a de la decisión Forma en que deben tomarse las decisiones (acciones)
antes de que ocurran los eventos (hechos de la naturaleza).
Ejemplo cotidianos
Llevar o no un paraguas cuando se sale de casa y no está lloviendo,Llevar o no
un libro cuando vamos a hacer uso de un servicio en el cual comúnmente
debemos esperar para ser atendidos, Tomar o no un taxi cuando acudimos a
una cita, etc.,
Bajo Certidumbre
Se conoce lo que va a pasar, uso de modelos determinı́sticos, como los de
planeación de la producción. El comportamiento del sistema es explicable
Bajo Riesgo
No se tiene certeza absoluta de lo que va a ocurrir, pero se tienen estimaciones
de probabilidad para los diferentes resultados posibles, se conocen eventos y
estimaciones de su probabilidad de ocurrencia.
Bajo incertidumbre
Es posible enumerar los hechos de la naturaleza o eventos que pueden ocurrir,
pero se desconoce totalmente la probabilidad de ocurrencia de cada uno de
esos hechos.
Recompensas o pagos
Es posible construir una valoración numérica del beneficio para cada par evento
acción ri,j , con lo cual se constituye la llamada tabla o matriz de recompensas
o de pagos.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)
Matriz de pagos
Criterios de decisión
Acciones dominadas
Una acción i es dominada por otra acción i 0 cuando para todo
j ∈ S, ri,j ≤ ri 0 ,j , y para algún estado j 0 , ri,j 0 < ri 0 ,j 0 .
La acción i en ningún estado j será mejor que i 0 , por lo que no
habrı́a ninguna razón para elegirla.
Criterios de decisión
MaxiMin
Determinar el peor resultado para cada acción y elegir la acción
que proporcione el mejor de los peores resultados.
Elegir para cada acción ai el valor mı́nj∈S ri,j , y de ellos escoger
aquella acción cuyo valor sea el más grande
máx mı́n{ri,j } (1)
ai ∈A j∈S
Criterios de decisión
MaxiMax
Determinar el mejor resultado para cada acción y elegir aquella que
proporcione el mejor de los mejores resultados.
Elegir para cada acción ai el valor máxj∈S ri,j y de ellos escoger
aquella cuyo valor sea el más grande.
máx máx{ri,j } (2)
i∈A j∈S
Criterios de decisión
Criterios de decisión
De Bayes (Laplace)
Probabilidades iguales para lo desconocido. Ante la carencia de
información se asignan probabilidades iguales a todos los eventos y
se adopta aquella que proporcione el pago promedio más alto.
Considera todos los pagos en lugar de únicamente los extremos.
1 X
máx ri,j (4)
i∈A n
j∈S
Criterios de decisión
Arrepentimiento o pérdida de oportunidad (Savage)
Se basa en una matriz diferente, basada en la matriz de recompensas
Se elige la mejor recompensa posible para cada estado y se le resta a cada
columna de la matriz de recompensas original.
La nueva matriz indica lo que se hubiese perdido (con respecto al mejor valor
posible) si ocurre el evento j cuando se toma la acción i.
Se construye de acuerdo con:
Criterios de decisión
Nivel de aceptación
No proporciona decisiones óptimas en lo que respecta a la maximización
del beneficio o la minimización del coste, sino condiciones aceptables en
un proceso de decisión.
Cuando se vende un bien es posible establecer un valor mı́nimo ante el
cual no venderı́amos dicho bien y en consecuencia aceptarı́amos cualquier
valor por encima de ese mı́nimo.
No se requiere un conocimiento preciso de la distribución de probabilidad
de los precios asociados al bien en venta, pero si un conocimiento del
mercado que evite colocar un precio tan alto como para que no se venda
o tan bajo como para que no proporcione ningún beneficio.
Este tipo de análisis puede aplicarse para fijación de los niveles de servicio
o de aceptación propios de los procesos de manufactura.
Criterios de decisión
Estrategias mixtas
Elección de un curso de acción con la ayuda del azar (una moneda, un dado,
etc), el decisor estima el beneficio esperado de cualquier estrategia mixta.
Un ejemplo de estrategia mixta con dos alternativas a1 y a2 , y probabilidades
α1 y α2 (con α1 + α2 = 1), es que puede incluirse la estrategia mixta a3 cuyas
recompensas son el promedio ponderado de los pagos de cada alternativa, ası́
para cada estado j el pago será r3,j = α1 r1,j + α2 r2,j .
1 2 3
a1 r1,1 r1,2 r1,3
a2 r2,1 r2,2 r2,3
a3 αr1,1 + (1 − α)r2,1 αr1,2 + (1 − α)r2,2 αr1,3 + (1 − α)r2,3
Criterios de decisión
Estrategias mixtas
Variando las probabilidades α cambian las recompensas esperadas, y es posible
determinar con que probabilidades la estrategia mixta proporciona el valor más
alto del maximin o el más bajo de la pérdida minimax. Esas probabilidades
constituyen una estrategia mixta óptima, lo cual podrı́a ser deseable para quien
toma las decisiones.
En el ejemplo, con un valor α = 0,5, puede dejarse la decisión a una moneda.
Esta estrategia es conveniente pues el criterio maximin es el de un decisor
tı́mido, que siempre teme que su opositor (la naturaleza u otro jugador)
siempre le adivine primero y le gane, lo cual lo lleva a descartar todo excepto el
resultado menos favorable de cualquier escogencia de estrategia pura. El azar le
da la seguridad de que nadie le saldrá adelante y esas posibilidades que habı́a
descartado se convierten en alternativas reales. El valor de seguridad más alto
de una estrategia mixta es como una reflexión sutil del hecho de que una
estrategia mixta puede evitar que el jugador oponente prediga su decisión.
Criterios de decisión
Criterios de decisión
Valor esperado
Es el promedio que se obtiene en el largo plazo para una distribución
determinada. No debe ser el único criterio, sirviendo de guı́a para la decisión
final.
Seleccionar la acción con mayor recompensa esperada (o menor pérdida
esperada)
Matemáticamente... si para una variable aleatoria x con valor esperado E (x) y
varianza σ 2 , se obtiene una muestra de tamaño n, esta serı́a (x1 , x2 , . . . , xn ), su
2
promedio x̄ = n1 ni=1 xi , y su varianza σn . Cuando n → ∞ la varianza tiende a
P
cero y x̄ = E (x), por lo cual el valor esperado para comparar alternativas es
conveniente cuando el procedimiento se repita un número grande de veces.
X
máx pj ri,j (7)
ai ∈A
j∈S
Criterios de decisión
Árboles de decisión
Tipos de nodos
Nodo de decisión, el cual se representa con un cuadrado y,
Nodo de incertidumbre, que se representa con un cı́rculo
Árboles de decisión
Construcción del árbol (De izquierda a derecha)
Nodo de decisión inicial, de él se desprende una rama por cada acción
posible, esta lleva un nodo de incertidumbre al final.
De cada nodo de incertidumbre se desprende rama (con una probabilidad
asociada) por cada posible estado de la naturaleza.
Al final de las ramas de los estados pueden colocarse nuevos nodos de
decisión o los valores de la recompensa asociados.
Estrategia
Es el curso de acción para cada resultado muestral, el problema
aquı́ es la selección de la mejor estrategia, que en últimas será
determinar la mejor acción para cada resultado posible de la
muestra.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)
Probabilidades a posteriori
Acciones (A): Conjunto de acciones posibles ai ∈ A de las cuales se puede
seleccionar sólo una.
Eventos (S): Estados de la naturaleza j ∈ S posibles, de los que se conoce su
probabilidad de ocurrencia P(j) = pj , (probabilidades a priori).
Resultados del estudio (E ): Posibles resultados del experimento o muestreo
k ∈ E , se conocen además las probabilidades P(k|j), ∀k, ∀j,
que denotan la confiabilidad histórica del estudio.
Probabilidad conjunta
Árbol de decisión
Permite determinar el Valor esperado con información muestral (VEIM).
Valor esperado de la información experimental (VEE ) es igual a la diferencia
entre el valor esperado con información muestral o experimental y el valor
esperado calculado con las probabilidades a priori (VE ), y será el máximo valor
que se justificarı́a pagar por el experimento.
set A; #Alternativas
set S; #Estados de la naturaleza
param R{i in A, j in S}; #Matriz de recompensas
param P{j in S}; #Probabilidades a priori para cada uno de
#los estados
param alpha default 0.3; #Coeficiente de pesimismo (para el criterio
#de Hurwicz)
#Citerio Maximin
param MinF{i in A}:= min{j in S} R[i,j]; #Mı́nima recompensa para la
#alternativa i
param Maximin:= max{i in A} MinF[i]; #Máximo de los mı́nimos
#Criterio Maximax
param MaxF{i in A}:= max{j in S} R[i,j]; #Máxima recompensa para la
#alternativa i
param Maximax:= max{i in A} MaxF[i]; #Máximo de los máximos
#Criterio de Hurwicz
param Hurwicz{i in A}:= alpha*MinF[i] +(1-alpha)*MaxF[i];
param MaxHurw:= max{i in A} Hurwicz[i];
#Criterio del valor esperado, VECIP y VEIP
param VEsp{i in A}:= sum{j in S} P[j]*R[i,j];
param VE:=max{i in A} VEsp[i];
param MaxC{j in S}:= max{i in A} R[i,j];
param VECIP:= sum{j in S} P[j]*MaxC[j];
param VEIP:= VECIP-VE;
#Criterio de Savage
param Savage{i in A, j in S}:= MaxC[j]-R[i,j];
param MaxFS{i in A}:= max{j in S} Savage[i,j];
param MiniMaxS:= min{i in A} MaxF[i];
param VEspS{i in A}:= sum{j in S} P[j]*Savage[i,j];
param VESavage:= min{i in A} VEspS[i];
solve;
printf ’Criterio Maximin... ’;
display MinF, Maximin;
printf ’La alternativa seleccionada es’
display MaxF, Maximax;
display Hurwicz, MaxHurw;
display Bayes, MaxBayes;
display VEsp, VE;
display VECIP, VEIP;
display MaxC, Savage, MaxFS, MiniMaxS;
display VEspS, VESavage;
data;
set A:= a b c d;
set S:= 1 2 3 4;
param R: 1 2 3 4:=
a -5 -10 -18 -25
b -8 -7 -8 -23
c -21 -18 -12 -21
d -30 -22 -19 -15;
param P:= 1 0.2
2 0.1
3 0.5
4 0.2;
end;
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)
VEIP = 2.2
Display statement at line 65
MaxC[1] = -5
MaxC[2] = -7
MaxC[3] = -8
MaxC[4] = -15
Criterio de pérdida MiniMax (Savage)... Display statement at line 67
Savage[a,1] = 0
Savage[a,2] = 3
Savage[a,3] = 10
Savage[a,4] = 10
Savage[b,1] = 3
Savage[b,2] = 0
Savage[b,3] = 0
Savage[b,4] = 8
Savage[c,1] = 16
Savage[c,2] = 11
Savage[c,3] = 4
Savage[c,4] = 6
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)
Savage[d,1] = 25
Savage[d,2] = 15
Savage[d,3] = 11
Savage[d,4] = 0
Display statement at line 68
MaxFS[a] = 10
MaxFS[b] = 8
MaxFS[c] = 16
MaxFS[d] = 25
Display statement at line 69
MiniMaxS = 8
Display statement at line 70
VEspS[a] = 7.3
VEspS[b] = 2.2
VEspS[c] = 7.5
VEspS[d] = 12
Display statement at line 71
VESAvage = 2.2
Model has been successfully processed
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)
Teorı́a de la utilidad
Crı́ticas al valor esperado..
El resultado real es desconocido, el valor esperado es un
promedio que representa el comportamiento en el largo plazo.
Dos problemas de decisión con el mismo valor esperado
pueden tener diferente elegibilidad.
1 Apuesta en la que si cae cara se ganan $500 y si cae sello se
pagan $500
2 Apuesta en la cual se lanza una moneda y si sale cara se
obtiene $1000000 y si cae sello se pagan $1000000
Si moneda y lanzamiento son legales ⇒ mismo valor
esperado, pero diferente preferencia.
Los resultados posibles podrı́an generar efectos dramáticos
para el decisor (la compañı́a) en virtud de su magnitud.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)
Teorı́a de la utilidad
Caracterı́sticas
Alternativa para considerar la magnitud relativa de los pagos y su valor
esperado. (algunos de los pagos posibles afectarı́an dramáticamente el
futuro del negocio).
Función de utilidad como auxiliar para la toma de decisiones (Von
Neumman - Morgenstern)
Loterı́a: es una situación en la cual una persona recibe para cada
i = 1, 2, . . . , n una recompensa ri con probabilidad pi , que se denota
como una loterı́a (p1 , r1 ; p2 , r2 ; . . . ; pn , rn ). Puede representarse como un
árbol de probabilidad en el que a cada rama se asigna la probabilidad de
su resultado posible, que se coloca al final de la misma.
El uso de boletos de loterı́a equivalentes para cada pago o recompensa
permite utilizar este tipo de teorı́a. Los valores de la utilidad o
probabilidad asociados a cada pago equivalente son subjetivos y
atemporales.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)
Teorı́a de la utilidad
Axiomas de Von Neumman y Morgenstern
Ordenación completa
Para dos recompensas r1 y r2 uno de los siguientes enunciados es cierto:
1 El decisor prefiere r1 a r2
2 El decisor prefiere r2 a r1
3 El decisor es indiferente ante r1 y r2
Además, si prefiere r1 a r2 y r2 a r3 entonces prefiere r1 a r3 , es decir, existe
transitividad en las preferencias.
Continuidad
Si el decisor prefiere r1 a r2 y r2 a r3 entonces para alguna c, (0 < c < 1), las
loterı́as L1 = (1, r2 ) y L2 = (c, r1 ; 1 − c, r3 ) son equivalentes.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)
Teorı́a de la utilidad
Axiomas de Von Neumman y Morgenstern
Independencia
Si el decisor no tiene preferencia entre r1 y r2 y sea r3 cualquier otra
recompensa. Entonces para cualquier valor c, 0 < c < 1, las loterı́as
L1 = (c, r1 ; 1 − c, r3 ) y L2 = (c, r2 ; 1 − c, r3 ), que sólo difieren en que L1 tiene
una probabilidad c de producir una recompensa r1 y L2 tiene una probabilidad
c de producir una recompensa r2 , el decisor toma el valor c como idéntico en
ambas loterı́as.
Probabilidad desigual
Si el decisor prefiere la recompensa r1 a la recompensa r2 , para dos loterı́as con
r1 y r2 como resultados posibles, el decisor prefiere la loterı́a con mayor
probabilidad de obtener r1 .
Teorı́a de la utilidad
Loterı́a compuesta
Cuando se consideran todos los resultados posibles, una loterı́a compuesta L
produce para i = 1, 2, . . . , n una probabilidad pi de obtener una recompensa ri
L = (p1 , r1 ; p2 , r2 ; . . . ; pi , L0 ; . . . ; pn , rn ) donde L0 = (p10 , r10 ; p20 , r20 ; . . . ; pn0 , rn0 ).
Teorı́a de la utilidad
Estimación de la función de utilidad
La función de utilidad puede construirse a partir de los valores de los pagos
para cada uno de los resultados posibles, ası́:
1 Se determinan los pagos menor y mayor rmin y rmax con las respectivas
utilidades U(rmin ) = 0 y U(rmax ) = 1.
2 Se construye una loterı́a en la que con probabilidad 0,5 se obtiene un
pago de rmin y con probabilidad 0,5 un pago de rmax ,
L = (0,5, rmin ; 0,5, rmax ) y se determina un valor monetario, equivalente de
certidumbre (EC (L)), para el que la loterı́a L es indiferente para el
decisor. A este valor r0,5 = EC (L) se asigna la utilidad de 0,5.
3 Se repite el paso anterior con loterı́as similares para cada uno de los dos
intervalos definidos, obteniendo los valores r0,25 y r0,75 .
4 Con los puntos determinados se construye una curva suave en el plano x,
U(x) con la cual se puede convertir de los pagos en sus utilidades.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)
Teorı́a de la utilidad
Propensión y adversión al riesgo
Riesgo de manera diferente para cada decisor, arriesgados o cautelosos
Si se tienen en cuenta dos pagos x1 y x2 (puntos en el eje horizontal), y a partir
de ellos se construye una loterı́a L que con probabilidad p proporciona x1 y con
probabilidad 1 − p proporciona x2 , el valor esperado de esta loterı́a es
VE (L) = (p)x1 + (1 − p)x2 .
El premio de riesgo PR(L) de una loterı́a es la diferencia entre su valor
esperado y su equivalente de certidumbre, esto es: PR(L) = VE (L) − EC (L),
puede obtenerse:
Adverso al riesgo: Para él cualquier loterı́a L presenta un valor PR(L) > 0, en
otras palabras U(x) es cóncava.
Neutral al riesgo: Para él cualquier loterı́a L presenta un valor PR(L) = 0, en
otras palabras U(x) es cóncava y convexa a la vez (lı́nea recta).
Propenso al riesgo: Para él cualquier loterı́a L presenta un valor PR(L) < 0,
en otras palabras U(x) es convexa.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)
Teorı́a de utilidad
Utilidad exponencial
Una función de probabilidad exponencial facilita su construcción
−x
U(x) = 1 − e R (15)
Conjuntos
Por tratarse de un problema en el cual se tienen varios objetivos y varias
alternativas, es posible caracterizar el problema teniendo en cuenta dos
conjuntos:
I : Objetivos a tener en cuenta en la decisión,
J: Alternativas a evaluar (para la satisfacción de los diferentes
objetivos)
Matriz de evaluación M
Donde mi,j es la evaluación del criterio i para la alternativa j.
Los pesos
Xrelativos de los objetivos son los promedios para cada fila
ωi = n1 āi,j
j∈I
b = Aω = ∆ω (18)
Los valores del Índice de Consistencia Aleatorio para los diferentes n, obtenidos
mediante la simulación de 100.000 matrices (Aguarón y Moreno-Jiménez,
2001), citado por Moreno Jimenez se presentan en la 1.
/*****************************************************
* Proceso de decisión por jerarquı́a analı́tica (AHP) *
*****************************************************/
set I; #Criterios
set J; #Alternativas
solve;
/*********************************************************************
* Las declaraciones "display" muestran los diferentes resultados. *
* Se selecciona la alternativa cuya calificación "Cal" sea la mejor *
*********************************************************************/
display NormA;
display Omega;
display NVal;
display M;
display Cal;
param Val:=
[Bell,*,*]:Jf Br Ma:=
Jf 1 5 3
Br 0.2 1 0.5
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)
Ma 0.333 2 1
[Intl,*,*]:Jf Br Ma:=
Jf 1 0.166 0.25
Br 6 1 2
Ma 4 0.5 1
[Pers,*,*]:Jf Br Ma:=
Jf 1 4 0.25
Br 0.25 1 0.111
Ma 4 9 1;