Está en la página 1de 52

Análisis de decisiones

Valor esperado de la información perfecta


Árboles de decisión
Valor esperado de la información experimental
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Modelos Estocásticos (SM)

Javier Parra Peña1


1 Ingenierı́a de Producción por Ciclos

Abril de 2020

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Análisis de decisiones

Contexto
En la vida y particularmente en la gestión nos vemos enfrentados
permanentemente a la toma de decisiones. Existen decisiones que
se toman en condiciones de certidumbre como la cantidad de cierta
materia prima a comprar para producir un lote de producto de un
tamaño determinado, pero también hay decisiones en las cuales se
desconoce lo que va a pasar, como sucede al diseñar una planta de
producción para un producto nuevo. En este último ejemplo el
tamaño y las caracterı́sticas de la planta dependen del éxito del
producto y la demanda futura, las cuales son inciertas

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Análisis de decisiones

Toma de decisiones
Fundamentos Metodologı́a para la toma de decisiones basada en:
1 Probabilidad y estadı́stica
2 Aplicación de criterios fundamentados en las posibles
consecuencias de las acciones determinada.
Teorı́a de la decisión Forma en que deben tomarse las decisiones (acciones)
antes de que ocurran los eventos (hechos de la naturaleza).

Ejemplo cotidianos
Llevar o no un paraguas cuando se sale de casa y no está lloviendo,Llevar o no
un libro cuando vamos a hacer uso de un servicio en el cual comúnmente
debemos esperar para ser atendidos, Tomar o no un taxi cuando acudimos a
una cita, etc.,

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Clases de modelos de decisión

Bajo Certidumbre
Se conoce lo que va a pasar, uso de modelos determinı́sticos, como los de
planeación de la producción. El comportamiento del sistema es explicable

Bajo Riesgo
No se tiene certeza absoluta de lo que va a ocurrir, pero se tienen estimaciones
de probabilidad para los diferentes resultados posibles, se conocen eventos y
estimaciones de su probabilidad de ocurrencia.

Bajo incertidumbre
Es posible enumerar los hechos de la naturaleza o eventos que pueden ocurrir,
pero se desconoce totalmente la probabilidad de ocurrencia de cada uno de
esos hechos.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Caracterı́sticas de los problemas de teorı́a de decisiones

Como puede inferirse de su nombre, un problema de decisión


obedece a la elección de una alternativa, de un conjunto de
posibles cursos de acción, con el objetivo de obtener el mejor
resultado posible.

Conjunto de acciones o alternativas A


el decisor conoce y de las cuales sólo puede seleccionar una, en adelante se
denomina ai ∈ A

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Caracterı́sticas de los problemas de teorı́a de decisiones


Conjunto de eventos o estados de la naturaleza S
Son las situaciones que se pueden presentar, y que al ocurrir determinan la
bondad o no de una decisión, estos eventos a los que denominaremos con el
ı́ndice j ∈ S se caracterizan por ser mutuamente excluyentes y colectivamente
exhaustivos, y porque cada uno posee una probabilidad de ocurrencia pj .
Con mutuamente excluyentes se hace referencia a que sólo se presenta uno a la
vez y por colectivamente exhaustivos al hecho de que la sumatoria de las
probabilidades de todos los estados es igual a uno.
X
pj = 1
j∈S

Recompensas o pagos
Es posible construir una valoración numérica del beneficio para cada par evento
acción ri,j , con lo cual se constituye la llamada tabla o matriz de recompensas
o de pagos.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Matriz de pagos

Matriz de recompensas o pagos


Eventos o hechos de la naturaleza
Alternativas 1 2 ... n-1 n
a1 r1,1 r1,2 ... r1,n−1 r1,n
a2 r2,1 r2,2 ... r2,n−1 r2,n
.. .. .. .. .. ..
. . . . . .
am−1 rm−1,1 rm−1,2 . . . rm−1,n−1 rm−1,n
am rm,1 rm,2 ... rm,n−1 rm,n

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

Criterios que representan puntos de vista ante el problema de


decisiones

Acciones dominadas
Una acción i es dominada por otra acción i 0 cuando para todo
j ∈ S, ri,j ≤ ri 0 ,j , y para algún estado j 0 , ri,j 0 < ri 0 ,j 0 .
La acción i en ningún estado j será mejor que i 0 , por lo que no
habrı́a ninguna razón para elegirla.

Buscar las acciones dominadas para descartarlas como alternativas


posibles

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

MaxiMin
Determinar el peor resultado para cada acción y elegir la acción
que proporcione el mejor de los peores resultados.
Elegir para cada acción ai el valor mı́nj∈S ri,j , y de ellos escoger
aquella acción cuyo valor sea el más grande
 
máx mı́n{ri,j } (1)
ai ∈A j∈S

Criterio pesimista, elección basada en los peores resultados.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

MaxiMax
Determinar el mejor resultado para cada acción y elegir aquella que
proporcione el mejor de los mejores resultados.
Elegir para cada acción ai el valor máxj∈S ri,j y de ellos escoger
aquella cuyo valor sea el más grande.
 
máx máx{ri,j } (2)
i∈A j∈S

Es un criterio optimista, que se basa en los mejores resultados.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

Alfa (α) de Hurwicz


Criterio alternativo: un promedio ponderado de los pagos mı́nimo y
máximo de cada alternativa, se da un peso de α al pago mı́nimo y
de 1 − α al pago máximo para cada acción posible, con 0 ≤ α ≤ 1.
Se selecciona la acción que proporciona la máxima recompensa
ponderada promedio. Considera dos pagos por cada alternativa, el
coeficiente α medida de optimismo, si es cercano a cero se
comporta de manera optimista y si es cercano a uno de manera
pesimista.
 
máx α mı́n{ri,j } + (1 − α) máx{ri,j } (3)
i∈A j∈S j∈S

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

De Bayes (Laplace)
Probabilidades iguales para lo desconocido. Ante la carencia de
información se asignan probabilidades iguales a todos los eventos y
se adopta aquella que proporcione el pago promedio más alto.
Considera todos los pagos en lugar de únicamente los extremos.
 
1 X 
máx ri,j (4)
i∈A  n 
j∈S

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión
Arrepentimiento o pérdida de oportunidad (Savage)
Se basa en una matriz diferente, basada en la matriz de recompensas
Se elige la mejor recompensa posible para cada estado y se le resta a cada
columna de la matriz de recompensas original.
La nueva matriz indica lo que se hubiese perdido (con respecto al mejor valor
posible) si ocurre el evento j cuando se toma la acción i.
Se construye de acuerdo con:

ai,j = máx {ri,j } − ri,j ∀i ∈ A, j ∈ S (5)


i∈A

El criterio a aplicar en este caso es de Pérdida MiniMax determinar la mayor


pérdida posible para cada acción y de ellas escoger la menor.
 
mı́n máx{ai,j } (6)
i∈A j∈S

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

Nivel de aceptación
No proporciona decisiones óptimas en lo que respecta a la maximización
del beneficio o la minimización del coste, sino condiciones aceptables en
un proceso de decisión.
Cuando se vende un bien es posible establecer un valor mı́nimo ante el
cual no venderı́amos dicho bien y en consecuencia aceptarı́amos cualquier
valor por encima de ese mı́nimo.
No se requiere un conocimiento preciso de la distribución de probabilidad
de los precios asociados al bien en venta, pero si un conocimiento del
mercado que evite colocar un precio tan alto como para que no se venda
o tan bajo como para que no proporcione ningún beneficio.
Este tipo de análisis puede aplicarse para fijación de los niveles de servicio
o de aceptación propios de los procesos de manufactura.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

Estrategias mixtas
Elección de un curso de acción con la ayuda del azar (una moneda, un dado,
etc), el decisor estima el beneficio esperado de cualquier estrategia mixta.
Un ejemplo de estrategia mixta con dos alternativas a1 y a2 , y probabilidades
α1 y α2 (con α1 + α2 = 1), es que puede incluirse la estrategia mixta a3 cuyas
recompensas son el promedio ponderado de los pagos de cada alternativa, ası́
para cada estado j el pago será r3,j = α1 r1,j + α2 r2,j .

1 2 3
a1 r1,1 r1,2 r1,3
a2 r2,1 r2,2 r2,3
a3 αr1,1 + (1 − α)r2,1 αr1,2 + (1 − α)r2,2 αr1,3 + (1 − α)r2,3

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

Estrategias mixtas
Variando las probabilidades α cambian las recompensas esperadas, y es posible
determinar con que probabilidades la estrategia mixta proporciona el valor más
alto del maximin o el más bajo de la pérdida minimax. Esas probabilidades
constituyen una estrategia mixta óptima, lo cual podrı́a ser deseable para quien
toma las decisiones.
En el ejemplo, con un valor α = 0,5, puede dejarse la decisión a una moneda.
Esta estrategia es conveniente pues el criterio maximin es el de un decisor
tı́mido, que siempre teme que su opositor (la naturaleza u otro jugador)
siempre le adivine primero y le gane, lo cual lo lleva a descartar todo excepto el
resultado menos favorable de cualquier escogencia de estrategia pura. El azar le
da la seguridad de que nadie le saldrá adelante y esas posibilidades que habı́a
descartado se convierten en alternativas reales. El valor de seguridad más alto
de una estrategia mixta es como una reflexión sutil del hecho de que una
estrategia mixta puede evitar que el jugador oponente prediga su decisión.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

Futuro más probable


Se basa en convertir una situación probabilı́stica en una
determinı́stica, reemplazando la variable aleatoria con el valor de
mayor probabilidad de ocurrencia.
Desde el punto de vista práctico el futuro más probable
proporciona información adecuada para la toma de decisiones.
No es adecuado cuando:
La variable aleatoria tiene un gran número de valores
probables, cada uno con una probabilidad muy pequeña,
Diversos valores de la variable aleatoria presentan la misma
probabilidad o probabilidades muy cercanas.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

Valor esperado
Es el promedio que se obtiene en el largo plazo para una distribución
determinada. No debe ser el único criterio, sirviendo de guı́a para la decisión
final.
Seleccionar la acción con mayor recompensa esperada (o menor pérdida
esperada)
Matemáticamente... si para una variable aleatoria x con valor esperado E (x) y
varianza σ 2 , se obtiene una muestra de tamaño n, esta serı́a (x1 , x2 , . . . , xn ), su
2
promedio x̄ = n1 ni=1 xi , y su varianza σn . Cuando n → ∞ la varianza tiende a
P
cero y x̄ = E (x), por lo cual el valor esperado para comparar alternativas es
conveniente cuando el procedimiento se repita un número grande de veces.
 
X 
máx pj ri,j (7)
ai ∈A  
j∈S

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Clases de modelos de decisión
Árboles de decisión Caracterı́sticas de los problemas de teorı́a de decisiones
Valor esperado de la información experimental Criterios bajo incertidumbre
Teorı́a de la utilidad Criterios bajo riesgo
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterios de decisión

Valor esperado - varianza


Valor esperado: útil para la toma de decisiones en el largo plazo, que se repiten
muchas veces,
En el corto plazo conviene modificarlo...
Sea x una V.A. con valor esperado E (x) y varianza σ 2 , el promedio de una
2
muestra de tamaño n es x̄ = n1 ni=1 xi , y su varianza σn ; cuando σ 2 se hace
P
más pequeño, x̄ tiene menor dispersión y se aproxima a E (x) con mayor
probabilidad. Es valioso utilizar un criterio que maximice pel beneficio esperado y
minimice su varianza, por ejemplo: maximizar E (x) − K var (x), donde x es
la variable aleatoria y K una constante preespecificada.
La constante K se conoce a veces como factor de aversión al riesgo, por ser un
factor de la importancia relativa de la varianza de x repecto de su valor
esperado.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión
Valor esperado de la información experimental
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Valor esperado de la información perfecta


Información perfecta
Conocer el comportamiento de la naturaleza anticipadamente

Valor esperado con información perfecta: VECIP


Mejor recompensa esperada si se sabe lo que va a pasar

Valor esperado de la información perfecta: VEIP


Máximo que se justifica pagar por un estudio cuya confiabilidad fuera total.
X
VECIP = pj máx{ri,j } (8)
i∈A
j∈S
 
X X 
VEIP = pj máx{ri,j } − máx pj ri,j = VECIP − VE (9)
i∈A i∈A  
j∈S j∈S

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión
Valor esperado de la información experimental
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Árboles de decisión

El árbol como representación


Diagrama que permite descomponer un problema complejo en
varios problemas más pequeños Representa secuencialmente las
decisiones que deben tomarse. Su nombre se debe a que posee
puntos de ramificación para determinar posibles acciones (a tomar
por el decisor) o los eventos que pueden ocurrir.

Tipos de nodos
Nodo de decisión, el cual se representa con un cuadrado y,
Nodo de incertidumbre, que se representa con un cı́rculo

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión
Valor esperado de la información experimental
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Árboles de decisión
Construcción del árbol (De izquierda a derecha)
Nodo de decisión inicial, de él se desprende una rama por cada acción
posible, esta lleva un nodo de incertidumbre al final.
De cada nodo de incertidumbre se desprende rama (con una probabilidad
asociada) por cada posible estado de la naturaleza.
Al final de las ramas de los estados pueden colocarse nuevos nodos de
decisión o los valores de la recompensa asociados.

Solución del árbol de decisión (De derecha a izquierda)


Valor de un nodo de incertidumbre: valor esperado de sus ramas
Valor de un nodo de decisión: el mejor valor (mayor o menor)

Al llegar al nodo inicial (izquierda) se determina la decisión como aquella que


conduce a obtener su valor.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Valor esperado de la información experimental


Muestreo o experimentación
A veces es posible y deseable para obtener información adicional
sobre los eventos que pueden ocurrir antes de tomar una decisión.
Esta información tiene un coste y es necesario determinar el valor
de la información en relación al coste de obtenerla, se debe decidir:
pagar o no pagar por la información adicional, además de la
decisión del problema original para el cual se busca información.

Estrategia
Es el curso de acción para cada resultado muestral, el problema
aquı́ es la selección de la mejor estrategia, que en últimas será
determinar la mejor acción para cada resultado posible de la
muestra.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Valor esperado de la información experimental


Evaluación de las estrategias
Requiere del conocimiento de como los resultados de la muestra se
relacionan con los eventos P(resultado muestral|evento).
Tales probabilidades pueden ser determinadas por el procedimiento de
muestreo o de manera subjetiva según sea el caso, y suelen ser ser
resumidas en una tabla en la cual los resultados del muestreo se listan en
filas y los eventos en columnas.
Cada columna de la matriz suma uno por tratarse de una distribución de
probabilidad condicional (conjunto de distribuciones de muestreo del
problema).
Una forma de evaluar las estrategias consiste en enumerar todas las
posibles combinaciones de acción-resultado, lo cual puede no resultar fácil
dependiendo del número de alternativas y del número de estados de la
naturaleza.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Valor esperado de la información experimental

Probabilidades a posteriori
Acciones (A): Conjunto de acciones posibles ai ∈ A de las cuales se puede
seleccionar sólo una.
Eventos (S): Estados de la naturaleza j ∈ S posibles, de los que se conoce su
probabilidad de ocurrencia P(j) = pj , (probabilidades a priori).
Resultados del estudio (E ): Posibles resultados del experimento o muestreo
k ∈ E , se conocen además las probabilidades P(k|j), ∀k, ∀j,
que denotan la confiabilidad histórica del estudio.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Valor esperado de la información experimental

Probabilidad conjunta

P(k ∩ j) = P(k|j)pj (10)

Probabilidad de una partición o de un resultado del experimento


X
P(k) = P(k|j)pj (11)
j∈S

Probabilidad a posteriori (Teorema de Bayes)


P(k|j)pj
P(j|k) = X (12)
P(k|`)p`
`∈S

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Valor esperado de la información experimental

Árbol de decisión
Permite determinar el Valor esperado con información muestral (VEIM).
Valor esperado de la información experimental (VEE ) es igual a la diferencia
entre el valor esperado con información muestral o experimental y el valor
esperado calculado con las probabilidades a priori (VE ), y será el máximo valor
que se justificarı́a pagar por el experimento.

VEE = VEIM − VE (13)

Javier Parra Peña Modelos Estocásticos (SM)


/*******************************************************************
* Algunos criterios de teorı́a de decisiones implementados en GLPK *
*******************************************************************/

set A; #Alternativas
set S; #Estados de la naturaleza
param R{i in A, j in S}; #Matriz de recompensas
param P{j in S}; #Probabilidades a priori para cada uno de
#los estados
param alpha default 0.3; #Coeficiente de pesimismo (para el criterio
#de Hurwicz)
#Citerio Maximin
param MinF{i in A}:= min{j in S} R[i,j]; #Mı́nima recompensa para la
#alternativa i
param Maximin:= max{i in A} MinF[i]; #Máximo de los mı́nimos
#Criterio Maximax
param MaxF{i in A}:= max{j in S} R[i,j]; #Máxima recompensa para la
#alternativa i
param Maximax:= max{i in A} MaxF[i]; #Máximo de los máximos
#Criterio de Hurwicz
param Hurwicz{i in A}:= alpha*MinF[i] +(1-alpha)*MaxF[i];
param MaxHurw:= max{i in A} Hurwicz[i];
#Criterio del valor esperado, VECIP y VEIP
param VEsp{i in A}:= sum{j in S} P[j]*R[i,j];
param VE:=max{i in A} VEsp[i];
param MaxC{j in S}:= max{i in A} R[i,j];
param VECIP:= sum{j in S} P[j]*MaxC[j];
param VEIP:= VECIP-VE;

#Criterio de Savage
param Savage{i in A, j in S}:= MaxC[j]-R[i,j];
param MaxFS{i in A}:= max{j in S} Savage[i,j];
param MiniMaxS:= min{i in A} MaxF[i];
param VEspS{i in A}:= sum{j in S} P[j]*Savage[i,j];
param VESavage:= min{i in A} VEspS[i];

solve;
printf ’Criterio Maximin... ’;
display MinF, Maximin;
printf ’La alternativa seleccionada es’
display MaxF, Maximax;
display Hurwicz, MaxHurw;
display Bayes, MaxBayes;
display VEsp, VE;
display VECIP, VEIP;
display MaxC, Savage, MaxFS, MiniMaxS;
display VEspS, VESavage;

data;

set A:= a b c d;
set S:= 1 2 3 4;
param R: 1 2 3 4:=
a -5 -10 -18 -25
b -8 -7 -8 -23
c -21 -18 -12 -21
d -30 -22 -19 -15;
param P:= 1 0.2
2 0.1
3 0.5
4 0.2;
end;
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Criterio Maximin... Display statement at line 45


MinF[a] = -25
MinF[b] = -23
MinF[c] = -21
MinF[d] = -30
Display statement at line 46
Maximin = -21
Criterio MaxiMax... Display statement at line 51
MaxF[a] = -5
MaxF[b] = -7
MaxF[c] = -12
MaxF[d] = -15
Display statement at line 52
Maximax = -5
Criterio de Hurwicz... Display statement at line 54
Hurwicz[a] = -11
Hurwicz[b] = -11.8
Hurwicz[c] = -14.7
Hurwicz[d] = -19.5
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Display statement at line 55


MaxHurw = -11
Criterio de Bayes (Laplace)... Display statement at line 57
Bayes[a] = -14.5
Bayes[b] = -11.5
Bayes[c] = -18
Bayes[d] = -21.5
Display statement at line 58
MaxBayes = -11.5
Criterio del valor esperado... Display statement at line 60
VEsp[a] = -16
VEsp[b] = -10.9
VEsp[c] = -16.2
VEsp[d] = -20.7
Display statement at line 61
VE = -10.9
Valor esperado de la información perfecta... Display statement at line 6
VECIP = -8.7
Display statement at line 64
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Evaluación de estrategias
Valor esperado de la información experimental Probabilidades a posteriori
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

VEIP = 2.2
Display statement at line 65
MaxC[1] = -5
MaxC[2] = -7
MaxC[3] = -8
MaxC[4] = -15
Criterio de pérdida MiniMax (Savage)... Display statement at line 67
Savage[a,1] = 0
Savage[a,2] = 3
Savage[a,3] = 10
Savage[a,4] = 10
Savage[b,1] = 3
Savage[b,2] = 0
Savage[b,3] = 0
Savage[b,4] = 8
Savage[c,1] = 16
Savage[c,2] = 11
Savage[c,3] = 4
Savage[c,4] = 6
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Savage[d,1] = 25
Savage[d,2] = 15
Savage[d,3] = 11
Savage[d,4] = 0
Display statement at line 68
MaxFS[a] = 10
MaxFS[b] = 8
MaxFS[c] = 16
MaxFS[d] = 25
Display statement at line 69
MiniMaxS = 8
Display statement at line 70
VEspS[a] = 7.3
VEspS[b] = 2.2
VEspS[c] = 7.5
VEspS[d] = 12
Display statement at line 71
VESAvage = 2.2
Model has been successfully processed
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Teorı́a de la utilidad
Crı́ticas al valor esperado..
El resultado real es desconocido, el valor esperado es un
promedio que representa el comportamiento en el largo plazo.
Dos problemas de decisión con el mismo valor esperado
pueden tener diferente elegibilidad.
1 Apuesta en la que si cae cara se ganan $500 y si cae sello se
pagan $500
2 Apuesta en la cual se lanza una moneda y si sale cara se
obtiene $1000000 y si cae sello se pagan $1000000
Si moneda y lanzamiento son legales ⇒ mismo valor
esperado, pero diferente preferencia.
Los resultados posibles podrı́an generar efectos dramáticos
para el decisor (la compañı́a) en virtud de su magnitud.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Teorı́a de la utilidad
Caracterı́sticas
Alternativa para considerar la magnitud relativa de los pagos y su valor
esperado. (algunos de los pagos posibles afectarı́an dramáticamente el
futuro del negocio).
Función de utilidad como auxiliar para la toma de decisiones (Von
Neumman - Morgenstern)
Loterı́a: es una situación en la cual una persona recibe para cada
i = 1, 2, . . . , n una recompensa ri con probabilidad pi , que se denota
como una loterı́a (p1 , r1 ; p2 , r2 ; . . . ; pn , rn ). Puede representarse como un
árbol de probabilidad en el que a cada rama se asigna la probabilidad de
su resultado posible, que se coloca al final de la misma.
El uso de boletos de loterı́a equivalentes para cada pago o recompensa
permite utilizar este tipo de teorı́a. Los valores de la utilidad o
probabilidad asociados a cada pago equivalente son subjetivos y
atemporales.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Teorı́a de la utilidad
Axiomas de Von Neumman y Morgenstern

Ordenación completa
Para dos recompensas r1 y r2 uno de los siguientes enunciados es cierto:
1 El decisor prefiere r1 a r2
2 El decisor prefiere r2 a r1
3 El decisor es indiferente ante r1 y r2
Además, si prefiere r1 a r2 y r2 a r3 entonces prefiere r1 a r3 , es decir, existe
transitividad en las preferencias.

Continuidad
Si el decisor prefiere r1 a r2 y r2 a r3 entonces para alguna c, (0 < c < 1), las
loterı́as L1 = (1, r2 ) y L2 = (c, r1 ; 1 − c, r3 ) son equivalentes.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Teorı́a de la utilidad
Axiomas de Von Neumman y Morgenstern

Independencia
Si el decisor no tiene preferencia entre r1 y r2 y sea r3 cualquier otra
recompensa. Entonces para cualquier valor c, 0 < c < 1, las loterı́as
L1 = (c, r1 ; 1 − c, r3 ) y L2 = (c, r2 ; 1 − c, r3 ), que sólo difieren en que L1 tiene
una probabilidad c de producir una recompensa r1 y L2 tiene una probabilidad
c de producir una recompensa r2 , el decisor toma el valor c como idéntico en
ambas loterı́as.

Probabilidad desigual
Si el decisor prefiere la recompensa r1 a la recompensa r2 , para dos loterı́as con
r1 y r2 como resultados posibles, el decisor prefiere la loterı́a con mayor
probabilidad de obtener r1 .

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Teorı́a de la utilidad

Axiomas de Von Neumman y Morgenstern

Loterı́a compuesta
Cuando se consideran todos los resultados posibles, una loterı́a compuesta L
produce para i = 1, 2, . . . , n una probabilidad pi de obtener una recompensa ri
L = (p1 , r1 ; p2 , r2 ; . . . ; pi , L0 ; . . . ; pn , rn ) donde L0 = (p10 , r10 ; p20 , r20 ; . . . ; pn0 , rn0 ).

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Teorı́a de la utilidad
Estimación de la función de utilidad
La función de utilidad puede construirse a partir de los valores de los pagos
para cada uno de los resultados posibles, ası́:
1 Se determinan los pagos menor y mayor rmin y rmax con las respectivas
utilidades U(rmin ) = 0 y U(rmax ) = 1.
2 Se construye una loterı́a en la que con probabilidad 0,5 se obtiene un
pago de rmin y con probabilidad 0,5 un pago de rmax ,
L = (0,5, rmin ; 0,5, rmax ) y se determina un valor monetario, equivalente de
certidumbre (EC (L)), para el que la loterı́a L es indiferente para el
decisor. A este valor r0,5 = EC (L) se asigna la utilidad de 0,5.
3 Se repite el paso anterior con loterı́as similares para cada uno de los dos
intervalos definidos, obteniendo los valores r0,25 y r0,75 .
4 Con los puntos determinados se construye una curva suave en el plano x,
U(x) con la cual se puede convertir de los pagos en sus utilidades.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Teorı́a de la utilidad
Propensión y adversión al riesgo
Riesgo de manera diferente para cada decisor, arriesgados o cautelosos
Si se tienen en cuenta dos pagos x1 y x2 (puntos en el eje horizontal), y a partir
de ellos se construye una loterı́a L que con probabilidad p proporciona x1 y con
probabilidad 1 − p proporciona x2 , el valor esperado de esta loterı́a es
VE (L) = (p)x1 + (1 − p)x2 .
El premio de riesgo PR(L) de una loterı́a es la diferencia entre su valor
esperado y su equivalente de certidumbre, esto es: PR(L) = VE (L) − EC (L),
puede obtenerse:
Adverso al riesgo: Para él cualquier loterı́a L presenta un valor PR(L) > 0, en
otras palabras U(x) es cóncava.
Neutral al riesgo: Para él cualquier loterı́a L presenta un valor PR(L) = 0, en
otras palabras U(x) es cóncava y convexa a la vez (lı́nea recta).
Propenso al riesgo: Para él cualquier loterı́a L presenta un valor PR(L) < 0,
en otras palabras U(x) es convexa.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta Axiomas de Von Neumman Morgenstern
Árboles de decisión Estimación de la función de utilidad
Valor esperado de la información experimental Propensión y adversión al riesgo
Teorı́a de la utilidad Utilidad exponencial
Proceso de decisión de jerarquı́a analı́tica (AHP)

Teorı́a de utilidad
Utilidad exponencial
Una función de probabilidad exponencial facilita su construcción
−x
U(x) = 1 − e R (15)

donde x es un valor monetario, U(X ) es su utilidad asociada y, R es un pará-


metro ajustable de tolerancia al riesgo. Con R aumenta la propensión al riesgo.
Para determinar R se requiere hallar el valor para el que las dos opciones son
indiferentes:
1 No recibir pago alguno,
2 Una loterı́a L en que se reciben R unidades monetarias con probabilidad
0,5 o se pierde R/2 con una probabilidad de 0,5, L = (0,5, R; 0,5, −R/2).
Howard (1992) determinó que en promedio R puede determinarse a partir de
indicadores financieros ventas netas, ingreso neto o recursos propios, ası́:
R ≈ 6,4 % de las ventas netas, 124 % del ingreso neto o 15,7 % de los recursos.
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Proceso de decisión de jerarquı́a analı́tica (AHP)


Toma de decisiones multiatributos o multicriterio
Muchas de las decisiones que debemos tomar implican diferentes objetivos y las
alternativas disponibles satisfacen de manera diferente esos objetivos. Por
ejemplo, cuando estamos comprando un vehı́culo vamos a decidir entre el tipo
de vehı́culo, el color, el consumo de combustible, las emisiones contaminantes y
el confort que representa su uso, entre otras caracterı́sticas.

Conjuntos
Por tratarse de un problema en el cual se tienen varios objetivos y varias
alternativas, es posible caracterizar el problema teniendo en cuenta dos
conjuntos:
I : Objetivos a tener en cuenta en la decisión,
J: Alternativas a evaluar (para la satisfacción de los diferentes
objetivos)

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Proceso de decisión de jerarquı́a analı́tica (AHP)


Valoración de las alternativas

Peso relativo (ponderación) ωi para cada uno objetivo


X
ωi = 1 (16)
i∈I

Matriz de evaluación M
Donde mi,j es la evaluación del criterio i para la alternativa j.

Puntaje ponderado Pj para cada alternativa


X
Pj = mi,j ωi ∀j (17)
i∈I
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Proceso de decisión de jerarquı́a analı́tica (AHP)


Ponderación de los n objetivos
Matriz cuadrada de n × n de comparación de los objetivos por pares
Valorar cuantitativamente el elemento de la fila con respecto al de la
columna (de 1 a 9).
La valoración de un objetivo contra si mismo es igual a 1.
1
Sea la valoración ai,j con i 6= j, entonces la valoración aj,i = ai,j

Normalización, dividir cada término entre la sumatoria de los términos de


su columna, cada columna de la matriz normalizada sumará 1.
a
āi,j = Xi,j
ak,j
k∈I

Los pesos
Xrelativos de los objetivos son los promedios para cada fila
ωi = n1 āi,j
j∈I

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Proceso de decisión de jerarquı́a analı́tica (AHP)


Para verificar la consistencia de la ponderación

b = Aω = ∆ω (18)

Tal sistema de ecuaciones tiene solución no trivial para ∆ = n, se verifica ası́:


1 Calcular el vector b
2 Calcular el ı́ndice de consistencia IC
!
X bi
1
n
−n
ωi
i∈I
IC =
n−1
3 Compare
( el IC con el ı́ndice aleatorio IA de la siguiente forma:
IC
IA
< 0,1 Consistencia satisfactoria
IC
IA
> 0,1 No hay consistencia satisfactoria

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Proceso de decisión de jerarquı́a analı́tica (AHP)

Los valores del Índice de Consistencia Aleatorio para los diferentes n, obtenidos
mediante la simulación de 100.000 matrices (Aguarón y Moreno-Jiménez,
2001), citado por Moreno Jimenez se presentan en la 1.

Cuadro: Índice de Consistencia Aleatorio


n 3 4 5 6 7 8 9 10
IA 0,525 0,882 1,115 1,252 1,341 1,404 1,452 1,484
Fuente: (Aguarón y Moreno-Jiménez, 2001)

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Proceso de decisión de jerarquı́a analı́tica (AHP)

Una vez se han determinado las correspondientes ponderaciones se procede de


forma similar para establecer la valoración de cada una de las alternativas para
cada uno de los objetivos. En este caso el vector resultante a la ponderación
corresponde a la valoración del criterio para cada una de las alternativas, y una
vez transpuesto hará parte de la matriz de evaluación M considerada en el
establecimiento de los puntajes para cada criterio y alternativa referidos.

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Con el fin de empezar a utilizar el software GLPK se muestra la


implementación de los cálculos correspondientes haciendo uso de
ese software.

/*****************************************************
* Proceso de decisión por jerarquı́a analı́tica (AHP) *
*****************************************************/

set I; #Criterios
set J; #Alternativas

param A{i in I, j in I};


#Matriz de valoración de los criterios

param Val{i in I, j in J, l in J};


#Matrices de calificación para cada criterio

param NormA{i in I, j in I}:= A[i,j]/(sum{k in I} A[k,j]);


#Normalización de la matriz A
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

param Omega{i in I}:= (1/card(I))*sum{j in I} NormA[i,j];


#Ponderación de los criterios

param NVal{i in I,j in J,l in J}:= Val[i,j,l]/(sum{k in J} Val[i,k,l]);


#Normalización de las calificaciones

param M{i in I, j in J}:=(1/card(J))*sum{k in J} NVal[i,j,k];


#Valoración de las alternativas para los diferentes criterios

param Cal{j in J}:=sum{i in I} Omega[i]*M[i,j];


#Calificación de las alternativas

solve;
/*********************************************************************
* Las declaraciones "display" muestran los diferentes resultados. *
* Se selecciona la alternativa cuya calificación "Cal" sea la mejor *
*********************************************************************/

Javier Parra Peña Modelos Estocásticos (SM)


Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

display NormA;
display Omega;
display NVal;
display M;
display Cal;

data; #Datos para el ejercicio de Woody en Winston


set I:= Bell Intl Pers;
set J:= Jf Br Ma;

param A: Bell Intl Pers:=


Bell 1 3 5
Intl 0.333 1 3
Pers 0.200 0.333 1;

param Val:=
[Bell,*,*]:Jf Br Ma:=
Jf 1 5 3
Br 0.2 1 0.5
Javier Parra Peña Modelos Estocásticos (SM)
Análisis de decisiones
Valor esperado de la información perfecta
Árboles de decisión Procedimiento de ponderación
Valor esperado de la información experimental Valoración de las alternativas
Teorı́a de la utilidad
Proceso de decisión de jerarquı́a analı́tica (AHP)

Ma 0.333 2 1
[Intl,*,*]:Jf Br Ma:=
Jf 1 0.166 0.25
Br 6 1 2
Ma 4 0.5 1
[Pers,*,*]:Jf Br Ma:=
Jf 1 4 0.25
Br 0.25 1 0.111
Ma 4 9 1;

Javier Parra Peña Modelos Estocásticos (SM)

También podría gustarte