Está en la página 1de 26

GERENCIA ESTRATÉGICA

Árboles de Decisión y
Teorema de Bayes
Agenda
Toma de Decisiones Gerencial
Arboles de Decisión y Teorema de Bayes

 Teoría de la Decisión.

 Probabilidades.

 Arboles de Decisión.

 Teorema de Bayes.
Hoja de Ruta
Procesos Gestión y • Proceso de la gestión estratégica.
Principios Planeamiento • Análisis FODA – Balanced Scorecard
Análisis del Entorno
• Análisis PEST y Fuerzas de Porter
Capacidad Estratégica • Cadena de valor y gestión del conocimiento

Gestión Financiera • Indicadores financieros ( VAN, TIR, B/C )


Control de Riesgos • Planificación del riesgo.

Productividad • Productividad
Gestión de la calidad • Diagramas de calidad

Mejora de Procesos • Benchmarking – Six Sigma


Gestión del cambio • Cultura organizacional
Toma de Decisiones • Toma de decisiones gerenciales
Herramientas • Herramientas Anova – Teorema de Bayes

Liderazgo y RSE • Estilos de liderazgo


• Fundamentos de Responsabilidad Social
3
Teoría de la decisión
Probabilidades

• ¿En qué consisten las probabilidades?


• Indican incertidumbre acerca de un evento
que:
– Ocurrió en el pasado
– Ocurre en el presente
– Ocurrirá en el futuro
Árboles de decisión
Árboles de decisión

• Pueden usarse para desarrollar una


estrategia óptima cuando el tomador de
decisiones se enfrenta con:
– Una serie de alternativas de decisión.
– Incertidumbre o eventos futuros con
riesgo.
*Un buen análisis de decisiones incluye un
análisis de riesgo.
Árboles de decisión:
Componentes y estructura

• Alternativas de decisión en cada punto de


decisión.
• Eventos que pueden ocurrir como
resultado de cada alternativa de decisión.
También son llamados Estados de la
naturaleza.
Árboles de decisión:
Componentes y estructura

• Probabilidades de que ocurran los eventos


posibles.
• Resultados de las posibles interacciones
entre las alternativas de decisión y los
eventos. También se les conoce con el
nombre de Pagos.
Árboles de decisión:
Componentes y estructura
• Los árboles de decisión poseen:
• Ramas: se representan con líneas.
• Nodos de decisión: de ellos salen las ramas
de decisión y se representan con 
• Nodos de incertidumbre: de ellos salen las
ramas de los eventos y se representan con

Árboles de decisión:
Componentes y estructura: ejemplo

Evento 1
Pago 1
Punto de P(Evento 1)
decisión

Alternativa 1 Evento 2 Pago 2


P(Evento 2)

Evento 3 Pago 3
P(Evento 3)

Alternativa 2 Pago 4
Árboles de decisión: Análisis: criterio
del Valor Monetario Esperado
• Generalmente se inicia de derecha a
izquierda, calculando cada pago al final de
las ramas.
• Luego en cada nodo de evento se calcula un
valor esperado.
• Después en cada punto de decisión se
selecciona la alternativa con el valor
esperado óptimo.
Árboles de decisión: Análisis: ejemplo de
la rifa
Gana
$49.000
Punto de (0,01)
decisión
-500
Juega la rifa

Pierde $ -1000
(0,99)

No juega la rifa $0
Árboles de decisión: Análisis: ejemplo de
la rifa
• En el nodo de evento se calculó el valor
esperado de jugar la rifa.
• Luego se selecciona, en este caso el valor
más alto (por ser ganancias).
• La decisión desechada se marca con \\
• En este caso la decisión es no jugar la rifa.
Árboles de decisión: ejemplo:
La decisión de Larry
• Durante la última semana Larry ha recibido 3
propuestas matrimoniales de 3 mujeres distintas
y debe escoger una. Ha determinado que sus
atributos físicos y emocionales son más o menos
los mismos, y entonces elegirá según sus recursos
financieros.
• La primera se llama Jenny. Tiene un padre rico
que sufre de artritis crónica. Larry calcula una
probabilidad de 0.3 de que muera pronto y les
herede $100.000. Si el padre tiene una larga vida
no recibirá nada de él.
Árboles de decisión: ejemplo:
La decisión de Larry
• La segunda pretendiente se llama Jana, que es
contadora en una compañía. Larry estima una
probabilidad de 0.6 de que Jana siga su carrera y
una probabilidad de 0.4 de que la deje y se
dedique a los hijos.
• Si continúa con su trabajo, podría pasar a
auditoría, donde hay una probabilidad de 0.5 de
ganar $40.000 y de 0.5 de ganar $30.000, o bien
podría pasar al departamento de impuestos
donde ganaría $40.000 con probabilidad de 0.7 o
$25.000 (0.3). Si se dedica a los hijos podría tener
un trabajo de tiempo parcial por $20.000.
Árboles de decisión: ejemplo:
La decisión de Larry
• La tercer pretendiente es María, la cual sólo
puede ofrecer a Larry su dote de $25.000.
• ¿Con quién debe casarse Larry? ¿Por qué?
• ¿Cuál es el riesgo involucrado en la secuencia
óptima de decisiones?

Tomado de:
Gallagher. Watson. METODOS CUANTITATIVOS PARA LA TOMA DE DECISIONES EN ADMINISTRACIÓN. McGraw
Hill, México
Los Árboles de decisión y el riesgo

• El análisis del riesgo ayuda al tomador de


decisiones a identificar la diferencia entre:
– el valor esperado de una alternativa de
decisión, y
– el resultado que efectivamente podría
ocurrir.
Los Árboles de decisión y el riesgo

• El riesgo se refiere a la variación en los


resultados posibles.
• Mientras más varíen los resultados,
entonces se dice que el riesgo es mayor.
• Existen diferentes maneras de cuantificar el
riesgo, y una de ellas es la varianza.
Los Árboles de decisión y el
riesgo: ejemplo: el caso de Larry
• La decisión por Jenny es la del valor
esperado más alto, pero también es la más
riesgosa, pues los resultados varían entre
$0 y $100.000.
• La decisión por María es la menos riesgosa,
pero la de menor rendimiento.
• Tal vez la mejor decisión sea Jana, ya que el
valor esperado es cercano al de Jenny pero
con un riesgo menor.
TEOREMA DE BAYES
TEOREMA DE BAYES
• Bayes, con su Teorema, fue el primero en unificar las distintas probabilidades que
se pueden dar en un suceso complejo: Probabilidades simples (probabilidades a
priori), probabilidades condicionadas (verosimilitudes) y las nuevas probabilidades
a calcular (a posteriori).
Y todo ello con la ventaja de poder utilizar al diagrama del árbol.

• Si A1, A2, A3, … es un sistema completo de sucesos, y B es un suceso cualquiera


del que se conocen las probabilidades condicionadas, entonces las probabilidades
de la forma P(Ai / B) se calculan mediante la expresión:

P(Ai).P(B / Ai)
• P(Ai / B) = -------------------------------------------------------------------------------
P(A1).P(B / A1) + P(A2).P(B / A2) + … + P(An).P(B / An)

Donde P(Ai) son las probabilidades a priori.


P(Ai / B) son las probabilidades a posteriori.
P(B / Ai) son las verosimilitudes.
EJEMPLO
• En un instituto el 60% de estudiantes son chicas. Asimismo sabemos que el 70% de
los chicos viven en la localidad donde está ubicado el instituto, siendo este
porcentaje del 85% en las chicas.. Se elige un estudiante al azar y resulta que ha
nacido en la localidad. ¿Cuál es la probabilidad de que sea chico?

• Resolución:
• Probabilidades a priori:
P(A)= 60% = 60 / 100 = 0,6  Sea chica.
P(O)= 1 – P(A) = 1- 0,6 = 0,4  Sea chico.
Verosimilitudes:
P(A / L) = 85% = 85 / 100 = 0,85  Sea chica y viva en la localidad.
P(O / L)= 70% = 70 / 100 = 0,7  Sea chico y viva en la localidad.
Probabilidades a posteriori:
Por el Teorema de Bayes

P(O).P(L/O) 0,4.0,7 0,28


• P(O/L) = ---------------------------------- = ------------------------ = -------- = 0,3544
P(A).P(L/A)+P(O).P(L/O) 0,6.0,85 + 0,4.0,7 0,79
• Empleando el diagrama del árbol

• P(L/A)=0,85 0,6.0,85 = 0,51 Chica y viva en L



• P(A)=0,6

• P(NL/A)=0,15 0,6.0,15 = 0,09 Chica y no viva en L


• P(L/O)=0,7 0,4.0,7 = 0,28 Chico y viva en L

• P(O)=0,4

• P(NL/O)=0,3 0,4.0,3 = 0,12 Chico y no viva en L

• P(O/L) = 0,28 /(0,51+0,28) = 0,28/0,79 = 0,3544

• De igual manera podemos calcular la probabilidad de que sea chica:


• P(A/L) = 0,51 /(0,51+0,28) = 0,51/0,79 = 0,6456
• Observar que la suma de todas las probabilidades resultantes es 1.
Fin de la sesión

También podría gustarte