Está en la página 1de 54

MTODOS

CUANTITATIVOS
Armin Trujillo Mata
armin.trujillo@gmail.com

Objetivo del curso

Que el estudiante adquiera los conocimientos


necesarios para implementar herramientas
matemticas, y aplicar modelos matemticos que le
permitan resolver los problemas administrativos
complejos que se le presenten.

Adems, que el alumno sea capaz de encontrar


diferentes alternativas de solucin para obtener los
mejores resultados.

2016 Armin Trujillo Mata

Justificacin
La administracin se ve inmersa en distintas situaciones
problemticas y de decisin que retan a los profesionistas a
encontrar la mejor alternativa de solucin de manera oportuna y
eficaz.
Los mtodos cuantitativos nos permiten modelar las diferentes
situaciones problemticas a las que nos enfrentamos para poder
abordarlas y resolverlos de manera eficiente.
Son un conjunto de herramientas que nos permitirn encontrar las
alternativas de solucin que nos den los mejores resultados y por lo
tanto, a hacer ms eficiente nuestro proceso de toma de
decisiones.
2016 Armin Trujillo Mata

Contenido del curso

1. Conceptos Bsicos de Mtodos Cuantitativos

2. Modelos de Cadenas de Markov


3. Modelos de Programacin Dinmica
4. Juegos y Estrategias

5. Anlisis de Lneas de Espera

2016 Armin Trujillo Mata

Temario Unidad 2
Cadenas de Markov
2.1 Concepto, terminologa y aplicaciones
2.2 Elaboracin matricial de las probabilidades de transicin

2.3 Manejo de periodos futuros


2.4 Manejo de condiciones de equilibrio
2.5 Uso y aplicaciones de Markov
2016 Armin Trujillo Mata

Algunos mtodos cuantitativos segn el


grado de certidumbre
Certidumbre

Incertidumbre

lgebra
Punto de Equilibrio
Anlisis Costo-Beneficio
Clculo
Programacin matemtica
Lineal
No lineal
Entera
Dinmica
Metas
Cuadrtica
Geomtrica

Teora de Decisiones
rboles de Decisin
Diagramas de Influencia
Anlisis de Lneas de espera
Simulacin
Cadenas de Markov
Anlisis de Redes
PERT y CPM
Teora de Juegos
Teora de Confiabilidad
Anlisis Estadsticos
Teora de Probabilidad
Prueba de Hiptesis
Estadstica Bayesiana
Correlacin y Regresin
Mtodos no paramtricos
2016 Armin Trujillo Mata

Introduccin

Casi todas las organizaciones adoran el


altar del dios falso de lo determinstico.
Steve Roemerman, CEO de Lone Star Analysis

2016 Armin Trujillo Mata

Introduccin
En los problemas de toma de decisiones, con frecuencia surge la
necesidad de tomar decisiones basadas en fenmenos que tienen
incertidumbre asociada.
En lugar de manejar la variabilidad (originada por la incertidumbre)
de manera cualitativa, puede incorporarse a un modelo matemtico
y manejarse de manera cuantitativa.
Es necesario que el fenmeno presente cierta regularidad de
manera que pueda describirse mediante un modelo probabilstico.

Si un proceso evoluciona en el tiempo de manera probabilstica, se


le conoce como un proceso estocstico.
2016 Armin Trujillo Mata

Cadenas de Markov
Para poder analizar las probabilidades de los estados de un
sistema o de un proceso (estocstico), se utilizan las cadenas de
Markov.
Las cadenas de Markov son modelos probabilsticos de gran
importancia.

Tienen la propiedad particular de que las probabilidades que


describen la forma en que el proceso evolucionar en el futuro,
dependen slo del estado actual en que se encuentra el proceso,
y por lo tanto, son independientes de los eventos ocurridos en el
pasado.

2016 Armin Trujillo Mata

2.1 Conceptos y terminologa


Proceso estocstico. Es una coleccin indexada de variables
aleatorias {Xt } donde el ndice t toma valores de un conjunto T dado.

T = conjunto de enteros no negativos.


Xt = caracterstica de inters medible en el tiempo t.
Ejemplo: El proceso estocstico X1, X2, X3, puede representar el
conjunto de niveles de inventario de un producto determinado, para la
semana 1, semana 2, semana 3, etc. Tambin podra representar el
conjunto de niveles de demanda de un producto dado para el mes 1,
el mes 2, el mes 3, etc.

2016 Armin Trujillo Mata

10

Conceptos y terminologa
En puntos especficos del tiempo t etiquetados 0, 1, 2, el
sistema se encuentra en uno de un nmero finito de estados o
categoras mutuamente excluyentes y colectivamente exhaustivos
etiquetados 0, 1, 2, M.
Los puntos en el tiempo pueden encontrarse a intervalos iguales o
el espacio entre ellos puede depender del comportamiento general
del sistema en el que se encuentra el proceso estocstico.

2016 Armin Trujillo Mata

11

Conceptos y terminologa
Proceso estocstico {Xt , t T }
Xt es una variable aleatoria

T es un conjunto de ndices, representa tiempo


Estados posibles del sistema 0, 1, M (los
diferentes escenarios que se pueden presentar)

Un proceso estocstico es el anlisis del comportamiento de una o


ms variables aleatorias en funcin del tiempo.
La sucesin de tiempo se da en saltos discretos.

2016 Armin Trujillo Mata

12

Ejemplo 1. Problema de inventarios


Una tienda de cmaras, tiene en almacn un modelo especial de cmara que
se puede ordenar cada semana.

Sean D1, D2, las demandas semanales de esta cmara, las Di son
variables aleatorias independientes e idnticamente distribuidas con una
distribucin de probabilidad conocida.
Sea X0 el nmero de cmaras que se tiene al momento de iniciar el proceso,
X1 el nmero de cmaras que se tiene al final de la semana 1, X2 el nmero
de cmaras al final de la semana 2, etc.
Suponga que X0 = 3. El sbado en la noche la tienda hace un pedido que le
entregan el lunes por la maana al abrir la tienda.
La tienda usa la siguiente poltica (s, S ) para ordenar: si el nmero de
cmaras en inventario al final de la semana es menor que s = 1 (no hay
cmaras en la tienda), ordena (hasta) S = 3. De otra manera no coloca la
orden (Si hay una o ms cmaras en almacn no se hace el pedido).

2016 Armin Trujillo Mata

13

Ejemplo 1. (Cont.)
{Xt } para t = 0, 1, es un proceso estocstico
Los estados posibles del proceso son los enteros 0, 1, 2 y 3 que son
el nmero posible de cmaras en inventario al final de cada semana.

La evaluacin de las variables aleatorias Xt se puede realizar en


forma iterativa por medio de la expresin

mx

+1 , 0

Si Xt < 1

mx

+1 , 0

Si Xt 1

+1 =

2016 Armin Trujillo Mata

14

Cadenas de Markov
Se dice que un proceso estocstico {Xt } tiene la propiedad
Markoviana si
+1 = 0 = 0 , 1 = 1 , , 1 = 1 , = }

Lo cual es igual a

+1 = = } para t = 0, 1, 2, . t -1

Lo anterior lo podemos interpretar de la siguiente manera


La probabilidad condicional de cualquier evento futuro dados
cualquier evento pasado y el estado actual Xt = i, es independiente
del evento pasado y slo depende del estado actual del proceso.

2016 Armin Trujillo Mata

15

Cadenas de Markov (cont.)


Las probabilidades condicionales P {Xt +1 = j | Xt = i } se llaman
probabilidades de transicin.

Esto es

1 = 0 = }

para toda t = 0, 1, 2,

Lo cual nos indica que las probabilidades de transicin adems son


estacionarias. Es decir, que no cambian con el tiempo (de estado
estable).
Lo anterior tambin implica que para cada i, j y n (n = 0, 1, 2, )
+ = = } = = 0 = } para toda t = 0, 1,
2016 Armin Trujillo Mata

16

Cadenas de Markov (cont.)


()

Las probabilidades condicionales casi siempre se denotan por y se


llaman probabilidades de transicin de n pasos.
()

Por lo tanto, es la probabilidad condicional de que la variable aleatoria


X, comenzando en el estado i, se encuentre en el estado j despus de n
pasos (unidades de tiempo).
()

Como son probabilidades condicionales, deben ser no negativas y


como el proceso debe hacer una transicin a algn estado, se debe
cumplir lo siguiente:
()

0,
()

=0

= 1,

para toda i y j ; n = 0, 1, 2,
para toda i ; n = 0, 1, 2,

2016 Armin Trujillo Mata

17

2.2 Elaboracin matricial de probabilidades


de transicin
Una notacin conveniente para representar las probabilidades de
transicin de n pasos es la forma matricial.

para n = 0, 1, 2,

O lo que es equivalente,

2016 Armin Trujillo Mata

18

Ejemplo 2. Demanda de un producto


En una tienda de autoservicio, un producto que se est analizando
puede tener dos tipos de demanda: demanda baja o demanda alta.
Si el da actual la demanda es baja, la probabilidad de tener
demanda baja el da siguiente es de 0.8. Pero si la demanda el da
actual es alta, la probabilidad de que al da siguiente la demanda
sea baja es de 0.6. Suponiendo que las probabilidades no cambian
en el tiempo, determine:

a) Las probabilidades de transicin


(elabore la matriz)
b) Un diagrama de transicin
c) Probabilidades de estado estable

2016 Armin Trujillo Mata

19

Ejemplo 2. (cont.)
Definimos la variable

X = Demanda del producto que nos interesa

X=

0 demanda baja
1 demanda alta
Demanda da siguiente

P{X t+1 = 0 | X t = 0 } =

0.8

P{X t+1 = 0 | X t = 1 } =

0.6

Demanda
Actual

Xt

X t+1
0 Dbaja

1 Dalta

0 Dbaja

P 0,0 = 0.8 P 0,1 = 0.2

1 Dalta

P 1,0 = 0.6 P 1,1 = 0.4

2016 Armin Trujillo Mata

20

Ejemplo 2. (cont.)
b) Ahora, el diagrama de transicin
0.2

0.8

0.4

0.6
c) Probabilidades de estado estable del sistema (estado estacionario)
Despus de transcurridos varios das

p0 = Probabilidad de llegar a un da con demanda baja


p1 = Probabilidad de llegar a un da con demanda alta
2016 Armin Trujillo Mata

21

Ejemplo 2. (cont.)
Establecemos las siguientes ecuaciones:

p0 = P0,0 p0 + P1,0 p1
p1 = P0,1 p0 + P1,1 p1
1 = p0 + p1
Sustituimos:

p0 = 0.8 p0 + 0.6 p1
p1 = 0.2 p0 + 0.4 p1

1 = p0 + p1

Tomamos y sustituimos en

p0 = 0.8 p0 + 0.6 p1
1 - p1 = 0.8 (1 - p1 ) + 0.6 p1
1 - p1 = 0.8 0.8 p1 + 0.6 p1
- p1 + 0.8 p1 - 0.6 p1 = 0.8 - 1
0.8 p1 = 0.2
p1 = 0.2 / 0.8 = 0.25
Probabilidad de llegar a un da con D alta

Tomamos y despejamos
De despejamos p0
p0 = 1 - p1 .

p0 = 1 - p1
p 0 = 1 0.25 = 0.75
Probabilidad de llegar a un da con D baja

2016 Armin Trujillo Mata

22

Modelos de Cadenas de Markov

Modelos de Cadenas de Markov


a. Cadenas
irreducibles

c. Cadenas
b. Cadenas
regulares
d. Cadenas
positivas(primitivas o absorbentes
recurrentes
ergdicas)

2016 Armin Trujillo Mata

e. Cadenas
en tiempo
continuo

23

a. Cadenas irreducibles
Una cadena de Markov se dice irreducible si se cumple cualquiera
de las siguientes condiciones (equivalentes entre s):
1.
2.

Desde cualquier estado de E se puede acceder a cualquier otro.


Todos los estados se comunican entre s.

3.

C(x) = E para algn xE.

4.
5.

C(x) = E para todo xE.


El nico conjunto cerrado es el total.

La cadena de Ehrenfest o la caminata aleatoria sin barreras


absorbentes son ejemplos de cadenas de Markov irreducibles.

2016 Armin Trujillo Mata

24

Ejemplo de una cadena irreducible

2016 Armin Trujillo Mata

25

b. Cadenas positivo-recurrentes
Una cadena de Markov se dice positivo-recurrente si todos sus
estados son positivo-recurrentes.

Esto significa que un estado determinado en un tiempo t, puede


repetirse despus de n periodos, y vuelve a presentarse despus
de otro nmero n de periodos.

2016 Armin Trujillo Mata

26

c. Cadenas regulares
Una cadena de Markov es regular (primitiva o ergdica) si existe
alguna potencia positiva de la matriz de transicin cuyas entradas
sean todas estrictamente mayores que cero.
Cuando el espacio de estados E es finito, y si P denota la matriz de
transicin de la cadena,
lim =

donde W es una matriz con todos sus renglones iguales a un


mismo vector de probabilidad w, (el vector de probabilidad
invariante de la cadena. En el caso de cadenas regulares, ste
vector invariante es nico
2016 Armin Trujillo Mata

27

d. Cadenas absorbentes
Una cadena de Markov con espacio de estados finito se dice
absorbente si se cumplen las dos condiciones siguientes:

1. La cadena tiene al menos un estado absorbente.


2. De cualquier estado no absorbente se accede a algn estado
absorbente.
Su matriz de transicin siempre se puede llevar a una de la forma
Donde
Q = submatriz de los estados del conjunto D
(D complemento de A que son estados absorb)
I = matriz identidad
0 = matriz nula
R = submatriz
2016 Armin Trujillo Mata

28

Adems,

Esto es que no importa en donde se encuentre la cadena,


eventualmente terminar en un estado absorbente.

2016 Armin Trujillo Mata

29

e. Cadenas en tiempo continuo


Si en lugar de considerar una secuencia discreta X 1, X2,..., Xi,.. con
i indexado en el conjunto de nmeros naturales, se consideran
las variables aleatorias Xt con t que vara en un intervalo continuo
del conjunto
de nmeros reales, tendremos una cadena en
tiempo continuo.

Este tipo de cadenas en tiempo continuo se expresan as

tal que

2016 Armin Trujillo Mata

30

Para una cadena de Markov continua con un nmero finito de


estados puede definirse una matriz estocstica dada por:

La cadena se denomina homognea si

Para una cadena de Markov en tiempo continuo homognea y con


un nmero finito de estados puede definirse el llamado generador
infinitesimal como:

2016 Armin Trujillo Mata

31

2.3 Manejo de periodos futuros


Para estimar la probabilidad de los periodos futuros, tomando el
ejemplo de la tienda que desea predecir la probabilidad de que la
demanda sea baja o alta en el futuro, resolvemos el inciso c).

2016 Armin Trujillo Mata

32

2.4 Manejo de condiciones de equilibrio


Cuando se desea estimar la curva del porcentaje de ventas de un
producto, para poder tomar una decisin sobre cundo redisearlo
para que vuelva a tener impacto en el mercado, se emplean los
procesos de Markov.

Especficamente, se debe encontrar la matriz de transicin en su


estado estacionario tambin conocida como matriz en condicin de
equilibrio.
Lo que se busca es determinar el periodo n en el cual se lograr
dicha estabilizacin.

2016 Armin Trujillo Mata

33

Condicin de equilibrio
Para una Cadena de Markov irreducible, regular, cuando el nmero
de etapas n tiende al infinito, el lmite existe y es independiente de i
(es decir, todos los renglones de la matriz convergen al mismo
valor).
()

Lim

En el modelo matemtico, se satisface que los valores del vector de


equilibrio son positivos y la suma de las probabilidades del vector
son iguales a 1.

2016 Armin Trujillo Mata

34

Ejemplo 3.
Por ejemplo para una cadena con tres estados (suponga nivel de
ventas bajo, medio y alto) y con probabilidades en estado estable o
de equilibrio, tendramos que

Multiplicando y resolviendo simultneamente este sistema para p1,


p2 y p3 podemos encontrar la distribucin de probabilidades en
estado estable.

2016 Armin Trujillo Mata

35

Ejemplo 3. (cont.)
Desarrollando el sistema anterior:

Y considerando las siguientes probabilidades de transicin (por


ejemplo en una matriz),

2016 Armin Trujillo Mata

36

Ejemplo 3. (cont.)
Para encontrar el estado estable, planteamos su condicin:

Multiplicamos la matriz de estado estable por la matriz de transicin


y nos quedan las siguientes ecuaciones:

2016 Armin Trujillo Mata

37

Ejemplo 3. (cont.)
A las ecuaciones anteriores agregamos la
restriccin de la suma de probabilidades:

Expresando los decimales en forma


de fraccin y multiplicando las
ecuaciones para tener coeficientes
enteros, tenemos

Resolviendo el sistema de
ecuaciones, obtenemos la distribucin
de probabilidad en el estado de equilibrio
2016 Armin Trujillo Mata

4p1 3p2 4p3 = 0


p1 2p2
=0
2p1 + p2 4p3 = 0
p1 + p2 + p3 = 1
38

Solucin de ecuaciones simultneas


2p1 + p2 4p3 = 0
2(2p2) + p2 4(1 - 3p2) = 0
4p2 + p2 4 + 12p2 = 0
17p2 4 = 0
17p2 = 4

4p1 3p2 4p3 = 0 . . . . . . . .


p1 2p2 = 0 . . . . . . . . . . . . .
2p1 + p2 4p3 = 0 . . . . . . . .
p1 + p2 + p3 = 1 . . . . . . . .
De la ecuacin tenemos
p1 2p2 = 0
p1 = 2p2 . . . . . . . . . . . . .

p2 = 4/17 = 0.2352

Sustituyendo el valor de p2 en ,
p1 = 2p2
p1 = 2 (0.2352) = 0.4705

Sustituyendo en tenemos
p1 + p2 + p3 = 1
2p2 + p2 + p3 = 1
3p2 + p3 = 1
p3 = 1 - 3p2 . . . . . . . .

Por lo tanto, de la ecuacin


p1 + p2 + p3 = 1

Sustituyendo y en tenemos

p3 = 1 - p1 - p2
p3 = 1 0.4705 0.2352 = 0.2941

2016 Armin Trujillo Mata

39

Ejemplo 3. (cont.)
As, tenemos que

p1 = 0.4705
p2 = 0.2352

p3 = 0.2941
Lo cual significa que a largo plazo, existe un 47.05% de
probabilidad que se presente el estado1, un 23.52% de
probabilidad que se presente el estado 2 y 29.41% de
probabilidad que se presente el estado 3.

2016 Armin Trujillo Mata

40

Ejercicio 1
Dos compaas, A y B, comparten un mercado. Actualmente, A domina el
35% del mercado y B el resto. El departamento de investigacin de la
compaa A, ha determinado por medio de estudios que un cliente que
actualmente le compra, tiene un 70% de probabilidad de comprarle
nuevamente el prximo ao. Mientras que un cliente que le compra a la
compaa B, tiene un 80% de probabilidad de seguirle comprando a B el ao
prximo. Si el mercado total del ao que viene se estima en $4,000,000.
Qu ingreso por ventas espera tener la empresa A?

Participacin actual
Compaa
A
B
0.35

0.65

Participacin ao
prximo

Matriz de transicin
A

A 0.7 0.3

0.375

0.625

B 0.2 0.8

Por lo tanto, 0.375 x 4,000,000 = 1,500,000


2016 Armin Trujillo Mata

41

Elaborando un diagrama de transicin para el Ejercicio 1, ste se vera de la


siguiente manera
0.3

0.7

0.8

0.2

2016 Armin Trujillo Mata

42

Ejercicio 2
Considere el anlisis del precio de una accin. Al final de un da dado, se
registra el precio de dicha accin. Si la accin subi al cierre de la jornada, la
probabilidad de que suba el da de maana es de 0.7. Si la accin baj, la
probabilidad de que suba maana es slo de 0.5.

Represente las probabilidades de transicin con una matriz.


Estado 0 = Precio de la accin sube.
Estado 1 = Precio de la accin baja.
0

P=

0.7 0.3

0.5 0.5

2016 Armin Trujillo Mata

43

Ejercicio 3
Suponga ahora que el modelo del mercado de acciones cambia; el que el
precio de una accin suba o baje maana, depende de si subi o baj el da
de hoy y ayer. En particular, si la accin subi los dos das, la probabilidad de
que suba maana es 0.9. Si la accin subi hoy pero ayer baj, maana
subir con probabilidad de 0.6. Si la accin baj hoy pero ayer subi,
entonces maana subir con probabilidad de 0.5. Por ltimo, si baj los dos
das, la probabilidad de que maana suba es de 0.3.
Represente las probabilidades de transicin con una matriz.

Estado 0 = La accin subi ayer y hoy subi.


Estado 1 = La accin baj ayer y hoy subi.
Estado 2 = La accin subi ayer y hoy baj.
Estado 3 = La accin baj ayer y hoy baj.

2016 Armin Trujillo Mata

44

Para facilitar la comprensin


Ayer Hoy

Maana

Probabilidad

Estado 0 = La accin subi ayer y hoy subi.

0.9

Estado 1 = La accin baj ayer y hoy subi.

0.6

Estado 2 = La accin subi ayer y hoy baj.

0.5

Estado 3 = La accin baj ayer y hoy baj.

0.3

0
Estado 0 = La accin subi ayer y hoy subi.
Estado 1 = La accin baj ayer y hoy subi.
Estado 2 = La accin subi ayer y hoy baj.
Estado 3 = La accin baj ayer y hoy baj.

0
1
P=
2
3

2016 Armin Trujillo Mata

0.9 0 0.1 0
0.6 0 0.4 0
0 0.5 0 0.5
0 0.3 0 0.7

45

Caso.
Move-U Truck Rental Company
La Move-U Truck Rental Company se especializa en el arrendamiento de
camiones a personas que desean realizar sus propias mudanzas. El gerente
de distribucin de la compaa, est considerando aplicar un cargo por
traslado para cubrir el costo de enviar camiones desde reas en las que hay
sobrantes a otros lugares en los que se necesitan. Antes de decidir si debe
aplicar el cargo por traslado al costo del arrendamiento de los camiones que
se dirigen a reas en las que hay sobrantes, desea determinar la proporcin
del nmero total de camiones que, a largo plazo, acabarn en cada una de
las reas de renta. Si las proporciones son aproximadamente las mismas, el
cargo por traslado ser innecesario. De lo contrario, el cargo depender de la
proporcin del total que termine en cada regin.
El gerente ha dividido la parte de Estados Unidos que atiende su empresa,
en las regiones norte, centro y sur. De registros previos se ha determinado
que de los camiones que se rentan cada mes en el norte, 20% van a una
ciudad del norte, 30% terminan en la regin centro y 50% regresan a la
regin sur.
2016 Armin Trujillo Mata

46

Cont. Caso Move-U Truck Rental Co.


De manera similar, la compaa ha determinado que cada mes, 40% de los
camiones que se rentan en la regin centro, se regresan a esta misma
regin. 30% se regresan a la regin norte, y el 30% restante se regresa a la
regin sur.

Por ltimo, de los camiones que se rentan cada mes en la regin sur, 20% se
regresan a la regin norte y 40% se regresan a la regin centro.
En este momento, 40% de los camiones se encuentran en el norte, 30% en
la regin centro y 30% en la regin sur.

Dado el patrn de movimiento de los camiones, la empresa necesita saber:


a. Qu proporcin de los camiones se encontrar en cada regin despus
de un mes?

b. Qu proporcin de los camiones estar en cada regin despus de un


periodo largo?
2016 Armin Trujillo Mata

47

Enfoque de solucin
Regin donde
se renta
Norte
Central
Sur

Regin a donde se regresa

Norte

Central

Sur

0.2
0.3
0.2

0.3
0.4
0.4

0.5
0.3
0.4

Notas:

a. Para cualquier rengln, la suma de las probabilidades es igual a 1.


b. La regin a la que se regresa un camin depende slo de la regin en la
que se rent. (El estado final del camin depende de su estado ms
reciente).

2016 Armin Trujillo Mata

48

Enfoque de solucin (cont.)


Utilizando la notacin matricial, para el mes 1 sabiendo que los
camiones estn en el norte.

N C S
1 0

Vector de probabilidad
para comenzar en el
norte

0.2 0.3
0.3 0.4
0.2 0.4

0.5
0.3
0.4

Matriz de transicin
de un mes

2016 Armin Trujillo Mata

0.2 0.3

0.5

Vector de probabilidad
despus de un mes

49

Enfoque de solucin (cont.)


Utilizando la notacin matricial, para el mes 2 despus de que los
camiones estaban en el norte.
N

0.2 0.3

0.5

Vector de probabilidad
despus de un mes

0.2 0.3
0.3 0.4
0.2 0.4

S
0.5
0.3
0.4

Matriz de transicin
de un mes

0.238 0.376 0.386

Vector de probabilidad
despus de dos meses

Proporcin de camiones
en el mes 2.

2016 Armin Trujillo Mata

50

Otro enfoque (Diagrama de rbol cuando


los camiones estn en el Norte)

P(XN,N) = 0.04 + 0.09 + 0.10 =


= 0.23
P(XC,N) = 0.06 + 0.12 + 0.20 =
= 0.38
P(XS,N) = 0.10 + 0.09 + 0.20 =
= 0.39

2016 Armin Trujillo Mata

51

2.5 Usos y aplicaciones de Markov


Algunos ejemplos donde se aplican Cadenas de Markov:
Control de Inventarios
Anlisis de Cuentas por Cobrar
Programacin de algoritmos para aplicaciones electrnicas (texto
predictivo)
Anlisis de incertidumbre y riesgos
Exploracin petrolera
Administracin del mantenimiento
Meteorologa

2016 Armin Trujillo Mata

52

Conclusin

Las cadenas de Markov y sus diferentes modelos, son sumamente


tiles para poder modelar el comportamiento futuro de una variable
de inters ante condiciones de incertidumbre.
Por lo tanto, son una herramienta muy poderosa para mejorar el
proceso de toma de decisiones en administracin.

Como resultado, podemos tomar mejores decisiones e incrementar


la probabilidad de lograr los resultados esperados.

2016 Armin Trujillo Mata

53

Actividades extra clase

T2.1 Investigar aplicaciones especficas de Cadenas de Markov.


T2.2 Elaborar los ejercicios de clase para repasar.
T2.3 Resolver los ejercicios que fueron proporcionados en clase o que sern
enviados por correo electrnico.

2016 Armin Trujillo Mata

54

También podría gustarte