Está en la página 1de 11

PHASE 6.

SOLVE PROBLEMS BY APPLYING THE ALGORITHMS OF UNIT 3

HANNE HACIBE SÁNCHEZ MÁZZRI

Código: 53.168.236

JOSE CARLOS GIL AROCA

Código: 77.090.206

LAURA MARCELA HINOJOSA

Código: 1.065.642.981

RICHARD ALEXANDER BLANCO GÓMEZ

Código: 1.081.809.552

EDER LUIS VEGA

Código: 1.065.826.232

Grupo: 212066_25

UNIVERSIDAD NACIONAL ABIERTA Y ADISTANCIA

ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍAS

INGENIERÍA INDUSTRIAL

TEORÍA DE LAS DECISIONES

VALLEDUPAR- CESAR

MAYO 2019
INTRODUCCIÓN

En el acontecer diario nos mezclamos con diferentes situaciones que requieren de un


análisis exhaustivo para llegar a una solución. Situaciones en las que no bastando con
la ayuda de la misma experiencia necesitan otro tipo de herramientas para sus prontas
decisiones ya que podrían ser vitales para el progreso de una empresa o negocio.

En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov


a un tipo especial de proceso estocástico discreto en el que la probabilidad de que
ocurra un evento depende solamente del evento inmediatamente anterior. Esta
característica de falta de memoria recibe el nombre de propiedad de Markov.

En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de
compra, los deudores morosos, para planear las necesidades de personal y para
analizar el reemplazo de equipo. El análisis de Markov, llamado así en honor de un
matemático ruso que desarrollo el método en 1907, permite encontrar la probabilidad
de que un sistema se encuentre en un estado en particular en un momento dado. Algo
más importante aún, es que permite encontrar el promedio a la larga o las
probabilidades de estado estable para cada estado. Con esta información se puede
predecir el comportamiento del sistema a través del tiempo. La tarea más difícil es
reconocer cuándo puede aplicarse. La característica más importante que hay que
buscar en la memoria de un evento a otro.
PROBLEMA 1. Cadenas de Markov (estado estable):
La compañía de seguros XYZ cobra a sus clientes según su historial de accidentes. Si
no ha tenido accidentes, se cobrarán los últimos dos años por la nueva política $
715,000 (estado 0); si ha tenido un accidente en cada uno de los últimos dos años, se
le cobrarán $ 835,000 (Estado 1); Si tuvo accidentes el primero de los últimos dos
años, se le cobrarán $ 789.000 (estado 2) y si tuvo un accidente, el segundo de los
últimos dos años se le cobrará $ 813.000 (estado 3). El comportamiento histórico de
cada estado viene dado por los siguientes casos de accidente, tomados en cuatro
eventos diferentes.
ACCIDENTES EN EL AÑO
ESTADOS E0 E1 E2 E3 TOTAL
E0 920 1380 1840 460 4600
E1 1740 0 1160 2900 5800
E2 900 900 1800 900 4500
E3 1140 1520 0 1140 3800

Solución:
La Prima Promedio que se paga en la compañía es: (0,2505*715000) + (0*835000) +
(0,244618395*789000) + (0,27201566*813000) = $593.260,1452.
PROBLEMA 2. Cadenas de Markov (multiplicación de estado inicial):
En Colombia hay 5 operadores móviles principales, como Tigo, Comcel, Movistar, ETB
y Uff, que llamaremos estados. La siguiente tabla resume las probabilidades de que
cada cliente tenga que permanecer en su operador actual o hacer un cambio de
compañía.
MOBILE OPERATOR
ESTADOS TIGO COMCEL MOVISTAR ETB UFF
TIGO 0,1 0,2 0,4 0,1 0,2
COMCEL 0,3 0,2 0,1 0,2 0,2
MOVISTAR 0,1 0,3 0,2 0,2 0,2
ETB 0,1 0,3 0,2 0,1 0,3
UFF 0,1 0,2 0,3 0,3 0,1

Los porcentajes actuales de cada operador en el mercado actual son para Tigo 0.3
para Comcel 0.2, para Movistar 0.3, para ETB 0.1 y 0.1 para Uff (estado inicial).
Solución:
PROBLEMA 3. Markov chains (Initial state multiplication):
En Colombia hay 6 operadores móviles principales como Avantel, Tigo, Comcel,
Movistar, ETB y Uff, que llamaremos estados. La siguiente tabla resume las
probabilidades de que cada cliente tenga que permanecer en su operador actual o
hacer un cambio de compañía.
MOBILE OPERATOR
ESTADOS TIGO COMCEL MOVISTAR ETB AVANTEL UFF
TIGO 0,1 0,2 0,4 0,1 0,1 0,1
COMCEL 0,1 0,2 0,1 0,2 0,3 0,1
MOVISTAR 0,1 0,3 0,2 0,2 0,2 0
ETB 0,1 0,3 0,2 0,1 0,1 0,2
AVANTEL 0,3 0 0,2 0,2 0,2 0,1
UFF 0,1 0,2 0,2 0,3 0 0,2

Los porcentajes actuales de cada operador en el mercado actual son para Avantel 0.1,
Tigo 0.2 para Comcel 0.2, para Movistar 0.3, para ETB 0.1 y 0.2 para Uff (estado inicial)

Solución:
Disminuye la probabilidad de permanencia en TIGO (de 20% a 13%) y en MOVISTAR
(de 30% a 24%) y en UFF (de 20% a 11%)
Aumenta la probabilidad de permanencia en COMCEL (de 20% a 24%), en ETB (de
10% a 21%) y en AVANTEL (de 10% A 17%)
PROBLEMA 4. Markov chains (Initial state multiplication):
Supongamos que se obtienen 4 tipos de refrescos en el mercado: Colombiana, Pepsi
Cola, Fanta y Coca Cola cuando una persona ha comprado Colombiana, es probable
que continúen consumiendo el 40%, de los cuales el 20% comprará Pepsi Cola, El 10%
que compra Fanta y el 30% que consume Coca Cola; cuando el comprador
actualmente consume Pepsi Cola, es probable que continúe comprando el 30%, el 20%
que compra Colombiana, el 20% que consume Fanta y el 30% de Coca Cola; Si
actualmente se consume Fanta, la probabilidad de que continúe consumiéndose es del
20%, el 40% compra Colombiana, el 20% consume Pepsi Cola y el 20% se destina a
Coca Cola. Si actualmente consume Coca Cola, la probabilidad de que continúe
consumiendo es del 50%, el 20% compra Colombiana, el 20% que consume Pepsi
Cola y el 10% que se pasa a Fanta. En la actualidad, cada marca colombiana, Pepsi
Cola, Fanta y Coca Cola tienen los siguientes porcentajes en participación de mercado
respectivamente (30%, 25%, 15% y 30%) durante la semana 3.
Solución:

Para la semana 3, la probabilidad de consumo de Colombiana disminuyó a 29%, la de


Pepsi cola bajó a 22% y la probabilidad de consumo de Fanta disminuyó al 14%.
Mientras que la COCA COLA aumentó la probabilidad de consumo al 36%
PROBLEMA 5. Markov chains (Initial state multiplication):
Supongamos que obtiene 6 tipos de marcas de jeans en el mercado colombiano: Marca
1, Marca 2, Marca 3, Marca 4, Marca 5 y Marca 6. La siguiente tabla muestra las
probabilidades de que continúe usando la misma marca o la cambie.

ESTADO MARCA 1 MARCA 2 MARCA 3 MARCA 4 MARCA 5 MARCA 6


MARCA 1 0,2 0,16 0,15 0,21 0,18 0,1
MARCA 2 0,14 0,18 0,2 0,19 0,15 0,14
MARCA 3 0,13 0,16 0,15 0,21 0,2 0,15
MARCA 4 0,21 0,2 0,15 0,2 0,18 0,06
MARCA 5 0,15 0,15 0,15 0,19 0,15 0,21
MARCA 6 0,17 0,16 0,17 0,18 0,19 0,13

En la actualidad, la marca tiene los siguientes porcentajes en participación de mercado


respectivamente (20%, 15%, 17%, 15%, 13% y 20%) durante la semana 4.
Solución:

El porcentaje de participación en el mercado disminuyó para la MARCA 1 de 20% al


17%; El porcentaje de participación o preferencia de uso para la MARCA 2 aumentó de
15% al 17%; La MARCA 3 disminuyó de 17% a 16%; Mientras que la MARCA 4
aumentó su preferencia de uso de un 15% a un 20%; La MARCA 5 de jeans aumentó
su preferencia de uso de 13% a 20%. Mientras que la MARCA 6 de jeans bajó su
preferencia en el mercado de un 20% al 13%.
CONCLUSIONES

Con el desarrollo de los ejercicios de esta fase, pudimos analizar la importancia que
tiene el Modelo de Markov y comprender que nos permite determinar de forma
secuencial las probabilidades de ocurrencia de eventos.

Las cadenas de Markov son pues una de esas herramientas que motivan el uso de
hechos que ya sucedieron para a través de probabilidades predecir una futura
situación.

Mediante el Modelo de Cadena de Markov, es posible describir y analizar los cambios


hechos, mediantes medidas alternas que reflejen hacia el futuro índices de satisfacción
o insatisfacción de clientes o usuarios a través de las respuestas del mercado, tal como
pudimos analizar en los ejercicios de Operadores Móviles y preferencia de Consumo de
bebidas gaseosas.

El enfoque e proceso estocástico y la particular aplicación de Cadenas de Markov en la


medición de las acciones de mejora o de control que efectue una organización, brinda
la posibilidad de percibir, con cierto grado de confianza, resultados hacia el futuro que
hoy podemos planear y transformar hacia metas o estándares deseados, sin necesidad
de que realmente ocurran los hechos.
BIBLIOGRAFÍA

Ibe, O. (2013). Markov Processes for Stochastic Modeling: Massachusetts, USA:


University of Massachusetts Editorial.

Gallaher, Charles. A y Watson, Hugh, J. (1982). Métodos Cuantitativos para la Toma


de Decisiones en Administración. México. McGraw Hill.

Mosquera, W. (2010). Theory of decisions. (pp. 77-99), Bogotá, Colombia: Editorial


Universidad Nacional Abierta y a Distancia. Retrieved from:
http://hdl.handle.net/10596/4891

Marato, C. (2012). Operational research in business administration and management,


Valencia, Spain: Editorial Universidad Pontificia de Valencia. Retrieved from:
http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/detail.action?docID=10646732

Intereses relacionados