Está en la página 1de 9

"Satisfacción y análisis de situaciones cotidianas"

Kelly Johana Paz Osorio


Luisa Fernanda Huertas Martínez

Docente: Jorge Enrique Taboada Alvarez

Fundación Universitaria del Área Andina. 


Facultad de Ingenierías y Ciencias Básicas
Investigación Operacional II
14 de noviembre de 2022
Caso Práctico N°1

1. En un estudio de satisfacción de cliente de una empresa de telecomunicaciones se evidencia que el 10% de la


gente que adquiere un servicio, un mes, no lo solicitará el mes siguiente. Por otro lado, el 15% de quienes no lo
han adquirido aún lo adquirirá al mes siguiente. En una población de 1000 personas, 100 adquirieron el servicio el
primer mes. ¿Cuántos lo comprarán el próximo mes? ¿Y dentro de dos meses?

A. De acuerdo con los supuestos del problema planteado, ¿Se cumple la propiedad markoviana?

R/ En este problema si se cumple la propiedad de Markoviana, ya que para obtener la información solicitada,
debemos hacer uso de los datos obtenidos en el día anterior para poder determinar las solicitudes futuras.

B. Formule una cadena de Markov a partir de los datos en el problema, para lo que debe efectuar el diagrama de
estados y la matriz de probabilidades de transición.

Del 100% de los clientes que adquire


0,90 en un mes un servicio el 10% no lo
Adquiere el
servicio solicitara el mes seguiente, por lo tanto,
el 90% lo sigue adquiriendo el
seguiente mes.

0,10 0,15

Del 100% de los clientes que no


adquiren el servicio en un mes, solo el
0,85 No adquiere el 15% lo adquieren el mes siguiente, por
servicio lo tanto el 85% no lo solictaran el
siguiente mes.

Cálculo: con esta información contruimos la matriz 2x2 P (o) representando la situación nicial:

C NC
P (0) = 0,9 0,1 C 0.9 0.1
0,15 0,85 NC 0.15 0.85
Primer Mes:
( C,N ) = ( 100 900) = 1000 Población total

Próximo Mes:
P(1) ( C,N ) = ( 100 900) 0,9 0,1
0,15 0,85 = P(1) 225, 775

¿Cuántos lo comprarán el próximo mes?

R/ El mes seguiente adquieren el servicio C=225 personas y no lo adquieren N=775 personas.

Dos Mes:
P(2) ( C,N ) = ( 225 775) 0,9 0,1
0,15 0,85 = P(2) 319, 681

¿Y dentro de dos meses?


R/ En dos meses adquieren el servicio C=319 personas y no lo adquieren N=681 personas.
encia que el 10% de la
15% de quienes no lo
dquirieron el servicio el
meses?

iana?

formación solicitada,
solicitudes futuras.

ectuar el diagrama de

cial:
nas.
Caso Práctico N°2

2. Suponga que la probabilidad de que llueva en determinada zona de Bogotá mañana es de 0.25 si hoy llueve en es
zona y que la probabilidad de que no llueva es de 0.8 si hoy no llueve en la zona.
Suponga además que estas probabilidades no cambian si también se proporciona información sobre los accidentes d
días anteriores a hoy.

A.    De acuerdo con los supuestos del problema planteado, ¿Se cumple la propiedad markoviana?

R// Los eventos que se llegan a ocurrir en un estado donde el día este lluvioso dependen de los que ocurren uno de
donde no este lluvioso, así con un consecutivo, esto será de probabilidades. Esto depende de una cada de estados
respecto al clima.

B.    Formule una cadena de Markov a partir de los datos en el problema, para lo que debe efectuar el diagrama de
estados y la matriz de probabilidades de transición.

Estados
1 Lluvioso
2 No lluvioso

0,75

Luvioso No lluvioso 0,8


0,25

0,2

Lluvioso No lluvioso
Lluvioso 0.25 0.75 1
No lluvioso 0.2 0.8 1

P (0) = 0,25 0,75


0,2 0,8
ñana es de 0.25 si hoy llueve en esa
llueve en la zona.
información sobre los accidentes de

d markoviana?

ependen de los que ocurren uno de


o depende de una cada de estados

e debe efectuar el diagrama de


BIBLIOGRAFIAS

Bueno, T. [UCOP2SpqBEblyus9yeERSWqQ]. (2020a, April 28). Cadenas de Márkov - ejemplo1. Yout


https://www.youtube.com/watch?v=6j9KNFHjV6Q

Bueno, T. [UCOP2SpqBEblyus9yeERSWqQ]. (2020b, April 29). Cadenas de Márkov - ejemplo3. Yout


https://www.youtube.com/watch?v=YasHLob_HNQ

(N.d.). Wordpress.com. Retrieved November 10, 2022, from


https://jrvargas.files.wordpress.com/2009/01/problemas-resueltos-cadenas-de-markov.pdf
e Márkov - ejemplo1. Youtube.

e Márkov - ejemplo3. Youtube.

e-markov.pdf

También podría gustarte