Está en la página 1de 6

Universidad Juárez Autónoma De Tabasco

División Académica De Ciencias Económica Administrativa

Profesor:

Dr. Rubén Pérez Salvador

Asignatura:

Investigación de Operaciones

Tarea en equipo 3

Análisis de cadena de Markov

Equipo 6

Integrantes

Emeli Edith Burelo Gutiérrez

Thyla Adrianna Hernández Sánchez


Introducción

En esta investigación se plantea el objetivo de definir cada uno de los conceptos


que integran el análisis de Markov, comenzando desde los más básicos hasta los
más complejos, al igual el por qué es llamado así a dicho estudio, dándole este
nombre por su autor (Markov) en este documento se plasma acerca de su
biografía, así como todos sus logros que ejecutó.
Una cadena de Markov se define como una secuencia de variables aleatorias que
representan los estados de un determinado sistema durante una serie de
intervalos de tiempo, de modo tal que el estado del sistema en el intervalo actual
depende únicamente de su estado en el intervalo inmediato anterior y no de los
estados previos.
Concepto
La cadena de Márkov, dentro de la teoría de la probabilidad, es un proceso
estocástico donde la posibilidad de que un evento ocurra depende del evento
anterior.
Básicamente, una cadena es un proceso en tiempo discreto (también se puede
suponer su continuidad, pero esta tarea sobrepasa el ámbito en el que se enmarca
esta publicación) en el que una variable aleatoria va cambiando de estado con el
paso del tiempo. O, en otras palabras, una cadena representa un sistema que
varía su estado a lo largo del tiempo. Un estado es una caracterización de la
situación en la que se halla un determinado sistema en un instante dado, y puede
ser tanto cuantitativo como cualitativo. En términos coloquiales, un estado es la
respuesta a la pregunta ¿Cómo están las cosas? En términos más formales, el
estado de un sistema en un determinado instante es una variable aleatoria cuyos
valores solo pueden pertenecer al conjunto de posibles estados del sistema, que
son mutuamente excluyentes. El sistema que pretende modelizar una cadena es,
por consiguiente, una variable aleatoria que cambia de valor (cuantitativo o
cualitativo) en el tiempo. A dicho cambio se le denomina transición.

Historia

Andréi Andréyevich Márkov: (14 de junio de 1856 – 20 de julio de1922) fue un


matemático ruso conocido por sus trabajos en la teoría de los números y la teoría
de probabilidades.

Márkov nació en Riazán, Rusia. Antes de los 10 años su padre, un funcionario


estatal, fue trasladado a San Petersburgo donde Andréi entró a estudiar en un
instituto de la ciudad. Desde el principio mostró cierto talento para las matemáticas
y cuando se graduó en 1874 ya conocía a varios matemáticos de la Universidad
de San Petersburgo, donde ingresó tras su graduación. En la Universidad fue
discípulo de Chebyshov y tras realizar sus tesis de maestría y doctorado, en1886
accedió como adjunto a la Academia de Ciencias de San Petersburgo a propuesta
del propio Chebyshov. Diez años después Márkov había ganado el puesto de
académico regular. Desde 1880, tras defender su tesis de maestría, Márkov
impartió clases en la Universidad y, cuando el propio Chebyshov dejó la
Universidad tres años después, fue Márkov quien le sustituyó en los cursos de
teoría de la probabilidad. En 1905, tras 25 años de actividad académica, Márkov
se retiró definitivamente de la Universidad, aunque siguió impartiendo algunos
cursos sobre teoría de la probabilidad.

A parte de su perfil académico, Andréi Márkov fue un convencido activista político.


Se opuso a los privilegios de la nobleza zarista y llegó a rechazar las
condecoraciones del propio zar en protesta por algunas decisiones políticas
relacionadas con la Academia de Ciencias. Hasta tal punto llegó su implicación en
la política que llegó a ser conocido con el sobrenombre de «el académico
militante».

Márkov arrastró durante toda su vida problemas relacionados con una


malformación congénita en la rodilla que le llevaría varias veces al quirófano y
que, con el tiempo, fue la causa de su muerte cuando el 20 de julio del año 1922
una de las muchas operaciones a las que se sometió le produjo una infección
generalizada de la que no pudo recuperarse.

Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo en
sus trabajos sobre fracciones continuas, la historia le recordará principalmente por
sus resultados relacionados con la teoría de la probabilidad. En 1887 completó la
prueba que permitía generalizar el teorema central del límite y que ya había
avanzado Chebyshov. Pero su aportación más conocida es otra.

Antecedentes
El análisis de Markov, llamado así por los estudios realizados por el ruso Andréi
Andréyevich Márkov entre 1906 y 1907, sobre la secuencia de los experimentos
conectados en cadena y la necesidad de descubrir matemáticamente los
fenómenos físicos. La teoría de Markov se desarrolló en las décadas de 1930 y
1940 por A.N. Kolmagoron, W. Feller, W. Doeblin, P. Levy, J.L. Doob y otros.

El análisis de Markov es una forma de analizar el movimiento actual de alguna


variable, a fin de pronosticar el movimiento futuro de la misma. Este método ha
comenzado a usarse en los últimos años como instrumento de investigaciones de
mercadotecnia, para examinar y pronosticar el comportamiento de los clientes
desde el punto de vista de su lealtad a una marca y de sus formas de cambio a
otras marcas, la aplicación de esta técnica, ya no solo se limita a la mercadotecnia
sino que su campo de acción se ha podido aplicar en diversos campos.

De manera intuitiva, una cadena de Márkov en tiempo discreto (por sencillez) es


un proceso estocástico que evoluciona en tiempo discreto o etapas y tiene la
propiedad markoviana que dice: “el futuro depende de lo que pasa en el presente,
pero no del pasado estricto”. Así, tendremos unos estados E₁, E₂, E₃,… de
manera que se pasa de uno a otro por una matriz de transición en una etapa. La
cardinalidad (número de elementos) del conjunto de estados es numerable, es
decir, es un conjunto finito o con la misma cardinalidad que los números naturales.

La matriz de transición en cada etapa tiene como elementos a las probabilidades


de paso de un estado a otro cuando el proceso evoluciona desde una etapa a la
etapa siguiente n +1 . Por lo tanto, está compuesto de números reales positivos
entre 0 y 1, de manera que la suma de cada fila o columna, según la disposición
de los estados inicial (en la etapa n) y final (en la etapa n+1), es 1.
Ejemplo PRONOSTICO PARA LA FECHA DE COMPETENCIA
La Asociación de yates decide su regata anual se realizará en junio, julio o agosto.
Si se efectúa en junio, la probabilidad de buen tiempo es de 1/4; con estas
condiciones, la regata del próximo año se hará en junio, con probabilidad de 2/3,
en julio con probabilidades de 1/6 o en agosto con probabilidad de 1/6; pero si se
tiene mal tiempo, la regata del próximo año se realizará en julio o en agosto, con
iguales probabilidades. Si la competencia se efectúa en julio el mal y el buen
tiempo son equiprobables; si hay buen tiempo, la regata del próximo año se
celebrará en julio; si hay mal tiempo, la regata siguiente se realizará en agosto,
con probabilidad de 2/3 o en junio, con probabilidad de 1/3. Si la regata es en
agosto, la probabilidad de buen tiempo es 2/5; y si hay buen tiempo, la regata se
hará en julio o en agosto, con igual probabilidad; pero si se tiene mal tiempo, la
regata siguiente se hará en junio con probabilidad de 1/3 o en julio con
probabilidad de 2/3.

SOLUCION:

Variable de decisión: X: t-ésimo mes de competencia

Espacio paramétrico: T = {t Z+ /. T: mes}

Espacio de estados: S = {Junio, Julio, Agosto} Matriz de transición:

Si: p (0) = (0.40, 0.30, 0.30)

¿Cuál es la probabilidad que la competencia del próximo año sea en julio? p (1) =
p (0) P = ( 0.172, 0.498, 0.33) en julio 0.498
Condiciones de estabilidad: P(n) = P(n-1) P Donde p (1) = (0.172, 0.517, 0.310)

A futuro es preferible realizar la competencia en el mes de julio

Conclusión

Como conclusión las cadenas de Markov nos permite hacer análisis sobre el
estudio de los comportamientos de ciertos sistemas en ciertos periodos que
pueden ser cortos o largos. Además se tiene una relación con las probabilidades
absolutas. Pero sin embargo lo más importante es el estudio del comportamiento
sistemas a largo plazo, cuando el número de transiciones tiene el infinito.

Al conocer más o menos las probabilidades de un experimento, esto a su vez nos


permitirá conocer a corto y plazo los estados en que se encontrarían en periodos o
tiempos futuros y tomar decisiones que afectaran o favorecerán nuestros intereses
y tomar una decisión de manera consciente y no se comentan muchos errores.

Esto también nos proporciona un tiempo estimado para que identifiquemos cada
estado y el periodo en que se encuentran con la implementación de un proceso,
también se establece las probabilidades como una herramienta más en la cadenas
de Markov.

También podría gustarte