Está en la página 1de 7

Universidad Autónoma De Chiapas

Facultad de contaduría y administración


campus I

Alumno: González Díaz Abraham Alejandro

Carrera: Licenciatura en Administración

Asignatura:

“Investigación Y Administración de Operaciones”

Docente: Noé Toledo Castillejos

Actividad: Investigación documental

“Proceso de Márkov”

Grado: 7° Grupo: “B”

Tuxtla Gutiérrez Chiapas 10/Noviembre/2022


Índice

Introducción. ................................................................................................................................... 3

Proceso de Márkov. ....................................................................................................................... 3

Análisis de Markov..................................................................................................................... 4

Conceptos básicos .................................................................................................................... 5

La Cadena de Márkov.................................................................................................................... 5

Conclusión. ...................................................................................................................................... 6

Bibliografía....................................................................................................................................... 7
Introducción.
En la teoría de la probabilidad, un proceso estocástico es un concepto matemático
que sirve para representar magnitudes aleatorias que varían con el tiempo o para
caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en
función de otra variable, generalmente el tiempo. Cada una de las variables
aleatorias del proceso tiene su propia función de distribución de probabilidad y
pueden o no estar correlacionadas entre sí.

Cada variable o conjunto de variables sometidas a influencias o efectos aleatorios


constituye un proceso estocástico. Un proceso estocástico puede entenderse como
una familia uniparamétrica de variables aleatorias indexadas mediante el tiempo t.
Los procesos estocásticos permiten tratar procesos dinámicos en los que hay cierta
aleatoriedad.

Los procesos de Markov o cadena de Markov forman parte de los procesos


estocásticos como una herramienta que se basa en las probabilidades y es
necesaria en la toma de decisiones a nivel empresarial debido a que estudia la
evaluación de ciertos sistemas de ensayos repetitivos en un intervalo de tiempo
dado. Esta toma de decisiones se utiliza en las distintas áreas como contabilidad,
administración, marketing, logística, recursos humanos entre otras.

Proceso de Márkov.
En la teoría de la probabilidad y en estadística, un proceso de Márkov, llamado así
por el matemático ruso Andréi Márkov, es un fenómeno aleatorio dependiente del
tiempo para el cual se cumple una propiedad específica: la propiedad de Márkov.
En una descripción común, un proceso estocástico con la propiedad de Márkov, o
sin memoria, es uno para el cual la probabilidad condicional sobre el estado
presente, futuro y pasado del sistema son independientes. Los procesos de Márkov
surgen en probabilidad y en estadística en una de dos maneras:

 Un proceso estocástico, que se define a través de un argumento separado,


puede demostrarse (matemáticamente) que tiene la propiedad de Márkov y
como consecuencia tiene las propiedades que se pueden deducir de esta
para todos los procesos de Márkov.
 De más importancia práctica es el uso de la suposición que la propiedad de
Márkov es válida para un proceso aleatorio con el fin de construir, ab initio,
un modelo estocástico para este proceso. En términos de modelado, suponer
que la propiedad de Márkov es válida es una de un limitado número de
formas sencillas de introducir dependencia estadística en un modelo para un
proceso estocástico, de tal manera que permita que la fuerza de la
dependencia en los diferentes retardos decline a medida que el retardo
aumenta.

Frecuentemente el término cadena de Márkov se usa para dar a entender que un


proceso de Márkov tiene un espacio de estados discreto (infinito o numerable).
Usualmente una cadena de Márkov sería definida para un conjunto discreto de
tiempos (es decir, una cadena de Márkov de tiempo discreto), aunque algunos
autores usan la misma terminología donde "tiempo" puede tomar valores continuos.

Análisis de Markov
El análisis de Markov, llamado así por los estudios realizados por el ruso Andréi
Andréyevich Márkov entre 1906 y 1907, sobre la secuencia de los experimentos
conectados en cadena y la necesidad de descubrir matemáticamente los
fenómenos físicos. La teoría de Markov se desarrolló en las décadas de 1930 y 1940
por A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros.

El análisis de Markov es una forma de analizar el movimiento actual de alguna


variable, a fin de pronosticar el movimiento futuro de la misma. Este método ha
comenzado a usarse en los últimos años como instrumento de investigaciones de
mercadotecnia, para examinar y pronosticar el comportamiento de los clientes
desde el punto de vista de su lealtad a una marca y de sus formas de cambio a otras
marcas, la aplicación de esta técnica, ya no solo se limita a la mercadotecnia sino
que su campo de acción se ha podido aplicar en diversos campos.
Conceptos básicos
Para el estudio de las cadenas de Márkov, deben tenerse en cuenta algunos
conceptos claves como los siguientes:

Estados
El estado de un sistema en un instante t es una variable cuyos valores solo
pueden pertenecer al conjunto de estaos en el sistema. El sistema
modelizado por la cadena, por lo tanto, es una variable que cambia con el
valor del tiempo, cambio al que llamamos transición.

Matriz de transición
Los elementos de matriz representan la probabilidad de que el estado
próximo sea el correspondiente a la columna si el estado actual es el
correspondiente a la fila.

Propiedades básicas:
1. La suma de las probabilidades de los estados debe ser igual a 1.
2. La matriz de transición debe ser cuadrada.
3. Las probabilidades de transición deben estar entre 0 y 1.

Distribución actual (Vector Po): Es la manera en la que se distribuyen las


probabilidades de los estados en un periodo inicial, (periodo 0). Esta
información te permitirá averiguar cuál será la distribución en periodos
posteriores.

Estado estable: Se puede decir que el estado estable es la distribución de


probabilidades que en cierto punto quedará fija para el vector P y no
presentará cambios en periodos posteriores.

La Cadena de Márkov.
“Una cadena de Márkov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior (Pérez J., 2003)”.

En efecto, las cadenas de este tipo tienen memoria, pues se podría decir que
recuerdan el ultimo evento y esto condiciona las posibilidades de los eventos
futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de
las series de eventos independientes, como tirar una moneda al aire o un dado. En
las empresas, las cadenas de Márkov se han utilizado para analizar los patrones de
compra, a los deudores morosos, para planear las necesidades del personal y para
analizar el reemplazo de equipos. El análisis de Márkov, llamado así en honor al
matemático ruso que desarrollo este método en 1907, este método permite
encontrar la probabilidad de que un sistema se encuentre en un estado en particular
en un momento dado. Algo más importante es que permite encontrar el promedio a
la larga o las probabilidades de estado estable para cada estado. Con esta
información se puede predecir el comportamiento del sistema a través del tiempo.
La tarea más difícil es reconocer cuando puede aplicarse. “La característica más
importante que hay que buscar en la memoria de un evento a otro (Morales L.,
2011)”.

Conclusión.
Las cadenas de Markov han experimentado una importante aplicación real en el
ámbito de los negocios y las finanzas. Esto, al permitir analizar y estimar futuros
patrones de conducta de los individuos atendiendo a la experiencia y los resultados
anteriores, lo anterior puede reflejarse en diferentes campos como la morosidad, el
estudio de las conductas de consumidores, la demanda estacional de mano de obra,
entre otros.

El sistema elaborado por Markov es bastante sencillo y cuenta con una aplicación
práctica relativamente fácil. Sin embargo, hay quienes señalan que al ser un modelo
tan simplificado no puede ser totalmente efectivo en procesos complejos.

De igual forma podemos decir que este método es muy importante, ya que en los
últimos años ha comenzado a usarse como instrumento de investigaciones de
mercadotecnia, para examinar y pronosticar el comportamiento de los clientes
desde el punto de vista de su lealtad a una marca y de sus formas de cambio a otras
marcas, la aplicación de esta técnica, ya no solo se limita a la mercadotecnia, sino
que su campo de acción se ha podido aplicar en diversos campos.
Bibliografía.
 Pérez, J. (2011, 3 de Junio). Andrei Markov. Recuperado
de http://investigacindeoperaciones.html

 Morales, L. (2011, 2 de Junio). Cadenas de Markov. Recuperado


de: http://io2-ingindustrial.blogspot.com/2011/06/cadenas-de-markov.html

También podría gustarte