Está en la página 1de 10

Universidad Latina de Panamá

Facultad de Ingeniería

Licenciatura en Ingeniería Industrial Empresarial

Materia: Investigación de Operaciones II

“Investigación #1”

Estudiantes:

Isamar Villarreal 8-927-1871

Ulises Quintero 8-880-1975

Joaquin Seña CC1067872487

Profesor:

Luis Pomares Valdes

Fecha de entrega: Panamá 5 de octubre del 2020


Contenido
Introducción..................................................................................................................................... 4
Historia .............................................................................................................................................. 5
Cadenas de Markov ................................................................................................................... 6
Posee 3 propiedades básicas: ................................................................................................ 6
Listados de aspectos ................................................................................................................ 8
Términos claves ......................................................................................................................... 8
Conclusión ....................................................................................................................................... 9
Infografía......................................................................................................................................... 10
Introducción
Esta investigación se planteó el objetivo de definir cada uno de los conceptos
que integran el análisis de Markov, comenzando desde los más básicos hasta
los más complejos, al igual el por qué es llamado así a dicho estudio, dándole
este nombre por su autor (Markov) en este documento se plasma acerca de
su biografía, así como todos sus logros que ejecutó.

Otro tema de suma importancia que hacemos mención, son las cadenas de
Markov, que hacen referencia a una herramienta para analizar el
comportamiento y el gobierno de determinados tipos de procesos
estocásticos, esto es, procesos que evolucionan de forma no determinística
a lo largo del tiempo en torno a un conjunto de estados.

Una cadena de Márkov, por tanto, representa un sistema que varía un estado
a lo largo del tiempo, siendo cada cambio una transición del sistema.

Para tales cadenas, se hace el uso de diversos términos involucrados para


un mejor entendimiento, como son: Los estados son la caracterización de la
situación en que se halla el sistema en un instante dado, matriz de transición:
Que es el arreglo numérico donde se condensa las probabilidades de un
estado a otro. La matriz regular: es una matriz cuadrada que posee inversa.
Estado recurrente: Un estado es recurrente si después de haber entrado a
este estado, el proceso definitivamente regresa a ese estado, Matriz ergódica:
Si los estados en una cadena son recurrentes, aperiódicos y se comunican
entre sí. Estados absorbentes: Una cadena de Márkov en la que uno o más
estados es un estado absorbente, es una cadena de Márkov absorbente.
Historia
Márkov nació en Riazán, Rusia. Antes de los 10 años su padre, un funcionario
estatal, fue trasladado a San Petersburgo donde Andréi entró a estudiar en un
instituto de la ciudad. Desde el principio mostró cierto talento para las matemáticas
y cuando se graduó en 1874 ya conocía a varios matemáticos de la Universidad de
San Petersburgo, donde ingresó tras su graduación. En la Universidad fue discípulo
de Chebyshov y tras realizar sus tesis de maestría y doctorado, en1886 accedió
como adjunto a la Academia de Ciencias de San Petersburgo a propuesta del propio
Chebyshov. Diez años después Márkov había ganado el puesto de académico
regular. Desde 1880, tras defender su tesis de maestría, Márkov impartió clases en
la Universidad y, cuando el propio Chebyshov dejó la Universidad tres años
después, fue Márkov quien le sustituyó en los cursos de teoría de la probabilidad.
En 1905, tras 25 años de actividad académica, Márkov se retiró definitivamente de
la Universidad, aunque siguió impartiendo algunos cursos sobre teoría de la
probabilidad.

A parte de su perfil académico, Andréi Márkov fue un convencido activista político.


Se opuso a los privilegios de la nobleza zarista y llegó a rechazar las
condecoraciones del propio zar en protesta por algunas decisiones políticas
relacionadas con la Academia de Ciencias. Hasta tal punto llegó su implicación en
la política que llegó a ser conocido con el sobrenombre de «el académico militante».

Márkov arrastró durante toda su vida problemas relacionados con una malformación
congénita en la rodilla que le llevaría varias veces al quirófano y que, con el tiempo,
fue la causa de su muerte cuando el 20 de julio del año 1922 una de las muchas
operaciones a las que se sometió le produjo una infección generalizada de la que
no pudo recuperarse.

Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo en
sus trabajos sobre fracciones continuas, la historia le recordará principalmente por
sus resultados relacionados con la teoría de la probabilidad. En 1887 completó la
prueba que permitía generalizar el teorema central del límite y que ya había
avanzado Chebyshov. Pero su aportación más conocida es otra.

Su trabajo teórico en el campo de los procesos en los que están involucrados


componentes aleatorios (procesos estocásticos) darían fruto en un instrumento
matemático que actualmente se conoce como cadena de Márkov: secuencias de
valores de una variable aleatoria en las que el valor de la variable en el futuro
depende del valor de la variable en el presente, pero es independiente de la historia
de dicha variable. Las cadenas de Márkov, hoy día, se consideran una herramienta
esencial en disciplinas como la economía, la ingeniería, la investigación de
operaciones y muchas otras.
Cadenas de Markov

Una cadena de Márkov, por tanto, representa un sistema que varía un estado a lo
largo del tiempo, siendo cada cambio una transición del sistema. Dichos cambios
no están predeterminados, aunque sí lo está la probabilidad del próximo estado en
función de los estados anteriores, probabilidad que es constante a lo largo del
tiempo (sistema homogéneo en el tiempo). Eventualmente, es una transición, el
nuevo estado puede ser el mismo que el anterior y es posible que exista la
posibilidad de influir en las probabilidades de transición actuando adecuadamente
sobre el sistema (decisión).

Posee 3 propiedades básicas:


1. La suma de las probabilidades de los estados debe ser igual a 1.
2. La matriz de transición debe ser cuadrada.
3. Las probabilidades de transición deben estar entre 0 y 1.

Distribución actual (Vector Po): Es la manera en la que se distribuyen las


probabilidades de los estados en un periodo inicial, (periodo 0). Esta información te
permitirá averiguar cuál será la distribución en periodos posteriores.

Estado estable: Se puede decir que el estado estable es la distribución de


probabilidades que en cierto punto quedará fija para el vector P y no
presentará cambios en periodos posteriores.

Por consiguiente, un estado es recurrente si y solo si no es transitorio.

Ejemplo:
Suponga que hay s-m estados transitorios (t1, t2,…, ts-m) y m estado absorbentes
(a1, a2,…, am), se escribe la matriz de probabilidades de transición P como sigue:
Listados de aspectos
Aspectos de sistema Identificación Impactos dentro del
de Markov sistema
Vector de distribución es un vector reglón no Las entradas pueden
negativa con una representar el número
entrada para cada de individuos en cada
estado del sistema. estado del sistema.

Vector de es un vector en la que pueden representar


probabilidades las entradas son no las probabilidades de
negativa y agregar encontrar un sistema
hasta 1 de cada uno de los
estados.
Sistema regular es un sistema cuya Un sistema regular de
matriz de transición Markov siempre tiene
tiene algún poder con un solo vector de
ningunas entradas de estado de equilibrio
cero.

Términos claves
 sistema regular
 probabilidad de transición
 vector
 sistema regular
 matriz fundamental
 estados no absorbentes
 probabilidad
 Calcular
 Diagrama de transición
Conclusión
Para concluir podemos decir que las cadenas de Markov son una herramienta para
analizar el comportamiento y el gobierno de determinados tipos de procesos
estocásticos, esto es, procesos que evolucionan de forma no determinística a lo
largo del tiempo en torno a un conjunto de estados.

Que para su elaboración requieren del conocimiento de diversos elementos como


son el estado y la matriz de transición.

Dichos elementos fueron descubiertos por su creador Markov, el cual realizó una
secuencia de experimentos conectados en cadena y la necesidad de descubrir
matemáticamente los fenómenos físicos

Este método es muy importante, ya que ha comenzado a usarse en los últimos años
como instrumento de investigaciones de mercadotecnia, para examinar y
pronosticar el comportamiento de los clientes desde el punto de vista de su lealtad
a una marca y de sus formas de cambio a otras marcas, la aplicación de esta
técnica, ya no solo se limita a la mercadotecnia, sino que su campo de acción se ha
podido aplicar en diversos campos.

Esperemos que este artículo sea de gran utilidad y que los conceptos contenidos
queden explicados de manera clara.
Infografía
http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/tema4pe.pdf

http://invoperaciones2-ingindustrial.blogspot.com/2011/05/cadenas-de-markov-
conceptos.html

También podría gustarte