Está en la página 1de 4

Par

ticipante:

Emmanuel Carlex

Docente:
JOSE L. TAVERAS

Carrera:

Investigación de Operaciones
Ingeniería software
Materia:

ID:
100050727
Si lanzas una moneda muchas veces, la mayoría de las veces obtendrás tantas caras como cruces. Esto
se traduce a las matemáticas mediante el teorema llamado ley de los grandes números. Esta ley expresa
que, cuando los lanzamientos son independientes entre sí, la frecuencia empírica de ocurrencia de un
evento tenderá hacia la probabilidad teórica de ocurrencia de este evento.

De esta forma, la ley de los grandes números está lejos de cubrir todos los fenómenos que pueden
modelarse mediante un experimento aleatorio. Tomemos el ejemplo del clima. Por supuesto, el tiempo
de hoy depende del del día anterior. ¡Pero podemos decir que no depende del de hace un año! La
cuestión de si podemos extender la ley de los grandes números a una serie de experimentos aleatorios
que dependen unos de otros, pero no demasiado, fue resuelta por el matemático Markov en 1902, al
introducir lo que hoy llamamos cadenas de Markov.

Una cadena de Markov es una secuencia de variables aleatorias.

Formalmente, una cadena de Markov está definida por un conjunto de estados, una matriz de
probabilidad de transición y un estado inicial. Las transiciones entre estados ocurren según
probabilidades determinadas por la matriz de transición. La probabilidad de pasar de un estado a otro
depende únicamente del estado actual.

P(Xn+1=in+1∣X1=i1,X2=i2,…,Xn=in)=P(Xn+1=in+1∣Xn=in)

.
Cadena de Markov

Clasificaciones basadas en el tiempo:


Clasificaciones basadas en el espacio de estados E
Homogéneo: Si las probabilidades de transición entre estados se
Cadena finita de Markov: cuando el espacio de estados E ha mantienen constantes en el tiempo.

terminado.La cadena de Markov continúa: cuando el espacio de No homogéneo: Si las probabilidades de transición varían en el tiempo.
estados E es continua.

Clasificaciones basadas en la naturaleza del proceso:

Cadena de Markov reversible: cuando la cadena Cadena absorbente de Markov: Cuando existe al menos un estado
puede evolucionar de la misma manera en ambas absorbente hacia el cual la cadena evoluciona irreversiblemente

direcciones del tiempo sin cambiar las probabilidades


estacionarias. Cadena Ergódica de Markov: Cuando
satisface ciertas condiciones que garantizan la
existencia y unicidad de probabilidades estacionarias.

Clasificaciones basadas en propiedades de


convergencia:

Cadena de Markov regular: cuando la cadena llega a


todos los estados con probabilidad positiva desde
cualquier estado inicial.

Para ilustrar el uso de una cadena de Markov en el contexto de una escuela, consideremos un ejemplo
sencillo. Supongamos que modelamos el estado de los estudiantes en una escuela con tres estados
posibles cada día: "Estudiar", "Ausente" y "Enfermo". Las transiciones de un día al siguiente son
probabilísticas y dependen únicamente del estado actual. Definiremos una matriz de transición para
esta cadena de Markov.

Supongamos que tenemos las siguientes probabilidades de transición:


= 0,7 0,2 0.1

0.1 0,6 0.3

0,2 0.3 0,5

En esta matriz, la primera fila representa las probabilidades de transición del estado "Estudiar", la
segunda fila representa las probabilidades de transición del estado "Ausente" y la tercera fila representa
las probabilidades de transición del estado "Enfermo". Las columnas corresponden a los posibles
estados del día siguiente.

Ahora, si tenemos la distribución inicial de estudiantes en un día determinado (por ejemplo, [0.3, 0.4,
0.3] para 30% de estudiantes estudiando, 40% ausentes y 30% enfermos), podemos predecir la
distribución de estudiantes el día siguiente multiplicando esta distribución inicial por la matriz de
transición.

La primera fila representa las probabilidades de transición para un estudiante que "estudia en casa".

La segunda fila representa las probabilidades de transición para un estudiante que está "ausente".

La tercera fila representa las probabilidades de transición para un estudiante que está "enfermo".

También podría gustarte