Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ticipante:
Emmanuel Carlex
Docente:
JOSE L. TAVERAS
Carrera:
Investigación de Operaciones
Ingeniería software
Materia:
ID:
100050727
Si lanzas una moneda muchas veces, la mayoría de las veces obtendrás tantas caras como cruces. Esto
se traduce a las matemáticas mediante el teorema llamado ley de los grandes números. Esta ley expresa
que, cuando los lanzamientos son independientes entre sí, la frecuencia empírica de ocurrencia de un
evento tenderá hacia la probabilidad teórica de ocurrencia de este evento.
De esta forma, la ley de los grandes números está lejos de cubrir todos los fenómenos que pueden
modelarse mediante un experimento aleatorio. Tomemos el ejemplo del clima. Por supuesto, el tiempo
de hoy depende del del día anterior. ¡Pero podemos decir que no depende del de hace un año! La
cuestión de si podemos extender la ley de los grandes números a una serie de experimentos aleatorios
que dependen unos de otros, pero no demasiado, fue resuelta por el matemático Markov en 1902, al
introducir lo que hoy llamamos cadenas de Markov.
Formalmente, una cadena de Markov está definida por un conjunto de estados, una matriz de
probabilidad de transición y un estado inicial. Las transiciones entre estados ocurren según
probabilidades determinadas por la matriz de transición. La probabilidad de pasar de un estado a otro
depende únicamente del estado actual.
P(Xn+1=in+1∣X1=i1,X2=i2,…,Xn=in)=P(Xn+1=in+1∣Xn=in)
.
Cadena de Markov
terminado.La cadena de Markov continúa: cuando el espacio de No homogéneo: Si las probabilidades de transición varían en el tiempo.
estados E es continua.
Cadena de Markov reversible: cuando la cadena Cadena absorbente de Markov: Cuando existe al menos un estado
puede evolucionar de la misma manera en ambas absorbente hacia el cual la cadena evoluciona irreversiblemente
Para ilustrar el uso de una cadena de Markov en el contexto de una escuela, consideremos un ejemplo
sencillo. Supongamos que modelamos el estado de los estudiantes en una escuela con tres estados
posibles cada día: "Estudiar", "Ausente" y "Enfermo". Las transiciones de un día al siguiente son
probabilísticas y dependen únicamente del estado actual. Definiremos una matriz de transición para
esta cadena de Markov.
En esta matriz, la primera fila representa las probabilidades de transición del estado "Estudiar", la
segunda fila representa las probabilidades de transición del estado "Ausente" y la tercera fila representa
las probabilidades de transición del estado "Enfermo". Las columnas corresponden a los posibles
estados del día siguiente.
Ahora, si tenemos la distribución inicial de estudiantes en un día determinado (por ejemplo, [0.3, 0.4,
0.3] para 30% de estudiantes estudiando, 40% ausentes y 30% enfermos), podemos predecir la
distribución de estudiantes el día siguiente multiplicando esta distribución inicial por la matriz de
transición.
La primera fila representa las probabilidades de transición para un estudiante que "estudia en casa".
La segunda fila representa las probabilidades de transición para un estudiante que está "ausente".
La tercera fila representa las probabilidades de transición para un estudiante que está "enfermo".