Está en la página 1de 33

INSTITUTO TECNOLOGICO DE CULIACAN

Ing. Industrial

CADENAS DE MARKOV

Iríbe Zazueta Miguel Ángel

Prof. Burgos Valdez Marco Antonio

07 de junio de 2011

1

ÍNDICE INTRODUCCIO Objetivo general 3 Antecedentes de la investigación 3 Justificación 3 MARCO TEORICO Cadenas de markov 5 DESARROLLO DEL PROYECTO ¿QUE ES UNA CADENA DE MARKOV? 7 FORMULACION DE UNA CADENA DE MARKOV 11 Procesos estocásticos 11 Propiedad Markoviana de primer orden. 12 Matriz de transicision de n pasos.14 Estados Absorbentes. 15 Probabilidades de estado estable 16 RESULTADOS Metodología 17 Definición de los Estados del Sistema 17 Probabilidades de Transición19 Matriz de Transición 21 Solución del Modelo 24 Número Esperado de Transiciones hasta Absorción 25 Probabilidades Condicionales de Absorción 26 Resultados y discusión27 Conclusiones del ejemplo práctico 30 CONCLUCIONES 32 BIBLIOGRAFIA 33
2

INTRODUCCIÓN Objetivo general Conocer en qué consiste una cadena de markov y ver en de que manera pude ser aplicada dentro de una empresa, mediante un estudio en el que analicemos los puntos mas importantes de las cadenas de markov, para poder usar esta técnica en nuestras futuras experiencias.

Antecedentes de la investigación El análisis de Markov, llamado así por los estudios realizados por el ruso Andréi Andréyevich Márkov entre 1906 y 1907, sobre la secuencia de los experimentos conectados en cadena y la necesidad de descubrir matemáticamente los fenómenos físicos. La teoría de Markov se desarrollo en las décadas de 1930 y 1940 por A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros `` cadenas-de-markov_19.html oct. 2010 ´´

Justificación Al utiliza la información recabada en esta investigación, se tendrá conocimiento de cómo poder solucionar problemas dentro de una empresa utilizando la herramienta cadenas de markov, se ampliaran los conocimientos que se puedan tener de este tema y se tendrá una definición más precisa de lo que es una cadena de markov y aprender los pasos necesarios para llevarla a cabo, mediante ejemplos prácticos e información recabada de distintas fuentes.
3

4 .

como tirar una moneda al aire o un dado. las cadenas de este tipo tienen memoria. En matemáticas. Una cadena de Markov. si se conoce la historia del sistema hasta su instante 5 . En los negocios. En efecto. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes. las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos. es decir. para planear las necesidades de personal y para analizar el reemplazo de equipo. como tirar una moneda al aire o un dado. las cadenas de este tipo tienen memoria. que recibe su nombre del matemático ruso Andrei Markov. se define como un proceso estocástico discreto que cumple con la Propiedad de Markov.MARCO TÉORICO Cadenas de markov Se conoce como cadena de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922). En efecto. es una serie de eventos. “ Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. que las introdujo en 1907. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes.

su estado presente resume toda la información relevante para describir en probabilidad su estado futuro. entonces: Donde xi es el estado del proceso en el instante i. … de variables aleatorias. Una cadena de Markov es una serie de eventos. como tirar una moneda al aire o un dado. En efecto. ene. las cadenas de este tipo tienen memoria. las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos. es llamado espacio estado. Una cadena de Markov es una secuencia X1.actual.com. En los negocios. en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes. X2. el valor de Xn es el estado del proceso en el tiempo n. El rango de estas variables. para planear las necesidades de personal y para analizar el reemplazo de equipo. X3. llamado así en honor de un matemático ruso que desarrollo el método en 1907. ``mitecnologico. “ Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. 2004´ 6 . La identidad mostrada es la Propiedad de Markov. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola. Algo más importante aún. El análisis de Markov.

es decir. dado que en el periodo (paso) inmediatamente anterior estuvo en Ei.DESARROLLO DEL PROYECTO ¿Qué es una cadena de Markov? Llamemos E1. Ek los estados (resultados) exhaustivos y mutuamente excluyentes de un experimento aleatorio en cualquier tiempo. Las probabilidades de transición del estado Ei al estado Ej se describen de manera más conveniente en forma matricial como sigue: Por ejemplo p21 es la probabilidad de estar en el estado 1 en el siguiente paso. Definamos pij como la probabilidad de transición de un paso de ir al estado i en tn-1. Inicialmente en el tiempo t0. independientes del tiempo. La matriz P se llama matriz de transición homogénea porque todas las probabilidades pij son fijas. Sea a0j (j = 0. . E2…. k) la probabilidad absoluta de que el sistema se encuentre en el estado Ej en t0. la probabilidad de que en el siguiente periodo (paso) se encuentre en Ej. 7 . 1. dado que en este momento se encuentra en el estado 2.. el sistema puede estar en cualquiera de estos estados. al estado j en tn. . Supongamos que estas probabilidades son estacionarias (no cambian) a través del tiempo..

3. Ek exhaustivos y mutuamente excluyentes de un experimento aleatorio en cualquier tiempo. tiene un valor p. a02 = 1 . . Una matriz de transición P.Las probabilidades pij deben satisfacer las condiciones Una Cadena de Markov es: 1. En un país lejano sólo existen dos posibilidades en el clima. Solo hay dos posibles estados E1: Seco y E2: Mojado. E2…. Unas probabilidades iniciales a0j (j = 0. articulos9. Solución. Un conjunto de estados E1.. Un estudiante de meteorología sabe que la probabilidad de que el clima sea seco el 1o de Enero del año en curso es a y la probabilidad de que en dos días consecutivos el clima sea el mismo. 2. Tenemos a01 = a. La matriz P de transición de un paso será: 8 . . 1. seco y mojado. Escribamos los elementos que identifican en este problema una cadena de Markov. 0 < p < 1. k) ``revistamemorias. mrz.2009´´ Ejemplo 1.a.

En cualquier otro caso tenemos una probabilidad de 1 . Por inducción se puede ver que: 9 . Estas se conocen como las probabilidades absolutas del sistema después de un número Específico n de transiciones. junto con P. la probabilidad de ir del estado k al estado j en exactamente dos transiciones. dado que el día anterior fue mojado son iguales a p.Se observa en P que las probabilidades de clima seco un día. Las probabilidades a01 y a02. es decir. nos interesa conocer la probabilidad de que ocurra Ej en la transición n.p. determinan en este ejemplo una cadena de Markov. La expresión general de {anj} en términos de {a0j} y P se puede calcular de la siguiente manera: También. dado que el anterior fue seco. y de mojado un día. ¿Qué son las probabilidades absolutas y de transición para n pasos? Dados {a0j} y P de una cadena de Markov. Llamemos {anj } estas probabilidades absolutas después de n transiciones. Donde p(2)kj = Σpkipij es la probabilidad de transición de dos pasos o de segundo orden.

Por tanto.Donde pij es la probabilidad de transición de n pasos u orden n dada por la formula recursiva: En general para todo i y j. articulos9. mrz.2009´´ 10 . Así: y en general. si las probabilidades absolutas se definen en forma vectorial Como Entonces: ``revistamemorias. Los elementos de una matriz de transición más alta p(n)ij se obtienen de forma directa por multiplicación matricial.

t con valores en algún conjunto T. . el conjunto de los números naturales. Para describir completamente una cadena de Markov es necesario saber el estado actual y todas las probabilidades de transición. Este estado se describe por el último evento generado. 2. Esto se llama probabilidad de transición del estado Mj al estado Ek. Con frecuencia T se toma como el conjunto de enteros no negativos y X. Un proceso estocástico se define sencillamente como una colección indexada de variables aleatorias { X1 }.. Consideraremos variables aleatorias Xt que tienen soporte discreto común para todas. donde j = 1. . Estado Generador Evento Formulador de Markov E1 E2 E3 E4 …. En adelante T = 1. n.FORMULACION DE UNA CADENA DE MARKOV El generador de Markov produce uno de n eventos posibles. representa una 11 . Ej . . donde el subíndice t toma valores de un conjunto T dado. 2.. tk Tiempo Procesos estocásticos Un proceso estocástico es una colección indexada de variables aleatorias Xt. Ek ---------------------------t1 t2 t3 t4 …. La probabilidad de que Ek sea el siguiente evento generado es una probabilidad condicional : P ( Ek / Mj ). Las probabilidades de ocurrencia para cada uno de estos eventos dependen del estado del generador.. .. a intervalos discretos de tiempo (que no tiene que ser iguales ). .

. . 12 . 1. X3. Por ejemplo. K0 . Ki-1 . 1. Los periodos en el tiempo pueden encontrarse a intervalos iguales o su esparcimiento puede depender del comportamiento general del sistema en el que se encuentra sumergido el proceso estocástico.. . y en donde cada variable aleatoria puede tomar el valor de cualquiera de los M + 1 enteros 0. K1 . . . el sistema se encuentra exactamente en una de un número finito de estados mutuamente excluyentes y exhaustivos. en donde las variables aleatorias se observan en t = 0. . Así la representación matemática del sistema físico es la de un proceso estocástico {Xi}. . . M ... X1 . . . 1. Propiedad Markoviana de primer orden. el proceso estocástico. . y toda sucesión i. . X2 . S. Un estudio del comportamiento de un sistema de operación durante algún periodo suele llevar al análisis de un proceso estocástico con la siguiente estructura. Puede representar la colección de niveles de inventario semanales (o mensuales) de un producto dado. j .característica de interés medible en el tiempo t. Se dice que un proceso estocástico tiene la propiedad markoviana si P Xt+1 = j = P X t+1 .. que se usarán en adelante para denotar los estados posibles del sistema. Aunque los estados pueden constituir una caracterización tanto cualitativa como cuantitativa del sistema.. para toda t = 0. no hay pérdida de generalidad con las etiquetas numéricas 0. En puntos específicos del tiempo t . 1. . . 2. . M . o puede representar la colección de demandas semanales (o mensuales) de este producto. . etiquetados 0. 1.

Las probabilidades condicionales PXt+1 = j se llaman probabilidades de transición. (0 ≤ i. para toda t = 0. . Así. Estas probabilidades condicionales casi siempre se denotan por y se llaman probabilidades de transición de n pasos. j ≤ M). j y n (n = 0. . . Si para cada i y j. 1. es simplemente la probabilidad condicional de que la variable aleatoria X.…). 2. 1. La existencia de probabilidades de transición (de un paso) estacionarias también implica que. comenzando en el estado i. tener probabilidades de transición estacionarias implica que las probabilidades de transición no cambian con el tiempo. P Xt+n = j = pXn = j . Entonces se dice que las probabilidades de transición (de un paso) son estacionarias y por lo general se denotan por pij . Así.Se puede demostrar que esta propiedad markoviana es equivalente a establecer una probabilidad condicional de cualquier “evento” futuro dados cualquier “evento “ pasado y el estado actual Xi = i . Para toda t = 0. para cada i. entonces 13 . es independiente del evento pasado y sólo depende del estado actual del proceso. …. 1. Si pij es la probabilidad de transición del estado i al estado j. se encuentre en el estado j después de n pasos ( unidades de tiempo ). P Xt+1 = j = pX1 = j .

se denomina matriz de transición. 14 . Propiedad: Observar que las filas de la matriz de transición suman uno. (0 ≤ i. entonces la matriz P^(n) que contiene todos estos valores se denomina matriz de transición de n pasos. o matriz de probabilidades de transición de un paso. Propiedad: La matriz de transición de n pasos P^(n) se puede obtener multiplicando la matriz de transición de un paso P. Matriz de transicision de n pasos De forma análoga. para 0 ≤ m ≤ n. si es la probabilidad de transición del estado i al estado j en n pasos. n veces: En general. j ≤ M).

Si k es un estado absorbente y el proceso comienza en i. j. se tienen las ecuaciones de Chapman-Kolmogorov para todo i. la probabilidad de llegar a k se llama probabilidad de absorción de k (fik ). Un estado se llama absorbente si pik =1. n. el proceso será absorbido por uno de éstos. Para saber cual. es decir. si una vez que el estado llega a k. Si se tienen 2 o más estados absorbentes. hay que resolver el sistema de ecuaciones: M fik= pij fjk j=0 para i=0. permanece ahí para siempre.j) de esta ´ultima igualdad. o permanece en i. en una sola transición.Si se toman los elementos (i. y 0 ≤ m ≤ n. entonces. o se mueve a uno de los 2 estados inmediatamente adyacentes a i.….M Esto es importante en las “caminatas aleatorias”: cadenas de Markov en las que si el sistema se encuentra en el estado i.1. Estados Absorbentes. 15 .

…. y más aún: lim pij(t)=j llamadas probabilidades de estado estable(o estacionarias). Todos los estados que se comunican forman una clase. entonces la cadena será irreducible. por lo que: para i=0. t2 tales que pij(t1)>0 y pij(t2)>0.1.j .Probabilidades de estado estable La función de probabilidad de transición de TC satisface las ecuaciones de Chapman-Kolmogorov.1. luego para cualesquiera estados i.j y números t y s(0s<t): M pij= pik(s)pkj(t-s) k=1 Se dice que un par de estados i.j se comunican si existen tiempos t1.M y M  j=0 j=0 16 . Si todos los estados en una cadena forman una clase. t Las probabilidades estacionarias satisfacen: j qj= i qij ij (estas ecuaciones se suelen llamar de balance).…. para todo t>0 y todos los estados i.M pij(t)>0. para j=0.

el estado de un sistema representa los aspectos que describen por completo la “posición” del sistema en cualquier instante del tiempo. a las que se denomina variables de estado. junto a la recolección de registros históricos. se procede a verificar los postulados y suposiciones teóricas. Posteriormente. para lograr su formulación. define un numero finito de estados que representan cada uno de los semestres 17 . se dispuso de la totalidad de los registros académicos de los estudiantes. Definición de los Estados del Sistema En un modelo. para lograr un procedimiento estadístico. El espacio de estado puede especificarse en términos de los valores de una o varias variables. y se consideran importantes para estudiar el comportamiento futuro del sistema. Como cualquier investigación sobre fenómenos de naturaleza aleatoria. puesto que en este trabajo. para calcular las probabilidades de transición. que debe cumplir cualquier proceso real que intenta ser modelado como markoviano. requiere recoger datos de entrada. Sin embargo. que permita calcular un tamaño de muestra representativo de la población de datos. se eligió trabajar con el censo de la población. El modelo de Markov obtenido. La representación de un proceso como cadena de Markov.RESULTADOS Metodología Este estudio inicia con la identificación del sistema. a objeto de definir los estados exhaustivos y disjuntos que conforman el espacio de estados relevantes al modelo. un estudio de cadenas de Markov apunta a la teoría de muestreo.

con Xt={1. o de mantenerse en el mismo. Como también existe la posibilidad de que un cursante se retire.5. y permiten describir la evolución de los estudiantes durante su estadía universitaria. al inicio de cualquier semestre académico. Al finalizar el semestre. durante una transición o lapso académico. se considero este un estado adicional del proceso. Los estados están asociados a cada uno de los semestres. su aprobación o repetición. en la medida que aprueba unidades crédito. de dos estados que simbolizan la condición de retiro o graduación en que puede encontrarse un alumno.9.6.7.correspondientes a la carrera de Ingeniería Industrial. como el estado final del proceso. para definir los estados. el estudiante. además. se modela en un estado. A medida que avanza en su objetivo. a lo largo del tiempo. De igual forma se define el evento de graduación de un alumno.8. debe aprobar una determinada cantidad de unidades crédito. se basa en que un estudiante avanza en la carrera. semestre tras semestre. Para graduarse. donde Xt representa el semestre académico que cursa el alumno (incluyendo R si se ha retirado y G si el alumno se ha 18 . y su posible evolución se describe mediante probabilidades de transición inter semestral.3. se define a partir de la cantidad de Uso que tiene aprobadas al inicio de cada semestre.10. Cuando un alumno ingresa a la carrera de Ingeniería Industrial.2. inicia con una carga académica cuantificada en unidades crédito (Uso). Las transiciones posibles en una etapa corresponden a la probabilidad de pasar de un semestre a otro.G}.4. El criterio utilizado en esta investigación. las cuales le ubican como cursante inscrito en uno de los diez semestres posibles. En este trabajo. Xt denota la condición o semestre en que se encuentra un alumno al inicio del semestre t. Su clasificación en cualquiera de los estados posibles.R. va acumulando Uso.

cada uno de los diez semestres de la carrera. Pi.j=0.… La clasificación de un alumno en determinado semestre es definida por la cantidad de unidades crédito que tenga aprobadas al comienzo del lapso académico. t = 1.4. proveen la frecuencia relativa de transición entre los semestres o estados. se asocia una probabilidad de transición de un paso Pi. entonces Pi. entre la cantidad de casos totales.3. y Ni es el número de veces que el proceso salió del estado i. La tabla 1 muestra los doce estados posibles en este modelo. si el sistema al encontrarse en el estado i puede pasar solo al estado j en la siguiente transición. como el j. entonces. además de los estados R (retiro) y G (graduación). Por otra parte.j está dado por la relación de dividir la cantidad de casos favorables.j. convirtiéndose en valores de probabilidades fundamentales e imprescindibles para el estudio.j es el numero de transiciones ocurridas desde el estado i al estado j . Probabilidades de Transición i . si Ni. es decir. j P A cada posible transición del estado (semestre) i al estado (semestre) j. se estima las probabilidades inter semestrales de transición estocástica Pi.2. 19 . el subíndice t corresponde a cualquier semestre de tiempo de observación. siendo tanto el estado i.graduado). Así mismo. De modo que el total de transiciones del semestre i al semestre j. entonces.j. Si no es posible transición alguna del estado i al estado j. por cualquier cursante de Ingeniería Industrial. A partir del conjunto de registros académicos de cada alumno. un estimador con buenas propiedades estadísticas para Pi.j = 1. según las UsC aprobadas. En general. dividido por el total de transiciones originadas desde el semestre i.

j corresponde a la probabilidad condicional de que un alumno. Para construir el modelo de Markov. De igual manera. dividiendo el número de estudiantes clasificados en un determinado semestre que se movieron al siguiente semestre. el cociente del número de estudiantes clasificados en un determinado semestre i. G y j =1.j. R.i j i j i P N N . denominadas Pi.revista feb.….…. para valores de i=1. Es decir.uc. quien al inicio de un lapso se encuentra cursando el semestre i. ``servicio. G. quienes al finalizar el semestre permanecieron en el mismo semestre i. R. entre el total de estudiantes inscritos en el respectivo semestre.10. en el periodo siguiente se encuentre en el semestre j. entre el total de estudiantes inscritos en el respectivo semestre.2008´´ En general.edu. lo cual resulta en la probabilidad de transición i . 2. una vez que transcurra un lapso de tiempo de un semestre son: 1) aprobar y pasar al segundo semestre.ve. la probabilidad de repetir o mantenerse en el mismo semestre. la probabilidad de avanzar de un semestre al siguiente. Al hacer Esto. 2) reprobar y repetir el primer semestre y 3) abandonar o ser retirado de sus 20 . fue necesario estimar las probabilidades de transición semestrales.i P . . Pi.10. las transiciones validas para un estudiante inscrito en el primer semestre. En este caso. = (1) La ecuación mostrada en (1) es básicamente una relación sencilla de conteo. se obtuvieron las probabilidades de transición desde el semestre i al semestre j. 2.bc. Por ejemplo.

en tiempo de un segundo de procesamiento. quien al inicio de un periodo se encuentra en el semestre 1. a continuación se detalla la nomenclatura utilizada para expresar las posibles transiciones y probabilidades de transición desde el primer semestre: P1. transcurrido el lapso del semestre. se procesaron 70.R = Probabilidad que un alumno. quien al inicio de un periodo se encuentra en el semestre 1. Es decir.021. para un lapso de tiempo que va desde el semestre actual T.1 = Probabilidad que un alumno. el 66. la probabilidad para un nuevo alumno de aprobar su primer semestre es de 0. entre los estados (semestres).estudios. presento como resultado la matriz de probabilidades de transición de una etapa. de modo de lograr las probabilidades de transición. A modo de ejemplo. P1. significa que en la carrera de Ingeniería Industrial.4 % de los estudiantes que ingresan. Por otra parte. se determino su evolución semestre a semestre.1 = 0. en el lapso siguiente continúe en el semestre 1 (repita). Para realizar los conteos de transiciones. hasta el lapso siguiente T+1. Por ejemplo. el cual. Matriz de Transición La Tabla 2 muestra las posibles transiciones de primer orden. reprueban su primer semestre. se utilizo el software MATLAB. y sus probabilidades.315 y de retirarse de la carrera es de 0. quien al inicio de un periodo se encuentra cursando el semestre 1. P1. al inicio del siguiente periodo semestral se encuentre repitiendo el primer semestre. en el lapso siguiente se retire.493 registros generados por estudiantes de Ingeniería Industrial durante los últimos 27 anos.664. el valor 0.2 = Probabilidad que un alumno. el 21 . Así mismo. Para los semestres cursados por los miles de alumnos. P1. en el lapso siguiente se encuentre en el semestre 2 (apruebe).664 indica la probabilidad de que un alumno inscrito en el primer semestre. En esta aplicación de cadena de Markov.

Las condiciones de homogeneidad poblacional requeridas para modelar una cadena de Markov discreta. teniendo en cuenta que se trata de un sistema de textura social. han lidiado con la necesidad de relajar algunos requerimientos teóricos de Markov. Resultados obtenidos por Hierro y Guijarro (2007). 1962). Lo cual equivale a sostener que en promedio el 86. también denominada homogeneidad de la población.valor de 0. y no se encontraron diferencias significativas entre las 22 . Una cadena de Markov es homogénea en el tiempo cuando sus probabilidades de transición son constantes (Parzen. en el siguiente lapso este cursando el octavo semestre.5 % de los cursantes del séptimo semestre aprueban. 125-140). sostienen que la falta de homogeneidad de la población es la causante principal de que la especificación markoviana sea una herramienta poco precisa para la modelación de dinámicas de población. 1955. de la Tabla 2. entre ellos. con la finalidad de determinar posible inconsistencia. difícil de cuantificar en un marco de probabilidades.. el de homogeneidad de la población (Blumen et al.865 que se muestra en la intersección entre la fila 7 con columna 8. y b) estacionalidad de las probabilidades. requiere que las probabilidades de transición se mantengan fijas a lo largo del tiempo. Una vez obtenidos los valores de probabilidad de la tabla 2. Puesto que se compararon varios periodos tomados al azar. indica la probabilidad de que un alumno que cursa el séptimo semestre de la carrera. Estas son: a) propiedad de Markov: supone que la transición de un estado a otro depende solo del estado actual y no de su historia pasada. pp. se aplicaron pruebas orientadas a evaluar la validez de las principales condiciones del modelo teórico de Markov. Diversos trabajos que modelan actuaciones humanas. y evolucionan al octavo semestre. fueron revisadas críticamente.

y en otras de diferente longitud. construyendo sus matrices de transición. de que todos los alumnos tienen la misma estrategia de estudio. Toda la data disponible se dividió en grupos de diferentes periodos. Posteriormente. se asume un proceso homogéneo para todos los individuos de la población. muestra tendencia hacia un patrón determinado(Guijarro y Hierro. lo cual sugiere que el sistema. se interpreta la condición de homogeneidad de la población.matrices de transición evaluadas. Se analizo la estabilidad de estos periodos. 2006). al menos para los datos considerados. Puesto que los máximos auto valores presentaron resultados por encima de uno. o características socio demográficas. Sin embargo. y a objeto de poder utilizarlos como instrumento predictivo. se concluyo que no se tiene razones para considerar inestable al sistema de evolución de los estudiantes de Ingeniería Industrial. no se considero necesario caracterizarlos mediante diferentes cadenas de Markov. En general. sin variaciones provenientes de grupos diferentes. 23 . En esta aplicación. las matrices fueron evaluadas mediante el cálculo de sus auto valores. En algunas clases de igual longitud. como por ejemplo: desde 1980 a 1990. Esto es. en términos de formular la hipótesis. verificar adicionalmente el requisito teórico sobre homogeneidad poblacional. 1991 a 1999. se espera la existencia de diferencias debidas a factores difíciles de observar como hábitos de estudio. el modelo de Markov no analiza sus causas y al agrupar los datos. Con la finalidad de robustecer los resultados arrojados por el modelo. fue esencial reevaluar la estabilidad de los datos. 2000 a 2006.

De igual forma. se asume que un estudiante que abandona la carrera de Ingeniería Industrial. según las ecuaciones (2) y (3) mostradas a continuación. que permiten determinar la cantidad promedio de semestres. se determina: 24 . según la teoría de cadenas de Markov. Es decir. Como también PR. en una o más transiciones. En el caso de cadenas absorbentes. En este trabajo. por cuanto posee dos estados absorbentes. corresponde a una cadena de Markov absorbente. también denominadas probabilidades de comportamiento a largo plazo o estacionarias (Bartholomew. si un alumno logra graduarse de Ingeniero Industrial. su probabilidad de transición PG. en los siguientes semestres. R y G son estados en los que una vez que un alumno entra en cualquiera de ellos. A partir de las probabilidades de transición contenidas en la Figura 1. para esta aplicación. las cuales indican la probabilidad de que un alumno que ingrese a la carrera de Ingeniería Industrial de la UNET. 1973). R (Retiro) y G (Grado). la matriz de transición P. se mantendrá en esa condición de graduado con certeza absoluta. desde cualquier estado a cualquier otro estado. el procedimiento de solución utiliza relaciones matriciales.G = 1. así como también las probabilidades de absorción. nunca más puede reincorporarse en la misma universidad. no puede abandonar esa condición. Esta condición clasifica a la cadena como cadena discreta absorbente (Norris. y aplicando el método de solución aplicable a cadenas de Markov absorbentes. que un alumno pasa en cada uno de los diez periodos de la carrera antes de graduarse o retirarse. permitiendo obtener las probabilidades de estado estable.Solución del Modelo En una cadena en donde el proceso pueda ir. abandone antes de graduarse o culmine exitosamente graduado. transcurrido una cantidad suficiente de transiciones. 1997).R = 1. No obstante. por lo cual. el sistema muestra su comportamiento de estado estable.

Es decir. que corresponden a las probabilidades de transición solo entre los estados no absorbentes. desde los estados 1. En este caso. para aplicar las ecuaciones (2) y (3) (Shamblin et al. 25 . que contiene el numero esperado de semestres o lapsos que se espera pase un alumno de Ingeniería Industrial en cada uno de los semestres de la carrera.…. pp.…. antes de absorción por los estados absorbentes Retiro o Graduación. 10 x 10. presentada en la tabla 2. 2. 10 hasta los estados 1. (1975. en este caso. al igual que N y NE. c) las probabilidades de retiro o graduación para cualquier aspirante al título de Ingeniero Industrial en la Universidad Nacional Experimental del Tachira. 10 x 10. NE = (I . 10.a) el número esperado de semestres para que un alumno se gradué o retire. 2. N se construye tomando directamente los valores de probabilidad de la matriz P. I es una matriz identidad de idénticas dimensiones que la matriz N.N)-1 (2) Donde N es una matriz. La ecuación (2) permite obtener la matriz NE. 72-78). formada con valores de la figura 1. Número Esperado de Transiciones hasta Absorción El método de solución requiere extraer dos matrices de la matriz de transición P. b) el número esperado de lapsos académicos que un cursante pasa en cualquier semestre.

Es decir. hasta los absorbentes (destino).3.10 hasta los estados R y G. condicionadas al semestre en que ingrese el alumno. NE es la matriz calculada según la ecuación (2).….2. que corresponden a las probabilidades de transición desde los estados no absorbentes (origen). Note que A es una matriz de 10 filas x 2 columnas.uc.``servicio. Es decir desde los estados 1.bc.2008´´ Probabilidades Condicionales de Absorción La ecuación 3 permite hallar las probabilidades de absorción.revista feb.edu. las probabilidades de retiro o graduación. al igual que PR.ve. contenidos en la tabla 2. y A es una matriz formada con valores tomados de la matriz de transición P. PR = NE * A (3) Donde. 26 .

55 semestres. Para fines prácticos. según se muestra en la ecuación 4. se puede sostener que un alumno que ingresa a la 27 . para el numero de semestres en transición que pasa un estudiante en cada uno de los semestres que cursa. se espera que pase casi tres semestres. Posteriormente se evalúa la capacidad predictiva del modelo. Efectuando el cálculo de permanencia en la carrera. muestra los valores esperados. El total de semestres que se espera que curse un alumno antes de graduarse. El primer elemento de la Figura 2. que corresponden al número de periodos que se espera que pase un alumno en cada uno de los semestres antes de graduarse. en la intersección de fila 1 y columna 1.Resultados y discusión El procesamiento y solución del modelo de cadena de Markov se obtuvo mediante el software MATLAB. realizando una validación comparativa con datos más recientes. dado que ingresa por el semestre 1. La Figura 2. de la matriz NE es 2.98. en su fila 1. antes de avanzar al segundo semestre. se estima aproximadamente en 14. Es decir. se obtiene sumando todos los valores de la fila 1. en donde también se espera que pase aproximadamente dos semestres (2. correspondientes a semestres del año 2007.06) antes de avanzar al tercer semestre. Este valor corresponde al número esperado de semestres que se espera que un estudiante permanezca cursando el primer semestre. un alumno que ingresa a la carrera.

17 semestres. la sumatoria de los valores de la fila correspondiente al quinto semestre. suponiendo que obtiene equivalencia de cuatro semestres aprobados. la suma esperada de permanencia en cada uno de los restantes semestres a cursar en la UNET.58 + 1.14. estima que debe cursar una duración de 7. 28 . también se infiere. su probabilidad de graduación es segura.UNET se espera que permanezca dentro de la carrera durante aproximadamente catorce semestres y medio para lograr titularse (14. a lo largo del tiempo. La Figura 3. tiene una probabilidad de abandonar la carrera de 0. accediese a Ingeniería Industrial de la UNET. muestra las probabilidades condicionales de Retiro o Graduación. Su interpretación es la siguiente: Un alumno que inicie en el primer semestre a la carrera de Ingeniería Industrial de la UNET. De los valores de la Figura 3.26 + 1.17 semestres. estima su tiempo esperado de graduación en 7. A modo de ejemplo. Sin embargo. en el quinto semestre.5).86. Es decir. se espera que logren graduarse 86 nuevos Ingenieros Industriales. si un alumno ingresase a la carrera por traslado desde otra universidad. es decir.15 + 1. con probabilidad de 0. que si un alumno por traslado desde otra universidad. desde la Figura 2.08 + 1.02. por ejemplo. Lo que es lo mismo que sostener. que de cada 100 alumnos que inicien la carrera. su tiempo esperado de graduación se obtiene sumando los valores de permanencia de la fila 5: 1. y de titularse en acto de graduación.08 + 1. entonces. inicia en la UNET en el quinto semestre.

El tiempo estimado de graduación de un estudiante de la carrera.edu. por cuanto difiere en el valor deseado y normado para culminación en 10 semestres.bc.uc. el resultado obtenido por el modelo de 29 .revista feb. con datos informados por el departamento de Control de Estudios de la Universidad del Tachira.ve. corresponde a un comportamiento preocupante.15 semestres. fue ratificado por los resultados alcanzados en esta aplicación.2008´´ Discusión El inmenso potencial de aplicación del modelo denominado cadena de Markov.``servicio. calculado en 14. Sin embargo. puesto que los estimados obtenidos fueron corroborados exitosamente.

1972). Así mismo. permitiendo describir el progreso estacional de los aspirantes en la carrera. sustentado en valores de probabilidad. el comportamiento dinámico de los sistemas de producción a lo largo del tiempo. El modelo de Cadena de Markov formulado como resultado de este trabajo.Markov. El modelo de Markov potencia su aplicabilidad en entornos de servicio o manufactura. puede impulsar investigaciones similares. debido a que esta técnica es potencialmente ajustable casi a cualquier dominio aleatorio que evolucione en el tiempo (Hoel et al. permiten expresar con probabilidades. Conclusiones del ejemplo práctico Esta aplicación formula un modelo markoviano para vaticinar la evolución académica de alumnos en la carrera de Ingeniería Industrial. se observa un significativo nivel de repetición y retiro. Sus resultados no intentan explicar la causalidad del proceso resultante. ofrecen una asombrosa aplicabilidad. específicamente las Cadenas de Markov. y su divulgación. durante los primeros cuatro semestres de la carrera. Los patrones mostrados por el progreso 30 . por cuando las cadenas de Markov. correspondiente a casi 15 semestres o lapsos académicos. aproxima y confirma el valor real del tiempo requerido para graduación. puesto que la utilización de técnicas de Investigacion de Operaciones. Solo reflejan la incertidumbre presente en un proceso social que transita cambiante a lo largo del tiempo. La principal ventaja de esta técnica de Investigacion de Operaciones descansa en su simplicidad para representar procesos evolutivos de sistemas complejos.

edu. En resumen. además de proveer información pertinente a la gestión de planificación universitaria.bc.dinámico del estudiante en sus estudios. Este modelo permite pronosticar con soporte en valores de probabilidades.ve. el tiempo que los estudiantes pasan en cada uno de los semestres de la carrera de Ingeniería Industrial de la Universidad del Tachira. El modelo de Markov está lejos de explicar las causas del fenómeno que imita. Se presentan detalles del enfoque metodológico adoptado. y sus posibilidades de desempeño semestre a semestre. http://servicio. ``Luis Fernando Ibarra. 29/05/2009´´ 31 . son el resultado de múltiples factores conocidos y desconocidos. que aumentan considerablemente el conocimiento sobre el proceso evolutivo de los estudiantes en la carrera de Ingeniería Industrial. además de propiciar su aplicabilidad a innumerables procesos del mundo real.uc. hasta graduación o retiro. esta investigación recoge y ordena datos relevantes. lo cual hace este estudio fácilmente trasladable para utilización en otras carreras y universidades. ofrece una alternativa útil de interpretación y estimación universitaria. Sin embargo.

32 . Con esta investigación se puede aprender en como analizar un proceso y ver de qué manera puede ser mejorado. En una empresa pudiese ser utilizado para observar cómo puede estar mejorando un proceso.CONCLUCIONES Como podemos ver al ser utilizada esta herramienta. es una herramienta con la que se puede observar cómo se comporta un proceso o como lo vimos en el último caso ver de qué manera va evolucionando el nivel académico. a corto o largo plazo. que es una herramienta de alta confiabilidad en la cual nos podemos basar para tomar decisiones importantes de la empresa o en lo que se este aplicando. y permite crear una planificación.

edu.com/2010/10/cadenas-de-markov_19.html http://servicio.uc.revistamemorias.com/articulos9/cadenasdemarkov.blogspot.pdf http://www.pdf 33 .ve/ingenieria/revista/Inge-Industrial/volI-n2/art3.BIBLIOGRAFÍA http://ideoperaciones.bc.

4 -.. 0/: .807. :.0 .

.

    .

2039.7.O2480. 077. 5:/080 807 :9.47944.2039..077.. 3.5.3/4 0 3.7:3.84..0844. ./ 03 ...9. 0./.2039./F2.84308 25479.0 .307.5. .O3805:0/0.089.7:3574.4244.. 942.4:.7 5.07 . 077.431.-/.424. 4-807. 025708.4  3 :3..70.425479.43..O3 .3908 /0 . /0 .084 . 025708.248030924.3/4:3574.07/06:F2.307..72047.:3574.745.31.7 .7 /0..8.:.5:0/08072047..6:0805:0/04-807.  6:0 08 :3... & $ 424 54/0248 .5703/0703.O245:0/0089.. 348 54/0248 -. 807 :9.07/06:F 2.4                  .40346:0800890.3.43.3/4 08:3.084  43 089. 089.7./4 5.7 ./4 507290.

 #  995.

.

/04507.42.4308 -48549 ..

  .

 .

* 92 995.74../03.8 /0 2..

.

.4 -. :.0. 0/: .807.

30307.

89.70.

30 3/:897..

4 3..

.79 5/1 995.

.

20247.8 . 70.42.89.

:48..79.

/03...8/02. 5/1       .74.