Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DEL MÓDULO
Programación Estocástica
CARTA DE BIENVENIDA
Los procesos de toma de decisiones con frecuencia involucran sistemas que se encuentran
afectados por fenómenos aleatorios. Esto genera variaciones en las medidas de desempeño de
tales sistemas, razón por la cual es de suma importancia tratar de incorporar tales variables al
modelamiento matemático y de esta forma manejar su análisis de forma cuantitativa.
El presente módulo busca presentar a los estudiantes los conceptos básicos de los procesos
estocásticos y sus posibles aplicaciones en los diferentes sistemas en los cuales los Ingenieros
Industriales tienen su campo de acción.
Las aplicaciones de los modelos probabilísticos van desde la biología hasta las finanzas, siendo
especialmente importantes para la Ingeniería Industrial en el análisis de los sistemas de
producción de bienes y servicios.
Bienvenidos.
2
• FICHA TÉCNICA
¿Cuáles son las características que los estudiantes estarán en capacidad de practicar al finalizar
el módulo?
3. Identificar y aplicar la teoría de colas para lograr obtener resultados que soporten la toma de
decisiones
[ PROGRAMACIÓN ESTOCÁSTICA ] 3
• MAPA DEL MÓDULO
4
• CRITERIOS DE EVALUACIÓN
El estudiante
demuestra el dominio
El estudiante es capaz Estudiante con
Aplicación de las El estudiante domina de las definiciones y
de dominar las capacidad de dominar
definiciones y las definiciones y conceptos de procesos
definiciones y las definiciones y
conceptos de procesos conceptos de procesos estocásticos mediante
conceptos de procesos conceptos de procesos
estocásticos. estocásticos. el desarrollo de las
estocásticos. estocásticos.
primeras etapas del
proyecto de aula.
El estudiante
El estudiante es capaz Estudiante con
Modelamiento de El estudiante modela demuestra que es capaz
de modelar los capacidad de modelar
problemas como los problemas como de modelar los
problemas como los problemas como
Procesos Estocásticos Procesos Estocásticos problemas como
Procesos Estocásticos Procesos Estocásticos
en Tiempo Discreto. en Tiempo Discreto. Procesos Estocásticos
en Tiempo Discreto. en Tiempo Discreto.
en Tiempo Discreto.
[ PROGRAMACIÓN ESTOCÁSTICA ] 5
EXAMEN PARCIAL SEMANA 4
Indicador de lo que Indicador de lo que Indicador de lo que
Criterio de Resultado de
el estudiante debe el estudiante debe el estudiante debe
Evaluación aprendizaje
saber hacer ser
El estudiante debe
El estudiante domina El estudiante debe mostrar dominio de los
Identificar los Estudiante con dominio
en su totalidad los tener dominio de los conceptos de
conceptos de en los conceptos de
conceptos de conceptos de probabilidad mediante
probabilidad. probabilidad.
probabilidad. probabilidad. la solución de los
ejercicios propuestos.
El estudiante debe
mostrar dominio de los
El estudiante domina El estudiante debe Estudiante con dominio
Identificar los conceptos estadísticos
en su totalidad los tener dominio de los en los conceptos
conceptos estadísticos. mediante la solución de
conceptos estadísticos. conceptos estadísticos. estadísticos.
los ejercicios
propuestos.
El estudiante
demuestra las
El estudiante
El estudiante es capaz habilidades para aplicar
Conocer y aplicar las demuestra las Estudiante con dominio
de aplicar las las distribuciones
distribuciones límites habilidades para aplicar de las distribuciones
distribuciones límites límites de las cadenas
de las cadenas de las distribuciones límites de las cadenas
de las cadenas de de Markov en tiempo
Markov en tiempo límites de las cadenas de Markov en tiempo
Markov en tiempo discreto mediante la
discreto. de Markov en tiempo discreto.
discreto. solución de los
discreto.
ejercicios propuesta en
el examen.
6
SEGUNDA ENTREGA SEMANA 5
El estudiante
El estudiante es
Aplicación de El estudiante la demuestra la
capaz de utilizar la Estudiante con
metodología para la metodología para la habilidad para aplicar
metodología para la capacidad de
solución de ejercicios solución de ejercicios la metodología para
solución de ejercicios resolver problemas
de modelados como de modelados como la solución de
de modelados como modelados como un
un proceso un proceso ejercicios de
un proceso proceso estocástico.
estocástico. estocástico. modelados como un
estocástico.
proceso estocástico.
[ PROGRAMACIÓN ESTOCÁSTICA ] 7
EXAMEN FINAL SEMANA 8
Indicador de lo que el Indicador de lo que el Indicador de lo que
Criterio de Resultado de
estudiante debe estudiante debe el estudiante debe
Evaluación aprendizaje
saber hacer ser
El estudiante debe
El estudiante domina en El estudiante debe tener mostrar dominio de los Estudiante con
Identificar los
su totalidad los dominio de los conceptos de dominio en los
conceptos de
conceptos de conceptos de probabilidad mediante conceptos de
probabilidad.
probabilidad. probabilidad. la solución de los probabilidad.
ejercicios propuestos.
El estudiante debe
Estudiante con
Identificar los El estudiante domina en El estudiante debe tener mostrar dominio de los
dominio en los
conceptos su totalidad los dominio de los conceptos estadísticos
conceptos
estadísticos. conceptos estadísticos. conceptos estadísticos. mediante la solución de
estadísticos.
los ejercicios propuestos.
El estudiante demuestra
El estudiante demuestra las habilidades para Estudiante con
Conocer y aplicar las El estudiante es capaz de
las habilidades para aplicar las distribuciones dominio de las
distribuciones límites aplicar las distribuciones
aplicar las distribuciones límites de las cadenas de distribuciones límites
de las cadenas de límites de las cadenas de
límites de las cadenas de Markov en tiempo de las cadenas de
Markov en tiempo Markov en tiempo
Markov en tiempo discreto mediante la Markov en tiempo
discreto. discreto.
discreto. solución de los ejercicios discreto.
propuesta en el examen.
El estudiante demuestra
El estudiante demuestra las habilidades para Estudiante con
Conocer y aplicar las El estudiante es capaz de
las habilidades para aplicar las distribuciones dominio de las
distribuciones límites aplicar las distribuciones
aplicar las distribuciones límites de las cadenas de distribuciones límites
de las cadenas de límites de las cadenas de
límites de las cadenas de Markov en tiempo de las cadenas de
Markov en tiempo Markov en tiempo
Markov en tiempo discreto mediante la Markov en tiempo
discreto. discreto.
discreto. solución de los ejercicios discreto.
propuesta en el examen.
El estudiante entiende
El estudiante entiende los conceptos y
Entender los los conceptos y aplicaciones las
El estudiante demuestra Estudiante con
conceptos y aplicaciones ecuaciones de los
el entendimiento de los dominio de los
aplicaciones de los correctamente las sistemas de colas y redes
sistemas de colas y redes sistemas de colas y
sistemas de colas y ecuaciones de los de Jackson, logrando
de Jackson. redes de Jackson.
redes de Jackson. sistemas de colas y redes solucionar los ejercicios
de Jackson. propuestos en el
examen.
8
• GLOSARIO
ALCANZABILIDAD: entre los estados de una cadena de Markov, se dice que un estado A es
alcanzable desde otro B si existe una probabilidad de transición, desde B hacia A, mayor a cero.
CADENA DE MARKOV: las cadenas de Markov son procesos estocásticos especiales que poseen
la propiedad markoviana y permiten predecir el comportamiento de diferentes sistemas a
través del tiempo. Las cadenas de Markov pueden ser observadas en tiempo discreto o en
tiempo continuo, dependiento del sistema: CMTD para cadenas de Markov de tiempo discreto y
CMTC para las cadenas de Markov de tiempo continuo.
CADENA IRREDUCTIBLE: una cadena de Markov que tiene un número finito de estados y a su
vez todos sus estados son recurrentes, es considerada una cadena de Markov irreducible.
DEMANDA ESTOCÁSTICA: es la demanda cuyos valores no podemos predecir con certeza y por
tanto tienen una probabilidad de ocurrencia asociada.
ESTADO ABSORBENTE: un estado absorbente es aquel del que no se puede volver a salir una
vez se llegue a este. La probabilidad de transición hacia otros estados es igual a cero, mientras
que la probabilidad de seguir en el mismo estado es igual a 1.
[ PROGRAMACIÓN ESTOCÁSTICA ] 9
ESPACIO DE ESTADOS DEL PROCESO ESTOCÁSTICO: conjunto de posibles valores de una
variable aleatoria que está definida como un proceso estocástico.
ESTADO RECURRENTE: un estado recurrente es aquel al que se puede volver una y otra vez (un
número infinito de veces) con el transcurso del tiempo.
ESTADO TRANSITORIO: a diferencia de los estados recurrentes, los estados transitorios, son
aquellos estados a los que no se puede asegurar volver a ellos con el transcurso del tiempo.
Como su nombre lo indica, se puede decir que son estados de paso.
MATRIZ ESTOCÁSTICA: también conocida como una matriz de probabilidad o matriz de Markov,
es una matriz que describe las transiciones de una cadena de Markov. Cada uno de los
elementos de una matriz estocástica debe tener un valor mayor o igual a cero y menor o igual a
uno y además, como se trata de una matriz de probabilidades, la suma de los elementos de
cada fila debe totalizar 1.
PERIODO: la periodicidad de un estado puede ser definida como el mínimo número de pasos
posibles en los que se puede volver al mismo estado.
PROPIEDAD MARKOVIANA: los procesos estocásticos que poseen esta propiedad no necesitan
información histórica acerca de los estados anteriores del sistema para predecir estados futuros
del mismo. Es decir, basta con tener información suficiente para modelar el comportamiento
actual del sistema, para luego pronosticar probabilísticamente comportamientos posteriores.
RED DE JACKSON: una red de Jackson es un conjunto de estaciones que pueden ser evaluadas
individualmente como sistemas de espera independientes, con el fin de evaluar el sistema
global o la red. Es una extensión de la teoría de colas que permite analizar sistemas que poseen
varias líneas de espera interconectadas.
10
• BIBLIOGRAFÍA
ARDILA EVAN, John. Lectura Uno: Repaso de Probabilidad y Estadística. Bogotá: Politécnico
Grancolombiano. Educación Virtual, 2012.
-------- Lectura Dos: Repaso de Probabilidad y Estadística. Bogotá. Politécnico Grancolombiano.
Educación Virtual, 2012.
-------- Procesos Estocásticos. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Cadenas de Markov de Tiempo Discreto. Bogotá: Politécnico Grancolombiano. Educación
Virtual, 2012.
-------- Distribuciones Transitorias. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Comportamiento Límite de unas Cadenas de Markov de Tiempo Discreto. Bogotá:
Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Distribución Exponencial y Procesos de Procesos de Poisson. Bogotá: Politécnico
Grancolombiano. Educación Virtual, 2012.
-------- Cadenas de Markov de Tiempo Continuo. Bogotá: Politécnico Grancolombiano. Educación
Virtual, 2012.
-------- Introducción a la Teoría de Colas. Bogotá: Politécnico Grancolombiano. Educación Virtual,
2012.
-------- Sistema de Colas M/M/S. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Sistema de Colas M/M/∞. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Sistema de Colas M/G/1. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Sistema de Colas G/M/1. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Redes de Jackson. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
LIBROS
[ PROGRAMACIÓN ESTOCÁSTICA ] 11