Está en la página 1de 11

DESCRIPCIÓN

DEL MÓDULO

Programación Estocástica
CARTA DE BIENVENIDA

Los procesos de toma de decisiones con frecuencia involucran sistemas que se encuentran
afectados por fenómenos aleatorios. Esto genera variaciones en las medidas de desempeño de
tales sistemas, razón por la cual es de suma importancia tratar de incorporar tales variables al
modelamiento matemático y de esta forma manejar su análisis de forma cuantitativa.

El presente módulo busca presentar a los estudiantes los conceptos básicos de los procesos
estocásticos y sus posibles aplicaciones en los diferentes sistemas en los cuales los Ingenieros
Industriales tienen su campo de acción.

Las aplicaciones de los modelos probabilísticos van desde la biología hasta las finanzas, siendo
especialmente importantes para la Ingeniería Industrial en el análisis de los sistemas de
producción de bienes y servicios.

El módulo programación estocástica tienen el propósito de que el estudiante logre conocer


cómo abordar los modelos estocásticos para el diagnóstico y mejora en las organizaciones.
Entre los temas más representativos de programación estocástica se presentan el modelaje y
análisis de cadenas de markov de tiempo discreto, modelaje y análisis de cadenas de markov de
tiempo continuo, y teoría de colas.

Bienvenidos.

2
• FICHA TÉCNICA

NOMBRE DEL MÓDULO: PROGRAMACIÓN ESTOCÁSTICA


AUTOR: JOHN ALEXANDER ARDILA EVAN
FACULTAD DE INGENIERÍA Y CIENCIAS BÁSICAS
DEPARTAMENTO DE INGENIERÍA INDUSTRIAL

Objetivos de Aprendizaje del Módulo

¿Cuáles son las características que los estudiantes estarán en capacidad de practicar al finalizar
el módulo?

1. Conocer y entender las aplicaciones de las Cadenas de Markov de Tiempo Discreto

2. Conocer y entender las aplicaciones de las Cadenas de Markov de Tiempo Continuo

3. Identificar y aplicar la teoría de colas para lograr obtener resultados que soporten la toma de
decisiones

4. Entender y aplicar las fórmulas de teoría de colas

5. Comprender los conceptos y aplicaciones de las Redes de Jackson.

[ PROGRAMACIÓN ESTOCÁSTICA ] 3
• MAPA DEL MÓDULO

Fuente: Elaboración propia

4
• CRITERIOS DE EVALUACIÓN

PRIMERA ENTREGA SEMANA 3


Indicador de lo que Indicador de lo que Indicador de lo que
Criterio de Resultado de
el estudiante debe el estudiante debe el estudiante debe
Evaluación aprendizaje
saber hacer ser

El estudiante
demuestra el dominio
El estudiante es capaz Estudiante con
Aplicación de las El estudiante domina de las definiciones y
de dominar las capacidad de dominar
definiciones y las definiciones y conceptos de procesos
definiciones y las definiciones y
conceptos de procesos conceptos de procesos estocásticos mediante
conceptos de procesos conceptos de procesos
estocásticos. estocásticos. el desarrollo de las
estocásticos. estocásticos.
primeras etapas del
proyecto de aula.

El estudiante
El estudiante es capaz Estudiante con
Modelamiento de El estudiante modela demuestra que es capaz
de modelar los capacidad de modelar
problemas como los problemas como de modelar los
problemas como los problemas como
Procesos Estocásticos Procesos Estocásticos problemas como
Procesos Estocásticos Procesos Estocásticos
en Tiempo Discreto. en Tiempo Discreto. Procesos Estocásticos
en Tiempo Discreto. en Tiempo Discreto.
en Tiempo Discreto.

El estudiante es capaz El estudiante Estudiante con


El estudiante identifica
Identificar y utilizar la de identificar y utilizar demuestra ser capaz de capacidad de identificar
y utiliza la notación e
notación e indicadores la notación e identificar y utilizar la y utilizar la notación e
indicadores correctos
correctos para resolver indicadores correctos notación e indicadores indicadores correctos
para resolver el
el problema planteado para resolver el correctos para resolver para resolver el
problema planteado en
en el proyecto de aula. problema planteado en el problema planteado problema planteado en
el proyecto de aula.
el proyecto de aula. en el proyecto de aula. el proyecto de aula.

[ PROGRAMACIÓN ESTOCÁSTICA ] 5
EXAMEN PARCIAL SEMANA 4
Indicador de lo que Indicador de lo que Indicador de lo que
Criterio de Resultado de
el estudiante debe el estudiante debe el estudiante debe
Evaluación aprendizaje
saber hacer ser

El estudiante debe
El estudiante domina El estudiante debe mostrar dominio de los
Identificar los Estudiante con dominio
en su totalidad los tener dominio de los conceptos de
conceptos de en los conceptos de
conceptos de conceptos de probabilidad mediante
probabilidad. probabilidad.
probabilidad. probabilidad. la solución de los
ejercicios propuestos.

El estudiante debe
mostrar dominio de los
El estudiante domina El estudiante debe Estudiante con dominio
Identificar los conceptos estadísticos
en su totalidad los tener dominio de los en los conceptos
conceptos estadísticos. mediante la solución de
conceptos estadísticos. conceptos estadísticos. estadísticos.
los ejercicios
propuestos.

El estudiante es capaz El estudiante El estudiante


Estudiante con dominio
Entender los conceptos, de aplicar demuestra la aplicación demuestra la aplicación
de los conceptos,
propiedades e correctamente los de los conceptos, de los conceptos,
propiedades e
indicadores de las conceptos, propiedades propiedades e propiedades e
indicadores de las
cadenas de Markov en e indicadores de las indicadores de las indicadores de las
cadenas de Markov en
tiempo discreto. cadenas de Markov en cadenas de Markov en cadenas de Markov en
tiempo discreto.
tiempo discreto. tiempo discreto. tiempo discreto.

El estudiante
demuestra las
El estudiante
El estudiante es capaz habilidades para aplicar
Conocer y aplicar las demuestra las Estudiante con dominio
de aplicar las las distribuciones
distribuciones límites habilidades para aplicar de las distribuciones
distribuciones límites límites de las cadenas
de las cadenas de las distribuciones límites de las cadenas
de las cadenas de de Markov en tiempo
Markov en tiempo límites de las cadenas de Markov en tiempo
Markov en tiempo discreto mediante la
discreto. de Markov en tiempo discreto.
discreto. solución de los
discreto.
ejercicios propuesta en
el examen.

6
SEGUNDA ENTREGA SEMANA 5

Indicador de lo que Indicador de lo que Indicador de lo que


Criterio de Resultado de
el estudiante debe el estudiante debe el estudiante debe
Evaluación aprendizaje
saber hacer ser

El estudiante
El estudiante es
Aplicación de El estudiante la demuestra la
capaz de utilizar la Estudiante con
metodología para la metodología para la habilidad para aplicar
metodología para la capacidad de
solución de ejercicios solución de ejercicios la metodología para
solución de ejercicios resolver problemas
de modelados como de modelados como la solución de
de modelados como modelados como un
un proceso un proceso ejercicios de
un proceso proceso estocástico.
estocástico. estocástico. modelados como un
estocástico.
proceso estocástico.

El estudiante Estudiante con


El estudiante es
Modelamiento de El estudiante modela demuestra que es capacidad de
capaz de modelar los
problemas como los problemas como capaz de modelar los modelar los
problemas como
Procesos Estocásticos Procesos Estocásticos problemas como problemas como
Procesos Estocásticos
en Tiempo Discreto. en Tiempo Discreto. Procesos Estocásticos Procesos Estocásticos
en Tiempo Discreto.
en Tiempo Discreto. en Tiempo Discreto.

ENTREGA FINAL SEMANA 7

Indicador de lo que Indicador de lo que Indicador de lo que


Criterio de Resultado de
el estudiante debe el estudiante debe el estudiante debe
Evaluación aprendizaje
saber hacer ser

El estudiante Estudiante con


El estudiante es
Modelamiento de El estudiante modela demuestra que es capacidad de
capaz de modelar los
problemas como los problemas como capaz de modelar los modelar los
problemas como
Procesos Estocásticos Procesos Estocásticos problemas como problemas como
Procesos Estocásticos
en Tiempo Discreto. en Tiempo Discreto. Procesos Estocásticos Procesos Estocásticos
en Tiempo Discreto.
en Tiempo Discreto. en Tiempo Discreto.

El estudiante Estudiante con


El estudiante El estudiante es
Identificar y utilizar la demuestra ser capaz capacidad de
identifica y utiliza la capaz de identificar y
notación e de identificar y identificar y utilizar la
notación e utilizar la notación e
indicadores correctos utilizar la notación e notación e
indicadores correctos indicadores correctos
para resolver el indicadores correctos indicadores correctos
para resolver el para resolver el
problema planteado para resolver el para resolver el
problema planteado problema planteado
en el proyecto de problema planteado problema planteado
en el proyecto de en el proyecto de
aula. en el proyecto de en el proyecto de
aula. aula.
aula. aula.

[ PROGRAMACIÓN ESTOCÁSTICA ] 7
EXAMEN FINAL SEMANA 8
Indicador de lo que el Indicador de lo que el Indicador de lo que
Criterio de Resultado de
estudiante debe estudiante debe el estudiante debe
Evaluación aprendizaje
saber hacer ser
El estudiante debe
El estudiante domina en El estudiante debe tener mostrar dominio de los Estudiante con
Identificar los
su totalidad los dominio de los conceptos de dominio en los
conceptos de
conceptos de conceptos de probabilidad mediante conceptos de
probabilidad.
probabilidad. probabilidad. la solución de los probabilidad.
ejercicios propuestos.

El estudiante debe
Estudiante con
Identificar los El estudiante domina en El estudiante debe tener mostrar dominio de los
dominio en los
conceptos su totalidad los dominio de los conceptos estadísticos
conceptos
estadísticos. conceptos estadísticos. conceptos estadísticos. mediante la solución de
estadísticos.
los ejercicios propuestos.

El estudiante es capaz de Estudiante con


Entender los El estudiante demuestra El estudiante demuestra
aplicar correctamente dominio de los
conceptos, la aplicación de los la aplicación de los
los conceptos, conceptos,
propiedades e conceptos, propiedades conceptos, propiedades
propiedades e propiedades e
indicadores de las e indicadores de las e indicadores de las
indicadores de las indicadores de las
cadenas de Markov cadenas de Markov en cadenas de Markov en
cadenas de Markov en cadenas de Markov en
en tiempo discreto. tiempo discreto. tiempo discreto.
tiempo discreto. tiempo discreto.

El estudiante demuestra
El estudiante demuestra las habilidades para Estudiante con
Conocer y aplicar las El estudiante es capaz de
las habilidades para aplicar las distribuciones dominio de las
distribuciones límites aplicar las distribuciones
aplicar las distribuciones límites de las cadenas de distribuciones límites
de las cadenas de límites de las cadenas de
límites de las cadenas de Markov en tiempo de las cadenas de
Markov en tiempo Markov en tiempo
Markov en tiempo discreto mediante la Markov en tiempo
discreto. discreto.
discreto. solución de los ejercicios discreto.
propuesta en el examen.

El estudiante demuestra
El estudiante demuestra las habilidades para Estudiante con
Conocer y aplicar las El estudiante es capaz de
las habilidades para aplicar las distribuciones dominio de las
distribuciones límites aplicar las distribuciones
aplicar las distribuciones límites de las cadenas de distribuciones límites
de las cadenas de límites de las cadenas de
límites de las cadenas de Markov en tiempo de las cadenas de
Markov en tiempo Markov en tiempo
Markov en tiempo discreto mediante la Markov en tiempo
discreto. discreto.
discreto. solución de los ejercicios discreto.
propuesta en el examen.

El estudiante entiende
El estudiante entiende los conceptos y
Entender los los conceptos y aplicaciones las
El estudiante demuestra Estudiante con
conceptos y aplicaciones ecuaciones de los
el entendimiento de los dominio de los
aplicaciones de los correctamente las sistemas de colas y redes
sistemas de colas y redes sistemas de colas y
sistemas de colas y ecuaciones de los de Jackson, logrando
de Jackson. redes de Jackson.
redes de Jackson. sistemas de colas y redes solucionar los ejercicios
de Jackson. propuestos en el
examen.

8
• GLOSARIO

ALCANZABILIDAD: entre los estados de una cadena de Markov, se dice que un estado A es
alcanzable desde otro B si existe una probabilidad de transición, desde B hacia A, mayor a cero.

ALEATORIEDAD: tipo de variabilidad que no es controlable con facilidad debido al


desconocimiento parcial del sistema en estudio.

CADENA DE MARKOV: las cadenas de Markov son procesos estocásticos especiales que poseen
la propiedad markoviana y permiten predecir el comportamiento de diferentes sistemas a
través del tiempo. Las cadenas de Markov pueden ser observadas en tiempo discreto o en
tiempo continuo, dependiento del sistema: CMTD para cadenas de Markov de tiempo discreto y
CMTC para las cadenas de Markov de tiempo continuo.

CADENA IRREDUCTIBLE: una cadena de Markov que tiene un número finito de estados y a su
vez todos sus estados son recurrentes, es considerada una cadena de Markov irreducible.

CADENA ERGÓDICA: si una cadena de Markov es aperiódica y además es irreducible, esta


cadena es considerada una cadena ergódica. Esta propiedad es especialmente importante para
determinar si la distribución límite de la cadena de Markov existe.

COMUNICABILIDAD: se dice que dos estados A y B se comunican entre sí, si A es alcanzable


desde B, y a su vez, B es alcanzable desde A.

DEMANDA DETERMINÍSTICA: es la demanda cuyos valores, sin importar si son constantes o


variables, se consideran conocidos.

DEMANDA ESTOCÁSTICA: es la demanda cuyos valores no podemos predecir con certeza y por
tanto tienen una probabilidad de ocurrencia asociada.

DISTRIBUCIÓN ESTADÍSTICA: se entiende como la función que resume el comportamiento de


un conjunto de valores de una variable aleatoria.

ESTADO ABSORBENTE: un estado absorbente es aquel del que no se puede volver a salir una
vez se llegue a este. La probabilidad de transición hacia otros estados es igual a cero, mientras
que la probabilidad de seguir en el mismo estado es igual a 1.

ESTADO/CADENA APERIÓDICA: un estado es considerado aperiódico cuando su periodo es 1.


Así mismo, si en una cadena tiene al menor un estado aperiódico, se dice que dicha cadena es
aperiódica.

[ PROGRAMACIÓN ESTOCÁSTICA ] 9
ESPACIO DE ESTADOS DEL PROCESO ESTOCÁSTICO: conjunto de posibles valores de una
variable aleatoria que está definida como un proceso estocástico.

ESTADO RECURRENTE: un estado recurrente es aquel al que se puede volver una y otra vez (un
número infinito de veces) con el transcurso del tiempo.

ESTADO TRANSITORIO: a diferencia de los estados recurrentes, los estados transitorios, son
aquellos estados a los que no se puede asegurar volver a ellos con el transcurso del tiempo.
Como su nombre lo indica, se puede decir que son estados de paso.

MATRIZ ESTOCÁSTICA: también conocida como una matriz de probabilidad o matriz de Markov,
es una matriz que describe las transiciones de una cadena de Markov. Cada uno de los
elementos de una matriz estocástica debe tener un valor mayor o igual a cero y menor o igual a
uno y además, como se trata de una matriz de probabilidades, la suma de los elementos de
cada fila debe totalizar 1.

PERIODO: la periodicidad de un estado puede ser definida como el mínimo número de pasos
posibles en los que se puede volver al mismo estado.

PROCESO DETERMINÍSTICO: es un sistema en el cual el azar no está involucrado. Es decir, si se


conoce el estado actual del sistema, se conocerá el estado futuro. Determinístico es sinónimo
de constante o conocido.

PROCESO ESTOCÁSTICO: un proceso estocástico es un concepto matemático que sirve para


caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de
otra variable, generalmente el tiempo.

PROBABILIDAD DE TRANSICIÓN: la probabilidad de transición hace referencia a la chance que


hay de pasar de un estado a otro dentro en un proceso estocástico. Ya sea que se trate de un
proceso estocástico observado en tiempo discreto o continuo, los diferentes estados que puede
tomar la variable de estados tienen asociada una probabilidad de transición hacia cada uno de
los otros estados. La suma de las probabilidades de transición de cada estado hacia cada uno de
los estados del sistema debe totalizar 1.

PROPIEDAD MARKOVIANA: los procesos estocásticos que poseen esta propiedad no necesitan
información histórica acerca de los estados anteriores del sistema para predecir estados futuros
del mismo. Es decir, basta con tener información suficiente para modelar el comportamiento
actual del sistema, para luego pronosticar probabilísticamente comportamientos posteriores.

RED DE JACKSON: una red de Jackson es un conjunto de estaciones que pueden ser evaluadas
individualmente como sistemas de espera independientes, con el fin de evaluar el sistema
global o la red. Es una extensión de la teoría de colas que permite analizar sistemas que poseen
varias líneas de espera interconectadas.

10
• BIBLIOGRAFÍA

ARDILA EVAN, John. Lectura Uno: Repaso de Probabilidad y Estadística. Bogotá: Politécnico
Grancolombiano. Educación Virtual, 2012.
-------- Lectura Dos: Repaso de Probabilidad y Estadística. Bogotá. Politécnico Grancolombiano.
Educación Virtual, 2012.
-------- Procesos Estocásticos. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Cadenas de Markov de Tiempo Discreto. Bogotá: Politécnico Grancolombiano. Educación
Virtual, 2012.
-------- Distribuciones Transitorias. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Comportamiento Límite de unas Cadenas de Markov de Tiempo Discreto. Bogotá:
Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Distribución Exponencial y Procesos de Procesos de Poisson. Bogotá: Politécnico
Grancolombiano. Educación Virtual, 2012.
-------- Cadenas de Markov de Tiempo Continuo. Bogotá: Politécnico Grancolombiano. Educación
Virtual, 2012.
-------- Introducción a la Teoría de Colas. Bogotá: Politécnico Grancolombiano. Educación Virtual,
2012.
-------- Sistema de Colas M/M/S. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Sistema de Colas M/M/∞. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Sistema de Colas M/G/1. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Sistema de Colas G/M/1. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.
-------- Redes de Jackson. Bogotá: Politécnico Grancolombiano. Educación Virtual, 2012.

LIBROS

HILLIER, Frederick S. Introduction to operations research, 9thEdition, McGraw Hill, 2010.


HOPP, W., & SPEARMAN, M. Factory Physics. Third Edition, McGraw Hill, 2008.
J.G. MONKS. Teoría y Problemas de Administración de Operaciones. México: McGraw Hill, 1988.
JACOBS, Robert y CHASE, Richard. Operations and Supply Management: The Core. US A ., New
York: McGraw Hill,/Irwin, 2008.
KRAJEWSKY, Lee, RITZMAN, Larry y MALHOTRA, Manoj. Administración de Operaciones:
Procesos y cadenas de valor. 8ed. México: Pearson Educación, 2008.
KULKARNI, V., Modeling and Analysis of Stochastic Systems. Chapman& Hall, 2006.
_____., Modeling, Analysis, and Control of Stochastic Systems. Springer, 1999.
R. CHASE, N. Aquilano& F. Jacobs. Administración de producción y operaciones:manufactura y
servicio. Colombia: McGraw Hill, 2000.
ROSS, Sheldon M. Introduction to Probability Models. 9thEdition. Academic Press-Elsevier.
2006.
WALPOLE, Ronald, MYERS, Raymond, MYERS, Sharon y YE, Keying. Probability and Statistics Fon
Engineers and Scientists. 8ed.. Londres: Pearson Prentice Hall, 2007.

[ PROGRAMACIÓN ESTOCÁSTICA ] 11

También podría gustarte