Documentos de Académico
Documentos de Profesional
Documentos de Cultura
07 Investigación Operativa
c
⃝2009 Facultad de Ingenierı́a,
Universidad de Buenos Aires
Digitalizado por Virginia Guala
$September 12, 2009
Cadenas de Markov ∣ 1
Indice
1 PROCESOS ESTOCÁSTICOS 3
1.1 Definición de Proceso Estocástico . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Clasificación de los Procesos Estocásticos . . . . . . . . . . . . . . . . . . . . . . 3
5 APLICACIONES 78
5.1 Aplicación comercial (“Brand switching”) . . . . . . . . . . . . . . . . . . . . . . 78
5.2 Planeamiento de Personal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.3 Gestión de inventarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.4 Planeamiento de producción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.5 Analisis de fallas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.6 Analisis de cuentas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.7 Estudio de confiabilidad en un sistema de lı́neas de transmisión . . . . . . . . . 97
BIBLIOGRAFÍA 102
Cadenas de Markov ∣ 2
PRÓLOGO
Los Autores
Cadenas de Markov ∣ 3
1 PROCESOS ESTOCÁSTICOS
1.1 Definición de Proceso Estocástico
Un proceso estocástico es un modelo matemático que describe el comportamiento
de un sistema dinámico, sometido a un fenómeno de naturaleza aleatoria.
La presencia de un fenómeno aleatorio hace que el sistema evolucione según
un parámetro, que normalmente es el tiempo t cambiando probabilı́sticamente
de estado. En otras palabras: al realizar una serie de observaciones del pro-
ceso, en diferentes ocasiones y bajo idénticas condiciones, los resultados de las
observaciones serán, en general, diferentes. Por esa razón para describir el
comportamiento del sistema es necesario definir una variable aleatoria: X(t)
que represente una caracterı́stica mesurable de los distintos estados que puede
tomar el sistema según sea el resultado del fenómeno aleatorio, y su correspon-
diente probabilidad de estado asociada: 𝑝𝑥 (𝑡).
Luego el proceso estocástico queda definido por el conjunto:
𝑋(𝑡), 𝑝𝑥 (𝑡), 𝑡
Ejemplo 1.a
En un sistema de generación de energı́a eléctrica,
el pronóstico de la potencia eléctrica horaria
requerida para un dı́a es un proceso estocástico,
en el cual son:
t= 0, 1, 2 ...... 24: horas del dı́a.
X(t)= pronóstico de la potencia eléctrica re-
querida.
px(t)= probabilidad de estado asociada.
Siendo:
𝑥𝑡+Δ𝑡 : un estado particular en el instante 𝑡 + Δ𝑡
𝑥𝑡 : un estado particular en el instante t
𝑥𝑡−Δ𝑡1 : un estado particular en el instante 𝑡 − Δ𝑡1
𝑥𝑡−Δ𝑡2 : un estado particular en el instante 𝑡 − Δ𝑡2
𝑥𝑡−Δ𝑡3 : un estado particular en el instante 𝑡 − Δ𝑡3
Ejemplo 1.b
El siguiente es un proceso con tres variantes que permiten ejemplificar
cada uno de los tres tipos de procesos mencionados. Dado un bolillero
con tres bolillas: 1, 2 y 3, se definen las siguientes experiencias de
pruebas repetidas:
a) Se extraen bolillas “con reposición” y los resultados aleatorios 1, 2
o 3 definen los estados X(t) del siguiente proceso:
⎧ ⎫
⎨ si, si la bolilla es 1 ó 2 ⎬
𝑥(𝑡) = 𝑡 = 1, 2, 3, . . .
⎩ ⎭
no, si la bolilla es 3
1/3
éste es un “proceso aleatorio puro” de ensayos inde- no^
89:;
?>=<
pendientes, pues la probabilidad de presentación de 2/3 1/3
los estados “si” y “no” en t valen 2/3 y 1/3 respec-
0123
7654
siS
tivamente, independientemente de cual haya sido el
estado anterior. 2/3
tiempo
Con referencia especı́ficamente a las cadenas de Markov, de parámetro
discreto o continuo, los distintos estados de la variable X(t) se suelen re-
presentar genéricamente con letras: i, j, k, etc. En particular los valores
de dichos estados dependen de la naturaleza del sistema que se modela,
pero habitualmente se utilizan números enteros: 0, 1, 2, . . . , 𝑚. Luego para
las cadenas de Markov la probabilidad condicional da transición (1.4) se
expresa de la siguiente manera: