Está en la página 1de 43

Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos

Carlos J. Zapata del Análisis Probabilístico

Capítulo 1 – Conceptos Básicos del Análisis


Probabilístico
1.1 Fenómeno Aleatorio
1.1.1 Incertidumbre

El término incertidumbre se refiere a aquella situación en la cual no se tiene completo


conocimiento sobre un fenómeno dado.

La falta de conocimiento puede referirse a cómo se desarrolla el fenómeno, sus causas o


sus resultados.

Lo opuesto a incertidumbre se denomina certidumbre o determinismo.

Ejemplo 1.1

Considere la situación mostrada en la figura donde se quiere predecir el tiempo t para


que un objeto ubicado a una altura h llegue al suelo.

ℎ 𝑡 =?

De las leyes de la física se conoce que t   2h / g , donde g=9.8 m/s es la aceleración de la


gravedad.

En este caso, tenemos un fenómeno determinístico o sin incertidumbre ya que, si se conoce


la altura desde la que cae el objeto, siempre podremos predecir en forma exacta el tiempo
en que llegará al suelo.

Cualquier diferencia que se mida con respecto al valor dado por la anterior ecuación se
atribuye al error de medición.

Universidad Tecnológica de Pereira ©2015 1


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.2

Considere la situación mostrada en la figura donde se quiere conocer el tiempo t para que
se geste un ser humano.

𝑡 =?

En este caso, tenemos un fenómeno con incertidumbre ya que no se tiene una ley o modelo
que permita predecir en forma exacta este tiempo.

De una larga observación de este fenómeno se conoce que el tiempo promedio para la
gestación de un ser humano es de 266 días (38 semanas, 9 meses) para embarazos
considerados normales (ni prematuros ni prolongados).

Ejemplo 1.3

Considere la situación mostrada en la figura donde se quiere predecir cual número


resultará al lanzar un dado.

En este caso, tenemos un fenómeno con incertidumbre ya que, aunque se conocen los
posibles resultados (1, 2, 3, 4, 5 y 6), no se tiene una ley o modelo que permita predecir en
forma exacta cual número resultará.

Esta situación es típica en los denominados “juegos de azar”.

Universidad Tecnológica de Pereira ©2015 2


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.4

Considere el generador eléctrico de corriente alterna mostrado en la figura cuya salida es


un voltaje sinusoidal v  100sin(2 ft) , donde f es la frecuencia en Hertz y t el tiempo en
segundos.

En este caso, tenemos un fenómeno determinístico o sin incertidumbre ya que si se conoce


la frecuencia f, podemos predecir en forma exacta cuál será el voltaje entregado por el
generador para cualquier instante del tiempo.

Ejemplo 1.5

Considere el caudal de agua q en [m3/s] de un río tal como se muestra en la figura.

En este caso, tenemos un fenómeno con incertidumbre ya que no existe un modelo que
permita predecir en forma exacta el caudal para cada instante del tiempo.

Del caudal se conoce que puede tomar todos los valores reales mayores o iguales a cero y
no se conoce cuál podrá ser su valor máximo.

Universidad Tecnológica de Pereira ©2015 3


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.1.2 Azar y Aleatoriedad

El término azar se refiere a la ausencia de causa o explicación. Se aplica a:

1. Aquella situación en la cual no se conocen las causas que producen un evento dado.

2. Aquella situación en la cual, aunque se conocen las causas que producen un evento
dado, no puede explicarse porqué éstas ocurren simultáneamente.

El término aleatoriedad se refiere a aquella situación en la cual la ocurrencia de un evento


dado no puede explicarse más que por intervención del azar.

El término aleatorio o estocástico se refiere a algo carente de causa u orden o que es


impredecible. Así, este término se aplica a las situaciones donde:

1. No se conocen las causas que producen un evento dado.

2. Aunque se conocen las causas y los resultados (eventos resultantes) no se puede


establecer una ley o relación permanente entre ellos.

3. Una secuencia de resultados no puede condensarse en una ecuación o descripción

4. Existe duda sobre la veracidad de una afirmación o negación. Ver el Ejemplo 1.5.

5. En un procedimiento dado, la salida no es la misma aunque se repitan las mismas


entradas y condiciones. Esto se denomina experimento aleatorio.

6. Aunque existe una ley o relación determinística que describe un fenómeno dado,
no se conoce con precisión uno o varios de los factores que intervienen en dicho
modelo. Ver el Ejemplo 1.6.

Universidad Tecnológica de Pereira ©2015 4


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.5

Te amo!

En este caso, para la persona de la derecha, existe incertidumbre de tipo aleatoriedad ya


que no sabe si lo que le dicen es verdadero o falso.

Ejemplo 1.6

Considere la situación en que se quiere calcular la fuerza máxima con que golpean a una
vivienda las bolas de nieve que se deslizan por una colina, tal como se muestra en la
figura.

De las leyes de la física se conoce que la fuerza F es igual al producto de la masa m por la
aceleración a, por lo cual, el fenómeno bajo estudio en primera instancia es determinístico.

Sin embargo, en este caso no se dispone de un modelo que nos permita predecir en forma
exacta cuál será el máximo valor de masa de las bolas de nieve; por lo tanto, si la masa es
aleatoria, la fuerza también lo es.

En cuanto a la aceleración a, en este caso corresponde a 9.8 m/s que es la aceleración de la


gravedad.

1.1.3 Causas de la Aleatoriedad

Todo lo que sucede en el mundo tiene una causa o explicación y en este sentido el mundo
es determinístico, por lo cual, es ilógico o no científico pensar lo contrario. Así, desde largo
tiempo atrás y en diversas épocas filósofos y científicos ha sido expresado que las leyes
de la naturaleza son determinísticas; entonces, de donde surge la idea de aleatoriedad?

Universidad Tecnológica de Pereira ©2015 5


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

La incertidumbre de tipo aleatoriedad aparece por:

1. La incapacidad para explicar el fenómeno bajo estudio

2. La incapacidad para modelar (representar) el fenómeno bajo por estudio por falta
de conocimiento, alta complejidad, limitación de las herramientas matemáticas y
computacionales.

3. La incapacidad para medir u observar en forma precisa

La incertidumbre se refiere al analista no al fenómeno. Entonces, es la falta de


conocimiento del ser humano la que hace que algunos fenómenos deban considerarse
aleatorios.

Nótese que la aleatoriedad es una situación temporal en la que se desea predecir la


ocurrencia de un evento o resultado futuro; una vez los eventos ocurren la incertidumbre
desaparece.

1.1.4 Espacio Muestral y Eventos

Se denomina espacio muestral S al conjunto de todos los resultados posibles de un


fenómeno aleatorio. Los resultados pueden expresarse en términos numéricos o
lingüísticos.

Ejemplo 1.7 Algunos espacios muestrales:

Tiempo para gestar un ser humano: S=(7.0, 7.1, 8.0)


Caudal en un río: S=(0.0, 0.1, 0.151, 0.8, 1.2, 5.0, 20 …)
Lanzamiento de un dado: S=(1, 2, 3, 4 , 5, 6)
Declaración de amor: S=(falso, verdadero)
Daños en un vehículo: (falla batería, falla correa repartición, …)

Sólo es posible representar matemáticamente un fenómeno aleatorio si se puede definir


su espacio muestral.

Se denomina evento a un subconjunto de interés del espacio muestral. Es decir, resultados


que cumplen unas determinadas condiciones.

Universidad Tecnológica de Pereira ©2015 6


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.8 Algunos eventos:

Tiempo para gestar un ser humano: >7.0


Caudal en un río: >5.0, <2.0
Lanzamiento de un dado: (1, 2, 3, 4 , 5, 6) (#pares, #impares)
Declaración de amor: (falso, verdadero)
Daños en un vehículo: (falla eléctrica, falla mecánica, …)

1.1.5 Variable Aleatoria

Para estudiar un fenómeno aleatorio se tiene que definir al menos una variable x que
permita visualizarlo u observarlo. Se dice entonces que x es una variable aleatoria.

Así, en términos prácticos, una variable aleatoria es aquella para la cual se conocen los
posibles valores que puede tomar pero no es posible predecir en forma exacta o precisa
cuál de ellos será el siguiente en ocurrir o cual ocurrirá en un tiempo dado t.

Matemáticamente, una variable aleatoria se define como una función que le asigna un
número (real o entero) a cada resultado o evento de un fenómeno aleatorio Este concepto
se ilustra en la figura 1.1.
x(E)=5
S

E
x(A)=1
A
D
x(D)=4

B x(B)=2
C

x(C)=3
Figura 1.1 Concepto matemático de variable aleatoria

Para una variable aleatoria se definen:

 El dominio: Los resultados o eventos del fenómeno aleatorio

 El rango: El conjunto de números asignados a los resultados o eventos

Una variable aleatoria puede ser discreta, continua o mixta, según la naturaleza del
fenómeno aleatorio bajo estudio.

Universidad Tecnológica de Pereira ©2015 7


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.2 Probabilidad
1.2.1 Posibilidad y Probabilidad

El término posibilidad se refiere al conocimiento o creencia de que un evento dado puede


existir u ocurrir.

La posibilidad no implica total certeza sobre la existencia u ocurrencia de un evento dado,


puesto que ésta se puede expresar mediante un nivel o grado de posibilidad. Este nivel o
grado se denomina probabilidad.

El término probabilidad define matemáticamente el grado de certidumbre sobre la


ocurrencia de un evento dado.

La probabilidad es un número real entre 0.0 y 1.0, el cual también es comúnmente


expresado en porcentaje. La Fig. 1.2 muestra los significados de estos extremos.

0.0 1.0

Total incertidumbre sobre Total certidumbre sobre la


la ocurrencia del evento ocurrencia del evento

Figura 1.2 Concepto de probabilidad

La probabilidad y la posibilidad están relacionadas de la siguiente manera:

“Un evento con baja probabilidad puede ocurrir ya que es posible, pero un evento
imposible siempre tendrá probabilidad cero ya que no puede ocurrir”

1.2.2 Definición Axiomática (Kolmogorov)

La probabilidad de un evento dado A , es un número P( A) asignado a este evento que


obedece los siguientes postulados:

 0  P( A)  1
 P(S)  1 y la probabilidad de un evento falso o imposible es 0.
 Si A y B son eventos disjuntos, P( A  B)  0 , entonces, P( A  B)  P( A)  P(B)

Universidad Tecnológica de Pereira ©2015 8


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

La teoría resultante se desarrolla con base en las operaciones con conjuntos.

1.2.3 Definición de Frecuencia Relativa

Se considera que el experimento aleatorio se repite n veces. Si un evento dado A ocurre


nA veces, entonces:

P( A)  lim nA / n
n

La probabilidad obtenida es objetiva a posteriori ya que se obtiene mediante la


experimentación y como tal es un hecho del mundo real.

Sin embargo, en la realidad un experimento no puede repetirse un número infinito de


veces, por lo cual, la existencia del límite es una hipótesis, no un resultado experimental.
A pesar de esto, es la definición más utilizada.

Ejemplo 1.9

En un sistema eléctrico se tienen registradas para un periodo de 5 años los eventos que causan daño de los
aisladores de las líneas de transmisión aéreas.

Ei Evento Ocurrencias Probabilidad


1 Daño debido a descarga atmosférica 152 = 152/434 = 0.3502
2 Daño debido a contaminación 137 = 137/434 = 0.3157
3 Daño debido a sobrevoltaje por maniobra 65 = 65/434 = 0.1498
4 Daño debido a ferroresonancia 40 = 40/434 = 0.0922
5 Daño debido al vandalismo 25 = 25/434 = 0.0576
6 Daño debido a otras causas 15 = 15/434 = 0.0346
Total 434 1.0000

La probabilidad se halla aplicando la definición de frecuencia relativa a las estadísticas operativas del
sistema. En este caso, se halla la probabilidad de daño del aislador para cada causa.

No confundir con la probabilidad de que ocurra la causa del daño; por ejemplo, la probabilidad de que un
aislador se dañe debido a una descarga atmosférica es de 0.3502. Queda por determinar cuál es la
probabilidad de que se produzca una descarga atmosférica con una corriente de descarga de tal magnitud
que dañe el aislador.

1.2.4 Definición Clásica

Si un evento A se puede descomponer en la suma de M eventos que pertenecen a un conjunto de


N eventos mutuamente exclusivos e igualmente probables, entonces:

Universidad Tecnológica de Pereira ©2015 9


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

P( A)  M / N

La probabilidad obtenida es objetiva pero no requiere experimentación, solo análisis


matemático.

Esta definición requiere conocer en forma exacta el número posible de resultados.

Tiene limitada aplicación debido a:

1 El requerimiento de igual probabilidad de todos los eventos del espacio muestral.


2 En algunos experimentos el número de eventos puede ser infinito

Ejemplo 1.10

Un sistema industrial cuenta con diez unidades de generación de las siguientes capacidades:

Cantidad Capacidad de cada unidad


3 5 MW
3 4 MW
2 3 MW
1 6 MW
1 10 MW

Si se asume que la probabilidad de falla de todas las unidades es igual, se puede aplicar la definición clásica
de probabilidad.

 Cuál es la probabilidad de que al seleccionar al azar una de las unidades para asumirla fallada en un
estudio de flujo de carga, salga la unidad de 10 MW?

Hay 1 unidad de 10 MW entre 10 unidades de generación; entonces, M = 1, N = 10 y P=M/N=1/10=0.1

 Cuál es la probabilidad de que al seleccionar al azar una de las unidades para asumirla fallada en un
estudio de flujo de carga, salga una unidad de 5 MW?

Hay 3 unidades de 5 MW entre 10 unidades de generación; entonces, M = 3, N = 10 y P=M/N=3/10=0.3

Para asumir que todas las unidades tienen igual probabilidad de falla, se requieren por lo menos que sean
de la misma tecnología, edad y tamaño similar.

Universidad Tecnológica de Pereira ©2015 10


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.2.4 Definición Subjetiva

Todo individuo está en capacidad de expresar sus incertidumbres en forma de juicios de probabilidad

Es una hipótesis o medida subjetiva del conocimiento sobre la posibilidad de que un evento dado ocurra.
Se asignan probabilidades a eventos con base en experiencias pasadas pero no necesariamente con base en
resultados experimentales. Este enfoque no es consistente con el método científico basado en la
experimentación y análisis de datos tomados del mundo real.

Ejemplo
“La probabilidad de reprobar este curso es de aproximadamente el 2%”

1.2.5 Asignación de Probabilidad a Variables Aleatorias Continuas

Como las variables aleatorias continuas tienen un número infinito de posibles valores, la
probabilidad puntual de cada uno de sus valores es cero. Por esta razón, no tiene sentido hablar
de probabilidades para valores puntuales de una variable aleatoria continua, la probabilidad se
haya para intervalos de valores. Este concepto se ilustra en la Fig. 1.13

0.0 1.0

Figura 1.3 Probabilidad de valores puntuales de una variable aleatoria continua

La forma estándar de asignar probabilidad a una variable continua es:

P[x≤x0]

Donde x0 es un valor.

Obviamente, también puede expresarle el complemento: P[x>x0]

En general, no se habla de un valor cualquiera x0 sino de un x. Así, la notación es:

P[x≤x] P[x>x]

Universidad Tecnológica de Pereira ©2015 11


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.3 Reglas para Combinar Probabilidades


1.3.1 Tipos de Eventos
 Eventos independientes

Dos eventos son independientes si la ocurrencia de uno, no afecta la probabilidad de ocurrencia del otro.

Ejemplos
Flameo de un aislador y falla de una estructura
Falla de dos componentes que no hacen parte de un mismo aparato ni comparten funciones

A menudo, para simplificar los modelos o debido a la falta de conocimiento del proceso bajo estudio, se
asume independencia en los eventos cuando esto no es estrictamente cierto. Sin embargo, esta práctica
puede llevar a graves errores en el modelamiento.

 Eventos mutuamente exclusivos

Dos eventos son mutuamente exclusivos o “disjuntos” si ambos no pueden suceder al mismo tiempo.

Ejemplos
Falla y operación de un equipo
Embalse lleno y embalse vacío
Las posiciones de un suitche discreto: “apagado”, “bajo”, “medio”, “alto”

Los eventos disjuntos con probabilidades diferentes de cero son estrictamente dependientes aunque a veces
se asuma lo contrario.

 Eventos complementarios

Dos eventos son complementarios si cuando uno ocurre, el otro no puede ocurrir o si uno no ocurre, el otro
tiene que ocurrir. Son mutuamente exclusivos.

Ejemplos
Falla y operación de un equipo
Embalse lleno y embalse vacío

Los eventos disjuntos con probabilidades diferentes de cero son estrictamente dependientes aunque a veces
se asuma lo contrario.

 Eventos condicionales o dependientes

Son eventos que pueden ocurrir condicionalmente sobre la ocurrencia de otros eventos.

Universidad Tecnológica de Pereira ©2015 12


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplos
Flameo de un aislador y descarga atmosférica sobre un conductor de fase
Rotura de un cable de una fase de un conductor y falla fase-tierra
Despacho de una unidad de generación hidráulica y disponibilidad del caudal mínimo de agua
requerido para generar
Despacho de una unidad de generación hidráulica y disponibilidad del equipo de generación

1.3.2 Ocurrencia simultánea de dos eventos ( A  B )

Eventos independientes Eventos dependientes

P( A  B)  P( A) * P( B) P( A  B)  P( A| B) * P( B)  P( B| A) * P( A)

Si hay n eventos independientes, entonces: P( A| B) se lee: “La probabilidad de A dado que B


ocurrió”
P( A1  A2   An )  in1 P( Ai )

Los eventos disjuntos con probabilidades diferentes de cero son estrictamente dependientes:

Si se asumen independientes, entonces: P( A  B)  P( A) * P( B)  0

Pero P( A  B)  0 puesto que ambos eventos no pueden ocurrir al mismo tiempo. Esto es contradictorio
con lo anterior.

P( A  B) 0
Entonces, estos eventos son estrictamente dependientes y: P( A | B)   0
P( B) P( B)

1.3.3 Ocurrencia de uno de dos eventos o de ambos ( A  B)

Eventos independientes Eventos dependientes

 Eventos independientes pero no mutuamente P( A  B)  P( A)  P( B)  P( B| A) * P( A)


exclusivos
P( A  B)  P( A)  P( B)  P( A| B) * P( B)
P( A  B)  P( A)  P( B)  P( A) * P( B)
Si A y B son eventos complementarios:
 Eventos independientes y mutuamente
exclusivos1 P( A)  P( B)  1

P( A  B)  P( A)  P( B) P( A)  P( B)

Si hay n eventos independientes, entonces:


n
P( A1  A2   An )   P( Ai )
i 1

Nota: En esta formulación, que aparece en muchos textos, se omite el hecho de que los eventos disjuntos
son dependientes, tal como se explicó anteriormente.

Universidad Tecnológica de Pereira ©2015 13


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.11

En un sistema eléctrico se tienen registradas para un periodo de 7 años los eventos que afectan las líneas de
transmisión aéreas.

Ei Evento Ocurrencias Probabilidad


1 Daño de aislador 175 0.175
2 Falla de cimentación 50 0.050
3 Falla de estructura 100 0.100
4 Rotura de conductor de fase 150 0.150
5 Descarga atmosférica directa 250 0.250
6 Otras 275 0.275
Total 1000 1.000

Como en el ejercicio 1.1, la probabilidad de cada evento se halla aplicando la definición de frecuencia
relativa y utilizando las estadísticas operativas del sistema.

 Cuál es la probabilidad de que se produzcan simultáneamente un flameo de aislador y una falla de


estructura?

Estos eventos se pueden considerar independientes, entonces:

P( E1  E3 )  P( E1 ) * P( E3 )  0.175 * 0.10  0.0175

 Cuál es la probabilidad de que se produzcan simultáneamente una descarga atmosférica y daño de


aislador?

El daño de un aislador es dependiente del evento que ocurra una descarga atmosférica, entonces:

P( E1  E5 )  P( E1 | E5 ) * P( E5 )  0.3502 * 0.25  0.08755 ( P( E1 | E5 )  0.3502 se toma del Ejemplo 1.9)

La ecuación P( E1  E5 )  P( E5 | E1 ) * P( E1 ) aunque válida matemáticamente, no tiene sentido en este


problema pues el flameo de un aislador no puede producir la descarga atmosférica.

 Cuál es la probabilidad de que se produzcan un daño de aislador y una falla de estructura o ambos
eventos?

Estos eventos son independientes pero no mutuamente exclusivos, pues ambos pueden suceder al
mismo tiempo.

P( E1  E3 )  P( E1 )  P( E3 )  P( E1 ) * P( E3 )  0.175  0.10  0.175 * 0.10  0.2575

 Cuál es la probabilidad de que se produzca daño de un aislador o una descarga atmosférica directa o
ambos eventos?

P( E1  E5 )  P( E1 )  P( E5 )  P( E1 | E5 ) * P( E5 )  0.175  0.25  0.35 * 0.25  0.3375

Universidad Tecnológica de Pereira ©2015 14


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.5 Tendencia en un Fenómeno Aleatorio

Positiva Negativa Cero



Figura 1.4 Tipos de tendencia en un proceso aleatorio

Sea t el periodo para el cual se dispone de observaciones de un fenómeno aleatorio dado


y sea x la variable que lo representa.

La tendencia se refiere al comportamiento de los valores de x durante t de la siguiente


forma (Ver la Fig. 1.4):

Tipo de tendencia Descripción Tipo de proceso


Durante el periodo t , las observaciones de x presentan un
Positiva No estacionario
patrón de continuo aumento
Durante el periodo t , las observaciones de x presentan un
Negativa No estacionario
patrón de continua disminución
No se observa durante el periodo t que las observaciones de
Cero Estacionario
x presenten un patrón de aumento o disminución

Un proceso estacionario puede ser estacional es decir con oscilaciones periódicas.

Cuando un fenómeno aleatorio cambia o evoluciona con el paso del tiempo se dice que es
un proceso aleatorio. La palabra “proceso” se utiliza para denotar la variación con el
tiempo.

Universidad Tecnológica de Pereira ©2015 15


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.4 Función de Distribución de Probabilidad


1.4.1 El Concepto de Función de Distribución

Asignar a cada valor posible de una variable aleatoria la probabilidad que le corresponde,
es definir la distribución de probabilidad de la variable aleatoria.

Variable aleatoria continua: F(x)=P[x=x]

Variable aleatoria discreta: F(x)=P[Px<=x]

Variable aleatoria discreta como función del tiempo: F(x(t))=P[x(t)=x]

Variable aleatoria continua como función del tiempo: F(x(t))=P[x(t)<=x]

Esto puede ser algo tan simple como una tabla, pero en general se busca que sea una
función matemática.

Cuando una variable aleatoria se expresa en función del tiempo, su modelo se denomina
Proceso Estocástico.

Ejemplo 1.12

Sea x la variable aleatoria que representa los eventos que producen daños generalizados
en una ciudad. La probabilidad de que x esta dada por:

x P[x]
1 Terremotos 0.05
2 Lluvias fuertes 0.20
3 Tormentas eléctricas 0.10
4 Inundaciones 0.25
5 Fuertes vientos 0.15
6 Granizada 0.16
7 Protestas 0.09

Entonces, la tabla presentada es la distribución de probabilidad de x.

Universidad Tecnológica de Pereira ©2015 16


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.13

El tiempo t para que un operario realice la inspección de un equipo eléctrico es una variable aleatoria
uniformemente distribuida entre 0 y 6 horas. Cuál es la probabilidad de que la inspección se realice en un
tiempo menor o igual a 3 horas?

Para el caso de la distribución uniforme se tiene:

ab 06
E( x)    3 Horas
2 2

1 1
ft (t )   ft (t ) 
ba 6

t a t 3
Ft (t )  P[t  t ]   Ft (t )  P[t  t ]   Ft (3)   0.5  Ft (3)  50%
ba 6 6

Ejemplo 1.14

Sea x la variable aleatoria discreta que representa el número de temblores que se ocurren en una zona dada
durante un periodo de tiempo dado t en anos. La probabilidad de que x sea igual a un valor dado k
durante el periodo t esta dada por:

1 
P[ x(t )  k]  [t  ]k * e t
k!

Donde:
k  0,1, es un valor entero
,  son parámetros del modelo matemático

1 
Entonces, [t ]k * e t es la distribución de probabilidad de x .
k!

Ejemplo 1.15

En un taller hay n  4 operarios. La probabilidad de que cualquiera de ellos realice la inspección de un


equipo eléctrico en un tiempo menor o igual a 3 horas es p  0.5 .

Si al inicio de la jornada se tienen 4 equipos para revisar, cual es la probabilidad de que a media mañana la
mitad de los operarios estén desocupados?

En este caso, la variable aleatoria x representa el evento de encontrar k  0, 1, 2, 3, o 4 operarios desocupados


a media mañana.

E( x)  np  4 * 0.5  2 operarios

Universidad Tecnológica de Pereira ©2015 17


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

n  4
Fx ( x)  P( x  k )    p k (1  p) n  k  Fx (2)  P( x  2)    0.52 (1  0.5) 4  2  0.375  Fx (2)  37.5%
k   2

 Se espera encontrar 2 operarios desocupados. La probabilidad de que este evento ocurra es del 37.5%

1.4.2 Definición para Variables Aleatorias Continuas

1.0

Figura 1.5 Función de distribución de probabilidad

Sea x  x0 el evento de que la variable continua x sea menor o igual a un valor dado x0 . Entonces:

La función de distribución de probabilidad de la variable x es Fx ( x0 )  P( x  x0 ) para cualquier x


entre ( ,  )

Propiedades de Fx
1 Fx ( )  0 y Fx ( )  1
2 Es una función no decreciente. Si x1  x2 , entonces Fx ( x1 )  Fx ( x2 )
3 P( x  x0 )  1  P( x  x0 )  1  Fx ( x0 )

La Figura 1.5 muestra la forma típica de una función de distribución de probabilidad.

También se define la función de densidad de probabilidad de una variable aleatoria como:

dFx ( x)
La función de densidad de probabilidad de la variable x es f x ( x)  para cualquier x
dx

entre ( ,  )

Universidad Tecnológica de Pereira ©2015 18


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Figura 1.6 Función de densidad de probabilidad

La función de densidad de probabilidad es la razón de cambio de la probabilidad


acumulada con respecto a los valores de variable aleatoria x . Además, fx ( x)  0 para todo
x.

Relaciones entre Fx ( x) y fx ( x)
1 Fx ( x0 )   
x0
fx ( x)dx
2 P(a  x  b)   ba fx (x)dx  Fx (b)-Fx (a)
3  
 fX ( x)dx  1.0

El término “distribución” se utiliza indistintamente para referirse tanto a la función de


distribución de probabilidad como a la función de densidad de probabilidad. En la
práctica solo se utiliza la notación Fx ( x) y fx ( x) omitiendo x0 y entendiéndose que Fx ( x) se
refiere a la probabilidad del intervalo [0, x] .

Como la función de distribución de probabilidad siempre es una curva creciente asintótica


al valor 1.0, en la práctica es más utilizada la función de densidad de probabilidad pues
esta tiene diferente forma en cada uno de los diferentes modelos matemáticos utilizados
(exponencial, gamma, weibull, normal, etc.).

El rango de una variable aleatoria continua no tiene que se necesariamente ( ,  ), este
puede acotarse de acuerdo con el problema práctico a resolver, por ejemplo, de ( 0,  ).
De otra parte, solo algunos modelos matemáticos desarrollados para distribuciones de
probabilidad, como por ejemplo, el gausiano, y el uniforme, manejan el rango ( ,  ). La
gran mayoría solo manejan el rango ( 0,  ).

Para un proceso estocástico estas funciones se definen como:

F ( x , t )
Fx ( x, t)  P[x(t)  x] fx ( x , t) 
x

Universidad Tecnológica de Pereira ©2015 19


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Por el teorema fundamental del cálculo:

dFx ( x)
f x ( x)   Fx ( x0 )   
x0
f x ( x)dx
dx

Así, se llega a que: Tanto la función distribución de probabilidad como la función de


densidad de probabilidad constituyen el modelo matemático del proceso aleatorio bajo
estudio.

1.4.3 Definición para Variables Aleatorias Discretas

fX ( x) FX ( x)

fX ( x0 )  P( x  x0 ) x0
FX ( x0 )  P( x  x0 )   P( x  xi )
i 1

Se denomina función de densidad de probabilidad


n
de masa.
 P( x )  1.0
i
0.0  P( xi )  1.0 i 1

La Figura 1.7 presenta un ejemplo de la gráfica de estas dos funciones.

Para un proceso estocástico discreto en el estado estas funciones se definen como:

x0
Fx ( x , t )  P[ x(t )  x]   P( x(t )  xi ) fx ( x0 , t)  P( x(t)  x0 )
i 1

Probabilidad
Probabilidad
0.8

1.0

0.8
0.2

1 2
1 2
Figura 1.7 Funciones de densidad de probabilidad y de distribución de probabilidad para una variable discreta

Universidad Tecnológica de Pereira ©2015 20


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.4.4 Definición de Valor Esperado

Variables aleatorias continuas Variables aleatorias discretas


n

E( x)   
 x * fx ( x) * dx
E( x)   xi * P( xi )
i 1

Es una constante que indica lo que sería el promedio estadístico de una gran cantidad de
observaciones de la variable aleatoria. Es común usar la notación  para el valor
esperado.

Características del valor esperado


1 No es el valor con mayor probabilidad de ocurrir
2 No es el valor que se observa con más frecuencia (moda)
3 Puede ser imposible de obtener físicamente

Por lo tanto, se debe tener mucho cuidado al hacer inferencias a partir de valores
esperados. No se debe confundir con el promedio estadístico x de las observaciones de
la variable.

Propiedades del valor esperado


1 E( x  c)  E( x)  c , para c un número real
2 E(c * x)  c * E( x) , para c un número real
3 E[x  E( x)]  0 , La expectativa de desviación con respecto al valor medio es cero

La ecuación del valor esperado para una variable discreta lleva a la siguiente relación que
se puede aplicar para una variable discreta o continua:

Si se multiplica un valor C de una variable aleatorias x por la probabilidad de este valor se obtiene el
valor esperado de C: E(C)  C * P[C]

Este concepto se generaliza diciendo que al multiplicar una cantidad por una
probabilidad se obtiene un valor esperado.

1.4.5 Definición de Varianza

Variables aleatorias continuas Variables aleatorias discretas


n

VAR( x)   
 [ x  E( x)] * f x ( x) * dx
2
VAR( x)   [ xi  E( x)]2 * p( xi )
i 1

Universidad Tecnológica de Pereira ©2015 21


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

La varianza VAR( x) es un número real positivo que mide la dispersión de la función con
respecto a su valor esperado. Es común usar la notación  2 para la varianza.

x
x

Figura 1.8 Concepto de varianza

Propiedades de la varianza
1 VAR( x  c)  VAR( x) , para c un número real
2 VAR(c * x)  c2 *VAR( x) , para c un número real

STD( x)   VAR( x)

Es común usar la notación  para la desviación estándar.

La varianza y la desviación estándar miden la “pobreza” del pronóstico del valor


esperado con respecto a la tendencia central de la distribución.

El valor esperado y la varianza constituyen las principales características que describen


las distribuciones de probabilidad.

Para un proceso estocástico se definen:

E[x(t)]   
 xf x ( x, t )dx
VAR[x(t)]  2x(t )  E[x2 (t)]  E2 [x(t)]

Universidad Tecnológica de Pereira ©2015 22


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.16

Para un transformador de distribución se ha verificado que el proceso de llegadas de las


fallas es un proceso estocástico Poisson homogéneo con una tasa de ocurrencia de eventos
  0.2 fallas/año.

Para N(t ) , el número de fallas que ocurren en un periodo de vida t que se mide en años,
se definen:

1
 La probabilidad de que ocurran k  0,1, 2, fallas: P[N(t)  k]  [t ]k * e t
k!

 El valor esperado de fallas: E[ N(t )]  t

 La varianza: VAR[N(t)]  t

Nótese que t describe un periodo no un instante de tiempo. Así para cada valor de t
existe una variable N(t ) con su distribución, valor esperado y varianza. Este proceso es
estacionario porque para cada periodo t el valor esperado y la varianza son una
constante.

Universidad Tecnológica de Pereira ©2015 23


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.5 Modelo Matemático para un Fenómeno Aleatorio


Realidad Idealización

Fenómeno aleatorio Inferencia


(Población de datos)

Modelo probabilístico
F ( x, t ), F ( x)

Estimación
Muestra de datos

Estadísticas descriptivas Características del modelo


x , s , etc. E ( x ) , VAR( x) , etc.

Figura 1.9 Procedimiento para el estudio de un fenómeno aleatorio

En la Figura 1.9 se esquematiza el procedimiento de análisis probabilístico.

En la realidad o mundo físico hay un fenómeno aleatorio que es objeto de estudio. Este
fenómeno se desarrolla en un ente o conjunto de entes: la tierra, un volcán, un río, una
persona, un conjunto de personas, equipos, árboles, la bolsa de valores, etc.

El fenómeno aleatorio genera una población de datos de la variable aleatoria x que


permite observarlo o representarlo. Esta población puede ser finita o infinita.

Cuando cada individuo donde se genera el fenómeno aleatorio aporta un dato se habla
de las poblaciones de datos e individuos como una misma cosa, pero esto no es cierto para
el caso en que un individuo o ente es el que genera todos los datos.

De la población de datos se extrae una muestra aleatoria representativa que permite


estudiar el fenómeno aleatorio. Este estudio puede ser meramente de estadísticas
descriptivas como el valor promedio x o la desviación muestral s , pero más importante
es estimar un modelo matemático que permita hacer predicciones sobre el fenómeno.

Es importante aclarar que en casi todos los casos se trabaja con muestras de datos, dado
la imposibilidad práctica de “capturar” toda la población de datos.

Universidad Tecnológica de Pereira ©2015 24


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

La función de distribución de probabilidad constituye el modelo matemático del


fenómeno aleatorio y puede expresarse considerando o no el tiempo ( F( x), F( x, t) ).

El modelo matemático tiene características como el valor esperado E( x) y la varianza


V ( x) las cuales son pares respectivamente de x y s2 . Estas características también pueden
expresarse como funciones del tiempo.

Existen entonces dos mundos para el estudio de un proceso aleatorio: uno real donde se
obtiene una muestra de datos y otro ideal donde se tiene el modelo probabilístico. La
estadística es el puente entre estos dos mundos.

Como parte de la idealización, algunas veces se asume que para el fenómeno aleatorio
bajo estudio existen el modelo matemático o características tales como el valor esperado
E( x) aunque estos no se conozcan o no hayan podido determinase.

Para definir el modelo probabilístico, es deseable seleccionar una de las funciones


matemáticas desarrolladas para tal propósito. Esta selección se hace basándose en los
siguientes criterios:

1 La naturaleza física del problema bajo estudio


2 Los datos disponibles
La prueba estadística de que un modelo propuesto es una representación apropiada del
3
fenómeno bajo estudio.
4 El conocimiento del analista

La estadística tiene procedimientos para seleccionar cuál función matemática puede


utilizarse como modelo probabilístico. Sin embargo, como varios modelos pueden
cumplir las pruebas estadísticas, en la selección final entran en consideración los puntos
1 y 4 mencionados anteriormente.

Una vez se selecciona un modelo probabilístico, debe tenerse claro que este es solo una
“idealización” para representar el fenómeno aleatorio bajo estudio; las conclusiones que
se sacan de este modelo se denominan inferencias, puesto que son generalizaciones a la
población de algo que se observa en una muestra de datos.

Debe recalcase finalmente que ningún modelo probabilístico es perfecto en su función de


representar la realidad.

Universidad Tecnológica de Pereira ©2015 25


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.6 Tipos de Modelos Probabilísticos


Distribuciones de Solo aparece la variable o variables
probabilidad aleatorias mediante las cuales se estudia
el proceso aleatorio
Modelos
probabilísticos

Aparece la variable o variables


Procesos aleatorias mediante las cuales se
estocásticos estudia el proceso aleatorio, pero
indexadas por el tiempo u otro
parámetro

Figura 1.10 Tipos de modelos probabilísticos

Existen dos grandes tipos de modelos probabilísticos: distribuciones de probabilidad y


procesos estocásticos. Esta clasificación se presenta en la Figura 1.10

1.6.1 Distribuciones de Probabilidad

Se utilizan cuando:

1 El fenómeno aleatorio es estacionario


2 Los datos son independientes entre si
El periodo de interés para estudiar el proceso aleatorio o la evolución del tiempo dentro de este
3
periodo no se requieren para explicar el proceso aleatorio bajo estudio

En este caso, la distribución de probabilidad se expresa únicamente en términos de la


variable aleatoria x que describe el proceso aleatorio. Así, la función puede ser continua,
discreta o mixta según el tipo de espacio muestral.

Nótese que x puede referirse a un instante de tiempo o a un periodo de tiempo que se


observa durante un periodo de tiempo dado. Por ejemplo, x pueden ser el tiempo para
reparación de un vehículo o los instantes de ocurrencia de una erupción volcánica.

1.6.2 Procesos Estocásticos

Se utilizan cuando el periodo de interés para estudiar el fenómeno aleatorio o la evolución


del tiempo dentro de este periodo se requieren para explicar el fenómeno aleatorio bajo
estudio. El fenómeno aleatorio bajo estudio puede ser estacionario o no estacionario.

Universidad Tecnológica de Pereira ©2015 26


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

En este caso, la distribución de probabilidad se expresa en términos de la variable


aleatoria x que describe el proceso aleatorio y de un parámetro t que es el periodo para
estudio del fenómeno o instantes de tiempo dentro de este. Entonces, la variable aleatoria
xt que describe el proceso está indexada por el parámetro t ó índice del proceso:

xt  x(t) t0

Un proceso estocástico es entonces una colección de variables aleatorias: existe una


variable aleatoria por cada valor del parámetro t del proceso. La colección de variables
aleatorias están definidas sobre un mismo espacio muestral o “espacio de estado”.

Según como se estudien el espacio de estado y el tiempo, un proceso estocástico puede


ser:

Estado Tiempo Ejemplos


Discreto Discreto Cadena de Markov discreta en el tiempo
Cadena de Markov continua, procesos de Poisson, caminata
Discreto Continuo
aleatoria
Continuo Continuo Proceso Gausiano, proceso Gamma

Existen muchos tipos de procesos estocásticos, los cuales tienen aplicaciones particulares
en diferentes áreas del conocimiento. En este texto solo se presentarán las cadenas de
Markov y algunos procesos de Poisson.

El parámetro de un proceso estocástico no siempre tiene que ser el tiempo; en algunas


aplicaciones este parámetro puede asimilarse a otra cosa sobre la cual se observa una
variable aleatoria. Por ejemplo, en la Fig. 1.11 se muestra un fenómeno estocástico donde
se observa la ubicación de árboles altos a lo largo del pasillo de una línea de transmisión.
Nótese que esto es análogo a estudiar los defectos en una lámina o rollo de tela, los huecos
en una vía, etc.

Figura 1.11 Proceso estocástico cuyo parámetro es una longitud

Universidad Tecnológica de Pereira ©2015 27


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.17

( x  )2
1
La variable x con función de densidad de probabilidad f ( x)  e 2* 2
es una
2
variable aleatoria con distribución Gausiana.

( x  )2
1
La variable x(t ) con función de densidad de probabilidad f ( x , t )  e 2* 
2
*t
es un
2t 2

proceso Gausiano; existe una variable aleatoria con distribución Gausiana por cada valor
del parámetro t , que en este caso es un número real mayor a cero.

Nótese que:

( x  )2
1
Si t 1  f ( x)  e 2* 2

2

( x  )2
1
t2  f ( x)  e 2* 
2
Si *2

2 * 4

( x  )2
1
Si t  100  f ( x)  e 2* 2 *100

2 * 10000

Se tiene una colección infinita de variables aleatorias Gausianas, una para cada valor de
t.

Universidad Tecnológica de Pereira ©2015 28


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.7 Algunas Clasificaciones para Fenómenos Aleatorios


1.7.1 Fenómeno Markoviano o Sin Memoria

Si en un fenómeno aleatorio la transición a un estado siguiente solo depende del estado


presente en que se encuentre el fenómeno, es decir, no importa el recorrido que hizo para
llegar al estado presente, se dice que este fenómeno no tiene memoria o es Markoviano.

1.7.2 Fenómeno Estacionario

Un fenómeno aleatorio es estacionario si su valor esperado y varianza son constantes


durante el periodo de observación.

Igualmente, un fenómeno aleatorio es estacionario si su valor promedio y varianza


muestral son constantes o aproximadamente constantes durante el periodo de
observación.

1.7.3 Fenómeno Homogéneo

Un fenómeno aleatorio es homogéneo si durante el periodo de estudio este puede ser


representado mediante una única función de distribución de probabilidad.

Todo proceso estacionario es homogéneo; así, los términos estacionario y homogéneo son
intercambiables.

1.7.4 Fenómeno o Proceso?

Es común también encontrar los términos “Proceso Markoviano”, “Proceso Estacionario”


y “Proceso Homogéneo”. En estos casos estos términos se refieren a modelos
matemáticos, los cuales están asociados a características que se enumeraron
anteriormente.

Universidad Tecnológica de Pereira ©2015 29


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.8 Procedimiento para Seleccionar un Modelo


Probabilístico

Muestra de
datos

Prueba de
aleatoriedad

Proceso No Modelos determinísticos,


aleatorio? Modelos difusos,
Etc.

Si

Prueba de
tendencia

Proceso No
Procesos estocásticos no homogéneos
estacionario?

Si

Prueba de
independencia

No
Independencia? Modelos para dependencia
(procesos estocásticos)

Si

No
Se requiere Distribuciones de probabilidad
t?

Si
Procesos estocásticos homogéneos

Figura 1.12 Procedimiento para obtener un modelo probabilístico

Universidad Tecnológica de Pereira ©2015 30


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

En la Fig. 1.12 se muestra el procedimiento básico para obtener un modelo probabilístico


para un proceso aleatorio. La omisión de cualquiera de los modelos presentados puede
llevar a un modelamiento erróneo.

Este procedimiento consta de tres pruebas básicas:

En muchos casos el analista determina según su razonamiento si un proceso


bajo estudio es o no aleatorio.

1 Aleatoriedad Sin embargo, cuando se trata de secuencias de números esto no es tan sencillo
determinar la presencia de aleatoriedad y para tal propósito se han
desarrollado pruebas.

Consiste en determinar si el proceso observado es o no estacionario.

2 Tendencia Ejemplo de estas pruebas son el test de Laplace o métodos gráficos tan
sencillos como la gráfica de barras de las magnitudes de una secuencia
numérica.

Consiste en determinar si las observaciones de la muestra son independientes


entre si o no. Esta prueba es muy importante porque no siempre el analista
3 Independencia
puede determinar según su razonamiento si los resultados de un
experimento aleatorio son o no independientes.

Como ejemplos de modelos probabilísticos se tienen:

Proceso de Poisson Homogéneo


1 Procesos estocásticos homogéneos
Cadenas de Markov continuas homogéneas
Procesos de Poisson no homogéneos
2 Procesos estocásticos no homogéneos
Cadenas de Markov no homogéneas
Series de tiempo,
3 Modelos para dependencia Modelos de regresión,
Branching process
Uniforme, normal, exponencial, gamma,
4 Distribuciones de probabilidad
Weibull, etc.

Una vez se decide el tipo de modelo a utilizar es necesario escoger uno o varios y
probarlos para ver si ajustan a los datos. Para el caso de los modelos probabilísticos esto
se hace mediante las llamadas pruebas de bondad de ajuste.

Universidad Tecnológica de Pereira ©2015 31


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Como el procedimiento de ajuste se hace utilizando una muestra de datos es muy


importante tener claro que:

La muestra aleatoria debe ser representativa del fenómeno aleatorio bajo estudio.
1
Al definir el tamaño de muestra se acepta un error de estimación  .

El modelo esta referenciado a la muestra de datos sea esta o no representativa del


2 proceso aleatorio bajo estudio. Este modelo tiene una probabilidad critica o de
rechazo  .

Lo anterior quiere decir que el que un modelo ajuste a una muestra de datos, no significa
necesariamente que el modelo represente al fenómeno aleatorio bajo estudio. Esto solo es
cierto cuando la muestra aleatoria es representativa.

Y aunque la muestra sea aleatoria y representativa y el modelo ajuste, debe recordarse que
existe un error de estimación al muestrear y que el modelo tiene una probabilidad de que
no represente a los datos de la muestra. Esto se esquematiza en la siguiente figura.

Fenómeno
aleatorio

Población de Muestra de Modelo


datos datos probabilístico
Error de Probabilidad
estimación crítica

Universidad Tecnológica de Pereira ©2015 32


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.9 Modelos Probabilísticos Multivariados


1.9.1 Distribuciones Multivariadas

: Tiempo de vida en [años]


Confiabilidad =
: Uso en kilómetros [km]

Figura 1.13 Ejemplo de dos variables aleatorias relacionadas

Considere dos variables aleatorias x y y que están relacionadas porque pertenecen o


intervienen en un mismo fenómeno aleatorio, es decir, el fenómeno aleatorio bajo estudio
se observa o representa mediante estas dos variables. Los espacios muestrales de x y y
pueden ser de diferente naturaleza.

En el ejemplo mostrado en la Fig. 1.13, el fenómeno aleatorio de la confiabilidad


(probabilidad de no fallar) de una bicicleta se observa o representa mediante, x el tiempo
de vida en años y y el uso en kilómetros. Los espacios muestrales de x y y son de
diferente naturaleza lo cual se manifiesta en que tienen diferentes unidades de medida

La función de distribución de probabilidad conjunta de x y y define la probabilidad del


evento:

F(x, y)  P[x  x  y  y]

Esta función de distribución tienen las siguientes propiedades:

1 F(, y)  0
2 F( x, )  0
3 F(, )  1

Las funciones de distribución F( x)  F(x, ) y F( y)  F(, y) determinan en forma separada


las estadísticas de las variables x y y pero no sus estadísticas conjuntas. Las estadísticas
dadas por F( x) y F( y) se denominan “marginales”.

La función de densidad de probabilidad conjunta de x y y se define como:

Universidad Tecnológica de Pereira ©2015 33


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

 2 F( x , y)
f ( x , y) 
xy
F( x , ) F( , y)
f ( x)  f ( y) 
x y

Así:

x y
F( x, y)    f ( x, y) dx dy
 
 
F( x)  F( x, )   f ( x, y) dy F( y)  F(, y)   f ( x, y) dx
 
 
 
 
f ( x, y) dx dy  1.0

La probabilidad por intervalos se calcula de la siguiente forma:

P[x1  x  x2  y  y]  F(x2 , y)  F(x1 , y)

P[x  x  y1  y  y2 ]  F(x, y2 )  F(x, y1 )

P[x1  x  x2  y1  y  y2 ]  F(x2 , y2 )  F( x1 , y1 )  F( x1 , y2 )  F( x2 , y1 )

El valor esperado se define como:

 
E[xy]    x y f ( x, y) dx dy
 

La covarianza C entre x y y se define como:

C  E[(x  E[x])(y  E[y])]  E[xy]  E[x]E[y]

El coeficiente de correlación r entre x y y se define como:

C
r
STD( x)STD( y)

Siempre se cumple que r  1.0 .

Las variables x y y son correlacionadas si:

C  0 r  0 E[xy]  E[x]E[ y]

Las variables x y y son ortogonales si:

Universidad Tecnológica de Pereira ©2015 34


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

E[xy]  0

Las variables x y y son independientes si:

F( x, y)  P[x  x0  y  y0 ]  P[x  x0 ]  P[y  y0 ]  F( x) F( y)

f ( x, y)  f ( x) f ( y)

E[xy]  E[x] E[y]

Lo cual quiere decir que se puede trabajar a partir de los modelos probabilísticos
individuales de cada variable.

Generalizado, para n variables aleatorias x1 , x2 , , xn :

X  [x1 , x2 , , xn ]

X se denomina un vector aleatorio o una secuencia de variables aleatorias.

La función de distribución de probabilidad se define como:

F(X)  F(x1 , x2 , , xn )  P[x1  x1  x2  x2  xn  xn ]

La función de densidad de probabilidad se define como:

 n F( x1 , x2 , , xn )
f ( X )  f ( x1 , x2 , , xn ) 
x1 xn

Si las n variables aleatorias son independientes, se cumple que:

F(x1 , x2 , , xn )  F(x1 )F(x2 ) F(xn )

f (x1 , x2 , , xn )  f (x1 ) f (x2 ) f (xn )


E(x1 , x2 , , xn )  E(x1 )E(x2 ) E(xn )

La función de distribución de probabilidad marginal de la variable xi se obtiene haciendo


 las otras variables en la función de distribución conjunta:

F( xi )  F(, xi , , )

Universidad Tecnológica de Pereira ©2015 35


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

La función de densidad de probabilidad marginal de la variable xi se obtiene haciendo 


las otras variables en la función de densidad conjunta:

F( , xi , , )
f ( xi )  f ( , xi , , ) 
xi

Ejemplo 1.18

Para el fenómeno aleatorio de fallas de la bicicleta mostrada en la figura 1.19 se considera


que las variables x y y son independientes y que están modeladas de la siguiente forma:

1  0.51 x
E( x)  0.5 [años para falla] f ( x)  e  2.0e 2.0* x F( x)  1  e 2.0* x
0.5

1  501 y
E( y)  50 [km para falla] f ( y)  e  0.02e 0.02* y F( y)  1  e 0.02* y
50

La distribución conjunta de x y y es:

f (x, y)  2.0 * 0.02 * e2.0* x0.02* y  0.04e2.0* x0.02* y

F(x, y)  1  e2.0* x  e0.02* y  e2.0* x0.02* y

E( x, y)  25 [km-año para falla]

La probabilidad de que la bicicleta falle en el primer mes y los primeros 20 km está dada
por:

1
1 1 2.0*
P[ x  ]  F( )  1  e 12  0.15351827
12 12

P[ y  20]  F(20)  1  e2.0*20  0.32967995

1
P[x   y  20]  0.15351827 * 0.32967995  0.05061189
12

Este mismo resultado se obtiene de la distribución conjunta de x y y :

1 1
1 1 2.0* 2.0*  0.02* 20
P[ x   y  20]  F( , 20)  1  e 12  e 0.02* 20  e 12  0.05061189
12 12

Universidad Tecnológica de Pereira ©2015 36


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.9.2 Procesos Estocásticos Multivariados

Un modelo multivariado también puede tener las variables indexadas en el tiempo. En


este caso se dice que el modelo es un proceso estocástico multivariado

Si:

X(t )  [ x1 (t), x2 (t), , xn (t)]

La función de distribución de probabilidad del proceso estocástico se define como:

F( X(t ))  F( x1 (t), x2 (t), , x(t )n )  P[ x1 (t)  x1  x2 (t)  x2  xn (t)  xn ]

La función de densidad de probabilidad se define como:

 n F( x1 (t), x2 (t), , xn (t))


f ( X(t ))  f ( x1 (t), x2 (t), , xn (t)) 
x1 xn

La selección entre un modelo de distribución multivariada o proceso estocástico


multivariado depende de las necesidades del analista.

Ejemplo 1.19

Considere una habitación en el cual se mueve en forma aleatoria un insecto que porta un
virus mortal.

Para estudiar la posición (x, y, z) del insecto en un instante dado de tiempo t, se debe
definir un proceso estocástico multivariado:

F( x(t), y(t), z(t))  P[x(t)  x  y(t)  y  z(t)  z]

Universidad Tecnológica de Pereira ©2015 37


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Ejemplo 1.20

Considere ahora que en la habitación del ejemplo anterior, se encuentra la cama en que
duerme una persona que puede ser infectada por el insecto con el virus mortal. Con
respecto al origen, las dimensiones de la zona donde se ubica la cama son: (1.6, 2.0, 1.0)
en metros.

y
z

1.0
2.0 x
1.6
En este caso, se podría omitir el tiempo ya que lo que interesa es el riesgo de que la persona
sea infectada por el insecto sin importar el instante de tiempo en que lo haga. Así, en este
caso para estudiar el riesgo de que la persona sea infectada por el insecto basta con definir
una distribución multivariada para evaluar la probabilidad de que el insecto se ubique en
la zona de la cama:

F(1.6,2.0,1.0)  P[x  1.6  y  2.0  z  1.0]

Universidad Tecnológica de Pereira ©2015 38


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.10 El Concepto de Población Normal


Se dice que una población de datos de un fenómeno aleatorio dado es “normal” si la
mayoría de los datos se concentra alrededor del valor promedio y muy pocos datos tienen
valores muy alejados por encima o por debajo de dicho valor.

Esta característica es común de los atributos de conjuntos de personas, animales, plantas


o cosas que se consideran homogéneos, por ser de un mismo grupo étnico, especie, zona
geográfica de localización, fabricante, etc. Estos atributos constituyen entonces un
fenómeno aleatorio con comportamiento de normalidad.

Ejemplo 1.21

Población Atributo
Personas de un grupo étnico Dimensiones, coeficiente intelectual, años de vida
Peces de una especie dada que viven en
Dimensiones, años de vida
determinada zona
Transformadores de un tipo dado realizados por
Años de vida, resistencia dieléctrica
un fabricante dado
Postes de concreto de una especificación dada,
Resistencia a la rotura
realizados por un fabricante dado

La distribución Gausiana se define por medio un parámetro de localización  y un


parámetro de escala   0 y el rango de x entre  y  .

x ( x  )2
1
F( x)  P[ x  x]  
 2
e 2* 2
dx

La integral se resuelve en forma numérica mediante tablas o software.

Este modelo presenta las siguientes características:

E( x)    x

V ( x)   2  s 2

La forma de esta distribución se presenta en la figura 1.15.

Universidad Tecnológica de Pereira ©2015 39


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Figura 1.15 Distribución Gausiana

Esta distribución permite representar la característica de normalidad de los atributos en


grupos homogéneos, y por esta razón, también se le llama distribución normal.

Esto se esquematiza en el ejemplo de la figura 1.16, donde se presenta la estatura de un


grupo dado de personas, el cual es un fenómeno aleatorio con característica de
normalidad. La mayoría de las personas de dicho grupo tienen estatura dentro de un
rango considerado normal y muy pocas presentarán gigantismo o enanismo.

Estatura de las personas


[metros]

Población normal

Estatura de las personas


[metros]

Figura 1.15 El concepto de población normal con respecto a un atributo como la estatura

Universidad Tecnológica de Pereira ©2015 40


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

Si el eje x del modelo Gausiano se expresa en múltiplos de la desviación estándar, el área


encerrada en la función de densidad de probabilidad entre 3 es de 0.9972, por lo cual,
se asume que estos valores encierran los datos con mayor probabilidad. Esto se muestra
en la figura 1.16.

99.72% de
probabilidad

Figura 1.16 Probabilidad en un modelo Gausiano entre menos tres desviaciones y mas tres desviaciones

Es decir, existe muy poca probabilidad de encontrar individuos con características que
estén por fuera de 3 ; y este es uno de los criterios o filtros para establecer los datos que
se consideran “normales”.

También, se puede definir una probabilidad crítica o de rechazo  , repartirla por los
extremos de la distribución y establecer para cuales valores es la zona de “aceptación” y
las de rechazo. Esto se presenta en la figura 1.15 para una distribución Gausiana estándar
(aquella con   0 y   1 ).

Zona de
aceptación

 1% 2% 5% 10%
z / 2 2.576 2.326 1.967 1.645

Figura 1.15 Zonas de aceptación y de rechazo en un modelo normal

El valor preferido es   5% , para el cual se hace la aproximación z / 2  1.967  2.0 .

Universidad Tecnológica de Pereira ©2015 41


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.11 Aclaración Respecto a la Terminología


En el área de probabilidad algunos términos pueden tener varios significados, por lo cual,
para precisar a qué se refieren toca analizar el contexto de su uso. Por ejemplo:

Término Significados
Se refiere a un fenómeno aleatorio
Se refiere a un fenómeno aleatorio para el cual el tiempo es variable
Proceso estocástico explicativa
Se refiere a un tipo de modelo matemático donde las variables aleatorias
están indexadas por el tiempo u otro parámetro
Se refiere a una función de distribución de probabilidad
Se refiere a una función de densidad de probabilidad
Distribución Se refiere a un tipo de modelo matemático que solo puede aplicarse para
fenómenos aleatorios estacionarios con observaciones independientes y en el
cual el tiempo no aparece como variable explicativa

Universidad Tecnológica de Pereira ©2015 42


Análisis Probabilístico y Simulación Capítulo 1 – Conceptos Básicos
Carlos J. Zapata del Análisis Probabilístico

1.12 Referencias
[1] Papoulis Athanasios, “Probability, random variables and stochastic processes”, Mc-
Graw Hill, 1991.

[2] Viniotis Yannis, “Probability and random processes for electrical engineers”, Mc-
Graw Hill, 1998.

[3] Torres A, “Probabilidad, procesos estocásticos y confiabilidad en ingeniería


eléctrica”, Universidad de los Andes, 2005.

[4] Miller I, Freund J, Johnson R, “Probabilidad y Estadística para Ingenieros”, Prentice


Hall, 1992.

[5] Anders G, “Probability concepts in electric power systems”, Wiley and Sons, 1990.

[6] Hays W. L, Winkler R. L, “Statistics, probability, inference and decision”, Volume 1,


Holt Rinehart and Wiston Inc, 1970.

[7] Lawyer G. F, “Introduction to Stochastic Processes”, Chapman and Hall, 1995.

[8] Ross T. J, “Fuzzy logic with engineering applications”, McGraw Hill, 1995.

[9] Torres A, Tranchita C, “Inferencia y razonamiento probabilístico y difuso”, Revista


de Ingeniería, Universidad de los Andes, 2003.

[10] Torres A, “Modelamiento y metamodelamiento de la incertidumbre”, Revista de


Ingeniería, Universidad de los Andes, 1995.

[11] Mosleh A, Bier V M, “Uncertainty about probability: A reconciliation with the


subjectivist viewpoint”, IEEE Transactions on Systems, Man and Cybernetics- PArt
A: Systems and Humans, No. 3, 1996.

[12] Ferrero A, Salicone S, “The random-fuzzy variables: a new approach for the
expression of uncertainty in measurement”, IEEE Conference on Instrumentation
and measurement technology, 2003.

[13] Zadeh L. A, “Possibility theory vs probability theory in decision analysis”, IEEE.

Universidad Tecnológica de Pereira ©2015 43

También podría gustarte