Procesos estocásticos
(Resumen didáctico actividad 6°)
Por ejemplo, una v.a. continua puede ser el tiempo de retraso con el que un alumno o un
profesor llegan al aula de clases o también el peso o la estatura de los estudiantes de la
FE.
1. f ( x ) ≥0 ∀ x ∈ R
∞
2. ∫ f ( x ) dx=1
−∞
Esto es, la probabilidad de que X tome un valor en el intervalo [a, b] es el área bajo la
gráfica de la función de densidad. La gráfica de f (x), se conoce a veces como curva de
densidad.
Esto es, la probabilidad de que X tome un valor en el intervalo [a, b] es el área bajo la
gráfica de la función de densidad. La gráfica de f(x), se conoce a veces como curva de
densidad.
Propiedades.
1. f ( x ) ≥0 , ∀ x
∞
2. ∫ f x ( x ) dx=1
−∞
x2
3. P ( x 1 ≤ X ≤ x 2 )=∫ f x (x )dx
x1
Ejemplo:
Un profesor nunca termina su clase antes del término de la hora, más nunca se pasa de 2
minutos de ésta. Sea X: el tiempo que transcurre entre el término de la hora y el término
efectivo de la clase. Suponga que la fdp de X viene dada por:
2
f x ( x ) = k x 0 ≤ x ≤2
{ 0d.o.m
1. Encuentre el valor de k.
∞ 0 2 ∞
k 8
dx+∫ 0 dx= x 3 2 = k
|
2
∫ f x ( x ) dx= ∫ 0 dx +∫ k x 3 0 3
−∞ −∞ 0 2
∞
8 3
Como ∫ f x ( x)dx=1 ⇒ k =1⇒ k =
−∞ 3 8
1
3 2 1 1
P ( X ≤1 ) =∫ x dx= x 3 1 = =0,125
|
0 8 8 0 8
|
1,5
3 2 1 19
P ( 1≤ X ≤1,5 )=∫ x dx= x 3 2 = ≈ 0,2969
1 8 8 64
1
|
2 1,5
3 2 3 1 27 37
P ( X ≥1,5 )=∫ x dx=1−∫ x2 dx=1− x 3 2 =1− = ≈ 0,5781
1,5 8 0 8 8 64 64
0
Distribución de Probabilidad Uniforme.
Es una distribución en el intervalo [a,b] en la cual las probabilidades son las mismas para
todos los posibles resultados, desde el mínimo de a hasta el máximo de b. El experimento
de lanzar un dado es un ejemplo que cumple la distribución uniforme, ya que todos los
6 resultados posibles tienen 1/6 de probabilidad de ocurrencia.
1
f ( X )= Altura=
b−a
Donde:
a = mínimo valor de la distribución
b = máximo valor de la distribución
b – a = Rango de la distribución
a+b
E ( X ) =μ=
2
2 (b−a)2
σ =
12
σ =√ σ 2
X 2−X 1
P ( X 2 ≤ X ≤ X 2)=
b−a
Ejemplo ilustrativo:
a=7 ; b=13;
1 1
f ( X )= Altura= = =0,167
13−7 6
2) Elaborar un gráfico de la distribución de probabilidades
1 1
A ∎=base . altura=1. =
6 6
1 1
A ∎=base . altura=( 13−7 ) . =6. =1
6 6
a+b
E ( X ) =μ=
2
7+13
E ( X ) =μ= =10
2
(b−a)2
σ 2=
12
2 (13−7)2 (6)2 36
σ = = = =3
12 12 12
Por lo tanto, la desviación estándar es:
σ =√ σ 2= √3=1,732
Llegar en la primera media hora significa que llega a la 7:30. Por lo tanto se debe
calcular la probabilidad entre las 7:00 y las 7:30.
30
=0,5 ⇒7 :30=7,5horas
60
7,5−7 0,5
P ( 7 ≤ X ≤ 7,5 )= = =0,0833
13−7 6
12,25−10 2,25
P ( 10≤ X ≤ 12,25 )= = =0,375
13−7 6
En otras palabras, la distribución normal adapta una variable aleatoria a una función que
depende de la media y la desviación típica. Es decir, la función y la variable aleatoria
tendrán la misma representación pero con ligeras diferencias.
Una variable aleatoria continua puede tomar cualquier número real. Por ejemplo, las
rentabilidades de las acciones, los resultados de un examen, el coeficiente de inteligencia
IQ y los errores estándar son variables aleatorias continuas.
Una variable aleatoria discreta toma valores naturales. Por ejemplo, el número de
estudiantes en una universidad.
X N (μ,σ)
En otras palabras, estamos diciendo que la frecuencia de una variable aleatoria X puede
representarse mediante una distribución normal.
Representación:
Función de densidad de probabilidad de una variable aleatoria que sigue una distribución
normal.
Propiedades:
Ejemplo:
Sabemos que en este examen participan 476 estudiantes y que los resultados podrán
oscilar entre 0 y 10. Calculamos la media y la desviación típica a partir de las
observaciones (resultados del examen).
Entonces, definimos la variable aleatoria X como los resultados del examen que depende
de cada resultado individual. Matemáticamente;
El resultado de cada estudiante se anota en una tabla. De esta forma, obtendremos una
visión global de los resultados y de su frecuencia.
Resultados Frecuencia
0 20
1 31
2 44
3 56
4 64
5 66
6 62
7 51
8 39
9 26
10 16
TOTAL 476
Una vez hecha la tabla, representamos los resultados del examen y las frecuencias. Si el
gráfico se parece a la imagen anterior y cumple con las propiedades, entonces, la variable
resultados del examen puede aproximarse satisfactoriamente a una distribución normal de
media 4,8 y desviación típica de 3,09.
La distribución beta generalizada nació de manera natural para dar mayor flexibilidad al
soporte acotado, donde su función de densidad es definida como:
Γ (u+v )
f ( x )= ( x)u−1 (1−x )v−1 ; x ∈( 0,1)
Γ (u) Γ (v)
Donde, del mismo modo que en el modelo estándar, los parámetros u y v son positivos.
La distribución Beta estándar es ahora una situación particular de la distribución Beta
Generalizada, cuando (a,b)=(0,1).
Si X es una variable aleatoria con distribución Beta Generalizada, entonces la notación
será: X~BG(ab)(u,v) o equivalentemente X~BG(u,v,a,b)
Para facilitar la operabilidad del modelo, consideraremos que el parámetro b será escrito
por b=a+h, de ese modo la densidad queda representada por:
Γ ( u+v )
f ( x )= ( x−a )u−1 ( h−x )v−1 ; x ∈ ( a , a+h )
Γ (u) Γ (v )
Los elementos siguientes son los que generalmente son presentados para el análisis y
comparar evasiones.
Esperanza:
u
E ( X )= h+ a
u+ v
Segundo momento:
( u+1 ) u u
E ( X 2) = h2 + 2 ah+a 2
(u+ v +1 ) ( v +u ) u+ v
Varianza:
( u+ 1 ) u 2 u2 2
Var ( X )= h+ 2
h
( u+ v+ 1 )( v+u ) ( u+v )
En este proceso asumiremos que el parámetro h o amplitud del intervalo de los posibles
valores de X es conocido.
Para el caso del estimador de máxima verosimilitud, basta resolver el sistema siguiente:
n
ln x i
Ψ ( u )−Ψ ( u+ v )=∑ =−ln h
i=1 n
n
ln(h−xi )
Ψ ( v ) −Ψ (u+ v )=∑ −ln h
i=1 n
Las estimativas por medio del método de momentos, que representaremos por ~
u y ~v
respectivamente son:
2
X́ h− X́ k
∑ X 2i ~
u
~
u= 2
donde k = i=1 , luego v́= h−ú
h( k− X́ ) n X́
Una variable aleatoria X tiene una distribución gamma si su función de densidad está
dada por:
−x
1
{ α−1 β
f ( x , α , β )= β α Γ ( α ) x e ,∧para x >0 ; α , β >0 ;
0 ,∧de otra manera.
E ( X ) =αβ
Var ( X )=α β 2
Los factores de forma de la distribución gamma son:
2
Coeficiente de asimetría:
√α
2
Curtosis relativa: 3(1+ )
α
Con lo anterior se puede observar que la distribución gamma es
leptocúrtica y tiene un sesgo positivo. También observamos que conforme
el parámetro crece, el sesgo se hace menos pronunciado y la curtosis
relativa tiende a 3.
X : γ ( α , β 1 ) y Y :γ (α , β 2)
2
Varianza: La varianza de la distribución gamma está dada por Var ( X )=α β .
Solución:
1
P (|X −6.2|≤16.3 ) =P (|X −μ|≤ 4.63 α ) ≥ 1− =0.9534
( 4.63 )2
Por tanto,
A pesar de que la distribución Normal puede utilizarse para resolver muchos problemas
en ingeniería y ciencias, existen aún numerosas situaciones que requieren diferentes tipos
de funciones de densidad, tales como la exponencial y la gamma y algunas otras como la
weibull, etc., etc., de momento solo trataremos sobre el uso de la exponencial.
−x
1 β
f ( x )= x , x> 0; f ( x ) =0 en cualquier otro caso
β
Donde β >0
μ= β y σ 2=β 2
E−λt (λt )0
P ( 0 , λt )= =E−λt ; E=2.718
0!
Ahora puede utilizarse lo anterior y hacer que X sea el tiempo para el primer evento de
Poisson. La probabilidad de que el período hasta que ocurre el primer evento de Poisson
exceda x es la misma que la probabilidad de que no ocurra un evento de Poisson en x.
Esto último por supuesto está dado por E−λx . Como resultado,
P ( X ≥ x )=E− λx
P(0 ≤ X ≤ x=1−E−λx )
f ( x )= λ E− λx
1
La cual es la función de densidad de la distribución exponencial con λ= .
β
Ejemplo:
Suponga que un sistema contiene cierto tipo de componente cuyo tiempo de falla en años
está dado por la variable aleatoria T, distribuida exponencialmente con tiempo promedio
de falla β=5. S í 5 de estos componentes se instalan en diferentes sistemas, ¿cuál es la
probabilidad de que al menos 2 continúen funcionando después de 8 años?
Solución:
∞ −t −8
1
P ( ¿ 8 )=
58
∫ E 5 dt=E 5 ∨≅ 0.2
n=5
p = 0.20 = probabilidad de que un componente esté funcionando después de 8 años
q = 1-p = 0.80 = probabilidad de que un componente no funcione después de 8 años
X P( X =x i)
x1 p1
x2 p2
⋮ ⋮
xn pn
k
μ= E ( X )=∑ x i . pi
i=1
x 1+ x 2 +…+ x n
x́=
n
n n
1 1
x= ∑ x i=∑ xi .
n i=1 i=1 n
Es decir, sería la esperanza de una variable cuyos valores aparecen todos con la
1
misma probabilidad pi= .
n
Si a una variable estadística la representamos por sus valores x i, y sus frecuencias
relativas son f i=ni /n , entonces la media aritmética se puede escribir como;
n
x=∑ x i . f i
i=1
Esto es, suma de valores por frecuencias. En el caso de una variable aleatoria, las
frecuencias se transforman en probabilidades (de ocurrencia). Por eso la esperanza es
un valor medio esperado.
Si X es una variable aleatoria continua, la variable toma infinitos valores. El equivalente
continuo de la suma es la integral. La fórmula matemática incluye en este caso a la
función de densidad:
∞
μ= E ( X )= ∫ x . f (x) dx
−∞
Teorema de Tchevicheff.
1
1−
k2
Donde k es cualquier número positivo mayor que 1. Este teorema es válido para todas las
distribuciones de datos.
Ejemplo:
Supongamos que las calificaciones obtenidas en los exámenes parciales por 100
estudiantes universitarios en un curso de estadística para negocios tenían una media de
70 y una desviación estándar de 5.
60−70
=−2
5
80−70
=2
5
1 1
1− =1− =1−0,25=0,75=75 %
( 2) 2
4
Por tanto, 75 % de los estudiantes como mínimo debió obtener una calificación de entre
60 y 80.
58−70
=−2,4
5
82−70
=2,4
5
1 1
1− =1− =1−0,173=0,827=82,7 %
( 2,4 ) 2
5,76
Por tanto, 82,7 % de los alumnos como mínimo debió obtener una calificación de entre 58
y 82.