Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tema66 PDF
Tema66 PDF
(Oposiciones de Secundaria)
TEMA 66
1/17
TEMA 66
1) f(x) ≥ 0 ∀x∈3
+∞
2) ∫
−∞
f ( x ) dx = 1
a
A
2/17
P( X = a ) = ∫ f ( x) dx = 0
a
se verifica que
= ∫ f ( x ) dx + ∫ f ( x )dx + K + ∫ f ( x )dx
b1 b2 bn
a1 a2 an
Cualquier función f puede servir como función de densidad de una variable aleatoria
continua siempre que verifique las dos condiciones dadas en la definición anterior.
P( a < X < b ) = ∫ f ( x ) dx
b
+∞ 2x + 3 +∞
∫ f ( x ) dx = ∫ 0 dx + ∫ dx + ∫ 0 dx = 0 + 1 + 0 = 1
2 4
−∞ −∞ 2 18 4
3/17
2. DISTRIBUCIONES MULTIVARIANTES.
P( A) = P (( X , Y ) ∈ A) = ∫ f ( x, y )dxdy
A
1) f(x,y)≥0 ∀X,Y∈3
+∞ +∞
2) ∫ ∫
−∞ −∞
f ( x, y )dydx = 1
Ejemplo.
1
f ( x, y ) = 8 (6 − x − y ) 0 < x < 2 2 < y < 4
0 en otro caso
Triviamente podemos comprobar que verifica las dos condiciones para ser función
de densidad.
6− x− y 3
P( X < 1, Y < 3) = ∫ ∫ f ( x, y )dydx = ∫ ∫
1 3 1 3
dydx =
−∞ − ∞ 0 2 8 8
1 3− x 6−x−y 5
P( X + Y < 3) = ∫ ∫ dydx =
0 2 8 24
P( X < 1, Y < 3)
P( X < 1 | Y < 3) =
P(Y < 3)
4/17
6−x−y 5
P(Y < 3) = ∫ ∫
2 3
dydx =
0 2 8 8
Y entonces
3
P( X < 1, Y < 3) 8 3
P( X < 1 | Y < 3) = = =
P(Y < 3) 5 5
8
3. DISTRIBUCIONES ACUMULATIVAS.
Puesto que en el caso de variables continuas las probabilidades vienen dadas por
integrales, resulta a menudo conveniente considerar las integrales de las densidades con
preferencia a las densidades mismas.
DEF Dada f(x) función de densidad de una variable aleatoria X, definimos la función
F(x), llamada función de distribución Acumulativa, como
F ( x) = P( X ≤ x) = ∫
x
f (t ) dt
−∞
Dem.
La demostración es inmediata.
dF ( x)
f (x ) =
dx
F ( x, y ) = P ( X ≤ x, Y ≤ y ) = ∫ ∫
x y
f (t 1 , t 2 )dt 2 dt 1
−∞ −∞
5/17
siendo f(x,y) la función de densidad.
∂ ∂
f ( x, y ) = F (x , y )
∂x ∂y
a1 < X < b1
a2 < Y < b2
4. DISTRIBUCIONES MARGINALES.
+∞
P( a < X < b) = ∫ ∫
b
f ( x, y) dydx
a −∞
+∞
f1 (x ) = ∫ f ( x, y )dy
−∞
6/17
De forma análoga podemos definir
+∞
f 2 ( y) = ∫ f ( x, y )dx
−∞
P( a < Y < b) = ∫ f 2 ( y ) dy
b
−∞ −∞ −∞
+∞
F2 ( y) = ∫ ∫ f ( x , y ) dxdy = ∫
y y
f 2 ( y ) dy = F ( +∞, y )
−∞ −∞ −∞
5. DISTRIBUCIONES CONDICIONALES.
Sea una función de densidad de dos variables aleatorias X e Y, f(x,y). Buscamos una
función f(x|y) que nos dé la densidad de X cuando conozcamos Y. Es decir, una función
tal que
P( a < X < b | Y ) = ∫ f ( x | y ) dx
b
f ( x, y)
f ( x | y) = con f 2 ( y) > 0
f 2 ( y)
f (x , y )
f ( y | x) = con f 1 ( x) > 0
f 1 ( x)
7/17
+∞
∫−∞
f ( x , c) dx = f 2 ( c)
Por tanto, si dividimos f(x,c) por f2 (c), obtenemos una función de densidad que es
precisamente f(x|c)
f ( x1 , x 2 , x 3 , x 4 , x 5 )
f ( x1 , x 3 , x 5 | x 2 , x 4 ) =
f 24 ( x 2 , x 4 )
6. DISTRIBUCIÓN UNIFORME.
DEF Diremos que una variable aleatoria X es uniforme en el intervalo (a,b) cuando su
función de densidad de probabilidades es constante en él. Es decir
1
a< x<b
f (x ) = b − a
0 en el resto
0 x≤a
x− a
F ( x) = a < x <b
b − a
1 x≥b
a+b (b − a) 2
µ= σ2 =
2 12
7. DISTRIBUCIÓN NORMAL.
8/17
etc. Se apunta de esta manera el concepto de distribución normal. La dificultad de
realizar un cálculo rápido de áreas bajo la curva normal, así como la imposibilidad de
obtenerlas para todos los valores posibles de µ y σ, nos conduce a buscar
transformaciones que obvien esta dificultad.
DEF Diremos que una variable aleatoria X que toma todos los valores reales tiene una
distribución normal si su función de densidad de probabilidades es de la forma
( x − µ )2
1 −
f (x ) = e 2σ 2
− ∞ < x < +∞
σ 2π
Sus parámetros fundamentales son su media (µ) que puede tomar cualquier valor
real, y su varianza (σ2 ) que debe ser positiva.
PROP El eje de abscisas (y=0) es la asíntota horizontal de la curva (por ambos lados).
Dem.
(x−µ )2
+∞ 1 +∞ −
E ( X ) = ∫ xf ( x )dx = ∫ x·e 2σ 2
dx
−∞
σ 2π −∞
obtenemos
9/17
z2 z2 z2
1 +∞ − µ +∞ − σ +∞ −
E( X ) =
2π ∫−∞
( µ + σz ) e 2
dz =
2π ∫ −∞
e 2
dz +
2π ∫ −∞
ze 2
dz = µ
(x−µ )2
[ ]
1 +∞ −
E ( X − µ) = ∫ ( x − µ) e 2σ 2
2 2
dx
σ 2π −∞
obtenemos
z2
[
E ( X − µ) =
σ2 2
] ∫
+∞
z e 2
−
2
dz
2π −∞
u=z du = dz
z2 z2
− −
v = −e 2
dv = ze 2
dz
llegamos a
+∞
σ2 z2
[ ]
z2
− +∞ −
E ( X − µ) = − ze + ∫−∞ e dz = σ 2 ( 0 + 1) = σ 2
2 2 2
2π −∞
( x−µ)2
−
P( x1 < X < x 2 ) =
1
∫
x2
2σ 2
e dx
σ 2π x1
x−µ
La transformación z = nos proporciona valores de una distribución normal
σ
de media 0 y varianza 1, N(0,1). Veámoslo
(x−µ)2 z2
−
P( x1 < X < x 2 ) = dz = P (z 1 < Z < z 2 )
1 1 −
∫ ∫
x2 z2
e 2σ 2
dx = e 2
σ 2π x1
2π z1
10/17
donde se observa que Z es una variable aleatoria normal de media 0 y varianza 1.
z2
1 −
∫
b
P( a < X < b) = e 2
dz
2π a
Esta integral no puede evaluarse por métodos ordinarios. Por ello, debemos acudir a
los métodos de integración numérica. La función de distribución de la normal
estandarizada o tipificada es
2
1 s − z2
2π ∫−∞
Φ(s) = e dz
a−µ b − µ b − µ a − µ
P( a < X < b ) = P <Z< = Φ − Φ
σ σ σ σ
Φ ( − x) = 1 − Φ ( x )
Esta relación es muy útil, puesto que en la mayoría de las tablas la función Φ
aparece tabulada sólo para valores positivos de la variable.
11/17
X −µ
P( µ − kσ < X < µ + kσ) = P − k < < k = Φ ( k ) − Φ ( −k ) = 2Φ ( k ) − 1
σ
Debemos resaltar que estamos aproximando una distribución discreta por una
continua, por tanto, resulta necesario establecer una corrección por continuidad. Se ha
encontrado que la siguiente corrección para continuidad mejora la proximidad anterior.
1 1
P( X = k ) ≡ P k − ≤ X ≤ k +
2 2
1 1
P( a < X < b) ≡ P a + ≤ X ≤ b −
2 2
P( a < X ≤ b) ≡ P a + ≤ X ≤ b +
1 1
2 2
1 1
P( a ≤ X < b) ≡ P a − ≤ X ≤ b −
2 2
1 1
P( a ≤ X ≤ b) ≡ P a − ≤ X ≤ b +
2 2
12/17
Sea X una variable aleatoria de Poisson P(λ) con λ grande, en la práctica λ>25. En
estas condiciones, la variable tipificada
X −λ
Z=
λ
tiene aproximadamente una distribución normal estándar N(0,1) y, por tanto, podemos
considerar que X sigue aproximadamente una distribución N(λ,λ). Aquí también será
conveniente tener en cuenta la corrección por continuidad similar a la efectuada para la
distribución binomial.
8. OTRAS DISTRIBUCIONES.
Como la distribución Normal no resuelve todos los problemas, tenemos que recurrir
a otras distribuciones para resolver determinados problemas en los campos de la
ingeniería y de la ciencia, como son la distribución Gamma, Exponencial, Wiebull y χ2 .
∞
Γ(α) = ∫ x α −1 e − x dx α> 0
0
Γ(α) = (α − 1)·Γ(α − 1)
π
1) Fórmula de los complementos: Γ(α) Γ(1 − α) = con 0<α<1
sen απ
2) Γ = π
1
2
13/17
DEF Diremos que la variable aleatoria X tiene una Distribución Gamma, con
parámetros α y β, si su función de densidad viene dada por
α −1 − βx
x e
f ( x; α, β) = α x > 0, α > 0, β > 0
β Γ(α)
0 en el resto
E ( X ) = αβ Var ( X ) = αβ 2
Dem.
Γ(α + 1) αΓ(α)
µ1' = β =β = αβ = E ( X )
Γ(α) Γ(α)
Γ(α + 2) (α + 1)αΓ(α)
µ2' = β 2 = β2 = (α + 1)αβ
Γ(α) Γ(α)
− βx
e
f ( x; β) = x > 0, β > 0
β
0 en el resto
14/17
Su función de distribución es
x
−
F ( x; b) = P( X ≤ x) = 1 − e β
E( X ) = β Var ( X ) = β 2
Dem.
Basta tomar α=1 en la media y varianza de Gamma para obtener los resultados.
La distribución de Weibull fue establecida por el físico suizo del que lleva su
nombre y al igual que la distribución exponencial, su función fundamental es en el
estudio de la fiabilidad.
DEF Diremos que una variable aleatoria X tiene una distribución de Weibull si su
función de densidad de probabilidad es de la forma
α
x
−
αx α −1 e β
f ( x; α, β) = x > 0, α > 0, β > 0
βα
0 en el resto
1 2 1
E ( X ) = βΓ 1 + Var ( X ) = β 2 Γ1 + − Γ 2 1 +
α α α
Dem.
El r-ésimo momento en torno al cero de una variable aleatoria que sigue una
distribución de Weibull es
µr ' = β r Γ1 +
r
α
con lo cual
µ1 ' = βΓ1 + = E( X )
1
α
y para la varianza tenemos
15/17
2
2 1
Var ( X ) = E ( X ) − [E ( X ) ] = µ2 '−µ' = β Γ 1 + − βΓ1 + =
2 2 2 2
α α
1
2 1
= β 2 Γ1 + − Γ 2 1 +
α α
Por estar formada la variable aleatoria Y por suma de cuadrados resulta positiva,
además su función de densidad de probabilidad es
n2 −1 − 2x
x e
n x>0
f ( x; n) = 2 n
2 Γ
2
0
en el resto
Una propiedad importante de la χn2 es que la suma de varias de ellas que sean
independientes nos da como resultado otra cuyo número de grados de libertad es la
suma de los grados de libertad de éstas.
E(X) = n Var(X) = 2n
Dem.
n n
Γ + 1 Γ
µ1 ' = β = 2n 2 = n = E ( X )
2
n 2 n
Γ Γ
2 2
y para la varianza
n n
Γ + 2 Γ
µ2 ' = 4
2 = 4 n + 1 n 2 = n 2 + 2n
n 2 2 Γ n
Γ
2 2
Var ( X ) = E ( X 2 ) − [E ( X ) ]2 = µ2 '−µ'12 = n 2 + 2n − n 2 = 2n
16/17
Integrando por partes, desde 2λ hasta +∞, la función de densidad de una distribución
χ con n=2(r+1) grados de libertad, se obtiene la siguiente relación entre las
2
x
−
λr e − λ
P(χ22( c+1 ) > 2λ) = ∫
xce 2 c
= P(Ρ( λ) ≤ c )
+∞
2 λ 2 c +1 c!
dx = ∑ r!
r =0
donde se ha tenido en cuenta que para c entero es Γ(c+1)=c!. En ciertas ocasiones suele
utilizarse esta relación para calcular probabilidades de Poisson
BIBLIOGRAFÍA RECOMENDADA.
17/17