Está en la página 1de 8

Distribución Gaussiana o Nomal, parte I

Memo Garro

September 19, 2018

Resumen
Una herramienta fundamental en estadı́stica y probabilidad es la distribución normal o gaussiana.
Aquı́ revisamos los resultados básicos asociados a esta distribución para el caso unidimensional.
Definimos la densidad guassiana en términos de los parámetros µ y σ 2 . Calculamos el valor de la
integral de Gauss y algunos otras integrales asociadas. Definimos la variable aleatoria gaussiana
en términos de la función de densidad en la sección y sus momentos centrales. Demostramos que
la convolución de densidades guassianas es gaussiana, usamos esto para demostrar que la suma de
variables aleatorias gaussianas independientes es gaussiana. Con ejemplo mostramos la necesidad
de la hipótesis de independencia. Finalmente mostramos la densidad gaussiana como solución de
la ecuación del calor.

Índice

1 Densidad gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Integrales gaussianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3 Variable aleatoria gaussiana o normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
4 Momentos centrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
5 Convolución de densidades gaussianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
6 Suma de variables aleatorias normales independientes . . . . . . . . . . . . . . . . . . . . 7
7 Una suma de normales que no es normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
8 La ecuación del calor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1 Densidad gaussiana
Definición 1 (Densidad gaussiana). Una densidad gaussiana o normal de parámetros µ ∈ R y
σ 2 , con σ > 0, es una función f ( · ; µ, σ 2 ) : R → R de la forma

1 (x−µ)2
f (x; µ, σ 2 ) = √ e− 2σ2 , x ∈ R. (1)
σ 2π

Definición 2 (Normal estándar). Si µ = 0 y σ = 1, entonces la densidad


1 1 2
f (x; 0, 1) = √ e− 2 x , x ∈ R, (2)

es llamada normal estándar.

1
µ = 0 y σ = 0.5
1.5 µ = 1 y σ = 0.75
µ = −2 y σ = 0.25

0.5

Fig. 1: Formas de “campana”


0 tı́picas de las densidad normal
−4 −2 0 2 4 o gaussiana

Observación 1.
1
f (x; µ, σ 2 ) =

f (x − µ)/σ; 0, 1 y f (x; 0, 1) = σf (σx + µ; µ, σ).
σ
Enlistamos algunas propiedades que tı́picamente se prueban en los cursos básicos de probabilidad
relativos a la densidad gaussiana.

Teorema 1. Sea f ( · ; µ, σ) la densidad normal dada por (1).

(i) Para cada x ∈ R, f (x; µ, σ) > 0. Además

lim f (x; µ, σ) = 0 = lim f (x; µ, σ).


x→−∞ x→∞

(ii) f ( · ; µ, σ) es diferenciable, y de hecho


d (x − µ)
f (x; µ, σ) = − f (x; µ, σ), ∀x ∈ R.
dx σ2

(iii) f ( · ; µ, σ) tiene un punto crı́tico en x = µ. De hecho es un máximo, pues es creciente en



(−∞, µ) y decreciente en (µ, ∞), y su valor máximo es f (µ) = 1/σ 2π.

(iv) f ( · ; µ, σ) es simétrica respecto de la recta x = µ, esto es,

f (−x + µ; µ, σ) = f (x + µ; µ, σ), ∀x ∈ R.

2 Integrales gaussianas
Teorema 2 (Integral de Gauss-Euler-Poisson).
Z ∞
2 √
e−x dx = π.

Demostración. Una forma sencilla de calcular esta integral es usando coordenadas polares de la
manera siguiente. Sea Z ∞
2
I= e−x dx.

Entonces Z ∞  Z ∞  Z ∞Z ∞
−x2 −y 2 2 +y 2 )
2
I = e dx e dy = e−(x dxdy.
∞ ∞ ∞ −∞

2
Proponemos la transformación

x = r cos θ
y = r sin θ

Calculamos el jacobiano

∂(x, y) cos θ −r sin θ
∂(r, θ) = sin θ = r.

r cos θ
De donde
Z 2π Z ∞ Z ∞
−r2 2
2
I = re dr dθ = 2π re−r dr
0 0 0
Z ∞
=π e−u du (u = r2 )
0


Y dado que I > 0, se sigue que I = π.

Algunas otras pruebas de esta integral con varios métodos pueden encontrarse en la Wikipedia.
La mayorı́a de los problemas de este tipo tienen el factor constante 2 en el término exponencial, pero
por sustitución es muy fácil demostrar la siguiente integral.

Corolario 1. Para toda a > 0,



Z r
− 12 ax2 2π
e dx = .
−∞ a
pa
Demostración. Basta hacer el cambio de variable u = 2x en la integral Gauss-Euler-Poisson.

Corolario 2. La función dada en (1) es una densidad de probabilidad. Es decir


Z ∞
f (x; µ, σ)dx = 1
−∞

Demostración.
Z ∞ Z ∞ (x−µ)2
1
f (x; µ, σ)dx = √ e− 2σ 2 dx
−∞ σ 2π −∞


x−µ
Z
1 2
=√ e−u du, u= √
π −∞ σ 2

π
= √ = 1.
π

Corolario 3. Para toda a > 0 y toda n ≥ 0,



Z   r
2n 1 2 (2n)! 2π
x exp − ax dx = n n . (3)
−∞ 2 a 2 n! a

Y también Z ∞  
1
x2n+1 exp − ax2 dx = 0. (4)
−∞ 2

3
Demostración. Observamos que x2n+1 exp − 12 ax2 es una función impar, por lo que (4) es inmediata.


Para probar (3), procedemos por inducción. El caso n = 0 está cubierto por el Corolario 1. Para
n = 1, integrando por partes
Z ∞
1 ∞ − 1 ax2
Z
2 − 21 ax2
x e dx = e 2 dx
−∞ a −∞
r
1 2π
= .
a a
Supongamos la fórmula (3) para n. Queremos probarla para n + 1. Nuevamente integrando por
partes
Z ∞ Z ∞
2(n+1) − 21 ax2 1 2
x e dx = x2n+1 x e− 2 ax dx
−∞ −∞
Z ∞
2n + 1 1 2
= x2n e− 2 ax dx
a −∞
r
2n + 1 (2n)! 2π
= · n n
a a 2 n! a
r
(2(n + 1))! 2π
= n+1 n+1 .
a 2 (n + 1)! a
Observación 2. Si usamos la notación de doble factorial (2n − 1)!! = 1 · 3 · · · (2n − 1), entonces
(2n)!
= (2n − 1)!!.
2n n!

3 Variable aleatoria gaussiana o normal


Definición 3 (Variable Aleatoria Gaussiana o Normal). Una variable aleatoria X tiene distribución
gaussiana o normal parámetros µ ∈ R y σ 2 , con σ > 0, si su densidad fX está dada por (1). Suele
usarse la notación X ∼ N (µ, σ 2 ) o a veces X ∼ N (µ, σ). Es común decir simplemente que X es una
variable aleatoria gaussiana o normal de parámetros µ y σ 2 .

Definición 4 (Variable Aleatoria Gaussiana o Normal Estándar). Si µ = 0 y σ = 1, entonces decimos


que X tiene distribución normal estándar. La densidada de una variable aleatoria normal estándar
está dada por (2). Generalmente, usamos la letra Z para denotar cualquier variable aleatoria con
distribución normal estándar.

El sentido de los parámetros µ y σ es obivio como probamos enseguida.

Teorema 3. Si X ∼ N (µ, σ 2 ), entonces E(X) = µ y V ar(X) = σ 2 .

Demostración. Mediante cálculo directo,


Z ∞ Z ∞
1 1 x−µ 2
E(X) = xfX (x)dx = √ xe− 2 ( σ ) dx,
−∞ σ 2π −∞
x−µ
entonces basta con hacer el cambio de variable u = para obtener que
σ
Z ∞
− 12 ( x−µ
2
Z ∞ u2 √
xe σ ) dx = σ(uσ + µ)e− 2 du = σµ 2π,
−∞ −∞

4
de donde E(X) = µ. Ahora,

V ar(X) = E[(X − µ)2 ]


Z ∞
1 1 x−µ 2
= √ (x − µ)2 e− 2 ( σ ) dx
σ 2π −∞
Z ∞
σ 1 x − µ − 1 ( x−µ )2
= √ (x − µ) · e 2 σ dx,
2π −∞ σ σ
entonces, haciendo
1 x − µ − 1 ( x−µ )2
du = · e 2 σ dx y v = x − µ,
σ σ
e integrando por partes resulta
Z ∞
1 x − µ − 1 ( x−µ )2 √
(x − µ) · e 2 σ dx = σ 2π,
−∞ σ σ
de donde V ar(X) = σ 2 . 

X−µ
Teorema 4. X ∼ N (µ, σ 2 ) si y sólo si σ ∼ N (0, 1).
X−µ
Demostración. Supongamos que X ∼ N (µ, σ 2 ) y sea Z = σ , entonces

FZ (z) = P (Z ≤ z) = P (X ≤ σz + µ) = FX (σz + µ).

Derivamos para obtener la densidad de Z,

fZ (z) = σfX (σz + µ).

Y el segundo término es igual a la densidad normal estándar. Recı́procamente, supongamos que


Z = X−µ
σ tiene distribución normal estándar. Entonces
   
X −µ x−µ x−µ
FX (x) = P (X ≤ x) = P ≤ = FZ .
σ σ σ
Derivamos para obtener la densidad de X,
 
1 x−µ
fX (x) = fZ .
σ σ
El segundo término es igual a la densidad normal de parémetros µ y σ.

Corolario 4. X ∼ N (µ, σ 2 ) si y sólo si X = σZ + µ P -c.s., donde Z ∼ N (0, 1).

Definición 5. Por extensión, si µ ∈ R es una constante, entonces admitimos que la densidad discreta

1 si x = µ,
f (x; µ, 0) = (5)
0 en otro caso,
es una densidad normal degenerada.

Observación 3. Si f ( · ; µ, 0) es una densidad normal degenerada dada por (5), entonces f tiene un
máximo en x = µ, es diferenciable (con derivada igual a cero) en todos los relaes, salvo en x = µ, y
los inciso (i) y (iv) del Teorema 1 se cumplen tal cual.

Observación 4. Si X es una v.a. con distribución normal degenerada dada por la función de
probabilidades (5), entonces P (X = µ) = 1, E(X) = µ y var(X) = 0.

5
4 Momentos centrales

5 Convolución de densidades gaussianas


Definición 6. Dadas dos funciones f1 , f2 : R → R, definimos la convolución de f1 y f2 como la
función Z ∞
(f1 ∗ f2 )(x) = f1 (u)f2 (x − u)du, ∀x ∈ R.
−∞
En esta sección demostramos que la convolución de dos densidades gaussianas (no degeneradas)
es nuevamente una densidad gaussiana.
Lema 1. Si µ1 , µ2 ∈ R y σ1 , σ2 > 0, entonces para cada x y y en R,
(x − µ1 )2 (y − µ2 )2 1 −1 x − µ1 y − µ2 2 (x − y − (µ1 − µ2 ))2
   
1
+ = + + +
σ12 σ2 σ12 σ22 σ12 σ22 σ12 + σ22
Demostración. Basta agregar al término de la izquierda los ceros adecuados,
(x − µ1 )2 (y − µ2 )2 σ22 (x − µ1 )2 (x − µ1 )(y − µ2 ) σ12 (y − µ2 )2
+ = − 2 + 2 2
σ12 σ2 σ12 (σ12 + σ22 ) σ12 + σ22 σ2 (σ1 + σ22 )
(x − µ1 )2 (x − µ1 )(y − µ2 ) (y − µ2 )2
+ + 2 + 2
σ12 + σ22 σ12 + σ22 σ1 + σ22

σ12 σ22 x − µ1 y − µ2 2 ((x − µ1 ) − (y − µ2 ))2


 
= 2 + +
σ1 + σ22 σ12 σ22 σ12 + σ22

Lema 2. Si µ1 , µ2 ∈ R y σ1 , σ2 > 0, entonces para cada x ∈ R,

f (x; µ1 , σ12 ) f (x; µ2 , σ22 ) = f (µ2 ; µ1 , σ12 + σ22 ) f (x; µ, σ 2 ),

donde
σ22 µ1 + σ12 µ2 σ12 σ22
µ := y σ 2 := .
σ12 + σ22 σ12 + σ22
Demostración. Por el Lema 1, para cada x ∈ R,
2
(x − µ1 )2 (x − µ2 )2 σ12 σ22 (µ1 − µ2 )2

x − µ1 x − µ2
+ = + +
σ12 σ22 σ12 + σ22 σ12 σ22 σ12 + σ22
2
σ12 + σ22 σ22 µ1 + σ12 µ2 (µ1 − µ2 )2

= x− +
σ12 σ22 σ12 + σ22 σ12 + σ22
1 2 (µ2 − µ1 )2
= (x − µ) + .
σ2 σ12 + σ22
Luego,
1 (x − µ1 )2 (x − µ2 )2
  
1
f (x; µ1 , σ12 ) f (x; µ2 , σ22 ) = exp − +
σ1 σ2 2π 2 σ12 σ22
1 (µ1 − µ2 )2 (x − µ)2
   
1 1
=p 2 √ exp − √ exp −
σ1 + σ22 2π 2 σ12 + σ22 σ 2π 2σ 2

= f (µ2 ; µ1 , σ12 + σ22 ) f (x; µ, σ 2 ).

6
Teorema 5. Si µ1 , µ2 ∈ R y σ1 , σ2 > 0, entonces
Z ∞
f (x; µ1 , σ12 ) f (x; µ2 , σ22 ) dx = f (µ2 ; µ1 , σ12 + σ22 ).
−∞

Demostración. Si µ y σ 2 son como en el Lema 2, entonces


Z ∞ Z ∞
2 2 2 2
f (x; µ1 , σ1 ) f (x; µ2 , σ2 ) dx = f (µ2 ; µ1 σ1 + σ2 ) f (x; µ, σ 2 ) dx = f (µ2 ; µ1 , σ12 + σ22 ).
−∞ −∞

Teorema 6. Si µ1 , µ2 ∈ R y σ1 , σ2 > 0, entonces

f (x; µ1 , σ12 ) ∗ f (x; µ2 , σ22 ) = f (x; µ1 + µ2 , σ12 + σ22 ), ∀x ∈ R.

Demostración. Usando el Teorema 5 y las propiedades de la densidad normal, podemos calular la


integral directamente,
Z ∞
2 2
f (x; µ1 , σ1 ) ∗ f (x; µ2 , σ2 ) = f (u; µ1 , σ12 )f (x − u; µ2 , σ22 )du
−∞
Z ∞
= f (u; µ1 , σ12 )f (u; x − µ2 , σ22 )du
−∞

= f (x − µ2 ; µ1 , σ12 + σ22 )

= f (x; µ1 + µ2 , σ12 + σ22 ).

6 Suma de variables aleatorias normales independientes


Teorema 7. Si X tiene distribución normal parámetros µ ∈ R y σ 2 ≥ 0, y a y b son constantes,
entonces aX + b tiene distribucón normal parámetros aµ + b y a2 σ 2 .

Demostración. Sea Y := aX + b. Si a = 0 o bien X ∼ N (µ, 0), entonces Y = aµ + b con probabilidad


1, por lo que Y tiene distribución normal degenerada N (aµ + b, 0). En otro caso, i.e. a 6= 0 y σ > 0,
recordemos que la densidad de Y está dada por
((x − b)/a − µ)2
 
1 2
 1
fX (x − b)/a; µ, σ = √ exp −
|a| |a|σ 2π 2σ 2

(x − (aµ + b))2
 
1
= √ exp − , ∀x ∈ R.
|a|σ 2π 2a2 σ 2
Por lo tanto Y ∼ N (aµ + b, a2 σ 2 ).

Teorema 8. Sean µ1 , µ2 ∈ R y σ1 , σ2 ≥ 0, y sean X1 y X2 variables aleatorias independientes tales


que X1 ∼ N (µ1 , σ12 ) y X2 ∼ N (µ2 , σ22 ). Para cualesquiera a1 y a2 constantes reales, a1 X1 + a1 X2 ∼
N (a1 µ1 + a2 µ2 , a21 σ12 + a22 σ22 ).

Demostración. Note que el teorema anteror cubre lo casos en que alguna de las constantes a1 y
a2 , o bien, si alguno de los parámetros σ1 y σ2 es cero. Supongamos entonces que las constantes
a1 , a2 y σ1 , σ2 son distintas de cero. Por el teorema anterior, a1 X1 ∼ N (a1 µ1 , a2 σ 2 ) y a2 X2 ∼
N (a2 µ, a22 σ22 ). Recordemos que la densidad de una suma de dos variables aleatorias absolutamente
continuas independientes es la convolución de las densidades, ası́ que el teorema se sigue directamente
del Teorema 6.

7
Observación 5. Sin la condición de independencia el teorema anterior puede fallar, si σ1 > 0 y
σ2 > 0. Por ejemplo, si X ∼ N (µ, σ 2 ), entonces Y = −X ∼ N (−µ, σ 2 ), pero X + Y = 0. No
obstante, observe que X + Y es una normal degenerada N (0, 0)

7 Una suma de normales que no es normal


Proposición 1. Si X es una v.a. normal estándar, entonces −X es también una normal estándar.
Más aún, dado cualquier borel-medible B, P(X ∈ B) = P(−X ∈ B).

Demostración. Basta demostrar que X y −X tienen la misma función de densidad. Para ello,
observamos primero que la densidad fX de una distribución normal estándar es una función par.
Ahora, para toda x ∈ R,

F−X (x) = P(−X ≤ x) = P(X ≥ −x) = 1 − P(X ≤ −x) = 1 − FX (−x). (6)

Derivando, f−X (x) = fX (−x) = fX (x).

Ejemplo 1. Sea X una v.a. normal estándar y sea W una v.a. Bernoulli indepenediente de X con
valores en {−1, 1} con parámetro 1/2. Definimos Y = W X. Para toddo y ∈ R,

P(Y ≤ y) = P(X ≤ y | W = 1)(W = 1) + P(−X ≤ y | W = −1)P(W = −1)


= P(X ≤ y)P(W = 1) + P(−X ≤ y)P(W = −1)
1 1
= P(X ≤ y) + P(X ≤ y)
2 2
= P(X ≤ y).

Por lo tanto Y tiene distribución normal estándar. Del mismo modo,

P(X + Y = 0) = P(Y = −X | W = 1) P(W = 1) + P(Y = −X | W = −1) P(W = −1)


1 1
=0· +1·
2 2
1
= .
2
Por lo que X + Y no tiene distribución normal. Por otro lado, |Y | = |X| por lo que es claro que X
y Y no son independientes. No obstante

cov(X, Y ) = E(X 2 W ) − E(X)E(Y )


= E(X 2 )E(W )
= 0.

8 La ecuación del calor


Considere la distribución normal sobre R con parámetos µ ∈ R y t = σ 2 > 0,
1
f (x; m, t) = √ exp −f rac(x − µ)2 2t

t 2π

También podría gustarte