Está en la página 1de 38

ESTADISTICA CAPITULO 1

Función de Distribución

Universidad de Chile
Economía & Negocios

FUNCIONES DE DISTRIBUCION.

1. INTRODUCCIÓN.

En este capítulo se define y exponen varias distribuciones especiales que son muy
utilizadas en aplicaciones de probabilidad estadística. Las distribuciones que se
presentarán aquí incluyen distribuciones discretas y continuas de tipo univariante,
bivariante y multivariante. Las distribuciones discretas univariantes son la binomial, de
Bernoulli y de Poisson. Las distribuciones continuas univariantes son la normal, gamma,
exponencial y beta. Otras distribuciones continuas univariantes son la lognormal, de
Weibull y de Pareto. También se exponen la distribución discreta multivariante
denominada distribución multinomial y la distribución continua bivariante denominada
distribución normal bivariante.

Es muy importante, a pesar de que no se a discutido con detalle, tener claro que las
estructuras de las funciones de distribuciones se encuentran definidas por una familia
especifica de funciones, como por ejemplo, exponenciales, cuadráticas (polinomios),
logarítmicas, cóncavas o convexas, pero la forma definitiva, la que representa el
comportamiento final de una población por medio de sus frecuencias depende de los
parámetros que la constituyen. Un ejemplo claro de este punto, es el hecho que una
línea recta, es una familia de posibles funciones que pueden ser oblicuas, verticales,
horizonales, etc., sin embargo, el grado de inclinación y contacto con el o los ejes
dependerá de los valores que tomen su pendiente o intercepto.

Un ejemplo de lo mencionado en el párrafo anterior, es: Supongamos que una función


de distribución de probabilidad des esta definida por la siguiente estructura.

 Ax + B a ≤ x ≤ b
f ( x) =  (1.1)
 0 

Además, por efecto de simplificación, supongamos que esta función es efectivamente una
función de distribución de probabilidades, por lo tanto, sabemos que el área bajo la curva
dentro del dominio de f ( x) debe ser igual a 1. Ahora, nuestro interés radica en el hecho
de que la función de la ecuación (1.1) es una recta, pero la constitución final de ella
dependerá de sus parámetros A (pendiente) y B (intercepto), por lo que para diferentes
combinaciones de estos valores, tendremos diferentes distribuciones de probabilidades
finales. Esto quiere decir, que al ser la función de distribución el reflejo del
comportamiento poblacional, entonces sus característica poblaciones (parámetros)
perimitiran diferencias una población de otra cuando estas pertenezcan a la misma

Autor: Pablo Tapia G. Pagina 1


ESTADISTICA CAPITULO 1
Función de Distribución

familia, ya sea porque una tiene mayor pendiente que la otra o porque una se desfasa más
que la otra.

Es por esta razón que muchas de las funciones que veremos a continuación se describirán
bajo la premisa de valores paramétricos conocidos, por ejemplo en nuestro caso de la
línea recta, la función será denotada como:

f ( x / A, B) = Ax + B ∀ x ∈ [ a, b] (1.2)

La cual deberemos interpretar como la función de distribución que se encuentra


restringida a una estructura (familia de rectas) y valores paramétricos determinísticos
(valor conocidos), lo cual nos permitirá realizar operaciones numéricas para variadas
aplicaciones.

Se describirá brevemente como cada una de estas distribuciones aparecen en problemas


aplicados y se demostrará porque cada una podría ser un modelo de probabilidad
apropiado para algunos experimentos. Para cada distribución se presentará la función de
distribución y se expondrá algunas de las propiedades básicas de la distribución.

2. FUNCIONES DE DISTRIBUCIÓN DE VARIABLE DISCRETA

2.1. Distribución de Bernoulli.

Un experimento de un tipo particularmente sencillo es aquel en el que hay solamente


dos resultados posibles, tales como cara y cruz, éxito o fracaso, defectuoso o no
defectuoso. Es conveniente designar los dos resultados posibles de dicho experimento
como 0 y 1. La siguiente definición se puede aplicar entonces a cualquier experimento de
este tipo.

Se dice que una variable aleatoria X tiene una distribución de Bernoulli con parámetro
p tal que (0 ≤ p ≤ 1) si X puede tomar únicamente los valores 0 y 1 y las probabilidades
son

Pr( X = 1) = p Pr( X = 0) = 1 − p (1.3)

Definición 1. Entonces, la función de distribución de probabilidad de X se escribe


como sigue:

) p x (1 − p )1− x
f ( x / p= ∀=
x 0,1 (1.4)

Para verificar que esta función de distribución f ( x / p) realmente representa la


distribución de Bernoulli dada por las probabilidades (1.3), simplemente es necesario
observar que f ( x = 1 / p) = p y f ( x = 0 / p) = 1 − p .

Autor: Pablo Tapia G. Pagina 2


ESTADISTICA CAPITULO 1
Función de Distribución

Propiedad 1. Si X tiene una distribución de Bernoulli con parámetro p , entonces se


debe cumplir que:

1.i. E ( X ) = p
1.ii. E ( X 2 ) = p
1.iii. var( X ) = p(1 − p)
1.iv. ψ (t ) = E (exp(tX )) = pe t + q

2.2. Distribución Binomial.

Definición 2. Una variable aleatoria X tiene una distribución Binomial con parámetros
T y p si X tiene una distribución discreta cuya función corresponde a:

T 
x / p )   p x (1 − p )T − x =
f (= ∀x 0,1, 2,..., T (1.5)
 x

En esta distribución, T debe ser un entero positivo y p debe pertenecer al intervalo


cerrado 0 ≤ p ≤ 1 , además el termino que encabeza la función de la ecuación (1.5)
corresponde al número de combinaciones que son posible de realizar con los valores
enteros de T y x .

La distribución Binomial tiene una importancia fundamental en probabilidad y estadística


debido al siguiente resultado. Supóngase que el resultado de un experimento puede ser
éxito o fracaso, que el experimento se realiza independientemente T veces y que la
probabilidad de éxito en cualquier realización es p . Si X denota el número total de
éxitos en las T realizaciones, entonces X tiene una distribución Binomial con
parámetros T y p . Este resultado se puede enunciar como sigue:

Si las variables aleatorias X 1 ,..., X T constituyen T pruebas de Bernuolli con parámetro


p y si X = X 1 +  + X T , entonces X tiene una distribución Binomial con parámetro T
y p.

Cuando X se representa como la suma de T pruebas de Bernoulli de esta forma, se


pueden deducir fácilmente los valores de la media, la varianza y la función generatriz de
momentos de X .

Propiedad 2. Si X tiene una distribución de Binomial con parámetros T y p , tal que


X = X 1 +  + X T , donde X i por si solas siguen un experimento de Bernuilli con
parámetro p , entonces se debe cumplir que:

2.i. E ( X ) = Tp
2.ii. var( X ) = Tp (1 − p)

Autor: Pablo Tapia G. Pagina 3


ESTADISTICA CAPITULO 1
Función de Distribución

2.iii. ψ (t ) = E (exp(tX )) = ( pe t + q) T

Demostración

Para efecto de desarrollo se demostraran las propiedades 2.i y 2.ii, mientras que la 2.iii
quedará propuesta para el lector.

En este caso corresponde a que el valor esperado de Binomial se describe como:

ΣTx = 0 ( Tx ) xp x (1 − p )T − x
E( X ) =

Donde omitimos el término correspondiente a x = 0 , que es cero, y descomponemos la


combinatoria en su factorial, y posteriormente factorizamos algunos términos

=
T
x 1=
T!
x !(T − x )!
x T −x T
E( X ) =
Σ(T −1)!
x 1 ( x −1)!(T − x )! xp (1 − p ) =
TpΣ p x −1 (1 − p )T − x (1.6)

Ahora si reemplazamos y= x − 1 y N= T − 1 , entonces la ecuación (1.6) se puede reducir


a:

) TpΣ Ny −+11 1 ((=


E( X = (( N +1) −1)!
y +1) −1)!(( N +1) − ( y +1))!
p ( y +1) −1 (1 − p )( N +1) − ( y +1)= Tp ⋅ Σ Ny N!
0 y !( N − y )! p y (1 − p ) N − y (1.7)

Sin embargo, la sumatoria del lado derecho de la ecuación (1.7) es igual a 1, por
definición de función de distribución de probabilidad, así que la expresión anterior se
reduce a:

E ( X ) = Tp

Para encontrar la expresión para la varianza, usaremos el hecho de que


E ( X=
2
) E ( X ( X − 1)) + E ( X ) , de esta manera tenemos que determinar primero el
término E ( X ( X − 1)) , ya que el segundo se encuentra en el párrafo anterior. Repetimos
para todo propósito los pasos antes usados y obtenemos así.

ΣTx = 0 ( Tx ) x( x − 1) p x (1 − p )T − x
E ( X ( X − 1)) =

T (T −1)⋅(T − 2)! T −x (T − 2)!


=
T
x 2= E ( X ( X − 1)) =
x ( x −1)⋅( x − 2)!(T − x )!
x
Σ 2 T
x 1 ( x − 2)!(T − x )! xp (1 − p ) =
T (T − 1) p Σ p x − 2 (1 − p )T − x

E ( X ( X − 1)) = T (T − 1) p 2=
ΣTx 2 ( )p
T −2
x−2
x−2
(1 − p )T − x

Y, al hacer y= x − 2 y T= N − 2 , esto se vuelve

E ( X ( X − 1)) = T (T − 1) p 2 Σ Ny = 0 ( Ny ) p y (1 − p ) N − y = T (T − 1) p 2

Autor: Pablo Tapia G. Pagina 4


ESTADISTICA CAPITULO 1
Función de Distribución

Entonces, tenemos que

E ( X 2 ) = T (T − 1) p 2 + Tp

Por lo tanto, la varianza corresponde a:

var( X ) =
E( X 2 ) − E 2 ( X ) =
T (T − 1) p 2 + Tp − T 2 p 2 =
−Tp 2 + Tp =
Tp (1 − p )

Con lo cual se demuestra la varianza para una distribución Binomial.

2.3. Distribución de Poisson

Definición 3. Sea X una variable aleatoria con una distribución discreta y supóngase
que el valor de X debe ser un entero no negativo. Se dice que X tiene una distribución
de Poisson con media λ (λ > 0) si la función de distribución de probabilidad de X es la
siguiente:

λ x e −λ
f (x / λ) = ∀x = 0,1,2,..., (1.8)
x!

Está claro que f ( x / λ ) es positiva para todos los valores de x . Para verificar que la
función f ( x / λ ) definida por la ecuación (1.8) satisface los requisitos de toda función de
distribución, se debe demostrar que Σ ∞x =0 f ( x / λ ) = 1 . Se sabe de cálculo que para todo
número real λ ,

λx λx
∑ ∑
∞ τ
eλ = = lim (1.9)
x =0 x! τ →∞ x =0 x!

Por tanto,

λx
∑ ∑
∞ ∞
eλ = f ( x / λ ) = e −λ = e −λ e λ = 1 (1.10)
x =0 x =0 x!

Media y Varianza. Se ha afirmado que la distribución cuya función de distribución de


probabilidades está dada por la ecuación (1.8) se denomina distribución de Poisson con
media λ . Para justificar esta definición, se debe demostrar que λ es, de hecho, la media
de esta distribución. La media E ( X ) está dada por la siguiente serie infinita:

e −λ λ x e −λ λ x e − λ λ x −1
∑ ∑ ∑ ∑
∞ ∞ ∞ ∞
E( X ) =
x =0
xf ( x / λ ) =
x =0
x =
x =1
x =λ
x =1 ( x − 1)!
=λ (1.11)
x! x!

Por lo tanto, de la ecuación (1.11) se concluye que E ( X ) = λ .

Autor: Pablo Tapia G. Pagina 5


ESTADISTICA CAPITULO 1
Función de Distribución

La varianza de la distribución de Poisson se puede determinar mediante una técnica


análoga a la que se acaba de describir. Se empezará por considerar la siguiente esperanza:

=
∞ ∞ e− λ λ x 2 ∞
E[ X ( X − 1)] =
x 0 =x 0= x!
e− λ λ x −2
Σ x( x − 1) f ( x / λ ) =
x 0 ( x − 2)! Σ x( x − 1) λ Σ
= λ2
= (1.12)

Por otro lado sabemos que

E[ X ( X − 1)] = E ( X 2 ) − E ( X ) = E ( X 2 ) − λ = λ 2

Entonces, se puede concluir que:

E ( X 2 ) = λ2 + λ (1.13)

De esta forma de la ecuación (1.10) y (1.13) se puede determinar que la varianza de esta
variable corresponde a:

var( X ) = E ( X 2 ) − [ E ( X )] 2 = λ (1.14)

Función Generatriz de momentos. Para la función de distribución Poisson se tiene


que la función generatriz de momentos corresponde a:

(λ e t ) x
∑ ∑
∞ ∞
ψ (t ) = E ( e tX ) = e tx f ( x / λ ) = e −λ = exp[λ (e t − 1)] (1.15)
x =0 x =0 x!

A modo de mejorar la compresión del comportamiento poblacional por medio de una


función de distribución de probabilidad, se presentan los siguientes ejemplos.

Ejemplo 1. Encuentre la probabilidad de sacar 5 caras y 7 cruces en 12 lanzamientos de


una moneda equilibrada.

Respuesta

Al sustituir x = 5 , T = 12 y p = 12 en la fórmula de la distribución Binomial, obtenemos


que la función de distribución de probabilidades en este caso es:

f ( x / p, T ) = ( )pT
x
x
(1 − p )T − x ≡ f (5 / 12 ,12) = ( )(
12
5 ) (1 − 12 )7
1 5
2

Pero:

( )=
12
5
12!
5!7!
= 8⋅9⋅10⋅11⋅12
1⋅ 2⋅3⋅ 4⋅5
= 8⋅9⋅11⋅12
1⋅3⋅ 4
= 8⋅9⋅11
1
= 8 ⋅ 9 ⋅11 = 792

Autor: Pablo Tapia G. Pagina 6


ESTADISTICA CAPITULO 1
Función de Distribución

Que reemplazando en la expresión anterior tenemos que:

792 396 198 99


= 792( 12 )5 (=
f (5 / 12 ,12) ) 792( 12=
1 7
2
)12 = = = ≈ 0.1933
212 211 210 512

El lector debe tener presente que el resultado puede quedar expresado como 99 sobre
512, más que 0.1933, de hecho para una decisión practica y básicamente se pudo
aproximar a 1 de cada 5 casos, con lo cual habría sido posible sacar conclusiones sin
perdida de generalidad.

Ejemplo 2. Encuentre la probabilidad de que siete de 10 personas se recuperarán de una


enfermedad tropical si podemos suponer que la recuperación son eventos independientes
y la probabilidad de que cualquiera de ellos se recuperará de la enfermedad es 0.80.

Respuesta

Al sustituir x = 7 , n = 10 y p = 0.8 en la fórmula para la distribución Binomial,


obtenemos.

f (7 / 0.8,10) = ( )(
10
7 ) ( ) =
4 7 1 3
5 5
10!
7!3!
( 54 )7 ( 15 )3 = 8⋅9⋅10
1⋅ 2⋅3
= 4 ⋅ 3 ⋅10 5410 ≈ 0.20
7

Entonces, podemos concluir que si lo eventos son independientes, entonces, la


recuperación de 7 personas de 10 es sólo del 20%.

Ejemplo 3. La distribución de Poisson ha resultado ser muy útil en problemas de líneas


de espera o colas. Los clientes llegan a una maquina fotocopiadora a una tasa media de
dos cada cinco minutos. En la práctica, se pueden representar los procesos de llegada de
esta clase mediante una distribución de Poisson. Asumiendo que éste es el caso,
representaremos por X el número de llegadas de clientes en un período de cinco
minutos, con lo cual X tiene distribución de Poción con media λ = 2 , y la función de
probabilidad

2 x e −2
Pr( X = x / λ = 2) = f ( x / λ = 2) = ∀x = 0,1, 2,...,
x!

Entonces, la probabilidad para el número de llegadas en un período de cinco minutos


son:

20 e −2
Pr( X= 0 / λ= 2)
= = 0,1353
0!

21 e −2
Pr( X= 1/ λ= 2)
= = 0, 2707
1!

Autor: Pablo Tapia G. Pagina 7


ESTADISTICA CAPITULO 1
Función de Distribución

22 e −2
Pr( X= 2 / λ= 2)
= = 0, 2707
2!

Y así sucesivamente. Por lo tanto, la probabilidad de que se produzcan más de dos


llegadas en un período de cinco minutos es:

Pr( X > 2 / λ= 2)= 1 − Σi2= 0 Pr( X= i / λ= 2)= 0,3233

Como hemos visto, la distribución de Poisson aparece de manera natural para


representar el número de ocurrencias de un suceso en un período de tiempo.

3. FUNCIONES DE DISTRIBUCIÓN DE VARIABLE CONTINUA

3.1. Distribución Uniforme.

Cunado la densidad de probabilidad se distribuye en forma constante, es decir, que cada


uno de los elementos contenidos en esta población tiene exactamente la misma
probabilidad de ocurrencia, se dice que la distribución es uniforme, es decir:

Definición 4. Una variable aleatoria tiene un distribución uniforme y se conoce como


una variable aleatoria uniforme continua si y sólo si su densidad de probabilidad está dada
por

1
f ( x / a, b) = ∀a< x<b (1.16)
b−a

Los parámetros a y b de esta densidad de probabilidad son constantes reales, con a < b .

Propiedad 4. Si X es una variable aleatoria que tiene una distribución de Uniforme


con parámetros a y b , respectivamente, entonces se debe cumplir que:

4.i. E ( X ) = 12 (a + b)
4.ii. var( X ) = 121 (b − a) 2

3.2. Distribución Exponencial.

Esta distribución resulta de gran utilidad para atacar problemas de listas de espera y
colas. Cuando el tiempo de servicio a un cliente es aleatorio, esta incertidumbre puede
representarse a menudo mediante una distribución exponencial. La distribución
exponencial difiere de la normal en dos características básicas: Se restringe a variables
aleatorias que pueden tomar valores positivos únicamente, y su función de densidad no
es simétrica alrededor de la media.

Autor: Pablo Tapia G. Pagina 8


ESTADISTICA CAPITULO 1
Función de Distribución

Definición 5. Si la variable aleatoria X no puede tomar valores negativos y tiene


función de densidad igual a

e −x β
f (x / β ) = ∀x≥0 (1.17)
β

Donde β es cualquier número positivo, entonces se dice que X sigue una distribución
exponencial

Propiedad 5. Si X tiene una distribución de exponencial con parámetro β , entonces


se debe cumplir que:

5.i. E ( X ) = β
5.ii. var( X ) = β 2
5.iii. ψ (t ) = E (exp(tX )) = (1 − βt ) −1

Aunque el lector debe tener presente que la función de distribución de probabilidades


exponencial puede presentarse también de la siguiente forma:

f ( x / α ) α e −α x
= ∀ x ≥ 0, α > 0

Esta forma, como podrá darse cuenta el leedor es igual a la de la exponencial, para ello
sólo deberíamos imponer que α = β −1 y recuperaríamos la misma función definida en la
ecuación (1.17). Sin embargo, en una buena parte de la literatura se utiliza esta ultima
expresión de la función exponencial y que en este caso la esperanza y varianza serían α −1
y α −2 , respectivamente.

Ejemplo 4. En una cierta localidad de la autopista 78, el número de autos que exceden
el límite de velocidad en más de 10 Kilómetros por hora en media hora es una variable
aleatoria que tiene una distribución de Poisson con λ = 8.4 . ¿Cuál es la probabilidad de
que el tiempo de espera entre autos que exceden el límite de velocidad en más de 10
Km/Hr sea menor a 5 minutos?

Respuesta

Al usar media hora como la unidad de tiempo, tenemos que lamba puede ser equivalente
a el inverso de beta. Por consiguiente, el tiempo de espera es una variable aleatoria que
tiene una distribución exponencial con β = 8.41 y, puesto que 5 minutos es 16 de la unidad
de tiempo, encontraremos que la probabilidad deseada es:

x2 1/ 6 1/ 6

∫Domf
f ( x / β )dx =∫ β −1e − x / β dx =∫
x1 0
8.4e −8.4 x dx =−e −8.4 x
0
=−e −1.4 + 1 =0.75

Autor: Pablo Tapia G. Pagina 9


ESTADISTICA CAPITULO 1
Función de Distribución

Ejemplo 5. Suponga que posee una muestra {X t }Tt=1 independiente e idénticamente


distribuidas de una población que posee distribución exponencial con parámetro β .
Determine el valor esperado y la varianza del promedio de esta muestra.

Respuesta

En este caso debemos recordar que la muestra al ser independientes, entonces cada una
de sus componentes son independientes, esto quiere decir que no existe covarianza entre
las observaciones que en este caso son la muestra de variables aleatorias. Por otro lado el
que sean idénticamente distribuidas quiere decir que cada una da la variables aleatorias
que constituyen la muestra tienen los mismos parámetros, que en este caso
correspondería a la esperanza y varianza, que en mucha de la literatura disponible es
interpretado como pertenecientes a la misma población, lo cual puede ser cierto sólo si
la población sobre la cual se extrajo la muestra es constante en forma transversal (entre
los individuos) y longitudinalmente (a través del tiempo).

Para efecto de nuestro problema supondremos que nuestra población es constante para
todos los efectos, es decir, que nuestro cálculo queda como:

−1 T
xi ) = T −1 E (ΣTi 1 xi )
T ) = E (T Σ i 1 =
E ( x=

Claramente los términos que no tienen comportamiento aleatoria no sufren cambio con
la función esperanza, lo que hace poder sacarlo de esta, sin embargo, no debemos olvidar
que la esperanza es un operador lineal, por lo tanto, el valor esperado de la suma de
variables aleatorias es la suma de los valores esperados por separado, es decir,

) T −1ΣTi =1 E ( xi )
E ( xT=

Pero, todos los x´s tienen el mismo valor esperado, recuerde que son idénticamente
distribuidos, por lo tanto, tenemos que:

E ( xT ) =T −1ΣTi =1 β =T −1T β =β

Ahora con respecto a la varianza tenemos algo un poco más complicado, ya que esta no
es lineal, sin embargo, puede tener un comportamiento parecido al lineal si las variables
sean independientes, para entender mejor este concepto, vamos a realizar el siguiente
procedimiento, recordemos que la varianza de la suma de dos variables aleatorias
corresponde a:

var( X + =
Y ) var( X ) + var(Y ) + 2 cov( X , Y )

Pero si las variables son independientes entonces su covarianza (grado de dependencia


lineal) debe ser igual a cero, por lo que la varianza de la suma se convierte en:

Autor: Pablo Tapia G. Pagina 10


ESTADISTICA CAPITULO 1
Función de Distribución

var( X + =
Y ) var( X ) + var(Y )

De esta forma podemos ver que cuando se suman variables independientes, entonces es
posible afirmar que es igual a la suma de las varianzas por separado. Entonces, para
nuestro problema tenemos

xT )= var(T −1ΣTi 1 =
var(= xi )= T −2 var(ΣTi 1 xi )

var(
= var( xi ) =T −2 ΣTi 1 β 2 =T −1 β 2
xT ) =T −2 ΣTi 1 =

3.3. Distribución Normal.

La distribución normal, que estudiaremos en esta sección, es de muchas maneras, la


piedra angular de la teoría estadística moderna. Se investigó por primera vez en el siglo
XIX cuando los científicos observaron un grado asombroso de regularidad en los errores
de medición. Encontramos que los patrones (distribuciones) que observaban se podrían
aproximar cercanamente por curvas continuas, a los que se referían como “curvas
normales de errores” y las atribuían a las leyes del azar. Abraham de Moivre (1667-
1745), Pierre Laplace (1749-1827) y Kart Gauss (1777-1855) estudiaron por primera
vez las propiedades matemáticas de estas curvas normales.

Ahora introduciremos una distribución continua que posee características especiales. De


manera que el lector pueda apreciar en forma intuitiva esta distribución, veremos un
ejemplo en el cual supondremos que un grupo de estudiantes rinde una examen. Se
espera que una gran parte de las notas obtenidas se concentran alrededor de la media.
Además se espera que el número de notas obtenidas en rangos de longitud fija irá
descendiendo al alejarnos de la media. Si la nota promedio en el examen ha sido de 4.5,
esperamos encontrar, por ejemplo, más estudiantes en el rango 4.0-5.0 que en el rango
6.0-7.0. Estas condiciones sugieren una distribución con una cima en la media y que va
descendiendo gradualmente en los extremos. Una distribución con estas propiedades es
la distribución normal, cuyo comportamiento se puede apreciar en la figura 1. Como
puede verse, la función de densidad tiene forma de campana.

Figura 1. Función de densidad de una distribución normal.

Definición 6. Una variable aleatoria X tiene una distribución normal y se conoce


como una variable aleatoria normal si y sólo si su densidad de probabilidad está dada por

Autor: Pablo Tapia G. Pagina 11


ESTADISTICA CAPITULO 1
Función de Distribución

µ ,σ 2 )
f ( x /= 1
2πσ 2
(
exp − 2σ1 2 ( x − µ ) 2 ) ∀ x ∈ IR (1.18)

Propiedad 6. Si X tiene una distribución de normal con parámetros µ y σ 2 ,


respectivamente, entonces se debe cumplir que:

6.i. E ( X ) = µ
6.ii. var( X ) = σ 2
6.iii. ψ (t ) = E (exp(tX )) = ( µt + 12 σ 2 t 2 ) ∀t ∈ IR

Queda propuesto para el lector demostrar estas propiedades.

De estas propiedades puede concluirse que dadas la media y la varianza de una variable
aleatoria normal, queda determinada la distribución específica dentro de la familia de
distribuciones normales. Esto permite el uso de la siguiente notación.

Si la variable aleatoria X sigue una distribución normal con media µ y


varianza σ 2 , escribiremos

X  N (µ ,σ 2 )

Ahora, la media proporciona una medida de posición central, mientras que la varianza da
una medida de dispersión alrededor de la media. Luego los valores que toman los
parámetros µ y σ 2 tienen diferentes efectos en la función de densidad de una variable
aleatoria normal. La figura 2 muestra la función de densidad de dos distribuciones
normales con varianza común pero diferentes medias. Puede verse, que incrementar la
media, dejando constante la varianza, traslada la función de densidad pero no altera su
forma. En la figura 3 las funciones de densidad representadas corresponden a variables
aleatorias normales con media común pero diferentes varianzas. Ambas son simétricas
alrededor de la media común, pero la que tiene mayor varianza es más dispersa.

Figura 2. Funciones de densidad de dos distribuciones normales


con medias µ0 < µ1 .

Autor: Pablo Tapia G. Pagina 12


ESTADISTICA CAPITULO 1
Función de Distribución

Figura 3. Funciones de densidad de dos distribuciones normales


con varianzas σ 12 < σ 02 ; ambas distribuciones tienen media µ .

Un problema importante en la práctica es determinar probabilidades de una distribución


normal específica. Como primer paso, introduciremos la función de distribución
acumulada.

Supongamos que X es una variable aleatoria normal con media µ y varianza σ 2 , es


decir, X  N ( µ , σ 2 ) . Entonces, la función de distribución acumulada F ( x0 ) es:

( )
x0
=
F ( x0 ) ∫−∞
1
2πσ 2
exp − 2σ1 2 ( x − µ ) 2 dx

Esto corresponde al área bajo la curva de la función de distribución de probabilidad a la


izquierda de x0 , como se ilustra en la figura 4. Como ocurre para cualquier densidad de
probabilidad, el área total por debajo de la curva es 1, es decir, F (∞) =1 .

Figura 4. El área sombreada es la probabilidad de que X sea


menor o igual que x0 para una variable aleatoria X  N ( µ , σ 2 ) .

No hay una expresión algebraica simple para calcular la función de distribución


acumulada de una variable aleatoria distribuida normalmente. Cualquier probabilidad
puede obtenerse a partir de la función de distribución acumulada. Sin embargo, sigue
habiendo una dificultad, porque no existe una fórmula conveniente para determinar la
función de distribución acumulada. En principio, podrían obtenerse las probabilidades de
cualquier distribución normal mediante métodos numéricos utilizando un computador.
No obstante, sería demasiado tedioso tener que hacer esta operación para cada
distribución normal. Afortunadamente, las probabilidades de cualquier distribución

Autor: Pablo Tapia G. Pagina 13


ESTADISTICA CAPITULO 1
Función de Distribución

normal pueden expresarse en términos de la probabilidad de una normal determinada,


para la cual ya se han calculado y tabulado las probabilidades. Se introduce a continuación
esta distribución normal particular que se utiliza con este fin.

Distribución Normal Estándar. La distribución normal con media 0 y varianza igual


a 1 se llama distribución normal tipificada o también distribución normal estándar. La
función de distribución tipificada usualmente se denota por el símbolo φ y la función
acumulada por el símbolo Φ . Entonces,

1  1 
φ=
( z / 0,1) exp  − z 2  ∀ z ∈ IR (1.19)
2π  2 

exp ( − 12 z 2 ) dz
z0 z0 1
=
Φ ( z0 ) ∫ −∞
φ ( z=
/ 0,1)dz ∫ −∞

(1.20)

Es habitual en la literatura referirse a una variable aleatoria con distribución de


probabilidades normal con la letra Z , esto con el simple objetivo de diferenciar más
fácilmente entre una variable aleatoria normal cualquiera de una estándar.

La función de distribución acumulada de una variable aleatoria normal estándar está


tabulada en el apéndice de este documento. En esta tabla se ven valores de
1
Φ ( z )= Pr( Z ≤ z )

Por ejemplo podemos notar que:

Φ (−0, =
74) Pr( Z ≤ −0.74)
= 0, 2296

Figura 5. Función de densidad de la variable aleatoria normal


estándar, donde las áreas achuradas son iguales.

Sin embargo, los valores positivos de esta misma probabilidad se podría obtener a partir
de la simetría del problema. Esto quiere decir que Pr( Z ≤ −0.74)
= Pr( Z ≥ 0.74) , que en
términos de la función acumulada normal estándar es:

1
Téngase presente que Pr( Z ≤ z )= Pr( Z < z ) , para efecto de variables continuas.

Autor: Pablo Tapia G. Pagina 14


ESTADISTICA CAPITULO 1
Función de Distribución

Φ (−0, 74) = 1 − Φ (0, 74)

Este último resultado se puede observar en forma intuitiva en la figura 5.

Ejemplo 6. Supongamos que Z es una variable aleatoria normal estándar, hallar


Pr(−0.5 < Z < 1.23) .

Respuesta

La probabilidad que se pide es:

Pr(−0.5 < Z < 1.23) = Pr( Z < 1.23) − Pr( Z < −0.5) = Φ (1.23) − Φ (−0.5)

Utilizando la tabla del apéndice, se obtiene que:

Pr(−0.5 < Z < 1.23)


= 0.8907 − 0.3085
= 0.5822

A continuación mostraremos cómo pueden expresarse probabilidades de cualquier


variable aleatoria normal en términos de probabilidades de la variable aleatoria normal
estándar.

Supongamos que la variable aleatoria discreta 2 X , tiene una probabilidad p de ser igual
a x0 , ( Pr(=
X x= 0) p ), por otro lado, tenemos dos escalares que son a y b (constantes
arbitrarias), entonces, analicemos lo siguiente:

Para una variable aleatoria Y= X + a , quisiéramos determinar la probabilidad definida


por Pr(Y= x0 + a) , la cual se puede ser representada como Pr( X + a = x0 + a) , pero esta
última probabilidad se puede interpretar equivalentemente como

Pr( X + a = x0 + a ) = Pr( X = x0 , a = a)

Esto es interpretado como la probabilidad de que X = x0 y de que a = a , pero las


constantes y la variables aleatoria son independientes entre si, por lo tanto, esta
probabilidad conjunta se puede reescribir de la siguiente forma

Pr( X + a = x0 + a ) = Pr( X = x0 ) Pr(a = a)

Pero Pr(a = a) es uno, ya que una constante nunca cambia de posición por lo que se
tiene certeza absoluta de su valor, por esta razón, al reemplazar los valores tenemos que:

2
Esto es simplemente para simplificar el cálculo, sin embargo, el lector podrá extender este ejercicio a
variables aleatorias continuas, cambiando solamente el signo de desigualdad.

Autor: Pablo Tapia G. Pagina 15


ESTADISTICA CAPITULO 1
Función de Distribución

Pr( X + a = x0 + a ) = p ⋅1 = p

Por lo tanto, podemos concluir que:

Pr( X = x0 ) = Pr( X + a = x0 + a ) (1.21)

Sin embargo, esta expresión puede ser fácilmente extensible a una variable aleatoria
continua, como:

Pr( X ⊕ x=
0) Pr( X + a ⊕ x0 + a ) (1.22)

Donde el símbolo ⊕ , representa cualquiera de las siguientes signos de desigualdad,


≤,≥, <, >.

Entonces, el lector podrá ahora fácilmente demostrar que

Pr( X ⊕ x0=
) Pr(bX ⊕ bx0 ) (1.23)

Siempre y cuando b sea un número constante y positivo estricto.

Ejemplo 7. Sea X una variable aleatoria normal con media µ y varianza σ 2 . Entonces,
si definimos la variable Z X , como:

X −µ
ZX =
σ

¿La probabilidad Pr( X ≤ x) , puede ser representada como la probabilidad de una variable
aleatoria normal estándar?

Respuesta

En este como ya nos podemos imaginar X y Z X , tiene un comportamiento de una


variable aleatoria normal, pero si utilizamos las ecuaciones (1.22) y (1.23), podemos
realizar las siguientes operaciones sin cambiar la probabilidad.

 X − µ x0 − µ   x0 − µ 
Pr( X ≤ x=
0) Pr  ≤ = Pr  Z X ≤ σ 
 σ σ   

Sabemos que Z X tiene comportamiento normal, pero todavía no podemos afirmar que
esta normalidad viene de una distribución estándar. Para determinar ello es necesario
determinar el valor esperado (media) y la varianza de esta variable aleatoria. Es decir,

E[σ −1 ( X −=
µ )] σ −1 E[ X −=
µ ] σ −1[ E ( X ) − E ( µ )]

Autor: Pablo Tapia G. Pagina 16


ESTADISTICA CAPITULO 1
Función de Distribución

Pero, si X es una variable aleatoria normal con media µ , entonces, E ( X ) = µ , y el


valor esperado de una constante es la misma constante, E ( µ ) = µ , por lo tanto, podemos
concluir que la media de Z X es cero.

Bueno, ahora veamos que pasa con la varianza de Z X .

var[σ −1 ( X =
− µ )] σ −2 var[ X=
− µ ] σ −2 [var( X ) − var( µ )]

Sin embargo, la varianza de X es σ 2 y la varianza de una constante es cero, ya que las


constantes no tienen volatilidad, esto nos lleva a que la varianza de Z X es uno.

De esta forma es fácil darse cuenta que la transformación al pasar de X a Z X , es


simplemente modificar el comportamiento normal cualquiera de X a una normal
estándar. Este proceso de conoce como estandarización o tipificación de variables
aleatorias normal, donde la base teórica se conoce con el nombre de Teorema Central
del Límite (este un caso particular de este teorema).

Ejemplo 8. El rendimiento promedio de la PSU 3 2005 fue de 395 ptos. y una desviación
estándar de 168 ptos. Se le solicita que determine el número aproximado de alumnos
que superaron los 670 ptos, si el número total de quienes la rindieron fue de 120.000,
además puede suponer que esta población sigue un comportamiento normal.

Respuesta

El lector debe tener presente que es muy frecuente encontrarse con problemas que
suponen normalidad, que como ejercicio matemático es una buena forma de simplificar
la resolución del problema, sin embargo, no es tan simple darse este supuesto en
problemas cotidianos, de hecho hacerlo sin la más mínima fundamentación teórica, es
una exageración que resta confiabilidad a los resultados y por ende a las conclusiones.

Bajo el supuesto de comportamiento normal y de que la probabilidad representa una


frecuencia relativa, tenemos que la fracciones de alumnos que supera los 670 ptos. se
representa con la siguiente probabilidad, Pr( X > 670) , donde X corresponden a los
puntos obtenidos por cualquier alumno dentro de los que rindieron la prueba.

Entonces, como calcular esta probabilidad con una integral es prácticamente imposible,
entonces, utilizaremos las ecuaciones (1.22) y (1.23), para determinar el valor de esta
probabilidad, es decir,

Pr( X > 670) = Pr( X168


− 395
> 670 − 395
168
) = Pr( Z X > 670 − 395
168
) = Pr( Z X > 1.64)

3
PSU, Prueba de Selección Universitaria, la cual se aplica en Chile desde el 2003 y rinden todos los
alumnos que hallan cursado su enseñanza media.

Autor: Pablo Tapia G. Pagina 17


ESTADISTICA CAPITULO 1
Función de Distribución

Pero, si deseamos utilizar la tabla normal estándar que se encuentra en el apéndice, es


necesario modificar el signo de desigualdad, es decir,

Pr( Z X > 1.64) =


1 − Pr( Z X ≤ 1.64)

Que de la tabla, obtenemos que:

Pr( Z X > 1.64) =


1 − 0.9495 =
0.0505
De esta forma podemos concluir que aproximadamente el 5% de los alumnos que
rindieron la PSU, superaron los 670 ptos., es decir, unos 6.000 alumnos.

Ahora si quisiéramos discutir este resultado, podríamos hacer énfasis en el hecho de que
no todos los alumnos rindieron la PSU, por lo tanto, existe un porcentaje de individuos
que no participaron en el proceso, quienes posiblemente podrían haber modificado este
resultado, no siendo un 5%, sin que una cifra posiblemente menor.

3.4. Distribución Normal Bivariada.

Supóngase que Z 1 y Z 2 son variables aleatorias independientes cada una de las cuales
tiene una distribución normal tipificada. Entonces la función de distribución de
probabilidad conjunta g ( z1 , z2 ) de Z 1 y Z 2 para cualquiera valores de z1 y z2 está dada
por la ecuación

g ( z1 , z 2 ) = 1

(
exp − 12 ( z12 + z 22 ) ) (1.24)

Para cualesquiera constantes µ1 , µ 2 , σ 1 , σ 2 y ρ tales que −∞ < µ i < ∞ , σ i > 0


∀i = 1,2 y −1 < ρ < 1 , se define ahora dos nuevas variables aleatorias X 1 y X 2 como
sigue:

X 1 = σ 1 Z 1 + µ1
(1.25)
X 2 = σ 1 [ ρZ 1 + (1 − ρ 2 ) −1 2 Z 2 ] + µ 2

Se deducirá ahora la función de distribución de probabilidad conjunta f ( x1 , x 2 ) X 1 y


X2.

La transformación de Z 1 y Z 2 a X 1 y X 2 es una transformación lineal y se verificará


que el determinante ∆ de la matriz de coeficientes de Z 1 y Z 2 tiene el valor
∆ = (1 − ρ 2 )1 2 σ 1σ 2 . Por tanto, el jacobiano J de la transformación inversa de X 1 y X 2
a Z 1 y Z 2 es

J = ∆−1 = [(1 − ρ 2 )1 2 σ 1σ 2 ] −1 (1.26)

Autor: Pablo Tapia G. Pagina 18


ESTADISTICA CAPITULO 1
Función de Distribución

Puesto que J > 0 , el valor de J es igual al valor de J . Si se resuelven las relaciones


(1.25) para Z 1 y Z 2 , en función de X 1 y X 2 , entonces la función de distribución de
probabilidad conjunta f ( x1 , x 2 ) se puede obtener reemplazando z1 y z 2 en la ecuación
(1.24) por sus expresiones en función de x1 y x 2 y multiplicando luego por J . Se
puede demostrar que el resultado para x1 y x 2 es:

  x − µ  2
1  1
 1
f ( x1 , x 2 ) = exp  − 1

2  σ
2π (1 − ρ ) σ 1σ 2
2 12
 2(1 − ρ )  1 
 x − µ1  x 2 − µ 2 ) 
− 2 ρ  1   (1.27)
 σ 1  σ 2 
2 
 x − µ2 ) 
+  2   
 σ2  


Cuando la función de distribución conjunta de dos variables aleatorias X 1 y X 2 es de la


forma de la ecuación (1.27) se dice que X 1 y X 2 tienen una distribución normal
bivariante. Las medias y las varianzas de la distribución normal bivariante especificada
por la ecuación (1.27) se pueden deducir fácilmente de las definiciones de la ecuación
(1.25). Puesto que Z 1 y Z 2 son independientes y cada una tiene media 0 y varianza 1,
resulta que

E( X i ) = µ i var( X i ) = σ i2 ∀i = 1,2
cov( X 1 , X 2 )
cov( X 1 , X 2 ) = ρσ 1σ 2 ρ(X1, X 2 ) =
σ 1σ 2

Ha resultado conveniente introducir la distribución normal bivariante como la


distribución conjunta de ciertas combinaciones lineales de variables aleatorias
independientes que tienen distribución normal tipificada. Debe subrayarse, sin embargo,
que la distribución normal bivariante aparece directa y naturalmente en muchos
problemas prácticos. Por ejemplo, para muchas poblaciones, la distribución conjunta de
dos características físicas como las estaturas y pesos de los individuos de una población
será aproximadamente una distribución normal bivariante. Para otras poblaciones, la
distribución conjunta de las calificaciones de los individuos de la población en dos
pruebas relacionadas será aproximadamente una distribución normal bivariante.

Autor: Pablo Tapia G. Pagina 19


ESTADISTICA CAPITULO 1
Función de Distribución

1.3.5. Distribución Gamma.

Algunas de las variables aleatorias que veremos siguen una distribución de la forma:

f ( x / α , β ) = kx α −1 e − x β x ∈ IR + + (1.28)

Donde α > 0 , β > 0 y k debe ser tal que el área total bajo la curva sea igual a 1. Para
evaluar k , primero hacemos la substitución y = x β , lo cual nos da

∞ ∞
∫ 0
kx α −1 e − x β dx = kβ α ∫ 0
y α −1 e − y dy (1.29)


Γ(α ) = ∫ 0
y α −1 e − y dy ∀α > 0 (1.30)

Que se trata en detalle en muchos de los textos de cálculo avanzado. Al integrar por
parte y asumiendo que α es un parámetro, encontramos que la función gamma satisface
la fórmula recursiva.

Γ(α=
) (α − 1) ⋅ Γ(α − 1) (1.31)

Para α > 1 , y puesto que


Γ(1) = ∫ 0
e − y dy = 1

Se sigue por la aplicación repetida de la fórmula recursiva que Γ(α ) = (α − 1)! donde α
es un entero positivo. También, un valor especial importante es Γ( 12 ) = π .

Regresamos ahora al problema de evaluar k , igualamos la integral obtenida a 1, y


obtenemos


∫ 0
kx α −1 e − x β dx = kβ α Γ(α ) = 1

Y por tanto

1
k= (1.32)
β α Γ(α )

Esto nos lleva a al siguiente definición de la distribución gamma.

Autor: Pablo Tapia G. Pagina 20


ESTADISTICA CAPITULO 1
Función de Distribución

Definición 7. Una variable aleatoria X tiene una distribución gamma y se conoce


como una variable aleatoria gamma si y sólo si su densidad de probabilidad está dada por

1
f (x / α , β ) = α
x α −1 e − x β x ∈ IR + + (1.33)
β Γ(α )

Propiedad 7. Si X tiene una distribución gamma con parámetros α y β ,


respectivamente, entonces se debe cumplir que:

7.i. E ( X ) = αβ
7.ii. var( X ) = αβ 2
7.iii. ψ (t ) = E (exp(tX )) = (1 − β t ) −α ∀ t < β −1

3.6. Distribución Beta.

La densidad uniforme f ( x) = 1 para 0 < x < 1 y f ( x) = 0 en cualquier otra parte es un


caso especial de la distribución beta, la cual se define de la siguiente manera.

Definición 8. Una variable aleatoria X tiene una distribución beta y se conoce como
una variable aleatoria Beta si y sólo si su densidad de probabilidad está dada por

Γ(α + β ) α −1
f (x / α , β ) = x (1 − x) β −1 ∀α > 0, β > 0 (1.34)
Γ(α )Γ( β )

Donde α > 0 y β > 0 .

En años recientes, la distribución beta ha encontrado aplicaciones importantes en la


inferencia bayesiana, donde los parámetros se consideran como variables aleatorias, y hay
necesidad de una densidad de probabilidad bastante “flexible” para el parámetro θ de la
distribución binomial, el cual sólo toma valores distintos a cero en el intervalo desde 0
hasta 1. Con “flexible” queremos decir que la densidad de probabilidad puede tomar una
gran variedad de formas diferentes.

No demostraremos aquí que el área total bajo la curva de la distribución beta, como la de
cualquier densidad de probabilidad, es igual a 1, pero en la demostración del teorema
que sigue, nos valdremos del hecho que

1 Γ(α + β ) α −1
∫ 0 Γ (α )Γ ( β )
x (1 − x) β −1 dx = 1 (1.35)

Y por tanto que

Autor: Pablo Tapia G. Pagina 21


ESTADISTICA CAPITULO 1
Función de Distribución

1 Γ(α + β )
∫ 0
x α −1 (1 − x) β −1 dx =
Γ(α )Γ( β )
= B(α , β ) (1.36)

Esta integral define la función beta, cuyos valores se denotan por B(α , β ) . En cualquier
libro de texto avanzado se puede encontrar un análisis detallado de función beta.

Propiedad 8. Si X tiene una distribución Beta con parámetros α y β,


respectivamente, entonces se debe cumplir que:

α
8.i. E ( X ) =
α +β
αβ
8.ii. var( X ) =
(α + β ) (α + β + 1)
2

Autor: Pablo Tapia G. Pagina 22


ESTADISTICA CAPITULO 1
Función de Distribución

4. DISTRIBUCIONES CONDICIONADAS (CASO BIVARIANTE)

Considerar y utilizar distribuiciones condicionales juega un papel fundamental en la


modelización para un proceso de toma de decisiones. Vamos a considerar algunos
resultados generales para una distribución bivariante.

En una distribución bivarainte, hay una distribución condicional sobre y para cada valor
de x. Las densidades condicionales son

f ( x, y ) f ( x, y ) f ( x, y ) f ( x, y )
f ( y | x) = = y f ( x | y) = = (1.37)
∫y f ( x, y )dy f x ( x)
∫x f ( x, y )dx f y ( y)

De la ecuación (1.37) se deduce que, si x e y son independientes, entonces se cumple


que f ( y | x) = f y ( y ) y f ( x | y ) = f x ( x) .

La interpretación es que si las variables son independientes, las probabilidades de los


sucesos relacionados con una variable no están relacionadas con la otra. La definición de
densidades condicionales tiene como implicancia el siguiente resultado importante:

f ( x, y ) = f ( y | x ) f x ( x ) = f ( x | y ) f y ( y ) (1.38)

4.1. Media Condicional.

Una media condicional es la media de la distribución condicional y se define por:

 yf ( y | x)dy si y es continua

E (Y | x) =  y ∫ (1.39)
 Σ y yf ( y | x) si y es discreta

A la función de media condicional E[Y | x] se le denomina regresión de Y sobre x . Por


ello una variable aleatoria Y siempre se puede escribir como:

Y = E[Y | x] + (Y − E[Y | x]) = E[Y | x] + ε

Donde ε contiene el efecto estocástico de la variable.

4.2. Varianza Condicional.

La varianza condicional es la varianza de la distribución condicional:

V [Y | x] = E[(Y − E[Y | x]) 2 | x] = E[Y 2 | x] − ( E[Y | x]) 2 (1.40)

Autor: Pablo Tapia G. Pagina 23


ESTADISTICA CAPITULO 1
Función de Distribución

A la varianza condicional se la denomina función cedástica y, como la regresión, es


generalmente, una función de x . Sin embargo, a diferencia de la función de la media
condicional, lo habitual es que la varianza condicional no varíe con x . Esto no implica,
sin embargo, que V [Y | x] sea igual a V (Y ) , que, en general, no será el caso. Implica,
solamente, que la varianza condicional es una constante. El caso en que la varianza
condicional no varía con x se denomina homocedasticidad (varianza igual, o
constante).

4.3. Relación entre Momentos Condicionales y Marginales.

En los siguientes teoremas se presentan algunos resultados útiles sobre los momentos de
una distribución condicional:

Teorema 1. Ley de las esperanzas iteradas.

Este concepto consiste en calcular el promedio general como el promedio de los


promedios parciales, es decir,

E[Y ] = Ex[ E[Y | x]] (1.41)

Donde la notación Ex [⋅] indica la esperanza sobre los valores de x .

Teorema 2. Los momentos de una combinación lineal de variables.

Si E[Y | X ] = a + bX , donde ahora X podría se una variable aleatoria, entonces

cov( X , Y )
a = E[Y ] − bE[ x] y b= (1.42)
V[X ]

Cuya demostración queda propuesta para al lector.

Teorema 3. Descomposición de la varianza.

En una distribución conjunta

V [Y ] = Vx ( E[Y | x]) + E x [V (Y | x)] (1.43)

La notación V x [⋅] indica la varianza sobre la distribución de x . Esto indica que en una
distribución bivariante, la varianza de Y se descompone en la varianza de la función
media condicional (intervarianza) más la varianza esperada alrededor de la media
condicional (intravarianza).

Autor: Pablo Tapia G. Pagina 24


ESTADISTICA CAPITULO 1
Función de Distribución

Teorema 4. Varianza residual de una regresión.

En cualquier distribución bivariante,

E x [V (Y | x)] = V [Y ] − Vx ( E[Y | x]) (1.44)

En promedio, condicionar reduce la varianza de la variable sujeta al condicionamiento.


Por ejemplo, si Y es homocedástica, se cumple siempre que la varianza de la(s)
distribución(es) condicional(es) es menor o igual a la varianza marginal de Y .

Teorema 5. Regresión lineal y homocedasticidad.

En una distribución bivariante, si E[Y | x] = a + bx y si V [Y | x] es una constante, entonces

V [Y | X ] = V [Y ](1 − Corr 2 [Y , X ]) = σ 2y (1 − ρ xy
2
)

La prueba se obtiene directamente utilizando los teoremas 2 y 4.

Ejemplo 9. En su estudio 1984, Hausman et al. (1984) sugiere que la distribución


POISSON es un modelo razonable para la distribución del número de patentes ( P )
concedidas a las empresas en un determinado año:

λ P e −λ
f (P | λ ) = , P = 0,1,2,...
P!

Sin embargo, se sabe que cuanto más se invierte ( R ) en investigación y desarrollo


(I&D), mayor es, en promedio, el número de patentes recibidas. Esta interacción
debería afectar a la distribución de P . Cómo se distribuye R entre las empresas es una
cuestión colateral, que puede ser o no de interés. Pero en lo que estamos interesados es
en cómo interactuan R y el número medio de patentes. Como el valor medio de las
patentes recibidas es lambda, supongamos que la distribución previa de P es condicional
en R y especificamos que:

λ = a + bR = E[ P | R]

Esperariamos que b fuese positiva. Por tanto,

(a + bR) P e −( a +bR )
f ( P | R) = , P = 0,1,2,...
P!

Que capta el efecto que buscábamos. Observar un gran número de patentes puede
reflejar un valor alto del proceso POISSON, o bien puede que se derive de un valor
inusualmente alto de R .

Autor: Pablo Tapia G. Pagina 25


ESTADISTICA CAPITULO 1
Función de Distribución

La distribución POISSON ilustra una trampa que a veces se da en la especificación de un


modelo econométrico. En una distribución POISSON, la media es igual a la varianza. No
hemos descartado la posibilidad de que a + bR pueda ser negativo para algunos valores de
a y b . No sólo es éste un parámetro en cualquier caso inválido para la distribución de
POISSON, sino que además, permite una varianza negativa. Esto es un error común de
especificación.

Ahora supongamos que R es una fracción constante del tamaño de la empresa, y que
esta variable sigue una distribución lognormal. Así, R también seguirá una distribución
lognormal 4. Supongamos que µ = 0 y σ = 1 . Entonces

E[ R] = e = 1,65 y V [ R] = 4,65

Supongamos también que a = 1 y b = 2 . Entonces.

E[ P | R ] = 1 + 2 R

E[ P] = ER [ E[ P | R]] = ER [1 + 2 R] = 1 + 2 ER [ R ] = 4,30

VR [ E[ P | R]] = VR [1 + 2 R] = 4VR [ R] = 18,6

V [ P | R] = λ = 1 + 2 R

ER [V [ P | R]] = ER [1 + 2 R] = 1 + 2 ER [ R] = 4,30

De esta manera se puede concluir que

V [ P] = VR [ E[ P | R ]] + ER [V [ P | R ]] = 18,6 + 4,30 = 22,9

Nótese que V [P] es apreciablemente mayor que E[V [ P | R]] .

4
Cuando se modelan distribuciones de tamaño, tales como la distribución del tamaño de las
empresas en una industria o la distribución de la renta en un país, la distribución lognormal
(LN), que representamos por LN [ µ , σ 2 ] es especialmente útil.

f (x | µ,σ 2 ) =
1
2π σx
(
exp − 12 [(ln x − µ ) / σ ] 2 )
µ + 12 σ 2
y V [ X ] = e2 µ +σ (eσ − 1) la relación en las
2 2
Una variable lognormal X tiene E[ X ] = e
distribuciones normal y lognormal es que si Y ~ LN [ µ , σ 2 ] , entonces ln(Y ) ~ N [ µ , σ 2 ] , por lo
tanto se puede concluir que Y r ~ LN [rµ , r 2σ 2 ] .

Autor: Pablo Tapia G. Pagina 26


ESTADISTICA CAPITULO 1
Función de Distribución

4.4. El Análisis de la Varianza.

El resultado de descomposición de la varianza implica que en una distribución bivariante,


la variación de Y surge por dos motivos:

1. Variación porque E[Y | x] varía con x :

Intervarianza = Varianza de regresión = V x ( E[Y | x])

2. Variación porque, en cada distribución condicional, Y varía alrededor de la


media condicional.

Intravarianza = Varianza residual = E x (V [Y | x])

Por tanto,

V [Y ] = Varianza de regresión + Varianza residual

Cuando analicemos una regresión, habitualmente estaremos interesados en cuál de las


dos partes de la varianza total, V [Y ] , es mayor. Por ejemplo, en la relación patentes-
I&D, ¿cuál explica más la varianza del número de patentes recibidas? ¿variaciones en la
cantidad de I&D (varianza de regresión) o la variación aleatoria en las patentes recibidas
dentro de la distribución POISSON (varianza residual)? Una medida natural es el
coeficiente

Varianza de Regrersión
Coeficiente de Determinación = CoD =
Varianza Total

Ejemplo 10. Análisis de la varianza en un modelo de POISSON. Utilizando el ejemplo


anterior tenemos que.

18,6
CoD = = 0,812
22,9

Esto nos indica que aproximadamente el 81% de la varianza es explicada por la varianza
de la regresión.

En el contexto de una regresión lineal, el coeficiente de determinación surge de otra


relación que subraya la interpretación del coeficiente de correlación.

Si E[Y | x] = a + bx , entonces el coeficiente de determinación CoD = ρ 2 , donde ρ 2 es la


correlación al cuadrado entre x e Y . Podemos concluir que el coeficiente de

Autor: Pablo Tapia G. Pagina 27


ESTADISTICA CAPITULO 1
Función de Distribución

correlación (al cuadrado), es una medida de la proporción de la varianza de Y que se


explica por la variación de la media de Y , dado x . En este sentido la correlación puede
ser interpretada como una medida de asociación lineal entre dos variables.

5. TEORÍA DE CONVERGENCIA EN PROBABILIDADES.

5.1. La Ley Débil de los Grandes Números.

Al discutir convergencia en probabilidad fue demostrado que cuando el tamaño de la


muestra llega a ser grande, la media muestral se acerca a la media poblacional. Esto se
conoce como la ley débil de los grandes números (WLLN, del ingles Weak Law of Large
Numbers) , lo cual se sostiene bajo una variedad de supuestos.

Teorema 6. Kinchin

Sea { X T , T ≥ 1} una sucesión de variables aleatoria independiente e idénticamente distribuidas


(IID) con media finita µ , y sea X= T T −1ΣTi =1 X i , entonces

lim Pr[ X T − µ > ε ] =


T →∞
0 (1.45)

O equivalentemente

lim Pr[ X T − µ ≤ ε ] =
T →∞
1 (1.46)

En otras palabras, plim X T =µ .

Teorema 7. Chebyshev

Sea { X T } una sucesión de variables aleatoria independientes con media finita µT , y


varianza σ T2 , y sea µ=
T T −1ΣTi =1 µi . Si las varianzas son igualmente acotadas, esto es,
p
σ T2 < c < ∞ , entonces ( X T − µT ) → 0 .

Demostración

Se sabe que var( X T ) =T −2 ΣTi =1σ i2 ≤ T −1c . Por la desigualdad de Chebyshev 5,

5
La desigualdad de Chebyshev. Si xT es una variable aleatoria y cT y ε son constantes, entonces
Pr( xT − cT ≥ ε ) ≤ ε −2 E[( xT − cT ) 2 ]

Autor: Pablo Tapia G. Pagina 28


ESTADISTICA CAPITULO 1
Función de Distribución

var( X T ) c
Pr[ X T − µT ≥ ε ] ≤ ≤ (1.47)
ε2 Tε 2

En este caso tenemos que cuando T tiende a infinito el lado derecho de la ecuación
(1.47) converge a cero y como la probabilidad no puede ser negativa, entonces se
demuestra que el término descrito converge el cero.

Teorema 8. Markov´s

Sea { X T } una sucesión de variables aleatoria con media finita µT , y sea X=


T T −1ΣTi =1 X i y
p
6
µ=
T T −1ΣTi =1 µi . Si las var( X T ) → 0 cuando T → ∞ , entonces ( X T − µT ) → 0 .

Teorema 9. Kolmogorov´s

Sea X=
T T −1ΣTi =1 X i y µ=
T T −1ΣTi =1 µi , y además se define Z=
T X T − µT . Una condición
p
necesaria y suficiente para que se cumpla WLLN, debe ocurrir que ZT → 0 y que
0.
lim E[ ZT2 /(1 + ZT2 )] =
T →∞

5.2. La Ley Fuerte de los Grandes Números

La WLLN indicó que bajo ciertas condiciones la media muestral converge en


probabilidad a la media poblacional. Sin embargo, podemos en efecto hacer una
derivación más fuerte, la cual se puede indica como que la media muestral converge
almost surely a la media poblacional. Esto se conoce como la ley fuerte de los grandes
números (SLLN que en ingles quiere decir Strong Law of Large Numbers), las bases de
estos resultados que se presentan a continuación los cuales se apoyan en la dependencia
de las observaciones, su heterocedasticidad y momentos.

Teorema 10.

a.s.
Si las X t ´s son IID y E ( X t ) = µ , entonces ( X T − µ ) → 0 .

6
Para la demostración se puede utilizar la desigualdad de Markov. Sea y T una variable
aleatoria que toma valores no negativos y κ una constante positiva, entonces,
Pr( y T ≥ κ ) ≤ κ −1 E ( y T )

Autor: Pablo Tapia G. Pagina 29


ESTADISTICA CAPITULO 1
Función de Distribución

Teorema 11.

Si las X t ´s son independientes ( E ( X t ) = µt ) con varianza finita ( var( X t ) = σ t2 ), y si


a.s.
ΣT∞=1[ T12 var( X T )] < ∞ , entonces ( X T − µT ) → 0 .

Teorema 12.

a.s.
Si las X t ´s son IID, entonces una condición necesaria y suficiente para ( X T − µT ) → 0 es
que E X i − µi < ∞ para todo i .

5.3. Teorema Central del Límite.

Quizás el teorema más importante de la teoría de las grandes muestras es el teorema


central del límite, el cual indica que, bajo condiciones absolutamente generales (e
intuitivamente razonable), la media de sucesiones de variables aleatorias (tales como la
media muestral), converge a una distribución normal aunque la distribución original no
lo sea. Así aunque no supiéramos cual es la distribución estadística de la población a la
cual pertenece la muestra, si se cuenta con una muestra lo suficientemente grande
podremos aproximar bastante bien la distribución muestral por una distribución normal.
En los casos que se cumple este teorema se simplifica enormemente la inferencia
estadística.

Teorema 13. Convergencia en Distribución

Suponga que X T ( n ≥ 1 ) es una sucesión de variables aleatorias con f.d.a FT ( x) , y


d
XT → X con una f.d.a. FX ( x) , entonces para cualquier función continua g (⋅) ,

∞ ∞
lim ∫ g ( x)dFT ( x) = ∫ g ( x)dF ( x) (1.48)
T →∞ −∞ −∞

En el caso de una variable aleatoria continua, se tiene que:

∞ ∞
lim ∫ g ( x) fT ( x)dx = ∫ g ( x) f ( x)dx (1.49)
T →∞ −∞ −∞

Teorema 14. (TLC)

Sea X 1 , X 2 ,..., X T una sucesión de variables aleatorias, ST corresponde a la suma de la


serie ( ΣTi=1 X i ) y X T es la media de la serie ST / T . La media estandarizada se define como

X T − E ( X T ) ST − E ( ST )
=ZT = (1.50)
var( X T ) var( ST )

Autor: Pablo Tapia G. Pagina 30


ESTADISTICA CAPITULO 1
Función de Distribución

d
Donde se ha definido que ZT → N (0,1) .

Algunos de los TLC más conocidos corresponden a:

Teorema de Moivre´s: La sucesión de observaciones son independientes de variables de


Bernoulli (Este es el primer caso históricamente establecido).

Este caso es utilizado frecuentemente en la literatura aplicada, claro, no siempre


bajo las condiciones que comprenden este tipo de procedimientos. Para que
podamos ver con más detalle este comentario, supongamos que contamos con una
muestra de variables aleatoria de Bernoulli independientes e idénticamente
distribuidas, es decir, que cada una de las observaciones posee el mismo valor
esperado p y varianza p(1 − p) , donde p representa la probabilidad de que la
variable aleatoria sea igual a 1. Por lo tanto, el promedio de esta muestra tiene
distribución Binomial 7, con valor esperado y varianza igual a:

E( XT ) = p =
var( X T ) T −1 p (1 − p )

Ahora utilizando el teorema de Chebyshev tenemos que:

var( X T ) p (1 − p )
Pr( X T − p > ε ) ≤ = 2
ε 2
ε T

Por lo tanto, si aplicamos el límite de T tendiendo a infinito, nos queda que:

p (1 − p )
lim Pr( X T − p > ε ) ≤ lim =
0
T →∞ T →∞ ε 2T

Pero, como la probabilidad no puede ser negativa, entonces se puede concluir


que:

lim Pr( X T − p > ε ) =


0
T →∞

Entonces, el promedio de la muestra converge en probabilidad a p , así que por la


ley débil de los grades números converge en distribución a una normal, es decir,

XT − p T ( X T − p) d
= → N (0,1)
var( X T ) p (1 − p )

7
Se debe notar que en el promedio de variables aleatoria Bernoulli se pierde el orden en que salieron los
ceros y unos, por lo tanto, la distribución de este promedio es la distribución conjunta de variables
aleatorias Bernoulli sin orden, que corresponde a la descripción de la distribución de una Binomial.

Autor: Pablo Tapia G. Pagina 31


ESTADISTICA CAPITULO 1
Función de Distribución

Sin embargo, el lector debe notar que esto se cumplirá siempre y cuando el
número de observaciones sea sustancialmente grande, es decir que con 30 ó 50
observaciones posiblemente no pudríamos concluir lo mismo.

Teorema de Lindberg-Levy: La sucesión utilizada son IID con varianza finita.

Teorema Liapounov: Las X ´s son independientes con E ( X i ) = µi , var( X i ) = σ i2 ,


2 +δ
E[ X i − µi = ] ρi < ∞ ( δ > 0 ), y

(ΣTi=1 ρi ) 2
lim =0
T →∞ (ΣT σ 2 ) 2 + δ
i =1 i

Teorema Lindberg-Feller: Las X ´s son independientes con E ( X i ) = µi , var( X i ) = σ i2 ,


sT2 = ΣTi =1σ i2 , ST = ΣTi =1 X i , y para ε > 0

∑  ∫ ( x − µi ) 2 dFi ( x)  =
1 T
lim 0
T →∞ sT2 i =1 x − µi > ε ST 

Teorema 15.

Distribución límite normal de una función. Si T ( z T − µ ) →


D
N [0, σ 2 ] y si g ( z T ) es
una función continua que no dependen de T , entonces

T [ g ( z T ) − g ( µ )] →
D
N [0, ( g ′( µ )) 2 σ 2 ] (1.43)

Nótese que la media y la varianza de la distribución límite, son la media y la varianza de


la aproximación lineal:

g ( z T ) ≅ g ( µ ) + g ′( µ )( z T − µ ) (1.44)

Estos resultados sugieren que los momentos de la distribución límite son los límites
ordinarios de los momentos de la distribución de la muestra finita. Esto es casi siempre
cierto, pero no necesariamente tiene por que ser así. Es posible construir ejemplos en los
que los momentos para muestras finitas ni siquiera existen, mientras que los momentos
de la distribución límite están bien definidos. Incluso en esos casos, generalmente es
posible encontrar la media y la varianza de la distribución límite.

Las distribuciones límite, así como los límites en probabilidades, pueden simplificar de
manera importante el análisis de algún problema concreto. Algunos resultados en los que
se combinan ambos tipos de convergencia se presentan a continuación.

Autor: Pablo Tapia G. Pagina 32


ESTADISTICA CAPITULO 1
Función de Distribución

APÉNDICE: TABLA

I. DISTRIBUCIÓN NORMAL ESTANDAR.

z0 1 1 
Forma funcional: Pr( Z ≤ z0 ) = ∫
Φ ( z0 ) =
−∞

exp  s 2  ds
2 
Forma gráfica:

Gráfico I. Representación de la probabilidad en una distribución normal estándar

Tabla 1. Función de Distribución Acumulada de la Distribución Normal Estándar.

0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
-3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
-3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002
-3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003
-3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005
-3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007
-3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010
-2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036
-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
-1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867

Autor: Pablo Tapia G. Pagina 33


ESTADISTICA CAPITULO 1
Función de Distribución

0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
-0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998

Autor: Pablo Tapia G. Pagina 34


ESTADISTICA CAPITULO 1
Función de Distribución

APÉNDICE: USO

II. USO DE TABLA NORMAL PARA CÁLCULO DE PROBABILIDAD Y


TEOREMA CENTRAL DEL LÍMITE

2.1. Simetría de la Normal

Suponga una distribución normal estándar, la cual representaremos por medio de la


siguiente figura.

Figura a. Representación del rango que el 90% más probable.

Además intentaremos determinar el valor de zo o el rango de valores que tiene un 90%


de probabilidades sobre el total de valores, para ello recordaremos lo siguiente.

z
Pr( Z ≤ z ) =
Φ( z ) =∫ φ (s)ds −∞

Y que

z2 z2 z2
Pr( z1 ≤ Z ≤ z2=
) ∫ z1
φ ( s )ds= ∫−∞
φ ( s )ds − ∫ φ ( s )ds= Pr( Z ≤ z2 ) − Pr( Z ≤ z1 )
−∞

Por lo tanto, ceñidos a nuestro problema debe ocurrir que

Pr( z1 ≤ Z ≤ z2 ) =
0.9

Pero como la distribución normal estándar es simétrica con respecto a cero, tenemos
z2 = − z1 , de esta forma las probabilidades antes mencionadas se pueden descomponer de
la siguiente forma:

Pr( z1 ≤ Z ≤ z2=
) Pr( Z ≤ z2 ) − Pr( Z ≤ z1=
) 0.9

=
Pr( Z ≤ z2 ) 0,95 =
Pr( Z ≤ z1 ) 0.5

Autor: Pablo Tapia G. Pagina 35


ESTADISTICA CAPITULO 1
Función de Distribución

Claramente se puede apreciar que la resta genera el valor 0.9, que interpretaremos como
el conjunto de valores que posee un 90% de representatividad.

Ahora podemos calcular cada probabilidad por separado, y encontrar que son iguales en
modulo, por lo tanto, primero determinaremos el valor de z2 .

Cálculo de z2 , en base a Pr( Z ≤ z2 ) =


0,95 . Primero debemos tener presente que en la
tabla aparecen una primera columna y una primera fila que se encuentra oscurecidas en
el cuadro a.

Cuadro a. Representación de la tabla normal estándar, para valores de z positivos.

Esta primera columna representa el valor de z con un decimal (el primero), mientras
que el segundo decimal corresponde al de la primera fila. Por lo tanto, nosotros
buscamos la probabilidad de 0.95, la cual se encuentra marcada por un circulo en el
cuadro a. Pero, al extender una flecha en forma horizontal encontramos el número 1,6
que corresponderían al valor de z2 hasta el primer decimal, sin embargo, al extender
una flecha en forma vertical, nos encontramos con el valor 0,05 que representa el
segundo decimal de z2 , esto nos dice que el valor completo de z2 es 1,65.

Cuadro b. Representación de la tabla normal estándar para valores de z negativo.

En forma análoga a la anterior pero utilizando el cuadro b, es posible determinar el valor


de z1 . Si consideramos la misma aproximación que antes, z1 es igual -1,65.

Este último resultado concuerda con el hecho de que la distribución normal estándar es
simétrica.

Autor: Pablo Tapia G. Pagina 36


ESTADISTICA CAPITULO 1
Función de Distribución

Entonces, podemos concluir que el rango que tiene un 90% de representatividad en una
distribución normal se encuentra dentro [−1, 65;1, 65] .

2.2. Otro tipo de cálculo por medio de la tabla estándar.

Suponga que cuenta con una muestra aleatoria de tamaño N obtenida de una población
que posee una distribución normal con media µ y varianza σ 2 , la cual informa que el
40% de las observaciones son menores a 20 y el 45% son menores a 35. Estime en forma
aproximada el valor de la media y de la varianza.

Para poder realizar este cálculo debemos suponer que la muestra es lo suficientemente
grande como para ser representativa de la población, por lo tanto, el enunciado anterior
se puede expresar en términos estadísticos como:

Pr( X < 20) =


0, 40 y que Pr( X < 35) =
0, 45

También sabemos que las probabilidades de variables normales pueden ser llevada a una
normal estándar, es decir,

Pr[ σ1 ( X − µ ) < σ1 (20 − µ )] =


0, 40

Sin embargo, al hacer este cambio hemos igualado la probabilidad de una normal
cualquiera a la probabilidad de una normal estándar. De esta manera para la probabilidad
de 0.4 el valor de eje ( z ) se encuentra aproximadamente en el valor de -0.25, según se
muestra en el círculo del cuadro c.

Cuadro c. Tabla de distribución normal estándar.

Esto quiere decir que Pr( Z < −0, 25)  0, 4 , por lo tanto, al igualar estas dos
probabilidades tenemos que:

1
σ (20 − µ ) =
−0, 25

Autor: Pablo Tapia G. Pagina 37


ESTADISTICA CAPITULO 1
Función de Distribución

De la cual se desprende nuestra primera ecuación µ − 0, 25σ =20 , pero se hace necesaria
una segunda ecuación, ya que tenemos dos incógnitas. Esta segunda ecuación la podemos
generar de la segunda probabilidad, de manera que:

Pr[ σ1 ( X − µ ) < σ1 (35 − µ )] =


0, 45

Pero, tal como podrá percibir el lector, la probabilidad de 0.45, se encuentra


aproximadamente a la misma distancia entre dos valores, por lo tanto, se puede tomar el
punto medio como referencia, lo cual en algunos casos no sería muy preciso, sin
embargo, también se podría recurrir a una extrapolación considerando una recta entre
dos puntos, es decir,

Recuerde que la recta que pasa por dos puntos, ( x1 , y1 ) y ( x2 , y2 ) , es:

y2 − y1
=y ( x − x1 ) + y1
x2 − x1

Por lo tanto, de la tabla sabemos que para un valor de eje igual a -0,12 la probabilidad
acumulada es 0.4522, mientras que para un valor de eje igual -0,13 la probabilidad
acumulada respectiva es igual 0.4483 (ver cifras encerradas en un cuadrado, en el
cuadro c), que al ser utilizado como puntos, hace que la recta quede expresada como

−0,13 + 0,12
=y ( x − 0, 4522) + 0,12
0, 4483 − 0, 4522

Entonces, podemos concluir que para una probabilidad acumulada de 0.45, el valor de
eje corresponde a -0,126.

De esta forma al igual las probabilidades tenemos nuestra segunda ecuación, es decir,

σ
1
(35 − µ ) =
−0,126

µ − 0,126σ =
35

Con lo cual podemos construir el siguiente sistema de ecuaciones

µ − 0, 25σ =
20
µ − 0,126σ =35

Que una vez resuelto nos entrega que un valor aproximado de la media es 50.24 y para
la desviación estándar es 120.97, con lo cual podemos señalar que la varianza
corresponde a 14633.74.

Autor: Pablo Tapia G. Pagina 38

También podría gustarte