Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estadística I 1
1.1 Introducción.
Es decir, los eventos { Y1≤ y1, Y2≤ y2,…, Yk≤ yk } y {h1(X1, X2, …, Xn)≤ y1, h2(X1, X2,
…, Xn)≤ y2,…, hk(X1, X2, …, Xn)≤ yk} son iguales, si conocemos la distribución
conjunta de X1, X2, …, Xn, podemos calcular la probabilidad del evento {h1(X1, X2, …,
Xn)≤ y1, h2(X1, X2, …, Xn)≤ y2,…, hk(X1, X2, …, Xn)≤ yk} y por tanto también podemos
calcular FY1Y2 …Yk (y1 , y 2 ,K , yk ) .A esta forma de obtener la distribución conjunta de Y1,
Y2, …, Yk , se le denomina técnica de la función de distribución acumulativa.
FY(y) = P(Y ≤ y)
= P(X2 ≤ y)
(
= P( − y ≤ X ≤ )
y )
y
1 − 21 u 2
=2 ∫
0 2π
e du
y
2 1 − 21 z
=
2π ∫0 2u e dz
y
1
= ∫0 2π z
e −z dz
y
1
∫
− 12 − z
= z e dz
0 2Γ ( 21 )
(
FY(n ) ( y ) = P Y(n ) ≤ y )
= P ( X 1 ≤ y, X 2 ≤ y,K , X n ≤ y )
Por ser independientes
= P ( X 1 ≤ y ) P ( X 2 ≤ y )L P ( X n ≤ y )
n
= ∏F ( y)
i =1
Xi
Para el caso de que las Xi’s sean variables continuas encontramos que
f Y(n ) ( y ) = n ( FX ( y ) )
n −1
fX ( y)
Ejemplo 1.3. Ahora busquemos la distribución de Y(1) = min(X1, X2, …, Xn), los
eventos { min(X1, X2, …, Xn)> y} es equivalente a { X1 > y, X2 > y, …, Xn > y} luego
(
FY(1) ( y ) = 1 − P Y(n ) > y )
= 1 − P ( X 1 > y, X 2 > y,K , X n > y )
= 1 − (1 − P ( X 1 ≤ y ) ) (1 − P ( X 2 ≤ y ) )L (1 − P ( X n ≤ y ) )
( )
n
= 1 − ∏ 1-FX i ( y )
i =1
Para el caso de que las Xi’s sean variables continuas encontramos que
f Y(1) ( y ) = n (1 − FX ( y ) )
n −1
fX ( y)
4 Distribución de función de variables aleatorias Mahil H.
FZ ( z ) = P(Z ≤ z) = P(X+Y ≤ z)
= ∫∫ f XY ( x , y ) dydx
x + y ≤z
∞ z −x
= ∫ ∫ f XY ( x , y ) dydx
−∞ −∞
Haciendo u = y + x
∞ z
= ∫∫ f XY ( x ,u − x ) dudx
−∞ −∞
dFZ ( z )
f Z (z ) =
dz
∞ z
d
= ∫∫ f XY ( x ,u − x ) dudx
dz −∞ −∞
∞
= ∫ f XY ( x ,z − x ) dx
−∞
∞
f V (v ) = ∫ f XY ( x , x − v ) dx
−∞
∞
fZ(z)= ∫ f ( x ) f (z − x ) dx
−∞
X Y
y
∞
f V (v ) = ∫ f X ( x ) f Y ( x − v ) dx
−∞
Distribución de función de variables aleatorias. Estadística I 5
FZ ( z ) = P(Z ≤ z) = P(XY ≤ z)
= ∫∫ f XY ( x , y ) dydx
xy ≤z
z
0 ∞ ∞ x
= ∫ ∫ f ( x , y ) dydx + ∫ ∫
−∞ z x
XY
0 −∞
f XY ( x , y ) dydx
Haciendo u = yx
0 ∞ ∞ z
u du u du
= ∫∫
−∞ z
f XY x , dx + ∫ ∫ f XY x , dx
xx 0 −∞ xx
0 −∞ ∞ z
u du u du
= ∫∫
−∞ z
f XY x , dx + ∫ ∫ f XY x , dx
xx 0 −∞ xx
0 z ∞ z
u du u du
= ∫∫
−∞ −∞
f XY x ,
x −x
dx + ∫ ∫ f XY x , dx
0 −∞ xx
∞ z
1 u
= ∫∫
−∞ −∞
x
f XY x , dudx
x
Entonces
dFZ ( z )
f Z (z ) =
dz
z ∞
d 1 u
=
dz ∫∫
−∞ −∞
x
f XY x , dxdu
x
∞
1 z
= ∫
−∞
x
f XY x , dx
x
∞
f V (v ) = ∫ x f XY ( x ,vx ) dx
−∞
6 Distribución de función de variables aleatorias Mahil H.
(
m Y1Y2 …Yk (t 1 ,t 2 ,K ,t k ) = E e t ,Y ) = E (e Y1t 1 +Y2 t 2 +L+Yk t k
)
(
= E e h1 ( X1 ,X 2 ,K,Xn )t1 +h2 ( X1 ,X 2 ,K,X n )t 2 +L+hk ( X1 ,X 2 ,K,Xn )t k )
Como se puede verla generadora de momentos es una función de las variables
X1, X2, …, Xn, así que esta la podemos calcular ya que conocemos su función de
densidad conjunta, una vez que se obtiene la generadora de momentos, después hay
que ver a que distribución esta asociada, las limitantes de estas técnicas es que se
conoce la generadora de momentos de varias variables aleatorias para el caso univariado
pero párale caso multivariado son pocas las generadoras conocidas.
mY(t) = E(etY )
= E e tX ( ) 2
∞
1 − 12 x 2
∫e
tx 2
= e dx
−∞ 2π
∞
1 − 12 x 2 (1−2 t )
= ∫
−∞ 2π
e dx
∞
1 − 21 u 2 du
= ∫
−∞ 2π
e
( 1 − 2t ) 2
1
1
=
(1 − 2t )
1
2
Ejemplo 1.7. Sea X1 y X2 dos variables aleatorias independientes con distribución N(0,1),
sea Y1= X1 – X2 Y2= X1+X2. Apliquemos la técnica de la función generadora de
momentos, para encontrar la distribución conjunta de Y1 y Y2 .
(
= E e ( X1 − X 2 )t 1 +( X1 + X 2 )t 2 )
= E (e X1 ( t 1 +t 2 ) + X 2 ( t 2 −t 1 )
)
Como X1 y X2 son independientes
( ) (
= E e X1 ( t 1 + t 2 ) E e X 2 ( t 2 −t 1 ) )
= e ( t 1 + t 2 ) e ( t 2 −t 1 )
2 2
= e t1 +t 2
2 2
2 t 12 2 t 22
2 2
=e e
= m Y1 ( t 1 ) m Y2 ( t 2 )
Tenemos que Y1 y Y2 cada una se distribuye como una N(0,2).y ambas son
independientes.
Nota. Recordemos que para Y= aX+b, con a, b constantes, tenemos que la generadora
de momentos de Y es: mY(t) = etb mX(at)
n
Si X1, X2, …, Xn son variables aleatorias independientes, definamos a S = ∑ X i la
i =1
generadora de momentos de S es:
mS(t) = E ( e tS )
= E ( e tX1 +tX 2 +L+tX n )
n
= ∏ mXi ( t )
i =1
mS(t) = ( m X ( t ) )
n
8 Distribución de función de variables aleatorias Mahil H.
Ejemplo 1.8. Sea X1, X2, …, Xn son variables aleatorias independientes e idénticamente
n
distribuidas (i.i.d), con distribución Poi(λ), busquemos la distribución de S = ∑ X i .
i =1
( ) ( ) ( )
n
mS(t) = ( m X ( t ) ) = e
n λ e t −1 n λ e t −1
=e
Ejemplo 1.9. Sea X1, X2, …, Xn son variables aleatorias independientes e idénticamente
n
distribuidas (i.i.d), con distribución Exp(λ), busquemos la distribución de S = ∑ X i .
i =1
λ
n
mS(t) = ( m X ( t ) )
n
=
λ+t
1.4 Transformaciones.
Primero empezaremos viendo el uso de esta técnica para el caso de una sola
variable aleatoria, para después extenderlo, al buscar la densidad de una función de la
variable aleatoria lo que estamos haciendo es una transformación, que es determinada
por Y=h(X).
Si X es una variable aleatoria discreta, si X toma a x1, x2,…, xn, como sus
posibles valores con probabilidad fX(x1), fX(x2),…, fX(xn), los posibles valores de Y se
obtienen de sustituir los valores de X en h( ), así tendemos que varios valores de X
pueden dar el mismo valor de Y, así la probabilidad de que salga el valor yj de Y sería la
suma de las probabilidades de los valores de X que dan este valor, esto es:
fY(yj) = ∑ fX (xi )
{ï :h ( x i )= y j }
Distribución de función de variables aleatorias. Estadística I 9
Ejemplo 1.10. Supongamos que X es una v.a con valores –2, 0, 2 con probabilidad
fX(–2) = p1, fX(0) = p2, fX(2) = p3, con p1+ p2+p3 = 1 y pi > 0,
sea Y = X2 + 1, es claro que Y es una variable discreta que toma los valores de 1 y de 5
y su función de probabilidad (función de masa de probabilidad)
∑ dy h ( y ) f ( h ( y ) ) I ( y )
m
d −1 −1
fY(y) = i X i DY
i =1
Ejemplo 1.11. Supongamos que X es una v.a continua con distribución U(0,1),
busquemos la densidad de Y=–lnX. La densidad de X es
fX(x) = I( 0 ,1) ( x )
y
h –1 ( y ) = e–y
Así tenemos que
e f X ( e − y ) = e − y I( 0 ,1) ( e − y ) = e − y I( 0 ,∞ ) ( y )
d −y
fY(y) =
dy
Podemos ver que Y se distribuye como una Exp(1).
Ejemplo 1.12. Sea X ∼ N(0,1), y Y= h(X) = X2.Tenemos que por ser una normal X
toma valores en toda la recta real y nuestra función deja de ser uno a uno en toda la
10 Distribución de función de variables aleatorias Mahil H.
fY(y) =
d
dy
− y fX − y +( ) d
dy
y fX ( y)
=
1
2 y
(
fX − y + ) 2 y
1
fX ( y)
Por ser X una normal
=
1
y
fX ( y)
=
1
y
1 − 21 y
2π
e I ( 0 ,∞ ) ( y)
1 − 21 − y
= y e
2Γ ( 21 )
2 2
x 8
fY(2) = ∫ I[0 ,3] ( x ) dx =
0
3 27
fY(0) = 0
3 2
x 19
fY(2) = ∫ I[0 ,3] ( x ) dx =
2
3 27
Distribución de función de variables aleatorias. Estadística I 11
Teorema 1.1. Si X es una v.a continua con función de distribución FX(x), entonces U=
FX(x) se distribuye como U(0,1), Inversamente si U se distribuye como U(0,1), entonces
X= FX−1 ( U ) tiene a FX(x) como función de distribución acumulativa.
Demostración.
⇒)
P(U≤ u) = P( FX(x) ≤ u ) = P ( X ≤ FX−1 ( u ) )= FX ( FX−1 ( u ) ) = u.
Esta es la distribución de una U(0,1).
⇐)
P(X≤ x) = P ( FX−1 ( U ) ≤ x) = P( U ≤ FX(x)) = FX(x)
Sea f X1X 2 …Xn (x 1 , x 2 ,K , x n ) la densidad conjunta del vector aleatorio discreto X = (X1,
X2, …, Xn), Sea DX={(x1, x2, …, xn): f X1X 2 …Xn (x 1 , x 2 ,K , x n ) >0}, estamos interesados
en conocer la densidad conjunta de Y1=h1(X1, X2, …, Xn), Y2=h2(X1, X2, …, Xn), …,
Yk=hk(X1, X2, …, Xn). La densidad la podemos encontrar de la siguiente manera:
Donde la suma es sobre todos los posibles valores (x1, x2, …, xn) que pertenecen a DX
para los cuales (y1, y2, …, yk) = (h1((x1, x2, …, xn)),h2((x1, x2, …, xn)), …, hk((x1, x2, …,
xn))).
Ejemplo 1.14. Sea (X1, X2, X3) con la siguiente función de densidad,
12 Distribución de función de variables aleatorias Mahil H.
1
f Y1Y2 (0,0) = f X1X 2 X 3 (0,0,0) =
8
3
f Y1Y2 (1,1) = f X1X 2 X 3 (0,0,1) =
8
1
f Y1Y2 (2,0) = f X1X 2 X 3 (0,1,1) =
8
2
f Y1Y2 (2,1) = f X1X 2 X 3 (1,0,1)+f X1X 2 X 3 (1,1,0) =
8
1
f Y1Y2 (3,0) = f X1X 2 X 3 (1,1,1) =
8
Para el caso continuo tenemos algo muy similar al caso univariado, primero
definamos un resultado que nos ayudará a encontrar la densidad conjunta de nuestras
nuevas variables.
Si X = (X1, X2, …, Xn), es un vector de v.a continuas, sea DX={(x1, x2, …, xn):
f X1X 2 …X n (x 1 , x 2 ,K , x n ) >0}, si a DX lo podemos descomponer en un número finito de
conjuntos disjuntos D X1 , D X 2 ,K , D X m , tal que y1=h1(x1, x2, …, xn), y2= h2(x1, x2, …, xn),
…, yn=hn(x1, x2, …, xn) son transformaciones uno a uno de D X i . dentro de DY, Y ∈DY,
con i= 1, ,2, …, m. Sea x1= h1−i1(y1 , y 2 ,K , y n ) , … , xn= hni−1(y1 , y 2 ,K , y n ) la
transformación inversa DY dentro de cada D X i con i= 1, ,2, …, m. Sea
para i= 1, ,2, …, m. Asumimos que todas las derivadas parciales son continuas sobre DY
y el determinante Ji es distinto de cero, para todo i, entonces
Distribución de función de variables aleatorias. Estadística I 13
m
f Y1Y2 …Yk (y1 , y 2 ,K, yk ) = ∑ Ji f X1X 2 …Xn (h1−i1(y1 , y 2 ,K , y n ),h 2−i1(y1 , y 2 ,K , y n ),K ,hni−1 (y1 , y 2 ,K , y n ))
i =i
1( y y ) y12
2
− 1 2 2+
y1 1 2 (1+ y 2 ) (1+ y 2 )2
f Y1Y2 (y1 , y 2 ) = e
(1 + y 2 ) 2π
2
1( y y ) y12
2
∞ − 1 2 2+
y1 1 2 ( 1+ y 2 ) (1+ y 2 )2
f Y2 (y 2 ) = ∫ (1 + y )
−∞
2
2π
e
dy1
2
(
1 1+ y 2 y1
−
2
)2
∞
1 2 (1+ y 2 )2
=
2 π (1 + y 2 )
2 ∫
−∞
y1 e
dy1
sea
1 (1 + y 2 ) y1
2 2
u=
2 (1 + y 2 ) 2
entonces
1 (1 + y 2 )
2
du = y1dy1
2 (1 + y 2 )2
y así
14 Distribución de función de variables aleatorias Mahil H.
(1 + y 2 ) ∞
2
1 1
f Y2 (y 2 ) = 2 ∫ e − u du =
2 π (1 + y 2 ) 1+ y π (1 + y 22 )
2 2
2 0
x1 = h1−1 ( y1 , y 2 ) = y1 y 2 y x2 = h 2−1 ( y1 , y 2 ) = y 2 − y1 y 2
y
y2 y1
J= = y2
− y 2 1 − y1
1 1
λ n1 +n2 ( y1 y 2 ) 1 ( y 2 − y1 y 2 ) 2 e −λy 2 I ( 0 ,∞ ) ( y1 y 2 ) I ( 0 ,∞ ) ( y 2 − y1 y 2 )
n −1 n −1
f Y1Y2 (y1 , y 2 ) = y 2
Γ ( n1 ) Γ ( n 2 )
λ n1 +n 2
y1n1 −1 (1 − y1 ) 2 y 2n1 +n2 −1e −λy 2 I( 0 ,1) ( y1 ) I( 0 ,∞ ) ( y 2 )
n −1
=
Γ ( n1 ) Γ ( n 2 )
Tenemos que B ( n1 ,n 2 ) = Γ ( n1 ) Γ ( n 2 )
Γ ( n1 + n 2 )
1 λ n1 +n2
y1n1 −1 (1 − y1 ) 2 I ( 0 ,1) ( y1 ) y 2n1 +n2 −1e −λy 2 I ( 0 ,∞ ) ( y 2 )
n −1
f Y1Y2 (y1 , y 2 ) =
B ( n1 ,n 2 ) Γ ( n1 + n 2 )
De aquí tenemos que Y1 y Y2 son independientes y que Y1, se distribuye como una
beta.
Distribución de función de variables aleatorias. Estadística I 15
Definición 1.5.1. Si XtAX > 0 se dice que XtAX es definida positiva, para todo X ≠ 0 y A
es positiva.
Lema 1.5.1. La matriz A es positiva si, y sólo si todos los determinantes de sus matrices
angulares son positivos.
Lema 1.5.4. Matrices semipositvas son singulares ( el caso contrario no siempre ocurre
es decir una matriz singular no es siempre semipositiva.
Lema 1.5.5. Las raíces de una matriz positiva ( semi ) son todas mayores que cero (
mayor o igual a cero).
Lema 1.5.6. AAt es positiva cuando A es de rango completo por filas y semipositiva en
cualquier otro caso.
Lema 1.5.7. AtA es positiva cuando A tiene rango completo por columna y semipositiva
en cualquier otro caso.
Lema 1.5.9. Si A es simétrica, es positiva si, y sólo si puede escribirse como PPt con P
no singular.
16 Distribución de función de variables aleatorias Mahil H.
∂x i ∂x i
∂Z ∂Z
así que el i-ésimo elemento de es ai, por lo que =A
∂X ∂X
Demostración.
∂Z
El ij-ésimo elemento de es
∂X
q p
∂ ∑∑ a n x nmbm
∂Z
= m=1 n=1 =a b
i j
∂x ij ∂x ij
∂Z
por tanto se sigue que = ABt.
∂X
Demostración.
Distribución de función de variables aleatorias. Estadística I 17
∂Z
El ij-ésimo elemento de es
∂A
p p
∂ ∑∑ x n x m a mn
∂Z
= m=1 n=1
∂a ij ∂a ij
∂Z ∂Z ∂Z
si i = j , = x i2 . Si i ≠ j = 2xixj . Así tenemos que =2XXt – D(XXt).
∂a ij ∂a ij ∂A
Demostración.
∂Z
El ij-ésimo elemento de es
∂X
p p
∂ ∑∑ x n x m a mn
∂Z
= m=1 n=1
∂x i ∂x i
p q p
∂ ∑ x m a mm + ∑∑ x n x m a mn
2
m=1
m=1 n=1
m ≠n
=
∂x i
p p
= 2xiaii + 2 ∑
n=1
x n a in = 2 ∑x a
n=1
n in
n ≠i
∂Z
luego entonces =2AX.
∂X
El elemento ij-ésimo de Σ es
σ ij = E ( x i - µ i ) ( x j - µ j ) ,
σ ii = E ( x i - µ i ) ,
2
σ 11 σ 12 L σ 1p
σ σ 22 L σ 2 p
Σ=
12
M M M
σ p1 σ p 2 L σ pp
αt A α ≥ 0 para toda α ∈ Rm
y definida positiva si
α tA α > 0 para toda α ∈ Rm .
Demostración.
Σy = E[ (Y – µY )(Y – µY )t ] (1.3)
20 Distribución de función de variables aleatorias Mahil H.
= (x – µ ) (σ2 )-1 (x – µ)
σ
podemos generalizarlo para un vector de las observaciones sobre varias variables, X de
p×1 tal que tendríamos
(X – µX)t Σ −1 (X – µX)
Definición 1.5.4. Si y1, y2,…,yp son p variables aleatorias y si Y es el vector p×1 de estas
variables
1
− ( Y −µ )t R ( Y −µ )
f(y1, y2,…,yp) = K e 2
-∞ < yi < ∞, i = 1, …, p
Distribución de función de variables aleatorias. Estadística I 21
Definición 1.5.5. El vector aleatorio de m×1 X se dice que tiene una distribución normal
m-variada si, para cada α ∈ Rmx1, la distribución de αtX es normal univariada.
Demostración.
Aquí
φX (v) = E [ exp(ivtX ) ] = φ v t X (1) ,
El lado derecho denota la función característica de la variable aleatoria vtX
evaluada en 1. Ya que X es Nm(µ, Σ) entonces vtX se distribuye como una normal
univariada, vtX ∼ N(vtµ, vtΣv) tal que
r
= ∏ E exp(iv u
j =1
j j ) (por
independencia)
1
r
= ∏ exp − 2 v
j =1
j
2
(por normalidad)
1
= exp − v t v
2
Ahora si ponemos
X = CU + µ
donde C es una matriz de m×r de rango r tal que Σ = CCt, y µ ∈ Rmx1. Entonces X
tiene función característica (1.4),
Y = BX+b es Nk ( Bµ + b , B Σ Bt ).
Demostración.
Demostración.
B = [ Ik : 0] es de dimensión k×m y b = 0
X1 µ1 Σ Σ12
X = , µ= , Σ = 11 ,
X2 µ2 Σ 21 Σ 22
Demostración.
1 −
1
2
(( X1 −µ1 )t Σ11−1 ( X1 −µ1 ) +( X 2 −µ2 )t Σ 22 −1 ( X 2 −µ2 ) )
= e
( 2π ) Σ11 Σ 22
p/2 1/ 2 1/ 2
=f(X1)f(X2)
por lo tanto X1, X2 son independientes.
Demostración.
Para cada α ∈ Rmx1, la distribución de αt(X + Y) = αtX + αt Y es normal (por el
teorema 1.5.8, ya que X + Y es normal). Puesto que αt X y αt Y son independientes,
implica que ambas son normales, y por lo tanto X y Y son normal m-variada.
N
N N
∑αi X i es N m ∑ α i µi , ∑ α i2Σ i .
i =1 i =1 i =1
X1
Teorema 1.5.13. Si X ~ N(µ, Σ ), X ∈ Rk×1 , con X = , ( X1, X2 son
X2
conjuntamente normales) X2 | X1 ~ N( µ 2 + Σ 21Σ11 ( X 1 − µ1 ) , Σ 22 − Σ 21Σ11
−1 −1
Σ12 ).
Demostración.
I 0
Sea A = −1 , es claro que |A| = I, si
−Σ Σ
21 11 I
I 0 X 1 − µ1 X 1 − µ1
W = A(X-µ) = =
−Σ 21Σ11 I X 2 − µ 2 −Σ 21Σ11 ( X 1 − µ1 ) + ( X 2 − µ 2 )
−1 −1
Luego
W1 0 Σ11 0
W= ~N , −1
W2 0 0 Σ 22 − Σ 21Σ11 Σ12
f W1W2 ( W1 ,W2 ) =
( )
−1
( ) − W2t Σ 22 −Σ 21Σ11 W2
1 t −1 1 −1
1 − W1 Σ11 W1 1 Σ12
2 2
e e
( 2π )k / 2 Σ11 ( 2π )
1/ 2 1/ 2
Σ 22 − Σ 21Σ11−1Σ12
1 k2 / 2
f X 2|X1 ( X 2|X 1 ) =
26 Distribución de función de variables aleatorias Mahil H.
−1
Como podemos ver X2 | X1 ~ N( µ 2 + Σ 21Σ11 ( X 1 − µ1 ) , Σ 22 − Σ 21Σ11−1Σ12 ).
Ejemplo 1.5.17.. Sea x1, x2, dos variables distribuidos conjuntamente como una normal
multivariada con forma cuadrática
Distribución de función de variables aleatorias. Estadística I 27
x2 − 1 2 2
x
2
1 8 2
1 − 7
así tenemos que Σ = 2 yΣ= 7
–1
− 1 2 2 4
2 7 7
ahora sólo nos hace falta obtener la media, por el teorema anterior esta la podemos
∂Q
obtener resolviendo el sistema =0.
∂X
∂Q
Tenemos que = 2x1 – x2 – 3 = 0
∂x 1
∂Q
= –x1 + 4x2 – 2 = 0
∂x 2
La solución al sistema anterior es x2 = 1, x1 = 2 así tenemos que µ1 = 2 y µ2 =1.
28 Distribución de función de variables aleatorias Mahil H.
BIBLIOGRAFÍA
1.- [1974] Mood A., Graybill F. and Boes D., Introduction to theory of statistics. 3era ed. McGraw-Hill. USA
2.- [2002] G. Casella; R.L. Berger, Statistical Inference. 2° ed. Wadsworth & Brooks. USA
3.- [1961] F.A. Graybill, An introduction to Linear Statistical Models, Vol I, Mc Graw Hill, USA.
4.- [1999] W.H. Greene, Análisis Econométrico. 3era edición, Prentice Hall, España.
5.- [2002] Mendenhall; Scheaffer; Wackerly Estadística Matemática con aplicaciones. 6ª ed. Thopson.
México.
6.- [1974] Mood A., Graybill F. and Boes D., Introduction to theory of statistics. 3era ed. McGraw-Hill. USA