Está en la página 1de 19

14.

MTODOS
Sea una poblacin y sean ligadas a ella una serie de constantes
1
,...,
k
que estn
por conocerse, y no se pueden medir directamente, entonces, sea X una variable
aleatoria definida sobre la poblacin de tamao n, y {X
n
} es una sucesin de
observaciones independientes de X, y sobre la cual conocemos la distribucin
) / x ( F
i X

. El problema consiste en hallar las estimaciones.
El gran problema reside, y para ello trabajemos con dos variables desconocidas
1 2
,
, en que se debe suponer que
E X [ ]
4
<
y que se conocen los dos primeros
momentos m
1
y m
2
y que son funciones de
1 2
y . Adems hay que suponer que



n
1 k
2
P 2
k n 1
P
n
m X
n
1
V y m X
y por ltimo, que las funciones
1 2
( , ) ( , ) x y y x y son tales que
) m , m ( ) V , X ( y ) m , m ( ) V , X (
2 1 2
P
n n 2 2 1 1
P
n n 1

,
con lo cual finalmente se demuestra que,
{ } { } ) V , X ( y ) V , X (
n n 2 n n 1

son
sucesiones consistentes de estimaciones de
1 2
y , respectivamente.
Teorema: Sea f(x,y) una funcin y sean {X
n
} y {Y
n
} unas sucesiones de las variables
aleatorias tales que
b y Y a X
P
n
P
n

, siendo a y b constantes, entonces, f es continua
en (a,b) y si f(X
n
,Y
n
) es variable aleatoria para cualquier n, entonces,
( ) ) b , a ( f Y , X f
P
n n

Estimacin de Varianza Mnima. Trabajando con la distribucin de Poisson como
ejemplo. Sea X una variable aleatoria definida sobre una poblacin , con
distribucin de Poisson
. . . 1 , 0 x , ! x / e ] x X [ P
x


, siendo > 0 la constante
desconocida, entonces al realizar n pruebas independientes de X, sean X
1
,...,X
n
y a
partir de ellas hacer la estimacin de esta variable.
1
Se calcula E[X] y E[X
2
] y se tienen unos valores de y
2
+ , de donde la varianza
resulta ser , y por tanto, X
n
como s
n
2
son estimadores consistentes e imparciales
de
Sea X una variable aleatoria definida sobre la poblacin y sean X1,...,Xn sus n
observaciones independientes, y supongamos que la funcin de distribucin de X es
absolutamente continua (lo cual es vlido para el caso discreto), entonces la funcin
f
X
(x) es la densidad de X que es de una variable desconocida , f(x/ ).
Para trabajar con un ejemplo, sea
) 1 , 0 ( N X
, entonces la funcin de densidad
puede ser, < <

,
_

x ,
2
) x (
1 exp
2
1
) / x ( f
2
Sea

(X
1
,...,X
n
) una estimacin imparcial de . Y adems, para mnima varianza
de lo anterior se debe cumplir: El conjunto A de todos los valores posible de mes
un intervalo abierto, acotado o no;

) / x ( f
debe existir para todo < < x ;
las expresiones

,
_

n 1
n
1 i
i
dx ... dx ) / x ( f ...

y

,
_


n 1
n
1 i
i n 1
dx ... dx x ( f ) x ,..., x (

...

puedan derivarse bajo el signo integral con respecto a ; y finalmente,
E
Logf X

( )

_
,
<
2
para todo A
Teorema. (Desigualdad de Cramer Rao): Con las hiptesis mencionadas
anteriormente, demostrar,
( )
2
n 1
A
) X ( Logf
E
n
1
) X ,..., X (

Var

,
_




,
teniendo en cuanta que el signo igual solo es vlido cuando exista una constante k,
que depende de y n, tal que la probabilidad
2
n
1 k
k
) X ( Logf
E
n
1
) X ( Logf

,
_

Principio de Mxima Probabilidad. Sea X una variable aleatoria definida sobre una
poblacin con una distribucin discreta o absolutamente continua. Sea f(x/ ) la
densidad dependiente de x y de desconocido. El problema es estimar . Sean
X
1
,...,X
n
observaciones de X con una densidad conjunta f(x
1
,...,x
n
/ )
2
Se debe procurar siempre encontrar una estimacin (X
1
,...,X
n
) de para la cual
f(X
1
,...,X
n
/ ) sea mximo. En la prctica es hallar como una funcin de x
1
,...,x
n
) X ,..., X (

n 1
para qua la funcin f(x
1
,...,x
n
/ ) resulte maximizada y entonces se
sustituyen las observaciones.
Teorema: Supuestas las condiciones impuestas en al numeral anterior, relativo ala
estimacin de la varianza, si ) X ,..., X (

n 1
es una estimacin imparcial de con
varianza mnima en el sentido dela desigualdad de Cramer Rao, entonces,
) X ,..., X (

n 1
es una estimacin de ) X ,..., X (

n 1
con mxima probabilidad.
DISTRIBUCIN MULTIVARIABLE
Densidad Normal Multivariable. Hasta ahora se ha considerado que presenta
independencia entre sus variables, pero hay que trabajar con altas dependencia, que
representan mas cerca la realidad.
Se dice que las n variables aleatorias X
1
,...,X
n
son normales en conjunto, o que tienen
distribucin normal multivariable, si existen n variables aleatorias Z
1
,...,Z
n
cada una
de ellas con distribucin N(0,1), y que existen n constantes
1
,...,
n
y que la matriz
rectangular nxn, A=(a
ij
) tales, que

,
_

,
_

,
_

,
_

n
1
n
1
nn 1 n
n 1 11
n
1
Z
Z
a a
a a
X
X

o sea, X=AZ+

. Si profundizar en el clculo matricial, se trabajar mediante algunas


transformaciones de fcil demostracin. Sea la funcin de densidad de las variables
aleatorias
f x f f x fx
x X X n
n

( ) ,..., ( ,,,,, )
1
1
que tiene una distribucin normal, y
siendo las Z
1
,...,Z
n
independientes, entonces,
z z
2
1
2 / n
z
e ) 2 ( ) z ( f


. Considerando
la transformacin ) x ( A z
1


y haciendo
) b ( A
ij
1

, entonces,
1
) x ( ) A ( ) x (
2
1
2 / n
z x
A e ) 2 (
x
z
) z ( f ) x ( f
1





Aceptando que la matriz C=AA, y como (A)
-1
=(A
-1
), esto es, C-1=(A
-1
)A
-1
, y
2
1 1
A C

, resulta,
) x )( C ( ) x (
2
1
2 / n
1
x
1
e
) 2 (
C
) x ( f


Lema: La matriz C
-1
es simtrica y definida positiva
3
Si U=(U
ij
) es una matriz de variables aleatorias, la esperanza U, E[U], es la matriz de
sus esperanzas, E[U
ij
]. Asimismo, si G(x)=(g
ij
(x)) es una matriz de funciones
definidas sobre un intervalo, [a,b], indicaremos por

b
a
dx ) x ( G la matriz de las
integrales, esto es,

b
a
ij
dx ) x ( g . Adems, las expresiones integrales se escribir dx
en vez de dx
1
...dx
n
Lo anterior se puede resumir, en si E[X)=

, entonces, E[X
i
]=

i
Si C
0
es la matriz de covarianzas, entonces, C
0
=E[(X-

)(X-

)], entonces,




dx ) x ( f ) x )( x ( C
X 0

lo que conlleva a


dz C e A Azz
) 2 (
C
C
z z
2
1
2 / n
1
0

de donde
C A
, y finalmente se llega a



dz e zz
) 2 (
1
I
z z
2
1
2 / n

que corresponde a la matriz identidad
Teorema: Si X
1
,..,X
n
tienen distribucin conjunta normal, la correspondiente
densidad es

,
_

) x ( C ) x (
2
1
exp
) 2 (
C
) x ( f
1
2 / n
1
x
donde

es la esperanza de X y C la matriz covarianza.


Propiedades.
Teorema: Si X=(X
1
,...,X
n
) son n variables aleatorias con una distribucin conjunta
absolutamente continua con densidad,
) x ( A ) x (
2
1
x
Ke ) x ( f


, con > > x
i

para cualquier i, siendo

el vector de constantes, la constante K>0, y A la matriz


definida positiva, entonces la distribucin multivariable de X es normal.
Lema: Si es C la matriz covarianza de n variables aleatorias normales conjuntas, y la
matriz C puede subdividirse as

,
_

22
12
21
11
C
C
C
C
C
siendo C
11
una matriz kxk, 1 < k n, entonces, C
11
es regular simtrica y definida
positiva.
4
Teorema: Si las variables aleatorias X
1
,..,X
n
tienen una distribucin multivariable
normal, cualquier subconjunto de ellas tiene la misma distribucin
Teorema. (Cochran para anlisis de varianza): Si B
0
,...,B
k
son k+1 matrices de tipo
nxn y simtricas, y si r
i
es el rango de B
i
y es n=r
0
+r
1
+...+r
k
, y si B
0
+B
1
+...+B
k
=I, la
matriz nxn indntidad, entonces, existe una matriz ortogonal P, tal que, para cualquier
i, PB
i
P es una matriz diagonal en la que los elementos diagonales que no son nulos
valen 1.
Teorema: Si X=(X
1
,...,X
n
) son n variables aleatorias independientes, cada una de
ellas con distribucin normal N(0,1), si P es una matriz ortogonal, y Y=(Y
1
,...,Y
n
) es
tal que Y=PX, tambin Y
1
,...,Y
n
son variables aleatorias independientes y cada una de
ellas tiene distribucin N(0,1)
Teorema. (Cochran para rangos): Si X=(X
1
,...,X
n
) son n variables aleatorias
independientes, cada una de ellas con distribucin normal N(0,1), si Q
1
(x),...,Q
k
(x)
son k formas cuadrticas definidas sobre E
(n)
tales que



k
1 j
) n (
j
E x ) , x ( Q x x
y si r
1
+...+r
k
=n, siendo r
j
=Q
j
(x), entonces, Q
1
(X),...,Q
k
(X) son k variables aleatorias
independientes, y Q
j
(X) tiene una distribucin Chi-Cuadrado con r
j
grados de
libertad.
Independencia de la media y la varianza en una muestra de la poblacin normal.
Sean n variables aleatorias independientes X
1
,...,X
n
idnticamente distribuidas
) , ( N
2
, entonces se halla que
2
n n
s y X
son independientes y que
2
2
n
s ) 1 n (


tiene distribucin Chi-Cuadrado con n-1 grados de libertad
Lema: Si X y Y son variables aleatorias independientes y si a,b,c y d son constantes,
entonces, aX+b y cY+d son tambin independientes.
Lema: Si n variables aleatorias independientes X
1
,...,X
n
, entonces las variables
X X X
n 1
2
2
2 2
, ,..., son independientes
5
Teorema: Sean X
1
,...,X
n
n observaciones de la variable aleatoria X cuya distribucin
es ) , ( N
2
. Si
2
n
1 k
n k
2
n
n 1
n
) X X (
1 n
1
s y
n
X . . . X
X


+ +

son
independientes y la variable
(n )s 1
2
2
n

tiene distribucin Chi-Cuadrado


Teorema: Sean X
1
,...,X
n
n observaciones independientes de la variable aleatoria X
con distribucin es ) , ( N
2
, entonces, la variable T tiene distribucin t-Student
con n-1 grados de libertad,
2
n
n
s
) X ( n
T

Se considera a veces que el valor medio x de la muestra se aproxima al valor medio

de la poblacin, y entonces,


n
1 j
i
x
n
1
x
,
con tamao n de la muestra. Similarmente ocurre para la varianza


n
1 j
2
j
2 2
) x x (
1 n
1
s
Otros parmetros que son necesarios, tales como el
n
p

de la distribucin
Binomial se asemeja al
n
x
p
, y es de aqu de donde surge la necesidad de ver que
tanta asertividad hay en estas suposiciones, y se aplica para ello, el Mtodo de los
Momentos. El k-simo momento de una muestra con la correccin
12
m
2
2

, donde
es la longitud del intervalo y m
1
es correccin cero.
Estimadores. Una distribucin tiene un parmetro desconocido y conocemos la
frmula para calcular

de a partir de una muestra x


1
,x
2
,...x
n
, entonces

( , ,..., ) g x x x
n 1 2
es una estimacin de . Tambin se puede considerar las
variables aleatorias X
1
,...,X
n
que tienen igual distribucin y que son independientes
) X ,..., X ( g
n 1
. As se tiene,
) x x (
n
1
) x ,..., x ( g x
n 1 n 1
+ +
y
) X X (
n
1
) X ,..., X ( g X
n 1 n 1
+ +
y puesto que E[X
j
]= , entonces,
n
n
1
] X [ E

6
El estimado de una parmetro
) x x (
n
1
) x ,..., x ( g x
n 1 n 1
+
es insesgado s
)] X ,..., X ( g [ E
n 1
Otro insesgado


n
1 j
2
j
2 2 2
) X X (
1 n
1
S c o n , ] S [ E
Un estimador insesgado

( ,... ) g X X
n 1
para un parmetro , es eficiente si se
varianza finita E[(

) ]
2
y no existe otro estimador insesgado

( ,..., )
* *
g X X
n 1

de cuya varianza sea menor que la de . Tambin, eficiencia de un estimador
insesgado
d e
1
con respecto a otro estimador insesgado

2
d e
como
2
1
2
2

(razn de varianzas

2
2
1
2
2 1
y d ey
, respectivamente.
Consistencia: Sea c R y X una variable aleatoria cualquiera, en donde, E[(X-c)
2
] es
finita, entonces, para cualquier > 0 , la desigualdad de Tchebichef cumple,
( ) ] ) c X [( E
1
c X P
2
2


Si c es el valor medio de X, entonces
( )
2
2
c X P

con
2
la varianza de X
Sea ) x ,..., x ( g

n 1
es un estimador del parmetro y sea g definida para n
grande, entonces, haciendo

X y c
tenemos
( ) ] )

[( E
1

P
2
2

.
Si el estimador tiene la propiedad
7
0 ] )

[( E
2
cuando
n
, entonces, para > 0 dada, la probabilidad se
aproxima a cero cuando n tiende al infinito, entonces,
( ) ( ) < n , 1

P 1

P . Esto es consistencia
KOLMOGOROV SMIRNOV
Se basa en la comparacin de funciones acumulativa que se observa en una muestra
ordenada y la respectiva propuesta bajo la hiptesis nula. Si esta comparacin revela
diferencias importantes, entonces la hiptesis nula se rechaza
Considrese F
0
(x), y sean X
1
,..,X
n
las observaciones aleatorias de una muestra de
tamao n, entonces la funcin de distribucin acumulativa muestral es

'


<

+
n
1 k k
1
n
x x 1
x x x , n / k
x x 0
) x ( S
esto es, para cualquier valor ordenado x de una muestra, S
n
(x) es la proporcin del
nmero de valores en la muestra que son iguales o menores a x, y F
0
(x) es conocida, y
entonces la valoracin de S
n
(x) se compara con la funcin anterior. Si la hiptesis
nula es verdadera, entonces, se espera
) x ( F ) x ( S max D
0 n
x
n

siendo D
n
una distribucin independiente del modelo propuesto bajo la hiptesis nula.
La funcin de distribucin de D
n
se evala solo en funcin del tamao de la muestra,
cuyos valores se pueden observar en las tablas de los anexos.
Para un tamao

del error tipo I, la regin crtica es de la forma



,
_

>
n
c
D P
n
Y de acuerdo con lo anterior, al hiptesis H se rechaza si para algn valor x
observado el valor D
n
se encuentra dentro de la regin crtica de tamao

Apropiada para funciones continuas. Probar que una f(x) es la funcin de distribucin
de una poblacin de la que se ha tomado una muestra x x
n 1
,..., . Entonces, se halla

( ) F x de la muestra.
8
A = Desviacin mxima =
) x ( F ) x ( F

Max
; dado un nivel de significancia se
halla c:
1 ) c A ( P
que se encuentra en tablas.
Por tanto, si a c no se rechaza la hiptesis.
MNIMOS CUADRADOS
En un diagrama de dispersin X y Y se trata de hallar si existe la relacin
+ + X Y
de tipo lineal, en donde

son constantes desconocidas, y

es
una variable aleatoria
Sea la hiptesis
X , ] [ V , 0 ] [ E
2

, pues cada valor de X genera uno de Y
mas una alteracin aleatoria. Entonces, el valor de espera de

y la varianza de

no
dependen de X, luego,
2
] Y [ V y , X ] Y [ E +
Sin mas hiptesis no se puede aplicar mxima verosimilitud.
Sea
+ X ] Y [ E
y (x
1
,y
1
),...,(x
n
,y
n
) una muestra aleatoria de Y. Los estimadores
mnimo cuadrticos

son los valores que minimizan a

+
n
1 i
2
i i
)] x ( Y [ ,
de forma que


n
1 i
i
n
1 i
i
n
1 i
2
i
n
1 i
i i
Y
n
1
Y , donde , x Y

x
n
1
x con
) x x (
) x x ( Y

siendo stos estimadores insesgados. Ahora bien, E y E [

] [ ] , por tanto,
V
x x
y V
n
x
x x
i
i
n
i
i
n
[

]
( )
[ ]
( )

1
]
1
1


2
2
1
2
2
1
1
Pruebas ptimas. Lema de Neyman - Pearson
La regin crtica C de tamao

(regin de rechazo), existe una constante k, tal que,


k
) (
) (
0
1

cuando ) x ,..., x (
n 1
est dentro de C
9
k
) (
) (
0
1

cuando ( ,..., ) x x
n 1
est fuera de C
Hiptesis: H
0 0
: contra
1 1
: H en una muestra de tamao n y poblacin con
funcin de distribucin de probabilidad. Entonces C es regin crtica ptima de
tamao

para probar la hiptesis H


o
RAZN DE VEROSIMILITUD
Sea x x
n 1
,..., muestra de una poblacin con funcin de distribucin de probabilidad
f x ( , )
con ( ,..., )
1 n
. Sea el espacio de los parmetros (o sea, en donde las r-
adas de valores que puede tomar ). Sea H
0
impone la restriccin sobre los valores
de y determina as cierto conjunto de :
0
H
0 0
: , entonces, : H
1
,
donde
1 0
y la muestra dada x x
n 1
,..., le corresponde la funcin de
verosimilitud ) , x ( f ) , x ( f ) , x ( f ) (
n 2 1
. Si mantenemos fijos los x
k
y
hacemos que vare sobre , entonces,
( )
tiene mxima

El cociente
0

es la razn de verosimilitud y siempre es 1


Escogiendo un valor
0
tenemos, Si
0
, entonces no hay rechazo de la hiptesis
H
0
Si 0
>
, entonces, si hay rechazo de la hiptesis.
Ahora bien, Ln V , siendo la variable aleatoria para la que es un valor
observado; V
2
con 1 gado de libertad cuando
n
. De otra parte,
0
se halla
segn sea

(el nivel de significancia)


ANLISIS SECUENCIAL
Se trata de evitar muchas observaciones al tomar una decisin. Si al probar H
0
contra
H
1
con un tamao muestral de n, y decidimos por anticipado el error. Hay que
disminuir la cantidad promedio de muestreos. La probabilidad p
om
, m observaciones
para hacer H
0
cierta y p
m 1
probabilidad de que stas observaciones ocurrieran si
fuera cierta H
1
Si p
om
es muy grande respecto a p
m 1
, aceptamos H
0
, y s es muy pequea, aceptamos
H
1.
La razn
10
m 0
m 1
m
p
p

, con los riesgos

.
Si


1
m
aceptamos H
0

S



1
m
aceptamos H1.
Y finalmente, s


< <

1
1
m
hacemos otra observacin.
BONDAD DE AJUSTE
Son las pruebas para probar las hiptesis de que F(x) es la funcin de distribucin de
la poblacin. Sea

( ) F x es una aproximacin de F(x) , y esta aproximacin es muy


alta, entonces, se rechaza F(x) cono la funcin de distribucin de esa poblacin y si

( ) F x se desva grandemente, rechazar la hiptesis.


Prueba
2
. Subdividir el eje x en K intervalos bajo la hiptesis de que F(x) es la
funcin de distribucin de la poblacin. Los intervalos I I
K 1
,..., son de tal manera que
cada uno contiene s valores (por lo menos) de la muestra x x
n 1
,..., . El nmero
b
j
de
los valores en la muestra en el intervalo I
j
, con j=1,...,K.
Si el intervalo est en la frontera, se suma 0.5 a cada uno de los b
j
correspondientes
Con F(x), se calcula P
j
de la variable aleatoria X que se considera tome cualquier
valor en I, entonces, e
j
=np,


K
1 j
j
2
j j 2
0
e
) e b (
es la desviacin.
Dado el nivel de significancia

hallamos c de 1 ) c ( P
2
en tabla de Chi-
Cuadrado de K-1 grados de libertad. S
0
2
c no rechazo la hiptesis.
Teorema: Sea la hiptesis F(x) es funcin de distribucin de la poblacin en la que
se tom la muestra x x
n 1
,..., , es cierta. Entonces, la variable aleatoria
2
0
observada,
tiene una funcin de distribucin que se aproxima a la distribucin de la distribucin
Chi-Cuadrada con K-1 grados de libertad cuando
n
Si F(x) disminuye r parmetros desconocidos, se puede usar mxima verosimilitud y
luego Chi-Cuadrada con K-1 grados de libertad se presenta como K-r-1 grados de
libertad.
11
ERRORES DE ESTIMACIN
Los errores existen en las mediciones, sistemticos y estadsticos
Sean n mediciones, x x
n 1
,..., de donde se tiene un valor medio de x
n
x x
n
+ +
1
1
( ... ) y
una desviacin tpica de

n
1 j
2
j
) x x (
1 n
1
s , sta ltima es el error medio
cuadrtico. Si el error tiene densidad normal, entonces, se espera que 2/3 de los
valores mustrales se localicen entre x s y x s +
Con frecuencia una muestra x x
n 1
,..., tiene unos valores ms confiables que otros.
Sean las variables aleatorias medidas con igual varianza
2
(que es desconocida),
entonces, x
1
y x
2
sean dos valores observados independientes de X
1
y X
2
con varianza

1
2
2
y
2
2 2
, por tanto, x
1
tiene mayor peso que x
2
. La exactitud de la media
es igual, x x x +
1
2
1 2
( )
x g x g x
*
+
1 1 2 2
, siendo g g
1 2
1 + , para g
1
y g
2

+
.
As X g X g X
*
+
1 1 2 2
X
*
debe tener un error medio cuadrtico muy pequeo como sea posible,

*2
+ g g
1
2
1
2
2
2
2
2
y puesto que g g
2 1
1 , entonces tenemos, g g
1 1
2
2 2
2

Ahora bien,
*
es mnimo si g
1
y g
2
son proporcionales a los recprocos de las
varianzas de X
1
y X
2
respectivamente y puesto que

1
2
2
y
2
2 2
y como
g g
1 2
1 + , entonces,
g g
1 2

y por tanto, x x x
*
+
1 1 2 2
, que es la expresin
media pesada.
En general, x g x g x
n
*
... + +
1 1 2
siendo g g
n 1
1 + + ... . El error medio cuadrtico es
mnimo si y solo s escogemos los g g
n 1
,..., proporcionales a
1 1
1
2 2

,...,
n
,
respectivamente. Estos
g
j son los pesos y por ello nos interesa conocer las razones


j
j
c
2
2

con
c
j
conocidos, por tanto,
x
g x g x
g g
n n
n
*
...
...

+ +
+
1 1
1
OBSERVACIN DIRECTA
12
Interesa saber los pesos y de que manera afecta el error la medicin. Sean las
variables aleatorias independientes X y Y, y se calcula la cantidad Z=h(X,Y) con h la
funcin cualquiera. Sea X la medida de n veces y Y la medida de m veces, entonces,
los valores medios son
) x ... x (
n
1
x
n 1
+ +
y
) y ... y (
n
1
y
n 1
+ +
, por lo cual el
error medio cuadrtico de X es s
x
.
Usando la notacin x x u
i i
+ , o sea, u x u
i i
, tenemos

n
1 i
2
i x
u
1 n
1
s , y
similarmente para y,

m
1 j
2
j y
v
1 m
1
s (1)
Con
y y v
j j

, sabemos que
+

+ + +
y
h
v
x
h
u ) y , x ( h ) v y , u x ( h z
j i j i ij
y despreciando los trminos
u
i
y
v
j
tenemos
0 u
i y
0 v
j quedando



n
1 i
m
1 j
ij
) y , x ( h z
mn
1
z
con error medio cuadrtico


n
1 i
m
1 j
2
ij
) z z (
1 mn
1
s , esto es,
y
h
v
x
h
u z z
j i ij


, que elevando al
cuadrado y afectando el trmino de la derecha queda,

,
_

+
,
_

,
_

+
,
_

n
1 i
2
i
2
n
1 i
m
1 j
n
1 i
2
i
2
2
2
i
n
1 i
m
1 j
2
2
i
v n
y
h
u m
x
h
y
h
v
x
h
u ,
de donde se deduce, aplicando (1):
u
i x
i
n
2 2
1
1

(n )s y v
j y
j
m
2 2
1
1

(m )s , o sea, finalmente

'

,
_

+
,
_

2
y
2
2
x
2
s
y
h
n ) 1 m ( s
x
h
m ) 1 n (
1 mn
1
s
y s m y n son muy grandes,
entonces,

'

,
_

+
,
_

2
y
2
2
x
2
s
y
h
s
x
h
s
.
Aqu las derivadas parciales se evalan en
( , ) x y
LA REGRESIN
SISTEMAS BIVARIADOS - REGRESIN Y CORRELACIN
En muchos casos se requiere conocer ms que el comportamiento de una sola variable, se
requiere conocer la relacin entre dos o ms variables que muestran comportamientos de
tipo lineal
13
Diagrama de dispersin. Una distribucin divariada se puede representar en un plano
cartesiano X-Y, de manera pues que se grafican tantas parejas ordenadas como
observaciones hayan de las variables. A este conjunto de puntos o nube de puntos se le
denomina diagrama de dispersin, tal como se puede observar en las figuras
Regresin lineal simple. La regresin permite ver la relacin entre las dos variables,
considerando a una de ellas como independiente y la otra dependiente, en donde la
dependencia es funcional entre las variables. A este mtodo se le conoce como el mtodo
de los mnimos cuadrados para obtener la ecuacin
bx a y +
Siendo y la variable dependiente, a el intercepto con la variable y de la recta resultante de la
regresin, b, la pendiente de dicha recta y x la variable independiente
Por el mtodo de los mnimos cuadrados esta recta se puede deducir los parmetros
correspondientes a la pendiente y al intercepto, b y a, respectivamente como,



,
_

n
1 i
2
n
1 i
i
2
i
n
1 i
n
1 i
n
1 i
i i i i
x x n
y x y x n
b

y
n
x b

y
a
n
1 i
i
n
1 i
i

Donde n es el nmero muestral considerado


Correlacin . La correlacin entre dos variables es el grado de relacin que existe entre
las variables x y y y se calcula a partir del coeficiente de correlacin, el cual se caracteriza
por variar entre -1 y +1, siendo su magnitud el indicador del grado de asociacin entre las
variables, veamos,
si =0 indica que no existe relacin alguna entre x y y, si 0 o es muy pequeo, la
relacin entre las variables no son importantes, y los valores extremos -1 y +1 indican una
correlacin perfecta entre las variables. El signo seala la pendiente de la recta que se
ajusta
14
Para determinar el coeficiente de correlacin, es necesario conocer primero el error
estndar del estimado de la recta ajustada, el cual indica la dispersin o la variabilidad de
los valores observados alrededor de la lnea de regresin,
2 n
) y y (
e
n
1 i
2
i

Siendo, e el error estndar del estimado


Una vez obtenido el error estndar del estimado, es necesario medir qu porcentaje de la
informacin es recogida o explicada por el modelo de regresin escogido o coeficiente de
determinacin (r
2
).
2
y
2
2
e
1 r


Siendo, r
2
el coeficiente de determinacin y vare entre 0 y 1, e
2
es el error estndar al
cuadrado o la varianza del error y y
2
es la varianza de la variable dependiente y. Cuando el
r
2
es cercano a 1, se dice que el modelo de regresin lineal ajustado tiene un alto grado de
ajuste y s por el contrario ste se acerca a 0 su grado de ajuste es muy bajo y por tanto el
ajuste no es suficiente como usar el modelo o para pronosticar variables
En la prctica es ms frecuente usar r , denominado el coeficiente de correlacin lineal,
que corresponde a la raz cuadrada positiva de r
2
. El coeficiente de correlacin lineal r, es
tambin conocido como coeficiente de Pearson. Ya se mencionaba que el coeficiente de
correlacin lineal oscila entre +1 y -1
Regresin mltiple. Muchas veces es necesario relacionar varias variables en regresin
simple
... x b x b a y
2 2 1 1
+ + +
En donde a es el intercepto con el eje y, bi son los coeficientes resultantes de la
correlaciones entre los xi y y
Un caso particular es i=2, en cuya caso aplicando el mtodo de los mnimos cuadrados se
obtiene
15



+ +
+ +
+ +
2
2 2 2 1 1 2 2
2 1 2
2
1 1 1 1
2 2 1 1
X b X X b X a Y X
X X b X b X a Y X
X b X b na Y
Una vez obtenida la ecuacin de regresin, se determina el error estndar de la
estimacin de regresin mltiple:
3 3
) (
2 2 1 1
2 2


n
Y X b Y X b Y a Y
Se
n
Y Y
Se
Y el coeficiente de determinacin mltiple, estar dado por:
2
2
2
2 2 1 1 2

+ +

y n Y
y n Y X b Y X b Y a
R
LA REGRESION
Representamos en un grfico los pares de valores de una
distribucin bidimensional: la variable x en el eje horizontal o eje de
abscisa, y la variable y en el eje vertical, o eje de ordenada. El
coeficiente de correlacin lineal nos permite determinar si,
efectivamente, existe relacin entre las dos variables. Una vez que
se concluye que s existe relacin, la regresin nos permite definir
la recta que mejor se ajusta a esta nube de puntos.
Una recta viene definida por la siguiente frmula:
bx a y +
En donde y sera la variable dependiente, es decir, aquella que
viene definida a partir de la otra variable x o independiente. Se
asume que las variables X e Y son ambas variables aleatorias y que
su funcin de distribucin de probabilidad conjunta es normal
bivariante. La normal bivariante es una extensin a dos
dimensiones de la normal univariante. Su representacin grfica es
una campana tridimensional. Depende de 5 parmetros:
x
,
y
,
x
,

y
y que son respectivamente las medias, las desviaciones
tpicas de X e Y, y su coeficiente de correlacin. Dicho coeficiente se
define como

Siendo el numerador la llamada covarianza
[ ] ) Y )( X ( E
y x xy

Las propiedades de la normal bivariante son:
16
- la funcin de distribucin de probabilidades marginales son
ambas normales con medias
x
,
y
y desviaciones tpicas
x
,
y
respectivamente.
- las funcin de distribucin de probabilidades condicionadas f(y|x)
son tambin normales con medias y varianzas
) 1 ( ) x (
2 2
y
2
x Y x
x
y
y x y

+
obsrvese que la media depende linealmente de x, es decir,
tambin se puede escribir
X
1 0 X Y
+
- simtricamente las funcin de distribucin de probabilidades f(x|
y)
A partir de una muestra aleatoria se pueden estimar los coeficientes
por los mismos procedimientos que en el modelo I y se obtienen los
mismos resultados. Ahora, sin embargo, tambin se obtiene un
estimador para el coeficiente de correlacin que no tiene sentido en
el modelo I.
Propiedades del coeficiente de correlacin.
- nmero sin dimensiones entre -1 y 1.
- si las variables son independientes =0. La inversa no es
necesariamente cierta, aunque si las variables son normales
bivariantes s.
- si las variables estuvieran relacionadas linealmente =1
Un contraste que interesa realizar en un modelo II es H
0
: =0.
Como
x
y
1


este contraste es totalmente equivalente al realizado sobre dicho
coeficiente, aunque tambin hay tablas basadas en que una cierta
transformacin (de Fisher) de r se distribuye aproximadamente
como una normal.
Qu mide y qu no mide r?. Se puede demostrar una relacin
algebraica entre r y el anlisis de la varianza de la regresin de tal
modo que su cuadrado (coeficiente de determinacin) es la
proporcin de variacin de la variable Y debida a la regresin. En
17
este sentido, r
2
mide el poder explicatorio del modelo lineal. No
mide la magnitud de la pendiente ("fuerza de la asociacin") y
tampoco mide lo apropiado del modelo lineal
Potencia de los contrastes en regresin. Los contrastes se
realizan en base al conocimiento de la distribucin muestral del
estadstico usado. En el caso de la regresin, las distribuciones
usadas son la normal (para r) y la t-Student (para los coeficientes).
Slo para la normal es fcil el clculo de la potencia, pero sabemos
que la t tiende asintticamenta (para muestras grandes (>30 en la
prctica) a la normal. Usaremos esto.
1- =P(rechazar H
o
| H
o
falsa)
Supongamos que 51 . 2 ) ( E 87 . 3
1 1
y asumamos normalidad
qu potencia tiene el contraste si
1
fuera 5 (recordar que se
necesita concretar H
1
)?. Cundo rechazamos H
0
al 95%?
Cuando
) ( E * 96 . 1 96 . 1
) ( E

1 1
1
1
> >

en nuestro caso mayor que 4,92. Como no lo es, no rechazamos H


0
.
Hay que calcular la probabilidad de encontrar
si
1
fuera 5. Calculamos z=(4.92-5)/2.51=-0.03
y lo miramos en la tabla de la funcin de distribucin Normal 1-
=0,512=51,2%.
Planteamiento. Dos variables aleatorias x y y, x independiente de y. Se trata de
hallar la dependencia de y respecto a x. Dadas n variables x x
n 1
,..., y se observan
18
valores que se relacionan
( , ) ...,( , )
,
x y x y
n n 1 1
y se supone que la media

de Y
depende de x:
( ) x
, entonces, la regresin
( ) x x +
, la cual es la recta de
regresin de Y con base en x y a

que es la pendiente.
ANLISIS DE CORRELACIN
X y Y son variables aleatorias. Aplicando mnimos cuadrados para
las parejas observadas
) y , x ( ..., ) y , x (
n n , 1 1 . La recta debe
ajustarse a los puntos dados de manera que la suma de los
cuadrados de las distancias de estos puntos hasta la recta sea
mnima. La distancia la mediremos verticalmente.
Distancia de un punto
) y , x (
j j hasta la recta y=a+bx es
y a bx
j j

, y para n
puntos, los cuadrados de las distancias es


n
1 j
2
j j
) bx a y ( q
El mnimo:
0
a
q

y
0
b
q

, entonces,
) x x ( b y y
, en donde,
) x ... x (
n
1
x
n 1
+ +
y
) y ... y (
n
1
y
n 1
+ +
.
La pendiente de la recta
b
s
s
xy
x

2
con

( )
1
]
1



n
1 j
2
n
1 j
j
2
j
n
1 j
2
j
2
x
x
n
1
x
1 n
1
) x x (
1 n
1
s
y
[ ]


n
1 j
j j
n
1 j
j j xy
y x n y x
1 n
1
) y y )( x x (
1 n
1
s
( )( )
1
]
1



n
1 j
j
n
1 i
i
n
1 j
j j xy
y x
n
1
y x
1 n
1
s
por tanto,
x b y a
y

2 2
j
j j
x n x
y x n y x
b
Todos los puntos de una muestra se localizan en la recta de regresin, s y solo s,
s s s
xy x y
2 2 2

19

También podría gustarte