Está en la página 1de 61

Tema 1

Regresion lineal simple


1.1. Introduccion
Nuestro objetivo es obtener un modelo que permita establecer relaciones entre dos
variables: la variable y (variable dependiente, respuesta o de interes) y la variable x
(variable independiente, predictora o explicativa).
Si es posible establecer una relaci on determinista entre las variables, es decir,
de la forma y = f(x), entonces la prediccion no tiene ning un error. Por ejemplo,
un circuito electrico compuesto por una alimentacion de 10 voltios conectada a una
resistencia de 5 ohmios dara lugar a una intensidad de I=V/R=10/5=2 amperios. El
error obtenido al medirla es despreciable, por lo que mediciones sucesivas obtendran
siempre intensidades de dos amperios.
Como se observa en el graco, todos los puntos se ajustan a la perfeccion a la
lnea recta.
R=5 constante
0
5
10
15
20
25
30
35
0 2 4 6 8
Intensidad (A)
D
i
f
e
r
e
n
c
i
a

d
e

p
o
t
e
n
c
i
a
l

(
V
)
2 Estadstica II
Sin embargo, en la mayora de las ocasiones, las relaciones entre las variables nos
son desconocidas o los errores de medicion no son negligibles. Bajo estas circunstan-
cias de relaci on no determinista, la relacion puede expresarse como
y = f(x) +u,
donde u es una perturbacion desconocida (una variable aleatoria). La presencia de
ese error aleatorio signica que dos observaciones identicas para x pueden dar lugar
a observaciones distintas para y (y viceversa). De particular interes en este curso son
aquellos modelos en los que la funcion f(x) es lineal:
y =
0
+
1
x + u.
La variable y vara linealmente con la variable x, pero no queda totalmente expli-
cada por ella a causa de la presencia del error u. Los parametros
0
y
1
se denominan
cocientes de regresion; en particular,
0
es el intercepto y
1
es la pendiente.
Consideremos el siguiente diagrama de dispersi on que muestra los distintos pesos
y alturas de un grupo de personas.
Estatura (cm)
P
e
s
o

(
k
g
)
155 160 165 170 175 180 185 190
44
51
58
65
72
79
86
93
100
Aunque las personas mas altas tienden a tener mayor peso que las bajas, no
podemos establecer una relacion determinista entre las variables peso y altura. Vemos
que existe una relacion entre ambas, pero que esta no es exacta.
El objetivo de un modelo de regresion es encontrar una relacion entre las variables
que se ajuste lo mejor posible a los datos. En el caso de un modelo de regresion lineal
simple, el objetivo es encontrar la recta de regresion
y =

0
+

1
x.
Por ejemplo, supongamos que la recta de regresion es y = 100+x. Eso signica
que se estima que una persona cuya estatura es de 180 cm va a pesar 80 kg. Ob-
viamente, esto no es siempre cierto: existen personas que miden 180 cm y no pesan
80 kg y al reves.
Tema 1. Regresion lineal simple 3
Estatura (cm)
P
e
s
o

(
k
g
)
150 160 170 180 190
44
54
64
74
84
94
104
La diferencia entre el valor y
i
de una variable (p.ej., peso) y su estimacion y
i
es
el residuo e
i
:
e
i
= y
i
y
i
.
Gracamente, es la distancia vertical entre una observacion y su estimacion a traves
de la recta de regresion.
1.2. Hip otesis del modelo
Para ser valido, el modelo de regresion lineal simple necesita que se satisfagan
las siguientes hipotesis:
1. linealidad,
2. homogeneidad,
3. homocedasticidad,
4. independencia,
5. normalidad.
1.2.1. Linealidad
Si pretendemos ajustar una lnea recta a un conjunto de datos es fundamental
que estos tengan un aspecto compatible con el de una recta.
4 Estadstica II
0
5
10
15
20
25
0 5 10 15 20 25
0
100
200
300
400
500
600
0 5 10 15 20 25
A menor linealidad, peor representacion mediante una recta de regresion.
Para comprobar la linealidad, representamos gracamente la nube de puntos
asociada al conjunto de observaciones {(x
i
, y
i
)}
n
i=1
.
Si los datos son no lineales, tal vez sea posible encontrar una relacion de los mis-
mos que nos permite aceptar la hipotesis de linealidad para los datos transformados.
1.2.2. Homocedasticidad
La varianza de los errores es constante:
V ar(u
i
) =
2
, i = 1, . . . , n.
Gracamente, signica que la nube de puntos de los datos tiene una anchura mas
o menos constante a lo largo de la recta de regresion. En este caso, se dice que los
datos son homocedasticos; en caso contrario, se dice que son heterocedasticos.

0
5
10
15
20
25
0 5 10 15 20 25
0
2
4
6
8
10
12
14
16
0 1 2 3 4 5 6
1.2.3. Homogeneidad
Las perturbaciones tienen esperanza nula: E(u
i
) = 0, i = 1, . . . , n.
Esto signica que el ajuste que se va a hacer esta centrado respecto de los datos.
Tema 1. Regresion lineal simple 5
1.2.4. Independencia
Las perturbaciones {u
i
}
n
i=1
son variables aleatorias independientes.
1.2.5. Normalidad
Los errores tienen una distribucion normal: u
i
N(0,
2
). Es decir, se distribuyen
siguiendo una campana de Gauss.
Esta suposicion es perfectamente razonable en virtud del teorema del lmite cen-
tral: si una variable es suma de muchas otras mas peque nas, entonces se distri-
buira normalmente.
Como consecuencia, y
i
N(
0
+
1
x
i
,
2
).
Observacion: Bajo las hipotesis de normalidad, la incorrelacion y la independencia
de las variables u
i
son equivalentes.
1.3. Estimacion de los parametros
Buscamos los parametros

0
y

1
que mejor se adapten a nuestros datos.
0
100
200
300
400
500
600
700
800
0 50 100 150 200 250
1.3.1. Metodo de maxima verosimilitud
Puesto que y
i
N(
0
+
1
x
i
,
2
), entonces su funcion de densidad es
f(y
i
) =
1

2
2
exp
_

(y
i

1
x
i
)
2
2
2
_
6 Estadstica II
y su funcion de maxima verosimilitud es
L(
0
,
1
,
2
) =
1
(2
2
)
n
2
exp
_
_
_
_
_
_

i=1
(y
i

1
x
i
)
2
2
2
_
_
_
_
_
_
.
A continuacion derivamos parcialmente respecto de las variables
0
,
1
and
2
.
_

_
ln L

0
= 0,
ln L

1
= 0,
ln L

2
= 0.
Las dos primeras ecuaciones se denominan ecuaciones normales de la regresion.
ln L

0
=
1

2
n

i=1
(y
i

1
x
i
).
ln L

1
=
1

2
n

i=1
x
i
(y
i

1
x
i
).
ln L

2
=
n
2
2
+
1
2
4
n

i=1
(y
i

1
x
i
)
2
.
Igualando a cero obtenemos que los estimadores

0
,

1
y

2
deben satisfacer
n

i=1
y
i
= n

0
+

1
n

i=1
x
i
, (1.1)
n

i=1
x
i
y
i
=

0
n

i=1
x
i
+

1
n

i=1
x
2
i
, (1.2)

2
=
n

i=1
(y
i

1
x
i
)
2
n
=
n

i=1
e
2
i
n
. (1.3)
Comenzamos trabajando la ecuacion (1.1):
n y = n

0
+ n

1
x;
y =

0
+

1
x;
Tema 1. Regresion lineal simple 7

0
= y

1
x.
Seguimos con (1.2):
nxy = n

0
x + n

1
x
2
;
xy =
_
y

1
x
_
x +

1
x
2
= x y

1
x
2
+

1
x
2
;
xy x y =

1
_
x
2
x
2
_
;
S
X,Y
=

1
S
2
X
;

1
=
S
X,Y
S
2
X
.
Finalmente, sustituyendo

0
y

1
en (1.3), se obtiene que

2
= S
2
Y
_
1
S
2
X,Y
S
2
X
S
2
Y
_
.
Por ultimo, evaluando la matriz hessiana con los valores obtenidos para los esti-
madores, se comprueba que se trata de un mnimo (local).
Algunas propiedades que se derivan para estos estimadores son las siguientes:
1. La recta de regresion simple pasa por la media muestral de los datos ( x, y).
2. La pendiente de la recta es proporcional a la covarianza entre las variables.
3. Como y =

0
+

1
x, entonces
y
i
= y +

1
(x
i
x), i = 1, . . . , n.
1.3.2. Metodo de mnimos cuadrados
En este caso se busca que sea mnima la suma de los cuadrados de las distancias
verticales entre los puntos y sus estimaciones a traves de la recta de regresion.
0
2
4
6
8
10
12
14
16
0 2 4 6 8 10
8 Estadstica II
La suma de los cuadrados de los residuos es
S(
0
,
1
) =
n

i=1
(y
i

1
x
i
)
2
.
Al minimizar, obtenemos los mismos estimadores para los parametros que en el
metodo de maxima verosimilitud bajo la hipotesis de normalidad, pues
ln L(
0
,
1
,
2
) =
n
2
ln (2
2
)
1
2
2
n

i=1
(y
i

1
x
i
)
2
y las derivadas parciales de S(
0
,
1
) nos llevan a las ecuaciones normales ya cono-
cidas
n

i=1
e
i
= 0,
n

i=1
e
i
x
i
= 0.
1.3.3. Estimacion de la varianza
Hemos visto que el estimador maximo verosmil es

2
=
n

i=1
e
2
i
n
.
Sin embargo, se puede comprobar que E(

2
) =
(n2)
2
n
, por lo que el estimador no
es insesgado. En su lugar, usaremos la varianza residual

S
2
R
=
n

i=1
e
2
i
n2
,
que s es insesgado.
Tema 1. Regresion lineal simple 9
1.4. Propiedades de los estimadores
1.4.1. Coecientes de regresi on
Normalidad
Al ser y
i
=
0
+
1
x
i
+ u
i
, entonces y
i
N(
0
+
1
x
i
,
2
). Obtendremos que los
estimadores

0
y

1
se distribuyen normalmente por ser combinaciones lineales de
variables normales.

1
=
n

i=1
(x
i
x)(y
i
y)
nS
2
X
=
n

i=1
(x
i
x)y
i
nS
2
X

i=1
(x
i
x) y
nS
2
X
.
Como
n

i=1
(x
i
x) y
nS
2
X
=
y
nS
2
X
n

i=1
(x
i
x) = 0,
entonces

1
=
n

i=1
(x
i
x)y
i
nS
2
X
=
n

i=1
w
i
y
i
,
con w
i
=
x
i
x
nS
2
X
.
Ahora

0
= y

1
x =
n

i=1
y
i
n
x
n

i=1
w
i
y
i
=
n

i=1
_
1
n
xw
i
_
y
i
.
Luego

0
y

1
son combinaciones lineales de variables normales e independientes.
En consecuencia, tambien siguen una distribucion normal.
Esperanza
Veremos que tanto

0
como

1
son estimadores centrados.
E(

1
) = E
_
n

i=1
w
i
y
i
_
=
n

i=1
w
i
E(y
i
) =
n

i=1
w
i
(
0
+
1
x
i
) =
=
0
n

i=1
w
i
+
1
n

i=1
w
i
x
i
=
0
0 +
1
1 =
1
.
10 Estadstica II
E(

0
) = E
_
n

i=1
_
1
n
xw
i
_
y
i
_
=
n

i=1
_
1
n
xw
i
_
E(y
i
) =
=
n

i=1
_
1
n
xw
i
_
(
0
+
1
x
i
) =
0
+
n

i=1
_
1
n
xw
i
_
+
1
n

i=1
_
1
n
xw
i
_
x
i
=
=
0
(1 x 0) +
1
( x x 1) =
0
.
As pues,

0
y

1
son estimadores insesgados.
Varianza
Como las variables y
i
son independientes, entonces
V ar(

1
) = V ar
_
n

i=1
w
i
y
i
_
=
n

i=1
w
2
i
V ar(y
i
) =
n

i=1
w
2
i

2
=
=
2
n

i=1
(x
i
x)
2
n
2
(S
2
X
)
2
)
=
2
S
2
X
n
2
(S
2
X
)
2
)
=

2
nS
2
X
.
La varianza de

1
mide el error que cometemos al estimar la pendiente de la
recta. Disminuira si:
aumenta n, es decir, se tiene una muestra de mayor tama no;
aumenta S
2
X
, es decir, los puntos estan mas dispersos.
V ar(

0
) =
n

i=1
_
1
n
xw
i
_
2
V ar(y
i
) =
2
n

i=1
_
1
n
xw
i
_
2
=

2
n

i=1
_
1
n
2
+ x
2
w
2
i

2
n
xw
i
_
=
2
_
1
n
+ x
2
n

i=1
w
2
i

2
n
x
n

i=1
w
i
_
=

2
_
1
n
+ x
2

1
nS
2
X
+ 0
_
=

2
n
_
1 +
x
2
S
2
X
_
.
Sin embargo, la varianza
2
suele ser un dato desconocido, por lo que se dene
el error est andar estimado siguiente como medida de precision de la estimacion de
los coecientes:
Tema 1. Regresion lineal simple 11
S(

0
) =
_

S
2
R
n
_
1 +
x
2
S
2
X
_
, S(

1
) =
_

S
2
R
nS
2
X
.
1.5. Inferencia respecto a los parametros
Despues de estimar los valores de los parametros es conveniente analizar el grado
de precision de la estimacion. Para ello nos valdremos de dos herramientas:
- intervalos de conanza y
- contrastes de hipotesis.
1.5.1. Intervalos de conanza
Recordemos que si

N(,
2
), entonces un intervalo de conanza para a
nivel de conanza 1 viene dado por

z
1/2

2
,
con P(N(0, 1) > z
1/2
) = /2.
Sabemos que

0
N
_

0
,

2
n
_
1 +
x
2
S
2
X
__
y

1
N
_

1
,

2
nS
2
X
_
.
Pero como
2
no es desconocida, la estimamos mediante

S
2
R
. En consecuencia, los
intervalos de conanza se obtienen ahora para una variable aleatoria con varianza
desconocida y son

0
t
n2,1/2
_

S
2
R
n
_
1 +
x
2
S
2
X
_
y

1
t
n2,1/2
_

S
2
R
nS
2
X
12 Estadstica II
para
0
y
1
, respectivamente.
Se demuestra (no lo haremos) teniendo en cuenta que
n

i=1
e
2
i

2

2
n2
y

V ar(
i
)
_

S
2
R

2
t
n2
.
Observacion: Si se tiene mas de 30 observaciones y se quiere un nivel de conanza
del 95 % (=0.05), entonces t
n2,1/2
2. As, los intervalos de conanza seran

i
2S(

i
).
O sea, hay (aproximadamente) una probabilidad del 95 % de que el parametro
i
se encuentre en el intervalo
_

i
2S(

i
),

i
+ 2S(

i
)
_
.
Cuanto mas estrecho sea este intervalo, mejor sera la estimaci on. Si el intervalo
de conanza contiene el valor cero, entonces no podemos descartar la posibilidad de
que
1
(la pendiente) sea cero, es decir, que las variables X e Y no esten relacionadas
(linealmente).
1.5.2. Contraste de hipotesis
Un modo de comprobar si
1
es cero es comprobar si el cero es un valor admisible
para el intervalo de conanza. Otro metodo es realizar el contraste de hipotesis
H
0
:
1
= 0,
H
1
:
1
= 0.
Bajo la hipotesis nula, se tiene que

1
S(

1
)
t
n2
, por lo que la region de rechazo
de la hipotesis nula es

1
S(

1
)

> t
n2,1/2
.
De nuevo, si n > 30 y = 0.05, entonces podemos aceptar que
1
= 0 si
en el contraste obtenemos un valor para el estadstico que este entre -2 y 2. En
caso contrario, podemos asegurar que
1
no es nula para ese nivel de conanza (las
variables X e Y s estan relacionadas linealmente).
Tema 1. Regresion lineal simple 13
Muchos programas estadsticos lo que hacen es devolver el p-valor del contraste,
que se dene como el mnimo nivel de signicacion que rechaza la hipotesis nula en
favor de la alternativa. En este caso,
p-valor = P
_

1
S(

1
)

> t
n2,1/2
_
.
Si el p-valor es menor o igual que el nivel de conanza , entonces se rechaza la
hipotesis nula.
1.5.3. Contraste de regresi on y descomposici on de la variabilidad
El contraste de regresion estudia la posibilidad de que la recta teorica tenga
pendiente nula (
1
= 0). Aunque acabamos de ver ese contraste, vamos a tratarlo
ahora desde el punto de vista del analisis de la varianza. Mas adelante, en el modelo
de regresion lineal m ultiple, se mostrara el interes de este contraste.
La Variabilidad Total (VT) del modelo es
n

i=1
(y
i
y)
2
y podemos descomponerla
de la siguiente manera:
V T =
n

i=1
(y
i
y)
2
=
n

i=1
(y
i
y
i
+ y
i
y)
2
=
n

i=1
(y
i
y
i
)
2
+
n

i=1
( y
i
y)
2
+2
n

i=1
(y
i
y
i
)( y
i
y)
Ahora se tiene que
n

i=1
(y
i
y
i
)( y
i
y) =
n

i=1
e
i

1
(x
i
x) =

1
_
n

i=1
e
i
x
i
x
n

i=1
e
i
_
= 0,
por lo que
V T = V E + V NE,
con
VT = variabilidad total =
n

i=1
(y
i
y)
2
,
VE = variabilidad explicada =
n

i=1
( y
i
y)
2
,
VNE = variabilidad no explicada =
n

i=1
(y
i
y
i
)
2
=
n

i=1
e
2
i
.
14 Estadstica II
Si VE es peque na, la recta de regresion no explica bien la variabilidad de los
datos.
No podemos comparar VE y VNE porque, en general, desconocemos su distribu-
cion. Pero se puede demostrar que si
1
= 0, entonces
V E
V NE/(n 2)
F
1,n2
(distribucion F de Snedecor).
Fuentes de Suma de Grados de Varianza Test F
variacion cuadrados libertad
VE
n

i=1
( y
i
y)
2
1

S
2
e

S
2
e

S
2
R
VNE
n

i=1
(y
i
y
i
)
2
n 2

S
2
R
VT
n

i=1
(y
i
y)
2
n 1
Tabla 1.1: Tabla ANOVA
1.5.4. Coeciente de determinaci on
El coeciente de determinacion R
2
describe en que medida la variable x describe
la variabilidad de y.
R
2
=
V E
V T
=
n

i=1
( y
i
y)
2
(
n

i=1
y
i
y)
2
=
n

i=1
( y
i
y)
2
nS
2
Y
.
A mayor valor, mayor es la relacion entre las variables.
1.6. Prediccion
En un modelo de regresion hay dos objetivos fundamentales:
- conocer la relacion entre la variable respuesta y la explicativa,
Tema 1. Regresion lineal simple 15
- utilizar el modelo ajustado para predecir el valor de la variable respuesta.
En este segundo punto surgen dos tipos de situaciones en funcion de la pregunta
que queramos responder:
1. Estimacion de la respuesta media: Cual es el peso medio de las personas que
miden 180 cm de estatura?
2. Prediccion de una nueva observacion: Sabiendo que una persona mide 180 cm,
cual es su peso esperado?
En ambos caso el valor estimado se obtiene mediante la recta de regresion. Por
ejemplo, si esta es y = x 100, entonces para x
0
= 180 cm obtendremos un peso
y
0
= 80 kg. No obstante, la precision de las estimaciones es diferente.
En el primer caso, el intervalo de conanza es
y
0
t
n2,1/2
_

S
2
R
_
1
n
+
(x
0
x)
2
nS
2
X
_
.
En el segundo obtendremos un intervalo mas amplio denominado intervalo de
prediccion:
y
0
t
n2,1/2
_

S
2
R
_
1 +
1
n
+
(x
0
x)
2
nS
2
X
_
.
Este intervalo tiene mayor amplitud (menos precision) porque no buscamos pre-
decir un valor medio sino un valor especco.
1.7. Diagnosis mediante residuos
Despues de haber obtenido la recta de regresion, hay que comprobar si se cumplen
las hipotesis iniciales.
1.7.1. Linealidad
Con el graco de dispersion X-Y vemos si los datos iniciales presentan una estruc-
tura lineal. Esta es una comprobacion que realizamos antes de comenzar el analisis
de regresion.
16 Estadstica II
Despues de obtener los parametros de regresion, estudiaremos el graco de resi-
duos frente a valores predichos. Este graco debe presentar un aspecto totalmente
aleatoria, sin estructura alguna.
Valores predichos
R
e
s
i
d
u
o
s
0 200 400 600 800
-1,8
-0,8
0,2
1,2
2,2
Si tienen alg un tipo de estructura, entonces no se satisface la hipotesis de linea-
lidad.
Valores predichos
R
e
s
i
d
u
o
s
0 100 200 300
-6
-4
-2
0
2
4
6
1.7.2. Homocedasticidad
Al analizar los residuos , tambien hay que vericar que su varianza sea mas o
menos constante. Nos seran utiles los gracos de residuos frente a valores ajustados
y de residuos frente a X.
X
R
e
s
i
d
u
o
s
0 40 80 120 160 200
-9
-6
-3
0
3
6
9
Valores predichos
R
e
s
i
d
u
o
s
0 50 100
-9
-6
-3
0
3
6
9
Tema 1. Regresion lineal simple 17
1.7.3. Independencia
Esta hipotesis es muy importante. Aunque existen contrastes para comprobarla
(contraste de Durbin-Watson), no profundizaremos en ese aspecto.
Simplemente hay que tener en cuenta que si los datos son temporales (por ejem-
plo, combustible utilizado y rendimiento en das sucesivos), entonces no debe em-
plearse un modelo de regresion lineal.
1.7.4. Normalidad
Mediante un histograma o un gr aco probabilstico normal de los residuos pode-
mos vericar si estos se distribuyen normalmente.
Residuos
F
r
e
c
u
e
n
c
i
a
-1,9 -0,9 0,1 1,1 2,1 3,1
0
5
10
15
20
25
-1,8 -0,8 0,2 1,2 2,2
0.1
1
5
20
50
80
95
99
99,9
1.7.5. Transformaciones de los datos
En ocasiones, no se satisfacen las hipotesis exigidas por el modelo y es necesario
transformar los datos de tal forma que los datos transformados satisfagan dichas
hipotesis. Algunas transformaciones frecuentes son las siguientes:
Forma funcional que Transformacion
relaciona y con x apropiada
Exponencial: y = ae
bx
y

= ln y
Potencia: y = ax
b
y

= ln y, x

= ln x
Recproca: y = a +
b
x
x

=
1
x
Hiperbolica: y =
x
a+bx
y

=
1
y
, x

=
1
x
1.8. Apendice
1. Si Y
i
es una variable aleatoria con funcion de densidad f(y
i
|), donde es un
parametro desconocido, e {y
1
, . . . , y
n
} es una observacion de {Y
i
}, entonces la
18 Estadstica II
funcion de verosimilitud asociada a la observacion es
L(|y) =
n

i=1
f(|y
i
).
2. Varianza muestral de una variable X:
S
2
X
=
n

i=1
(x
i
x)
2
n
= x
2
x
2
.
3. Covarianza muestral de dos variables X e Y :
S
X,Y
=
n

i=1
(x
i
x)(y
i
y)
n
= xy x y.
4. Si w
i
=
x
i
x
nS
2
X
, entonces:
i)
n

i=1
w
i
= 0,
ii)
n

i=1
w
i
x
i
= 1.
Demostracion:
i)
n

i=1
w
i
=
n

i=1
x
i
x
nS
2
X
=
1
S
2
X
_
_
_
_
_
_
n

i=1
x
i
n

n

i=1
x
n
_
_
_
_
_
_
=
1
S
2
X
( x x) = 0.
ii)
n

i=1
w
i
x
i
=
n

i=1
_
x
i
x
nS
2
X
_
x
i
=
1
S
2
X
_
_
_
_
_
_
n

i=1
x
2
i
n
x
n

i=1
x
i
n
_
_
_
_
_
_
=
x
2
x
2
S
2
X
=
S
2
X
S
2
X
= 1.
5. Esperanza y varianza de combinaciones lineales de variables aleatorias.
i) Si a R y X es una variables aleatoria, entonces
E(aX) = aE(X),
V ar(aX) = a
2
V ar(X).
Tema 1. Regresion lineal simple 19
ii) Si a
1
, . . . , a
n
R y X
1
, . . . , X
n
son variables aleatorias, entonces
E
_
n

i=1
a
i
X
i
_
=
n

i=1
a
i
E(X
i
).
iii) Si a
1
, . . . , a
n
R y X
1
, . . . , X
n
son variables aleatorias independientes,
entonces
V ar
_
n

i=1
a
i
X
i
_
=
n

i=1
a
2
i
V ar(X
i
).
Como las distribuciones normal y t de Student son simetricas respecto del
origen, entonces z

= z
1
y t
n,
= t
n,1
.
Tema 2
Regresion lineal m ultiple
2.1. Introduccion
Hasta ahora hemos estudiado un modelo en el que hay una unica variable expli-
cativa. Sin embargo, es razonable pensar que puedan existir varias variables indepen-
dientes x
i
que contribuyan a explicar la variable dependiente y. Es entonces cuando
se utiliza el modelo de regresion lineal m ultiple
y =
0
+
1
x
1
+ +
k
x
k
+ u.
Si tenemos n observaciones {(x
i1
, . . . , x
ik
)}
n
i=1
, entonces
y
i
=
0
+
1
x
i1
+ +
k
x
ik
+u
i
, i = 1, . . . , n.
2.2. Hip otesis del modelo
El modelo de regresion lineal m ultiple requiere diversas condiciones analogas a
las del modelo de regresion lineal simple.
2.2.1. Linealidad
Los datos deben satisfacer una relacion lineal
y
i
=
0
+
1
x
i1
+ +
k
x
ik
.
21
22 Estadstica II
Si hay solo dos variables explicativas,
y
i
=
0
+
1
x
i1
+
2
x
i2
,
entonces los datos deben estar aproximadamente contenidos en un plano. Para tres
o mas variables explicativas, la ecuacion de regresion es un hiperplano y no podemos
visualizar los datos gracamente.
2.2.2. Homocedasticidad
La varianza debe ser constante: V ar(u
i
) =
2
, i = 1, . . . , n.
2.2.3. Homogeneidad
La perturbacion tiene esperanza nula: E(u
i
) = 0, i = 1, . . . , n.
2.2.4. Independencia
Las perturbaciones u
i
son independientes entre s.
2.2.5. Normalidad
Las perturbaciones u
i
tienen distribucion normal: u
i
N(0,
2
), i = 1, . . . , n.
En consecuencia, y
i
N(
0
+
1
x
i1
+ +
k
x
ik
,
2
), = 1, . . . , n.
2.2.6. Otras hipotesis
Hipotesis adicionales son:
El n umero de datos n es mayor que k + 1.
Ninguna variable explicativa es una combinacion lineal de las demas, es decir,
las variables x
i
son linealmente independientes.
Tema 2. Regresion lineal m ultiple 23
2.3. Forma matricial del modelo
El modelo puede expresarse mediante matrices de la forma siguiente:
Y = X + U,
con
Y =
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
, X =
_
_
_
_
_
1 x
11
. . . x
1k
1 x
21
. . . x
2k
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n1
. . . x
nk
_
_
_
_
_
, =
_
_
_
_
_

1
.
.
.

k
_
_
_
_
_
, U =
_
_
_
_
_
u
1
u
2
.
.
.
u
n
_
_
_
_
_
.
Con esta notacion matricial:
U N(0
n
,
2
I
n
), Y N(X,
2
I
n
).
2.4. Estimacion de los parametros
Buscamos estimar los parametros de regresion
0
,
1
, . . . ,
k
.
Como consecuencia de las hipotesis del modelo, van a coincidir los estimadores
obtenidos mediante los metodos de maxima verosimilitud y mnimos cuadrados.
2.4.1. Coecientes de regresi on
Calculemos

0
, . . . ,

k
mediante mnimos cuadrados:
L(
0
,
1
, . . . ,
k
) =
n

i=1
(y
i

1
x
i1

k
x
ik
)
2
.
Derivando parcialmente, {

0
,

1
, . . . ,

k
} es la solucion de
L

j
= 0, j = 0, . . . , k;
_

_
0 =
L

0
= 2
n

i=1
(y
i

1
x
i1

k
x
ik
,
0 =
L

j
= 2
n

i=1
(y
i

1
x
i1

k
x
ik
)x
ij
, j = 1, . . . , k.
24 Estadstica II
Llamando e
i
= y
i
y
i
= y
i

1
x
i1

k
x
ik
, entonces
_

_
n

i=1
e
i
= 0,
n

i=1
e
u
ix
ij
= 0, j = 1, . . . , k.
Estas ecuaciones podemos resolverlas si trabajamos con la expresion matricial
del modelo: Y = X + U. As,
L() = (Y X)
t
(Y X) = Y
t
Y 2Y
t
X +
t
X
t
X.
Derivando parcialmente esta expresion:
0 =
L

= 2X
t
Y + 2X
t
X;
X
t
X = X
t
Y ;

= (X
t
X)
1
X
t
Y.
2.4.2. Varianza
Para estimar la varianza usaremos la varianza residual :

S
2
R
=
n

i=1
e
2
i
nk1
.
Este estimador es insesgado para
2
. Se puede demostrar que
n

i=1
e
2
i

2

2
nk1
.
2.4.3. Comentarios
Como y =

0
+

k
i=1

i
x
i
e y =

0
+

k
i=1

i
x
i
, entonces y y =

k
i=1

i
(x
i
x
i
).
Si

Y =

Y

Y =
_
_
_
y
1
y
.
.
.
y
n
y
_
_
_
, b =
_
_
_

1
.
.
.

k
_
_
_
y
Tema 2. Regresion lineal m ultiple 25

X =
_
_
_
_
_
x
11
x
1
. . . x
1k
x
k
x
21
x
1
. . . x
2k
xk
.
.
.
.
.
.
.
.
.
x
n1
x
1
. . . x
nk
x
k
_
_
_
_
_
,
entonces

Y =

Xb.
Sean ahora S
X,X
=
1
n

X
t

X y S
X,Y
=
1
2

X
t

Y , es decir, S
X,X
es la matriz de varianzas
y covarianzas de las variables explicativas y S
X,Y
el vector de covarianzas entre las
variables explicativas y la variables respuesta. Se tiene que

Y =

Xb;

X
t

Y =

X
t

Xb;
b = (

X
t

X)
1

X
t

Y = S
1
X,X
S
X,Y
.
Si las variables x
i
son incorreladas, entonces S
XX
es una matriz diagonal y se
resulta que
b
i
=

i
=
Cov(y, x
i
)
V ar(x
i
)
,
coincidiendo con el coeciente de regresion obtenido para el modelo de regresion
lineal simple.
2.5. Propiedades de los estimadores
2.5.1. Normalidad
Sabemos que Y = X + U tiene una distribucion normal, Y N(X,
2
I
n
).
Como

= (X
t
X)
1
X
t
Y , entonces

es una funcion lineal de Y . En consecuencia,
tambien se distribuye normalmente.
2.5.2. Esperanza
El estimador

es insesgado para .
E(

) = E
_
(X
t
X)
1
X
t
Y

= (X
t
X)
1
X
t
E(Y ) = (X
t
X)
1
X
t
X = .
26 Estadstica II
2.5.3. Varianza
V ar(

) = V ar
_
(X
t
X)
1
X
t
Y

= (X
t
X)
1
X
t
V ar(Y )X(X
t
X)
1
=
= (X
t
X)
1
X
t

2
X(X
t
X)
1
=
2
(X
t
X)
1
.
En concreto,
V ar(

i
=
2
(X
t
X)
1
ii
,
Cov(

i
,

j
) =

(X
t
X)
1
ij
.
As,

i
N(
i
,
2
(X
t
X)
1
ii
).
Sin embargo, la varianza
2
suele ser desconocida. Por lo tanto, denimos el error
est andar estimado como
S(

i
) =
_
(X
t
X)
1
ii

S
2
R
.
2.6. Inferencia
Puede resultar interesante realizar contrastes de hipotesis y obtener intervalos de
conanza para cada coeciente de regresion. As podemos determinar la inuencia
de cada variable explicativa sobre el modelo de regresion.
2.6.1. Contrastes para los coecientes de regresi on
Estamos interesados en saber si la variable x
i
afecta o no a la respuestas (en cuyo
caso convendra eliminarla del modelo). Para ello realizamos el contraste
H
0
:
i
= 0
H
1
:
i
= 0.
Sabemos que

i
N(
i
,
2
(X
t
X)
1
ii
), por lo que

2
(X
t
X)
1
ii
N(0, 1).
Tema 2. Regresion lineal m ultiple 27
Como
2
no suele conocerse, en su lugar empleamos la varianza residual

S
2
R
.
Puesto que
(nk1)

S
2
R

2

2
nk1
, entonces el siguiente estimador sigue una distribu-
cion t
nk1
:
N(0, 1)
_

2
nk1
nk1
=

i
_

S
2
R
(X
t
X)
1
ii
=

i
S(

i
)
.
Ahora, bajo la hipotesis nula se tiene que

i
S(

i
)
t
nk1
. Por lo tanto, si

i
S(

i
)

> t
nk1,1/2
,
entonces rechazamos que
i
pueda ser cero. En concreto, si n > 30 y = 0.05,
entonces t
nk1,1/2
2.
2.6.2. Intervalos de conanza
Puesto que

i
S(

i
)
t
nk1
, se tiene que
P
_
t
nk1,1/2

i
S(

i
)
t
nk1,1/2
_
= 1 ;
P
_

i
t
nk1,1/2
S(

i
) <
i
<

i
+ t
nk1,1/2
S(

i
_
.
As que
_

i
t
nk1,1/2
S(

i
),

i
+ t
nk1,1/2
S(

i
)
_
es un intervalo de con-
anza para
i
con nivel de conanza 1 . Analogamente a lo ya visto, si n > 30 y
= 0.05, el intervalo puede aproximarse por

i
2S(

i
).
2.6.3. Contraste de regresi on
Al igual que sucede en el modelo de regresion lineal simple, se tiene la relacion
V T = V E + V NE, donde
VT = variabilidad total =
n

i=1
(y
i
y)
2
,
VE = variabilidad explicada =
n

i=1
( y
i
y)
2
,
VNE = variabilidad no explicada =
n

i=1
(y
i
y
i
)
2
=
n

i=1
e
2
i
.
28 Estadstica II
El contraste de regresion establece si existe relacion lineal entre la variable res-
puesta y los coecientes de regresion:
H
0
:
1
=
2
= =
k
= 0,
H
1
: j {1, . . . , k} /
j
= 0.
Por una parte, sabemos que
V NE

2

2
nk1
. Por otra parte, se puede demostrar
que
V E

2

2
k
. En consecuencia,
V E/k
V NE/(n k 1)
F
k,nk1
.
Fuentes de Suma de Grados de Varianza Test F
variacion cuadrados libertad
VE (modelo)
n

i=1
( y
i
y)
2
k

S
2
e
=
V E
k

S
2
e

S
2
R
VNE (residual)
n

i=1
e
2
i
n k 1

S
2
R
VT
n

i=1
(y
i
y)
2
n 1
Tabla 2.1: Tabla ANOVA
Buscamos el valor F
k,nk1;
tal que P(F > F
k,nk1;)=
.
Por lo tanto, si el valor del estadstico es mayor que F
k,nk1;
, entonces rechaza-
remos la hipotesis nula y concluiremos que el modelo explica una parte signicativa
de y. En caso contrario, concluiremos que el modelo no explica conjuntamente nada.
2.7. El coeciente de determinacion corregido
Para construir una medida que describa el ajuste global del modelo se utiliza el
cociente entre las variabilidades explicada y total del modelo. Es lo que se llama el
coeciente de determinacion.
R
2
=
V E
V T
=
n

i=1
( y
i
y)
2
(y
i
y)
2
= 1
V NE
V T
.
Por denicion, 0 R
2
1. En particular, si R
2
= 1, entonces existe una relacion
lineal exacta entre la variable respuesta y las variables explicativas.
Tema 2. Regresion lineal m ultiple 29
Aunque el valor R
2
da una medida de lo adecuado que es el modelo, un mayor R
2
no tiene por que implicar un mejor modelo. La razon es que R
2
aumenta siempre
que se introduce una nueva variable, aunque esta no sea signicativa.
Para solventar este problema, el coeciente R
2
se corrige por el n umero de grados
de libertad del modelo. Esto penaliza el n umero de variables que se introducen.
As obtenemos el coeciente de determinacion corregido

R
2
= 1
V NE/(n k 1)
V T/(n 1)
= 1

S
2
R
V T/(n 1)
.
De este modo,

R
2
solo aumenta si disminuye

S
2
R
.
2.8. Regresion con variables cualitativas
2.8.1. Variables dicot omicas
Consideremos el siguiente diagrama de dispersion que representa el precio del
alquiler (y) en una muestra de viviendas de Madrid en funcion de su supercie en
metros cuadrados (x
2
).
y
B
y
A
y
B
A
X
Y
Al analizar la muestra, vemos claramente que existen dos grupos de observaciones.
Si se ignora este hecho, la recta de regresion va a estimar el modelo con muy poca
precision (la recta y). En cambio, si en lugar de una recta estimamos dos, entonces
obtenemos ajustes mucho mejores (rectas y
A
e y
B
).
30 Estadstica II
Este suceso se da con mucha frecuencia. Datos que vienen en grupos son:
peso y altura en funcion del sexo,
densidad de un material y temperatura del proceso en funcion de la presencia
o ausencia de un metal,
consumo de un motor y potencia en funcion del tipo de motor (diesel o gasoli-
na).
Para resolver este problema, se introducen unas variables binarias (dicotomicas)
denominadas variables cticias, indicadoras o dummies:
z
i
=
_
0 si la observacion i pertenece al grupo A,
1 si la observacion i pertenece al grupo B.
Tras denir la variable z de este modo, se ajusta un modelo de la forma
y =
0
+
1
x +
2
z + u.
Este modelo tiene la propiedad de ajustar las dos rectas de regresion. Si la ob-
servacion i pertenece al grupo A, entonces
y
i
=

0
+

1
x
i
,
mientras que si pertenece al grupo B, entonces
y
i
= (

0
+

2
) +

1
x
i
.
Supongamos que z
i
vale 1 si la observacion i pertenece a un hombre y 0 si per-
tenece a una mujer. Si ajustamos un modelo como el que acabamos de ver para
relacionar peso (y) y altura (x), obtendremos que un hombre pesa

2
kg mas que
una mujer de la misma altura. Ahora bien, de acuerdo con el modelo, el ratio de
crecimiento (la pendiente

1
) es el mismo para ambos generos, cosa que podra no
ser cierta.
Tema 2. Regresion lineal m ultiple 31
Para ver si el hecho de ser hombre o mujer (la variable cualitativa) afecta al ratio
de crecimiento (la pendiente de la recta de regresion), estudiaremos la interaccion
entre ambas mediante un modelo de la forma
y =
0
+
1
x +
2
z +
3
xz +u.
As, para una observacion i:
si z
i
= 0, entonces y
i
=

0
+

1
x
i
,
si z
i
= 1, entonces yigorro = (

0
+

2
) + (

1
+

3
)z
i
.
2.8.2. Variables politomicas
Sucede a menudo que las variables cualitativas no se limitan a tomar valores en
dos categoras (s/no), sino que recorren ua gama mas amplia (estudios primarios,
medios o superiores; satisfaccion ninguna, poca, regular, bastante o completa. . . ).
Modelizar estas situaciones es bastante sencillo: si tenemos s categoras, entonces
introduciremos s 1 variables dicotomicas z
t
donde
z
i
=
_
1 si la observacion i pertenece a la categora t,
0 en caso contrario.
Por ejemplo, si se esta calentando una serie de barras para estudiar su dilatacion y
el proceso puede ser realizado en una las de cuatro maquinas disponibles, las distintas
variables del modelo son: y (dilatacion en centmetros), x (temperatura en grados
centgrados) y
z
i
=
_
1 si la maquina i es la empleada en el proceso,
0 en caso contrario.
El modelo sera
y =
0
+
1
x +
2
z
1
+
3
z
2
+
4
z
3
+ u.
2.9. Prediccion
Tanto para predecir el valor medio como el de una observacion especca, la
estimacion se obtiene sustituyendo el valor de la observacion x
h
en el modelo de
regresion:
y
h
=

0
+

1
x
h1
+ +

k
x
hk
.
32 Estadstica II
Para el valor medio, un intervalo de conanza a nivel 1 es
y
h
t
nk1,1/2
_

S
2
R
(1+ x
t
h
S
1
XX
x
h)
n
,
donde x
h
= (x
1h
x
1
, . . . , x
kh
x
k
) no incluye la entrada correspondiente al uno
de
0
y S
XX
es la matriz de varianzas y covarianzas entre las x
i
.
Un intervalo de prediccion para una observacion especcas es
y
h
t
nk1,1/2
_

S
2
R
_
1 +
1+ x
t
h
S
1
XX
x
h
n
_
,
2.10. Multicolinealidad
El problema de la multicolinealidad se da con frecuencia a la hora de ajustar
un modelo de regresion m ultiple: se presenta cuando las variables cualitativas estan
altamente interrelacionadas. Si una variable explicativa esta relacionada exactamente
con las demas, entonces no es posible estimar sus efectos.
Hay que destacar que no es un problema del modelo sino de los datos: a la hora
de calcular (X
t
X)
1
, puede suceder que det(X
t
X) sea cero o este muy cerca de serlo.
Podemos detectar que hay multicolinealidad de diferentes maneras:
1. Las variables explicativas son signicativas en el modelo de regresion lineal
simple, pero dejan de serlo en el modelo de regresion m ultiple (estadsticos t
bajos). Tambien se detecta la multicolinealidad porque, aunque el contraste t
de valores bajos, el contraste F indica que una parte importante de la variabi-
lidad del modelo es explicada (valor alto del estadstico) y/o el coeciente de
determinacion corregido es alto.
2.

Indice de condicionamiento: Sean
1

k+1
los autovalores de X
t
X. Se
dene el ndice de condicionamiento como
IC =
_

k+1

1
1.
Si 10 IC 30, se dice que hay multicolinealidad moderada. Si IC > 30, se
dice que hay multicolinealidad alta.
La idea es que si hay multicolinealidad, entonces alguno de los autovalores
de X
t
X estara proximo a cero.
Tema 2. Regresion lineal m ultiple 33
Para reducir el problema de multicolinealidad, una posible solucion es eliminar
alguna de las variables explicativas que dependa fuertemente de otras.
2.11. Diagnosis
El proceso de diagnosis en regresion m ultiple es mas complejo porque no es posible
visualizar los datos correctamente.
Ademas de las tecnicas ya vistas en regresion simple para comprobar las hipotesis
de linealidad, heterocedasticidad y normalidad, en regresi on m ultiple tambien es util
realizar gracos de residuos frente a las variables explicativas x
i
. Permiten identicar
si alguna variable produce los efectos de falta de linealidad y heterocedasticidad.
2.12. Apendice
1. Si y, a R
n
, entonces
y
t
a
a
= y.
2. Si a R
n
y X R
nn
, entonces
a
t
Xa
a
= 2Xa.
3. Si A R
mn
e Y R
n
, entonces:
a) E(AY ) = AE(Y );
b) V ar(AY ) = AV ar(Y )A
t
.
4. Los autovalores de la matriz A R
nn
se calculan resolviendo la ecuacion
|A I
n
| = 0.
Tema 3
Analisis de la varianza
3.1. Introduccion
El analisis de la varianza (ANalysis Of VAriance, ANOVA) es un procedimiento
para descomponer la variabilidad de un experimento en componentes independientes
que puedan asignarse a causas distintas.
A grandes rasgos, el problema es el siguiente:
1. Tenemos n elementos que se diferencia en un factor (estudiantes de distintas
clases, vehculos de distintas marcas, productos manufacturados en distintos
procesos. . . ).
2. En cada elemento (personas, vehculos, productos. . . ) observamos una carac-
terstica que vara aleatoriamente de un elemento a otro: las notas de los estu-
diantes, el consumo de gasolina de los vehculos, los tiempos de fabricacion de
los productos. . .
3. Se desea establecer si hay o no relacion entre el valor medio de la caractersti-
ca estudiada y el factor: tienen todas las clases la misma nota media? los
vehculos el mismo consumo? los productos el mismo tiempo de fabricacion?
Veamoslo con un ejemplo:
Ejemplo 1
Un fabricante de bolsas de papel quiere mejorar la resistencia a la tension de las
bolsas. El ingeniero de produccion piensa que hay una relacion entre la cantidad de
celulosa utilizada en la fabricacion del papel y su resistencia.
35
36 Estadstica II
Para ello se realiza un experimento en el que se fabrica papel con distintos por-
centajes de celulosa y se mide la resistencia.
% celulosa Resistencia
5 7 8 15 11 9 10
10 12 17 13 18 19 15
15 14 18 19 17 16 18
20 19 25 22 23 18 20
R
e
s
i
s
t
e
n
c
i
a
Porcentaje de celulosa
5 10 15 20
7
10
13
16
19
22
25
3.2. El modelo
Sea y la variable de interes.
y = resistencia de las bolsas
Sea F el factor que inuye en los valores de y.
F = porcentaje de celulosa
Sea I el n umero de niveles de F.
I = 4
Sea n
i
, i = 1, . . . , I, el n umero de observaciones tomadas para el nivel i. No tiene
por que haber el mismo n umero de observaciones para todos los grupos.
n
1
= n
2
= n
3
= n
4
= 6
Tema 3. Analisis de la varianza 37
Ahora, para i = 1, . . . , I, j = 1, . . . , n
i
, sea y
ij
=
i
+
ij
, con
y
ij
= j-esima observacion del i-esimo grupo,

i
= media del i-esimo grupo,

ij
= perturbacion que mide la variabilidad debida al error experimental.
Como
ij
= y
ij

i
, se puede ver como la desviacion de la j-esima observacion
del grupo i respecto de la media del grupo.
Otra forma de escribir el modelo es
y
ij
= +
i
+
ij
,
con
= media de todas las observaciones,

i
= efecto diferencial del grupo (
i
=
i
).
Las perturbaciones
ij
representan la variabilidad intrnseca del experimento: son
variables aleatorias. Asumiremos para ellas las siguientes hipotesis:
1. El promedio de las perturbaciones es cero.
E(
ij
) = 0 i, j.
2. La variabilidad es la misma en todos los grupos.
V ar(
ij
) =
2
i, j.
3. La distribucion de las perturbaciones es normal.

ij
N(0,
2
) i, j.
Esto implica que sus desviaciones respecto de la media son simetricas y pocas
observaciones (el 5 %) se alejan mas de dos desviaciones tpicas respecto de la
media.
4. Las perturbaciones son independientes.
Como
ij
N(0,
2
), entonces y
ij
N(
i
,
2
).
38 Estadstica II
3.3. Estimacion de los parametros
Nuestro modelo es
y
ij
=
i
+
ij
, y
ij
N(
i
,
2
), i = 1, . . . , I, j = 1, . . . , n
i
.
Este modelo tiene I + 1 parametros desconocidos: las medias
1
, . . . ,
I
y la
varianza
2
. Vamos a estimarlos usando el metodo de maxima verosimilitud.
La funcion de densidad para la observacion y
ij
es
f(y
ij
|
i
,
2
) =
1

2
2
exp
(y
ij

i
)
2
2
2
,
por lo que la funcion de maxima verosimilitud de la muestra es
L(,
2
) = (2
2
)

n
2
exp
I

i=1
n
i

j=1
(y
ij

i
)
2
2
2
.
Tomando logaritmos:
ln L =
n
2
ln (2
2
)
1
2
2
I

i=1
n
i

j=1
(y
ij

i
)
2
.
As:
0 =
ln L

i
=
1

2
n
i

j=1
(y
ij

i
) =
n

2
( y
i

i
);

i
= y
i
.
En consecuencia, un estimador de la perturbacion
ij
sera
ij
= y
ij

i
.
A la estimacion del error se la denomina residuo:
e
ij
= y
ij
y
i
.
El residuo mide la variabilidad no explicada.
Busquemos ahora una estimacion de la varianza del error:
0 =
ln L

2
=
n
2
2
+
1
2(
2
)
2
I

i=1
n
i

j=1
(y
ij

i
)
2
;
Tema 3. Analisis de la varianza 39
0 = n +
1

2
I

i=1
n
i

j=1
(y
ij

i
)
2
;

2
=
I

i=1
n
i

j=1
(y
ij

i
)
2
n
=
I

i=1
n
i

j=1
(y
ij
y
i
)
2
n
=
I

i=1
n
i

j=1
e
2
ij
n
.
Sin embargo, este estimador es sesgado. En su lugar, emplearemos la varianza
residual

S
2
R
=
I

i=1
n
i

j=1
e
2
ij
n I
.
Puede reescribirse como la media ponderada de las cuasivarianzas de cada grupo:

S
2
R
=
I

i=1
(n
i
1)s
2
i
n I
.
Como
(n
i
1)s
2
i

2

2
n
i
1
, entonces
(nI)

S
2
R

2

2
nI
.
3.4. Propiedades de los estimadores de las medias
3.4.1. Esperanza
El estimador
i
es centrado:
E(
i
) = E
_

n
i
j=1
y
ij
n
i
_
=

n
i
i=1
E(y
i
)
n
i
=

n
i=1

i
n
i
=
i
.
3.4.2. Varianza
V ar(
i
) = V ar
_

n
i
j=1
y
ij
n
i
_
=

n
i
i=1
V ar(y
i
)
n
2
i
=

n
i
i=1

2
n
2
i
=

2
n
i
.
40 Estadstica II
Ademas, como
i
es combinacion lineal de variables aleatorias independientes
normales, entonces tambien esta distribuida normalmente. Luego

i
N
_

i
,

2
n
i
_
.
Un intervalo de conanza para
i
es

i
z
1/2

n
i
.
Pero como no suele conocerse, se usa

i
t
n
i
1,1/2
s
i

n
i
.
3.5. Descomposici on de la variabilidad
El objetivo del analisis es saber si el factor que se estudia es o no inuyente. En
el modelo, esto signica que hay que comprobar si todas las medias son iguales o si
existe alguna que sea diferente. Es decir, se trata del contraste:
H
0
:
1
= =
I
,
H
1
: i, j {1, . . . , I} /
i
=
j
.
Aunque estemos analizando medias, hablamos de analisis de la varianza porque la
variabilidad de los datos es fundamental para decidir si las medias son o no distintas.
Las desviaciones entre los datos observados y la media general pueden expresarse
mediante la identidad
y
ij
y = ( y
i
y) + (y
ij
y
i
).
Esta igualdad descompone la variabilidad entre los datos y la media general en
dos terminos: la variabilidad entre las medias y la media general y la variabilidad
residual (variabilidad de los grupos).
Elevando al cuadrado y sumando para los n terminos:
I

i=1
n
i

j=1
(y
ij
y)
2
=
I

i=1
n
i

j=1
( y
i
y)
2
+
I

i=1
n
i

j=1
(y
ij
y
i
)
2
+2
I

i=1
n
i

j=1
( y
i
y)(y
ij
y
i
) =
Tema 3. Analisis de la varianza 41
=
I

i=1
n
i
( y
i
y)
2
+
I

i=1
n
i

j=1
e
2
ij
.
A continuacion se denen las siguientes expresiones:
VT = variabilidad total =
I

i=1
n
i

j=1
(y
ij
y)
2
,
VE = variabilidad explicada =
I

i=1
n
i
( y
i
y)
2
.
VNE = variabilidad no explicada =
I

i=1
n
i

j=1
(y
ij
y
i
)
2
.
De este modo, VT = VE + VNE.
La variabilidad explicada es la variabilidad debida a la existencia de los distintos
grupos. Mide la variabilidad entre ellos. Si VE es peque na, entonces las medias seran
similares.
La variabilidad no explicada es la variabilidad debida al error experimental. Mide
la variabilidad dentro de los grupos.
Aunque no es posible comparar VE y VNE porque desconocemos como est an
distribuidas, s sabemos que:
1.
V NE

2

2
nI
.
2. Si
1
= =
I
(la hipotesis nula es cierta), entonces
V E

2

2
I1
.
En consecuencia, cuando se cumple la hipotesis nula, se tiene que
V E/(I 1)
V NE/(n I)
F
I1,nI
.
En la tabla ANOVA siguiente se muestra toda la informacion asociada al con-
traste:
42 Estadstica II
Fuentes de Suma de Grados de Varianza Test F
variabilidad cuadrados libertad
VE: entre grupos

I
i=1
n
i
( y
i
y)
2
I 1

S
2
e
=
I

i=1
n
i
( y
i
y)
I1

S
2
e

S
2
R
VNE: residual
I

i=1
n
i

j=1
(y
ij
y
i
)
2
n I

S
2
R
=
I

i=1
n
i

j=1
(y
ij
y
i
)
2
nI
VT: total
I

i=1
n
i

j=1
(y
ij
y)
2
n 1
I

i=1
n
i

j=1
n1
Si

S
2
e

S
2
R
> F
I1,nI;1
, entonces se rechaza la hipotesis nula.
Ejemplo 2
En el ejemplo de la celulosa,

S
2
e

S
2
R
= 19, 61 y F
3,20;0.95=3.098
,
por lo que las medias son distintas.
Ahora bien, existen algunas que puedan considerarse iguales?
3.6. Estimacion de la diferencia de medias
Una vez sabemos que las medias son distintas, nos interesa saber si al menos
algunas de ellas son iguales. Para ello, una posibilidad es compararlas dos a dos
mediante el contraste
H
0
:
1
=
2
,
H
1
:
1
=
2
.
Como la varianza es desconocida, para el contraste tenemos el estadstico
t =
y
1
y
2
_
(n
1
1) s
2
1
+(n
2
1) s
2
2
n
1
+n
2
2
_
1
n
1
+
1
n
2
_
.
Si |t| > t
n
1
+n
2
1,1/2
, entonces se rechaza H
0
.
Tema 3. Analisis de la varianza 43
Ejemplo 3
En el caso de la celulosa:
(i,j) t
(1,2) 3.48
(1,3) 5.12
(1,4) 7.07
(2,3) 0.98
(2,4) 3.49
(3,4) 3.06
Observamos que no hay diferencias entre los grupos 2 y 3.
Metodo de Fischer o LSD (Least Signicative Distance)
Si, aunque desconocida, estamos aceptando que todas las varianzas son iguales,
entonces podemos estimar la varianza informacion de todas las muestras y no solo
la de los dos grupos que intervienen en el contraste: empleamos

S
2
R
.
El estadstico es
t =
y
1
y
2
_
_
1
n
1
+
1
n
2
_

S
2
R
.
Si |t| > t
nI,1/2
, entonces se rechaza H
0
.
Con el metodo de Fischer podemos detectar diferencias mas peque nas.
Ejemplo 4
En el caso de la celulosa:
(i,j) t
(1,2) 3.84
(1,3) 4.75
(1,4) 7.57
(2,3) 0.90
(2,4) 3.73
(3,4) 2.82
Nuevamente vemos que no hay diferencias entre los grupos 2 y 3.
44 Estadstica II
Un intervalo de conanzas para la diferencia de medias es
( y
1
y
2
) t
nI,1/2

_
1
n
1
+
1
n
2
_

S
2
R
.
El metodo se denomina LSD porque si la distancia entre las medias, y
1
y
2
es
mayor que el valor t
nI,1/2
_
_
1
n
1
+
1
n
2
_

S
2
R
, entonces se consideran distintas.
Ejemplo 5
En el caso de la celulosa:
(i,j) y
i
y
j
(1,2) 5.66
(1,3) 7
(1,4) 11.16
(2,3) 1.34
(2,4) 5.5
(3,4) 4.16
Como t
nI,1/2
_
_
1
n
1
+
1
n
2
_

S
2
R
= 3.06 , las medias y
2
e y
3
son iguales a todos
los efectos.
3.7. Diagnosis
Normalidad: histograma de residuos, graco probabilstico normal.
Linealidad, homocedasticidad: residuos frente a valores predichos.
3.8. Apendice
1. Cuasivarianza muestra de una variable X:
s
2
X
=
n

i=1
(x
i
x)
2
n 1
.
Tema 4
Dise nos factoriales a dos niveles
4.1. Introduccion
Con mucha frecuencia aparece en la experimentacion industrial la necesidad de
conocer el efecto sobre la variable respuesta de un n umero de factores elevado. Sin
embargo, no conviene utilizar demasiados factores (incluso si cada uno tiene muy
pocos niveles), pues el n umero de combinaciones posibles aumenta rapidamente. Por
ejemplo, si tenemos 6 factores con 2,3,4,5,6 y 7 niveles, respectivamente, el n umero
total de combinaciones posibles asciende a 7! = 5040.
Ante esta situacion, cabe dos opciones: reducir el n umero de niveles o eliminar
factores. La solucion mas habitual es la primera: se eligen niveles en los valores extre-
mos del factor (dos niveles unicamente). Pese a que parece experimentos demasiado
simples para ser de utilidad, son faciles de llevar a cabo, tienen bajo coste y sirven
para seleccionar que factores van a estudiarse con mayor profundidad.
Ejemplos:
hormigon 25 % o 50 % de cemento;
temperatura: baja o alta;
concentracion de un reactivo: 1 % o 2 %;
tiempo de secado de un pegamento: 1 minuto o 2 minutos.
La notacion que emplearemos es a
b
, donde b es el n umero de factores y a es el
n umero de niveles, que es el mismo para todos los factores.
45
46 Estadstica II
4.2. El dise no 2
2
. Dise nos 2
k
4.2.1. Conceptos basicos
Se trata del dise no factorial mas sencillo: dos factores (A y B) con dos niveles
cada uno. Utilizaremos los signos (+) y () para representar los dos niveles de cada
factor. Para la variable respuesta Y se suele emplear la siguiente notacion:
(o) si ambos factores estan al nivel ();
(a) si el primer factor esta al nivel (+) y el segundo factor esta al nivel ();
(b) si el primer factor esta al nivel () y el segundo facto estan al nivel (+);
(ab) si ambos factores estan al nivel (+).
Factor A
F
a
c
t
o
r
B
(+)
(+)
()
()
y
11
(o) y
21
(a)
y
12
(b) y
22
(ab)
A B Y
- - y
11
(o)
+ - y
21
(a)
- + y
12
(b)
+ + y
22
(ab)
El modelo estadstico asociado es el siguiente:
y
ij
= +
i
+
j
+ ()
ij
+ u
ij
, i = 1, 2, j = 1, 2,
siendo
i
el efecto del nivel i del factor A,
j
el efecto del nivel j del factor B y
()
ij
el efecto de la interaccion cuando el factor A esta al nivel i y el factor B
esta al nivel j.
Como los valores
i
son desviaciones respecto del valor medio, entonces se tiene
que
1
+
2
= 0. Es decir,
2
=
1
. Analogamente,

2
=
1
,
()
i2
= ()
i1
, i = 1, 2,
()
2j
= ()
1j
, j = 1, 2.
Teniendo esto en cuenta, podemos denir las variables
X
i
=
_
+1 si el factor i esta al nivel (+),
1 si el factor i esta al nivel (),
Tema 4. Dise nos factoriales a dos niveles 47
i = 1, 2, y reescribir el modelo como
y
ij
= +
2
X
1
+
2
X
2
+ ()
22
X
1
X
2
+
ij
.
Este modelo tiene cuatro parametros que deben estimarse.
El efecto de un factor sera el efecto por el paso del nivel () al nivel (+):
= efecto de A =
2

1
= 2
2
,
= efecto de B =
2

1
= 2
2
,
= efecto de la interaccion AB = ()
22
()
12
= ()
11
()
21
= 2()
22
.
Luego nuestro modelo se puede escribir como
y
ij
= +

2
X
1
+

2
X
2
+

2
X
1
X
2
+
ij
.
4.2.2. Estimacion
Utilizamos la siguiente forma de escribir el modelo para estimar sus parametros:
y
ij
= +
i
+
j
+ ()
ij
+u
ij
, i = 1, 2, j = 1, 2.
El metodo que usaremos es el de mnimos cuadrados.
L =

ij
(y
ij

i

j
()
ij
)
2
.
A continuacion, derivamos parcialmente e igualamos a cero haciendo uso de las
propiedades
1
+
2
= 0,
1
+
2
= 0,. . .
0 =
L

= 2

i,j
(y
ij

i

j
()
ij
) = 8( y );
= y;
=
o + a + b + ab
4
.
0 =
L

2
= 2

j
(y
2j

2

j
()
2j
) = 4( y
2

2
);
48 Estadstica II

2
= y
2
=
a + ab
2

o +a + b + ab
4
=
o + a b + ab
4
;
=
o + a b + ab
2
.
0 =
L
()
22
= (y
22

2

2
()
22
);
(

)
22
= y
2
2
2

2
= ab
o + a + b + ab
4

o + a b + ab
4

o a + b + ab
4
=
o a b +ab
4
;

=
0 a b + ab
2
.
Ejemplo 6
Una empresa farmaceutica desea conocer como afectan la concentracion de un reac-
tivo (factor A) y la cantidad de un catalizador (factor B) a la cantidad de principio
activo obtenido en un proceso qumico.
factor A =
_
() 15 %,
(+) 25 %.
factor B =
_
() 1 kg,
(+) 2 kg.
A B Y
- - 28
+ - 36
- + 18
+ + 31
Estimamos los parametros:
= 28.25, = 10.5,

= 7.5,

= 2.5.
El modelo es
y = 28.25 + 5.25X
1
3.75X
2
+ 1.25X
1
X
2
.
El algoritmo de los signos
1. Se multiplican los signos de los niveles de los factores que intervienen en el
estimador.
Tema 4. Dise nos factoriales a dos niveles 49
2. El estimador es la media de las observaciones con (+) menos la media de las
observaciones con ().
Ejemplo 7
Volvamos a calcular los estimadores del dise no 2
2
:
: estima el efecto de todos los factores:
o+a+b+ab
4
.
: estima el efecto del factor A:
a+ab
2

o+b
2
.

: estima el efecto del factor B:


b+ab
2

o+a
2
.

: estima el efecto de la interaccion AB:


o+ab
2

a+b
2
.
Ejemplo 8 (Dise no 2
3
)
Determinemos los estimadores de los efectos para un dise no factorial 2
3
.
A B C AB AC BC ABC Y
- - - + + + - o
+ - - - - + + a
- + - - + - + b
+ + - + - - - ab
- - + + - - + c
+ - + - + - - ac
- + + - - + - bc
+ + + + + + + abc
=
o + a + b + c +ab + ac + bc +abc
8
,

A =
a + ab + ac + abc
4

o + b + c + bc
4
,

B =
b + ab + bc + abc
4

o + a + c +ac
4
,

C =
c +ac + bc + abc
4

o + a + b + ab
4
,

AB =
o + ab + c + abc
4

a + b + ac + bc
4
,

AC =
o +b +ac + abc
4

a +ab + c + bc
4
,

BC =
o +a + bc + abc
4

b + ab + c +ac
4
,

ABC =
a +b +c + abc
4

o + ab + ac + bc
4
.
50 Estadstica II
Ejemplo 9
Se realiza un experimento para mejorar la calidad del hormigon (la variable de interes
es la resistencia a la presion). Para ello, se obtuvieron muestras de hormigon variando
los niveles de tres factores. Los datos de la muestra son los siguientes:
o 700
a 900
b 3400
c 1200
ab 5500
ac 1200
bc 3500
abc 6200
El modelo es
y = 2825 + 625x
1
+ 1825x
2
+ 200x
3
+ 575x
1
x
2
+ 50x
1
x
3
+ 100x
1
x
2
x
3
.
4.3. Signicatividad de los efectos
Para comprobar si un efecto es verdaderamente signicativo, disponemos de las
siguientes herramientas:
graco de efectos principales,
diagrama de Pareto,
graco normal/seminormal,
metodo de la MEDA.
4.3.1. Graco de efectos principales
Se trata de un graco en el que se representan las medias estimadas para los
niveles () y (+) de cada factor.
Tema 4. Dise nos factoriales a dos niveles 51
R
e
s
i
s
t
e
n
c
i
a
A
-1 1
B
-1 1
C
-1 1
0
1
2
3
4
5
(X 1000)
Se aprecia que el efecto del factor C es mucho menor que el de los otros factores.
4.3.2. Diagrama de Pareto
En este graco podemos ver las magnitudes de los efectos principales y de las
interacciones ordenadas de mayor a menor en valor absoluto.
0 1 2 3 4
(X 1000)
BC
AC
ABC
C
AB
A
B
El factor C y sus interacciones parecen ser poco signicativos.
En general, las interacciones de orden tercero o superior no suelen ser signicati-
vas.
4.3.3. Graco probabilstico normal/seminormal
Bajo las hipotesis habituales, los estimadores de los efectos siguen una distribu-
cion normal.
Si el verdadero valor de los efectos es cero, los valores estimados se pueden con-
siderar como una muestra de una distribucion normal de media cero.
52 Estadstica II
En este graco se representan los efectos estandarizados frente a los percenti-
les. Estos efectos deberan estar alineados. En consecuencia, cuanto mas se aleje el
estimador del efecto de un factor de la lnea, mas signicativo sera dicho factor.
Efectos estandarizados
P
o
r
c
e
n
t
a
j
e
BC
AC
ABC
C
AB
A
B
0 1 2 3 4
(X 1000)
0.1
1
5
20
50
80
95
99
99,9
En el graco probabilstico seminormal se utilizan las desviaciones estandarizadas
de los efectos en lugar de los percentiles.
4.3.4. Metodo de la MEDA
Las iniciales MEDA hacen referencia a mediana de las desviaciones a la mediana.
Este metodo se emplea cuando hay tantos parametros como observaciones.
1. Se comienza calculando el valor mediano M de los efectos estimados de las
interacciones.
2. A continuacion, se calculan las desviaciones (en valor absoluto) de los efectos
de las interacciones respecto de M. La MEDA es la mediana de estas observa-
ciones.
3. Finalmente se calcula el estimador s

=
MEDA
0.675
.
Si el valor del efecto es mayor o igual que 2 s

y hay menos de cinco factores,


entonces es signicativo.
Si el valor del efecto es mayor o igual que 3 s

y hay al menos cinco factores,


entonces es signicativo.
Ejemplo 10
En el ejemplo del hormigon que estamos usando:
M = mediana(AB,AC,BC,ABC) = mediana(1150,100,0,200) = 150;
MEDA = mediana(|AB M|, |AC M|, |BC M|, |ABC |) =
mediana(1000,50,150,50) = 100.
Tema 4. Dise nos factoriales a dos niveles 53
s

=
MEDA
0.675
=
100
0.675
= 148.15.
Son signicativos los efectos mayores o iguales que 296.30, esto es, A, B, C y
AB.
Una vez hemos decidido que factores son signicativos, escribimos la ecuacion
del modelo considerando solo esos terminos:
y = 2825 + 625x
1
+ 1825x
2
+ 200x
3
+ 575x
1
x
2
.
4.4. Resumen de dise nos 2
k
2
k
= k factores con dos niveles cada uno.
Pasos del analisis:
1. Se estiman los efectos e interacciones utilizando el algoritmo de los signos.
2. Mediante el diagrama de Pareto y el graco probabilstico normal (o el metodo
de la MEDA), se preseleccionan los efectos no signicativos.
3. Se construye la tabla ANOVA con el resto de efectos y se comprueba si son
signicativos. Se repite los pasos 2 y 3 hasta que todos los efectos que se
conserven sean signicativos.
4. Se hace la diagnosis del modelo mediante el analisis de los residuos.
5. Se utiliza el modelo para obtener las condiciones de los factores que optimizan
la variable respuesta.
Tema 5
Dise nos fraccionales
5.1. Introduccion
En la experimentacion industrial se necesita conocer el efecto de un gran n umero
de factores sobre la variable respuesta. Incluso si solo consideramos dos niveles por
cada factor, siguen siendo necesarias muchas observaciones. Demasiadas como para
ser factible (normalmente porque implican un coste elevado).
Como, normalmente, las interacciones de orden tercero y superior no suelen ser
signicativas, nos encontramos con que muchos datos del experimento los estamos
utilizando para estimar la variabilidad experimental.
Ejemplo 11
En un dise no 2
5
tenemos 5 factores, 10 interacciones de segundo orden y 16 in-
teracciones de orden superior. Luego el 50 % van a aportar poca informacion.
En un dise no 2
6
tenemos 6 factores, 15 interacciones de segundo orden y 42 in-
teracciones de orden superior. Luego el 66 % van a aportar poca informacion.
Una solucion para reducir el n umero de observaciones necesarias pasa por consi-
derar lo que se conoce como un dise no fraccional. En este tipo de dise no, se realiza
solo una parte de un dise no completo de modo que la mayor parte de las observa-
ciones se empleen para estimar los efectos principales y las interacciones de orden
bajo.
55
56 Estadstica II
5.2. Dise nos 2
k1
Vamos a considerar un dise no 2
3
clasico:
A B C AB AC BC ABC Y
- - - + + + - o
+ - - - - + + a
- + - - + - + b
+ + - + - - - ab
- - + + - - + c
+ - + - + - - ac
- + + - - + - bc
+ + + + + + + abc
Para realizar el experimento completo necesitaramos ocho observaciones. Supon-
gamos que, sin embargo, solo podemos efectuar cuatro.
Elegimos los cuatro casos que para la interaccion ABC estan al nivel (+).
A B C AB AC BC ABC Y
+ - - - - + + a
- + - - + - + b
- - + + - - + c
+ + + + + + + abc
Si prestamos atencion, vemos que los siguientes pares de columnas son iguales
entre s: A y BC, B y AC, C y AB, I y ABC. (Por I entendemos un columna
cuyas entradas son todas (+) y que esta asociada con el calculo de la media de las
observaciones). Ademas, ABC siempre es positiva.
Si

A
8
y

BC
8
son los estimadores de los efectos de A y BC en el dise no completo
y

A
4
es el estimador del efecto de A en este dise no reducido, entonces:

A
8
=
a + ab +ac + abc
4

o + b + c + bc
4
,

BC
8
=
o + a + bc + abc
4

b +c + ab + ac
4
,

A
4
=
a + abc
2

b + c
2
=

A
8
+

BC
8
.
Vemos que se confunde el efecto de A con la interaccion BC: estamos estimando A
como A+BC. De la misma manera, podemos comprobar que

B
4
=

B
8
+

AC
8
,
Tema 5. Dise nos fraccionales 57

C
4
=

C
8
+

AB
8
,

I
4
=

I
8
+

ABC
8
.
Al elegir esta fraccion del dise no original en la que se confunden efectos principales
e interacciones, estamos asumiendo que los efectos principales son mas importantes
en el proceso que las interacciones.
Se denomina media fraccion o dise no 2
k1
cuando la fraccion del dise no consiste
en elegir signos iguales de alg un efecto. El n umero de observaciones es la mitad que
en el dise no completo. Obviamente, no hay un unico modo para elegir la fraccion.
5.2.1. Ecuacion generatriz
La ecuacion generatriz de una fraccion permite conocer la estructura de confusion
de la fraccion (estructura del alias).
Disponemos de las siguientes reglas para trabajar con las columnas:
1. Las columnas no se modican al multiplicarlas por I. Por ejemplo, AI = A.
2. El resultado de multiplicar una columna por s misma es siempre I. Por ejemplo,
AA = I.
La ecuacion generatriz es
I = columna con todos los signos iguales.
Para obtener la confusion de un factor, basta multiplicar ese factor por la ecuacion
generatriz.
Por ejemplo, en el caso anterior la ecuacion generatriz es I=ABC. La confusion
del factor A es
I A = ABC A;
A = BC.
Estamos confundiendo el factor A y la interaccion BC. Si hubiesemos elegido I =-AB,
entonces la confusion de A sera A=-B. Es decir, se confundiran dos efectos princi-
pales.
58 Estadstica II
5.2.2. Resoluci on del dise no
Los dise nos fraccionales se basan en que el proceso que se estudia se ve afecta-
do fundamentalmente por los efectos principales y las interacciones de orden bajo,
pudiendo considerarse nulas las interacciones de orden alto.
Un dise no fraccional sera bueno si confunde los efectos principales con interac-
ciones del orden mas alto posible. En cambio, un dise no fraccional que confunda
efectos principales es poco recomendable, pues no podremos determinar el efecto de
que factor estamos estimando.
Se dene la resolucion del dise no como 1 + el orden de interaccion mas baja
confundida con alg un efecto principal. Este valor coincide con el n umero de letras de
la palabra de la ecuacion generatriz.
Interesan los dise nos fraccionales de resolucion alta: los efectos principales estan
confundidos con interacciones de orden alto. Si el efecto es signicativo, es muy
probable que sea a consecuencia del efecto principal y no de la interaccion.
Ejemplo 12
I = ABC resolucion III. Dise no 2
31
III
.
I = -AB resolucion IV. Dise no 2
41
IV
.
Ejemplo 13
En un experimento qumico se utiliza un dise no 2
41
con I=ABCD para investigar
los efectos de cuatro factores.
A = temperatura,
B = presion,
C = concentracion,
D = velocidad de centrifugado.
La variable respuesta es la cantidad de residuos generada por el proceso.
A B C D Y
- - - - 550
+ - - + 749
- + - + 1052
+ + - - 650
- - + + 1075
+ - + - 642
- + + - 601
+ + + + 729
Tema 5. Dise nos fraccionales 59
Se trata de un dise no de resolucion IV y los estimadores de los efectos son
= 756, A(+BCD) = 127, B + (ACD) = 4, C(+ABD) = 11.5,
D(+ABC) = 290.5, AB+CD = 10, AC+BD = 25.5, AD+BC = 197.5.
Las confusiones son
I = ABCD, A = BCD, B = ACD, C = ABD,
D = ABC, AB = CD, AC = BD, AD = BC.
Mediante las herramientas ya estudiadas, descartamos los efectos poco signica-
tivos. Por ejemplo, el diagrama de Pareto que se obtiene es:
0 50 100 150 200 250 300
B
AB+CD
C
AC+BD
A
AD+BC
D
Los efectos D, AD+BC y A parecen ser los mas importantes (podemos conrmar-
lo mediante la correspondiente tabla ANOVA). Como B y C no son signicativos,
tampoco lo son sus interacciones. Por lo tanto, en AD+BC el efecto mayor peso
sera el de AD.
En consecuencia, nuestro modelo queda
y = 756 63.5x
A
+ 145.25x
D
98.75x
A
x
D
.
Para minimizar y, interesa x
A
= 1 y x
D
= 1, es decir, baja temperatura y
poca velocidad de centrifugado. La presion y la concentracion no son importantes.
Regla para resolver las confusiones
Los efectos principales son mas importantes que las interacciones.
Si dos factores no son signicativos, es poco frecuente que lo sea la interaccion.
En caso de duda, debe ampliarse el experimento.
60 Estadstica II
5.3. Dise nos 2
kp
Como la toma de observaciones a nivel industrial tiene un coste muy elevado,
el que un dise no 2
k1
reduzca a la mitad el n umero de experimentos individuales a
realizar no suele ser suciente; todava es necesario disminuirlo mas.
En un dise no 2
kp
solo queremos realizar 2
kp
experimentos individuales. En estos
dise nos la ecuacion generatriz tiene 2
p
1 efectos confundidos con I.
Para generar un dise no de resolucion maxima, seguimos el siguiente procedimien-
to:
1. Se genera un dise no 2
kp
completo.
2. Se igualan los p factores que faltan a las interacciones de mayor orden del dise no
anterior.
3. Si hay varias opciones, se elige la que proporcione un dise no de resolucion
maxima.
Ejemplo 14 (Dise no 2
63
)
1. Se genera un dise no 2
3
completo.
A B C AB AC BC ABC
- - - + + + -
+ - - - - + +
- + - - + - +
+ + - + - - -
- - + + - - +
+ - + - + - -
- + + - - + -
+ + + + + + +
2. Se igualan los tres factores que faltan a interacciones del dise no. Por ejemplo,
D=AC, E=BC y F=ABC.
En consecuencia, la ecuacion generatriz (incompleta) del modelo es
I = ACD = BCE = ABCF.
3. Para obtener la ecuacion generatriz completa hay que tener en cuenta que el
producto de los alias de I tambien es una columna alias de I (toda con signos
positivos). As que hacemos todos los productos posibles (en este caso, parejas
y ternas).
Tema 5. Dise nos fraccionales 61
I = ACD BCE = ABDE,
I = ACD ABCF = BDF,
I = BCE ABCF = AEF,
I = ACD BCE ABCF = CDEF.
uego la ecuacion generatriz completa del dise no (con 2
3
1 = 7 efectos con-
fundidos) es
I = ACD = AEF = BCE = BDF = ABCF = ABDE = CDEF.
Se trata de un dise no 2
63
III
.
4. Para determinar las confusiones, se multiplica el factor por la ecuacion gene-
ratriz completa. Por ejemplo, la confusion asociada al factor A es

A +

CD +

EF +

ABCE +

ABDF +

BCF +

BDE +

ACDEF.
Un dise no saturado es aquel en el que se a nade un factor sobre cada columna de
interacciones. Por ejemplo, en un dise no 2
74
asociamos los factores D, E, F y G con
las interacciones AB, AC, BC y ABC, respectivamente.
Una observacion nal: cuando se utiliza el metodo de la MEDA en un dise no
fraccional, en el calculo de la mediana intervienen todos los efectos excepto el asociado
a la media.

También podría gustarte