Está en la página 1de 7

Ciencia Ergo Sum

Universidad Autnoma del Estado de Mxico


ergo_sum@uaemex.mx
ISSN (Versin impresa): 1405-0269
MXICO

2007
Manuel R. Pia Monarrez / Manuel A. Rodrguez Medina / Jess J. Aguirre Sols
REGRESIN RIDGE Y LA DISTRIBUCIN CENTRAL T
Ciencia Ergo Sum, julio-octubre, ao/vol. 14, nmero 002
Universidad Autnoma del Estado de Mxico
Toluca, Mxico
pp. 191-196

Red de Revistas Cientficas de Amrica Latina y el Caribe, Espaa y Portugal

Universidad Autnoma del Estado de Mxico

http://redalyc.uaemex.mx
C I E N C I A S E XACTAS Y APLICADAS

Regresin Ridge y la distribucin


central t
Manuel R. Pia Monarrez*, Manuel A. Rodrguez Medina**, Jess J. Aguirre Sols*

Recepcin: 24 de mayo de 2006


Aceptacin: 7 de noviembre de 2006

Resumen. Dado que la Regresin Ridge Ridge Regression and Central t Student
*Divisin de Ciencias de la Ingenieria y
Tecnologa, Instituto Tecnolgico Superior de (RR), es una estimacin sesgada que parte de Distribution
Nuevo Casas Grandes, Chihuahua, Mxico. Abtract. Since Ridge Regression (RR), is a
la solucin de la regresin de Mnimos
Correo electrnico: mpina@itsncq.edu.mx
Correo electrnico: jesaguir@yahoo.com Cuadrados (MC), es vital establecer las biased estimation, that begins with the
**Divisin de Ciencias de la Ingeniera y condiciones para las que la distribucin Ordinary Least Square (OLS) solution, it is
Tecnologa, Instituto Tecnolgico de Ciudad
central t de Student que se utiliza en la vital to establish the conditions for which
Jurez, Mxico.
Correo electrnico: mrodriguez@itcj.edu.mx prueba de hiptesis en MC, sea tambin the central Students t distribution that we
aplicable a la regresin RR. La prueba de este use in the hypothesis test in OLS, is
importante resultado se presenta en este applicable to the RR too. The proof of this
artculo. important result is given in this article.
Palabras clave: regresin ridge, mnimos Key words: ridge regression, ordinary least
cuadrados, distribucin t, prueba de hiptesis. square, students t distribution, hypothesis test.

Introduccin El procedimiento para realizar estas pruebas es conocido


como prueba de hiptesis. Primero se plantean dos hiptesis,
Durante el proceso de optimizacin de las superficies de res- la nula que establece que los coeficientes de regresin j no
puestas, se ajusta un modelo polinomial del tipo de la ecua- tienen efecto sobre la variable de respuestas (H0: j = 0), y
cin (1), a travs de un mtodo de regresin, a los datos de un la alterna que establece que al menos un coeficiente tiene
diseo experimental (Box y Draper, 1987). efecto sobre la variable de respuesta (H1: j 0). La regla

Y 0 tX X t BX (1) de decisin de rechazar o no la hiptesis establecida consis-


te en especificar una regin crtica para un nivel de
significancia preestablecido ( ) de acuerdo con una distri-
donde
bucin terica que para nuestro caso es la distribucin t de
Student, cuya regin crtica, por ejemplo, para un nivel de
t 1 , 2 ,..., k , X x1 , x 2 ,..., xk y
significancia de est dada por ta/2,n-p donde (n-p)
son los grados de libertad del cuadrado medio del error.
11 12 / 2 ... 1k / 2
As, el valor crtico dado por ta/2,n-p, es comparado con el
22 ... 2 k / 2
B . valor del estadstico de prueba dado por:
sym kk j
t (2)
2
La funcionalidad del modelo dado en (1) para representar a la C jj
superficie de respuestas depende del grado que este polinomio
representa al sistema modelado, por lo que se realizan pruebas donde j es el j-simo coeficiente de regresin estimado, 2
para determinar la significancia de sus componentes. es la varianza estimada y Cjj es el j-simo elemento diagonal

A ee rrgg oo su
C I EN C I A s um
m ,, VV ooll.. 114- 2, julio-
4- 2, julio-oc
oc tub re2 0
tubre 2 07
0 0 7. U n i v e r si d a d A u t n o m a d e l Es t a d o d e M x i c o , To l u c a , M x i c o . Pp . 191- 196. 191
C I E N C I A S E XACTAS Y APLICADAS

t -1 sido controversial ya que depende de la direccin del


de la matriz de precisin (X X) (Montgomery Peck y Vining,
2002). Si el valor del estadstico de prueba dado en (2), es regresor dado. Halawa y El Bassiouni (2000), a travs de
mayor que el valor crtico de la distribucin terica, se recha- la cuantificacin del sesgo emplearon una prueba t no
za la hiptesis nula y se concluye que el coeficiente es central para probar la hiptesis H 0: bi = 0. El estudio
significante para predecir el comportamiento de la variable consisti en generar una matriz de regresores X, con el
de respuesta. Este procedimiento es ampliamente aplicado algoritmo dado en Halawa y Assma en 1995, y haciendo
cuando el modelo polinomial se ajusta a travs de MC. El uso de tres niveles pre-establecidos de desviacin ( =
polinomio dado en (1), presenta de forma inherente el pro- 0.05, 0.5 y 1) y dos niveles de correlacin dados por =
blema de multicolinealidad, por lo que su ajuste deber de 0.90 y = 0.95, para realizar las pruebas, slo en la direc-
realizarse a travs del mtodo de RR, ya que cuando la cin del mximo y mnimo eigenvalor. Encontraron que
multicolinealidad inherente al polinomio es fuerte, algunos cuando el error es grande su prueba supera en poder de
t deteccin a la prueba central t de MC; cuando los errores
de los eigenvalues j de la matriz de covarianzas (X X) tienden
a cero, haciendo que el poder de la prueba t sea pobre para son pequeos (como es el caso de los diseos experimen-
detectar cuando j comienza a ser significante (Halawa y El tales), no hubo diferencia significativa entre los niveles de
Bassiouni, 2000). Dado que el estimador RR es la estimacin deteccin de las pruebas. Dado que el uso de RR mejora el
ptima sesgada para determinar los coeficientes del polinomio poder de deteccin de la prueba al disminuir la varianza
cuando ste presenta multicolinealidad (ver Pia et al., 2005c), de la estimacin, en la seccin 3 se presenta la validacin
matemtica para el uso de la distribucin central t en la
y como para el sesgo de RR, se espera que tanto el coeficiente prueba de hiptesis de la regresin RR.
2 j
Rj estimado como su varianza V( Rj) = , sean me-
j k 1. Regresin Ridge (RR)
2 1
nor que el coeficiente j y su varianza V( j ) = , en-
j

tonces, el valor absoluto esperado del estadstico de prueba El mtodo de RR permite detectar la multicolinealidad dentro
de RR, se espera que sea mayor que el de MC, mejorando as de un modelo de regresin del tipo Y = Xt + . Fue propues-
el poder de deteccin de la prueba. El cuadrado medio del to por Hoerl y Kennard (1970a y b); es usado para trabajar
error de RR, sigue una distribucin chi-cuadrada no central con modelos que presentan sesgo. La idea del mtodo es
t
(ver Cheng-Ming Kuan, 2000: 62-63) con parmetro de ses- simple y consiste en que dado que la matriz (X X) es alta-
go dado por (Pia et al., 2005): mente condicionada o cercana a singular es posible agregar
p 2
constantes positivas a los elementos de la diagonal para ase-
Sesgo 2 k2 i
, gurar que la matriz resultante no sea altamente condiciona-
1 ( i k )2
da. El vector de coeficientes de RR est dado por:
por lo que es necesario mostrar que debido a que RR es un
t t
mltiplo de MC, la aplicacin del estadstico central t, es vli- R= (X X + K X Y (3)
da para la prueba de hiptesis de la regresin RR. En este
sentido, Obenchain en 1977 deriv una prueba exacta t el cual se puede reescribir como Z , donde es el
R=
R bt) / var
para la regresin RR dada por t(R) = ( bi t t
R estimador ordinario de MC dado por = (X X X Yy
donde var( R bi) es una estimacin insesgada de la varianza t
Z = [I + K (X X es la matriz que transforma a en
del numerador y
R, es decir, R es la solucin al problema de optimizacin:
1
bi g it G t I ( X t X ) 1 eit ei ( X t X ) 1 eit ei , t
Min: ( R ) X X ( R )
es el estimador insesgado de varianza mnima de R bajo
la hiptesis nula H 0: i = 0, donde g es la j-sima fila de G Sujeto a: R R r2
que representa los cosenos directores que orientan los ejes
principales en relacin con los ejes del regresor dado, es Prueba: a travs de los multiplicadores de Lagrange esta
una matriz de (p x p) con elementos diagonales dados por funcin es representada por:
= i / ( i + k) (error estndar R) y ei es el j-simo ele-
t
mento de la matriz identidad, el uso de esta prueba ha Min: ( R ) X X ( R ) + K ( R R r2

192 PI A M O N A RREZ, M . ET A L. REG RESI N RI DG E Y LA DI STRI BUC I N C EN TRA L T


C I E N C I A S E XACTAS Y APLICADAS

derivando la funcin con respecto a R e igualndola a cero daderos, los cuales son desconocidos, por lo que el valor de
tenemos que: K deber estimarse a partir del estimador propuesto por
Lawless y Wang (1976), que est dado por:
t
df/d R = 2X X( R ) + 2K R
Ps 2
t t K (6)
X X R X X +K R =0 (X t X )
t

t t
R(X X+K X X =0 Una vez conocido el valor de K, la regresin RR puede
ser tratada como una regresin de MC, con tan slo incre-
t t mentar la matriz de informacin X con una matriz diago-
dado que est dada por = (X X)1X Y, entonces:
nal cuyos elementos diagonales sean la raz cuadrada del
t t valor de K dado por (6) y el vector de respuestas con un
R(X X+K X Y=0
vector de ceros si se est trabajando con variables escala-
t 1 t das, o con un vector constante equivalente a la media de Y
R = (X X + K X Y
si las variables no estn escaladas. Para un procedimiento
X tY detallado de la aplicacin de RR ver Pia (2006).
R =
I K (X t X ) 1
(X t X )
2. Distribucin t
t 1]1 t 1 t
R = [I + K (X X (X X X Y
Sea W una variable aleatoria con distribucin N(0,1), y sea
V una variable aleatoria que sigue una distribucin chi-cua-
R = Z , (4) 2
drada (r) con r grados de libertad, donde W y V son
independientes, por lo que la distribucin conjunta de W y
lo cual completa la prueba.
V, representada por (w,v), es el producto de las funciones
En la estimacin RR, al parmetro K se le conoce como
densidad de probabilidad normal y chi-cuadrada, respecti-
parmetro de sesgo ya que cuando K = 0, Z = I, por lo
vamente dada por:
que R=
y cuando K 0, R
Adems como es
insesgado entonces la estimacin ridge es una estimacin w2 r v
1 2
1 1
sesgada y aunque posee esta caracterstica, la varianza (w, v) = e r
v2 e 2
2 1 2
de la estimacin de R a es menor que la varianza de r 2
2
la estimacin de a , por lo que los coeficientes de R,
son ms estables que los de (ver Pia et al., 2005a).
w< 0<v< 0 en otro caso.
Para ver por qu analizamos la funcin del cuadrado
Este producto define otra variable aleatoria t, representada
medio del error de R, dado por:
por:

j 2j
CME 2 k 2j W
R= ( j k j )2 ( j k j )2 (5) T (7)
V/r

La funcin dada en (5), debido al parmetro de sesgo, Al aplicar la tcnica de cambio de variable (Hogg y Graig,
sigue una distribucin chi-cuadrada no central (Chung-Ming, 1965), obtenemos la funcin densidad de probabilidad g(t)
2000: 62-63) que implica directamente que la prueba de de T. As, la ecuacin t = w/ v/r y u = v, definen la trans-
significancia de sus coeficientes estimados deber de hacer- formacin uno a uno, la cual mapea al conjunto A = {(w, v);
se a travs de la distribucin no central t. Dado que RR es w < , 0 < v < , en B = {(t, u); t< ,0<u
un mltiplo de MC, en la seccin 3 se derivan las condicio-
< Adems, desde que w = t u r y v = u, el valor
nes para utilizar la prueba central t al probar la significancia
de los coeficientes ajustados. absoluto del jacobiano de la transformacin es |J| = u r .
El valor de la constante de proporcionalidad K depende Por lo que la funcin densidad de probabilidad conjunta de
de la varianza poblacional y del vector de coeficientes ver- las variables aleatorias T y U = V, est dada por:

C I EN C I A e r g o su m , V o l . 1 4- 2, julio- oc tubre 2 0 07 193


C I E N C I A S E XACTAS Y APLICADAS

t u
donde ( X t X ) ii1 , es el i-savo elemento diagonal de la matriz
g (t , u ) ,u J
r de precisin (Xt X)1, s2 es la estimacin de la varianza dada
t
por s2 = Y [I X (Xt X)1X ]Y / (n-p) y [s2 ( X t X ) ii1 ]1/2 es
1 u t2 u
u r / 2 1 exp 1 la estimacin insesgada del numerador bajo el supuesto de
2 ( r / 2) 2 r / 2 2 r r
que los errores estn N(0, 2I). Adems, como el valor
esperado de E( i) = 0, bajo la hiptesis H 0: i = 0, el esta-
t< ,0<u< 0 en otro caso dstico t, tiene una distribucin central con (n-p) grados de
As, la funcin densidad de probabilidad marginal de T libertad. De igual forma el estadstico t para H 0: i = 0
es: utilizando el estimador RR, puede ser establecido directa-
mente de (10) como sigue.
g1 (t ) g (t , u)du Teorema 3.1. El estadstico de prueba t para la Regresin
Ridge, es el estadstico de prueba t de Mnimos Cuadrados.
1 u t2
u (r 1) / 2 1
exp 1 du Demostracin: permita a i* denotar el j-simo ele-
0 2 r ( r / 2) 2 r / 2 2 r
mento de R y sea bi el estimador lineal insesgado de
Para esta integral, si hacemos z = u[1+(t2/r)]/2, entonces: varianza mnima de i* con valor esperado E(bi) = 0
cuando H 0: i = 0 es verdadera, por lo que el estadstico
( r 1) / 2 1
1 2z z 2 de prueba para RR, est dado por:
g1 (t ) exp dz
0 2 r ( r / 2) 2 r / 2 1 t 2 / r 1 t2 / r
1
ti *i bi / s 2Wi 2 2 (11)
[(r 1) / 2] 1
g1 (t ) , <t< . (8)
r (r / 2) (1 t 2 / r )( r 1) / 2
donde Wi 2 Z i2 ( X t X ) ii1 es una constante conocida y s2W i es
2

el estimador insesgado de la varianza del numerador. Note


Si W est N(0,1) y V sigue una distribucin 2(r) y si W t
que s2 = Y [I X (Xt X)1X ]Y / (n-p). Dado que R =Z ,
y V son independientes, entonces la variable aleatoria
entonces i* = i i y bi = Zi bi, por lo que (11), puede ser
T = w / V r tiene una funcin densidad de probabilidad escrita como:
marginal dada por (8).
1
A la distribucin de la variable aleatoria T, se le conoce ti Z i i Z i bi / s 2 Z i2(X t X) 1 2

como distribucin t, y est completamente determinada por


el parmetro r, el cual representa los grados de libertad de la 1
Z i i 0 /Z i s 2(X t X) 1 2
variable aleatoria que sigue una distribucin 2(r). Finalmente,
de (8) tenemos que los valores de t estn dados por:
1
i / s 2(X t X) 1 2

t [(r 1) / 2]
g1 (t ) dw , <t< . (9) lo cual completa la demostracin.
r (r / 2)(1 w2 / r ) ( r 1) / 2

4. Una aplicacin

3. Prueba de hiptesis de la regresin ridge El experimento fue originalmente realizado por Box
(1954), con el objetivo de maximizar la salida de una reac-
Para simplificar los argumentos, recordemos que la hiptesis ge- cin qumica sujeta a dos estados y cinco factores, cuyas
neral para determinar la significancia del j-simo componente de variables codificadas son:
regresin en MC, est dada por H 0: i = 0 generalmente contra
H 1: i 0, en donde la prueba de su significancia se realiza a
(T1 122.5)
travs del estadstico de prueba t dado por: X1 Temperatura en el estado 1,
7 .5
2(log t1 log 5)
1 1 X2 1 tiempo de reaccin en el estado 1,
ti i 0 / s 2 ( X t X ) ii1 2
i / s 2 ( X t X ) ii1 2 , (10) log 2

194 PI A M O N A RREZ, M . ET A L. REG RESI N RI DG E Y LA DI STRI BUC I N C EN TRA L T


C I E N C I A S E XACTAS Y APLICADAS

(C 70) Regression analysis: Y versus b0; X1;


X3 concentracin del reactante,
10
Y 0.00 0.20259 X 1 0.10896 X 2 0.21641X 3 0.31819 X 4
(T2 32.5) 0.14082 X 5 0.31763 X 12 0.24471X 22 0.48295 X 32
X4 Temperatura en el estado 2, y
7.5 2 2
0.40416X 4 0.26317 X 5 0.28808 X 1 X 2 0.30388 X 1 X 3
2(log t 2 log 1.25) 0.05279 X 1 X 4 0.00597 X 1 X 5 0.07616 X 2 X 3 0.02281X 2 X 4
X5 1 tiempo de reaccin en el estado 2.
log 5 0.15118 X 2 X 5 0.52389 X 3 X 4 0.09917 X 3 X 5 0.05477 X 4 X 5

El diseo inicial fue factorial, fraccionado estndar 251, al Anlisis de varianza


Sou r ce DF SS MS F MS
cual se le aplic el mtodo de ascenso acelerado a un polinomio
de primer grado ajustado por MC a este diseo (ver Box y Regression 20 0.987193 0.049359 41.00 0.000
Draper, 1987), hasta que el experimentador determin que la
Residual error 11 0.013244 0.001204
regin actual modelada contena el punto estacionario ptimo,
por lo que el experimentador agreg corridas experimentales Tot a l 31 1.000427
para convertir el diseo en un diseo central compuesto (con No replicates. Cannot do pure error test.
11 puntos centrales) y ajustar un polinomio de segundo grado S = 0.03470 R -Sq = 98.7% R -Sq(adj) = 96.3%
PRESS = 0.259868 R -Sq(pred) = 74.02%
completo para realizar la caracterizacin y exploracin de esa
regin. La matriz de diseo en variables codificadas y el vector Porcin de la matriz de precisin (Xt X)1 que contiene los (Cjj)
de respuestas, se presenta en la tabla 1. utilizados en la ecuacin (2) para este ajuste dado por MC, es:
El polinomio cuadrtico completo ajustado por Minitab
a los datos escalados a travs del mtodo de escalonamiento 1.835 0.510 0.401 0.496 0.634
unitario (Montgomery et al., 2002) es: 0.510 2.093 0.710 0.697 0.756
(Xt X)1 = (12)
0.401 0.710 1.564 0.330 0.584
Tabla 1. Matriz de variables codificadas
0.496 0.697 0.330 1.956 0.580
X1 X2 X3 X4 X5 Y
0.634 0.756 0.584 0.580 1.647
1 1 1 1 1 49.80
1 1 1 1 1 51.20
1 1 1 1 1 50.40 Del ajuste, tenemos que p = (k 1)(k 2) = 21 parmetros,
1 1 1 1 1 52.40 2
1 1 1 1 1 49.20
1 2 = (0.03470)2 y t (Xt X) = 0.98659 , por lo que de la
1 1 1 1 67.10
1 1 1 1 1 59.60 2
1 1 1 1 1 67.90 ecuacin (6), K = (21)(0.03470) = 0.25629. Con este valor
1 1 1 1 1 59.30 0.98659
1 1 1 1 1 70.40
1
de K, el polinomio ajustado a travs de RR utilizando Minitab,
1 1 1 1 69.60
1 1 1 1 1 64.00 est dado por:
1 1 1 1 1 53.10 Regression Analysis: Y versus X1, X2, ...
1 1 1 1 1 63.20
X= 1 1 1 1 1 Y = 58.40 Y 0.00 0.20969 X 1 0.10397 X 2 0.21210 X 3 0.31404 X 4
1 1 1 1 1 64.30
3 1 1 1 1 63.00 0.14190 X 5 0.29227 X 12 0.21343 X 22 0.46031X 32
1 3 1 1 1 63.80 0.37443X 2
0.23595 X 2
0.27755 X 1 X 2 0.29870 X 1 X 3
4 5
1 1 3 1 1 53.50
1 1 1 3 1 66.80 0.06660 X 1 X 4 0.01686 X 1 X 5 0.06955 X 2 X 3 0.01381X 2 X 4
1 1 1 1 3 67.40 0.14708 X 2 X 5 0.51027 X 3 X 4 0.09590 X 3 X 5 0.04442 X 4 X 5
1.23 0.56 0.03 0.69 0.70 72.30
0.77 0.82 1.48 1.88 0.77 57.10
Anlisis de varianza
1.69 0.30 1.55 0.50 0.62 53.40
2.53 Sou r ce DF SS MS F P
0.64 0.10 1.51 1.12 62.30
0.08 1.75 0.04 0.13 0.27 61.30
0.78 Regression 20 0.955046 0.047752 32.93 0.000
0.06 0.47 0.12 2.32 64.80
1.68 1.06 0.54 1.50 0.93 63.40
2.08 Residual error 31 0.044954 0.001450
2.05 0.32 1.00 1.63 72.50
0.38 0.93 0.25 0.38 0.24 72.00
0.15 1.76 1.24 Tot a l 51 1.000000
0.38 1.20 70.40
2.30 0.74 1.13 0.38 0.15 71.80 No replicates. Cannot do pure error test.
S = 0.03808 R -Sq = 95.5% R -Sq(adj) = 92.6%

C I EN C I A e r g o su m , V o l . 1 4- 2, julio- oc tubre 2 0 07 195


C I E N C I A S E XACTAS Y APLICADAS

Porcin de la matriz de precisin (Xt X)1que contiene los (Cjj) De igual forma, es posible construir un estadstico de prue-
utilizados en la ecuacin (2) para este ajuste de RR es: ba t j para cada uno de los coeficientes j estimados ya
sea por MC o por RR.
1.753 0.452 0.362 0.443 0.573
0.452 1.982 0.646 0.623 0.678
Conclusiones

(Xt X)1 = 0.362 0.646 1.515 0.292 0.533 (13)


Aunque la regresin ridge es sesgada, es ampliamente
0.443 0.623 0.292 1.859 0.519
utilizada para el ajuste del polinomio cuando existe
0.573 0.678 0.533 0.519 1.579
multicolinealidad. Una vez determinada la constante de
proporcionalidad K, la estimacin RR puede ser tratada
Con estos datos, y haciendo uso de la ecuacin (2) y los como una estimacin de MC. Aunque el cuadrado medio
coeficientes dados en (12) y (13), tenemos por ejemplo que del error de RR sigue una distribucin chi-cuadrada
el valor del estadstico de prueba para el coeficiente 11 no central, por el teorema 3.1 de la seccin 3, la distri-
para ambos modelos es: bucin central t, es perfectamente aplicable para probar
la significancia de los coeficientes estimados por RR.
0.31763
11( MC ) 6.757 Para al ajuste del polinomio cuadrtico completo con
(0.03470) 2 (1.835) que se modelan las superficies de respuesta, se recomien-
da utilizar el estimador RR para su ajuste, por presen-
0.29227 tar este polinomio de forma inherente el problema de
11( RR ) 6.361
(0.03470) 2 (1.753) multicolinealidad.

Bibliografa

Box, G. E. P. y N. R. Draper (1987). Empirical Model- Hogg, R. V. y A. T. Craig (1965). Introduction to Technometrics. 19(4).
Building and Response-surfaces. John Wiley & Sons, Mathematical Statistics. Macmillan Company. Pia, M. R.; M. A. Rodrguez y J. J.Daz
Nueva York. Catalog Card Number:65-10243. New York. _________ (2005a). Superioridad de la
Bisgaard, S. y B. Ankenman (1998). Standard Errors Halawa, A. M. y M. Y. El Bassiouni (2000). Test f regresin general ridge sobre mnimos
for the Eigenvalues in Second Order Response Regression Coefficients Under Ridge Re- cuadrados, CULCYT. Ao 2. Nm. 6, enero-
Surface Models, Technometrics. Vol. 36. gression Models, Statistics Computer Simula- febrero, Universidad Autnoma de Ciudad
Chung-Ming, K. (2000). Introduction to Econometric tion. Vol. 65. Jurez. Chihuahua, Mxico.
Theory. Institute of Economics. Taipei, Tai- Lawless, J. F. y P. Wang (1976). A Simulation _________ (2005b). Determinacin de la
wan. Study of Ridge and Other Regression Esti- constante k en la regresin ridge, CULCYT.
Hoerl, A. E. y R. W. Kennard mators, Communication in Statistics Theory Ao 2. Nm. 11, enero-febrero, Universidad
_________ (1970a). Ridge Regression: Biased and Method. A5(4). Autnoma de Ciudad Jurez. Chihuahua,
Estimation for Non-orthogonal Problems, Mongomery, D. C.; E. A. Peck y G. G. Vining Mxico.
Technometrics. Vol. 12. Nm.1. (2002). Introduccin al Anlisis de Regresin Linneal. Pia, M. R. (2006). Metodologa para la caracterizacin
_________ (1970b). Ridge Regression: Appli- 3a ed. Editorial Continental, Mxico. y exploracin desuperficies derespuestas. Tesis doc-
cations to Non-orthogonal Problems, Obenchain R. L. (1977). Classical FTest and toral, Instituto Tecnolgico de Ciudad Jurez
Technometrics. Vol. 12. Nm 1. Confidence Regions for Ridge Regression, Chih. Mxico.

196 PI A M O N A RREZ, M . ET A L. REG RESI N RI DG E Y LA DI STRI BUC I N C EN TRA L T

También podría gustarte