Está en la página 1de 62

ESTADISTICA ESPAOLA

Vol. 30, Nm. 1 18, 1 988, p^gs. 141 a 179

Una perspectiva general con nuevos


resultados de la aplicacin de la estimacin
no paramtrica a la regresin lineal .
Por
WENCESLAO GONZALEZ MANTEIGA
Departamento de Estadstica e Investigacin Operativa
Facultad de Matemticas
Universidad de Santiago de Compostela

A Pili, Elena, Davicl y Javier.

RESUMEN
En este artculo se revisan las distintas aplicaciones, en el
contexto de la regresin lineal, de la nueva metodologa consistente en la estimacin de los parmetros de los rnodelos a partir
de estimaciones previas no paramtricas de la funcin de densidad y de regresin. Nuevos resultados en los modelos de correlacin desde un punto de vista secuencial y de diseo experimental son a su veZ introducidos. Finalmente una discusin de
la nueva metodologa en los modelos de heterocedasticidad, de
datos censurados y de Bootstrapping es tambin considerada.
Palabras elave: Estimacin no paramtrica, modelos de regresin.
AMS. 1980. 62J05, 62G05.

1.

INTRODUCCION

EI estimador de mnimos cuadrados fu sin duda el ms estudiado a lo


largo de este siglo en el contexto de la teora de la regresin lineal.

1^?

E tiT ^^[)I`^ i l( ^ E SF'^ti()L ^^

Cuando para e1 vector aleatorio (X,Y), ^q+1 ) dimensional, se verifica el


modelo:

Y=A`(X)f1+F
donde F es el error de media cero y A: R
> Rp un funcional
arbitrario, disponindose de una muestra { IX, , Y,) ..(X , Y) } relativa al
misr^no, el estimador de mnimos cuadrados para el parrnetro f^ pdimensional viene definido como aquel valor para el que se minimiza el
funcional:
n

^o (c^) ^,^^^ (Y;- A`(x;) ^)2

(1.2)

resultando:
^ ^ A (X;) A` (X;) ^ ^' ^ ^ A (X;) Y; ^
r=1

(1.3)

i=1

La estructura relativa al modelo (1.1) es ciertamente general, siendo


casos especiales de la misma los distintos modelos de regresin lineal
utilizados en la prctica.
De esta forma la clasificacidn de los distintos modelos puede ser diseada en funcin del funcional A, de la procedencia del vector (X,Y) o incluso
de la naturaleza del vector X(aleatoria o determinstica).
!^a particularizacin del funcional A a casos especficas, da lugar a modelos de especial inters. Por ejemplo A (x) _(1, x, .. x^') con x^ R,
representa ei modelo de regresin poiinmica, A(x) = A( (x,, ..., xP)` )_
(x,, ..., xP)`, al modelo de regresin mltiple, ... etc.
Por otro lado, la construccin del vector (X,Y) puede proceder de un
modelo de serie temporal. As con X=(Z,,...,Zo,) e Y=Zp.,.,, donde { Z; };Ex es
un modelo estacionario univariante, se obtiene: Z^, = A` ( Z,,., Zp) 4+ E, un
modelo de autoregresin de orden p.
Finalmente, la clasificacin de los mode{os segn la naturaleza del vector
X es primordial. Cuando X es aleatorio, sus valores, obviamente, no pueden
ser controlados de anternano, conocindose dichos modelos como modelos
de diseo aleatorio ( random design) a con una terminologa m^is general,
modelos de correlacin ( ver Freedman ( 1981), para ms detalles a ese
respecto). Cuando X es determinstico, y denotado por tanto coma x, dichos
modelos reciben el nombre de modelos de diseo fijo (fixed design) o de
diseo experimental.
Un modelo de regresin para un vector (X,Y) que indicase peso y talla de
un recin nacido sera un modelo de correlacin; por e{ contrario, el creci-

l'ti,A PE^R^PE(. i-IVA C^E^^iE^RAL (()^+ tit'E^VI)S RESt^I.TAD(^S

143

miento Y de una determinada planta frente al nivel de concentracin controlable x de un fertilizante es una tpica situacin de diseo experimental.
Todos los modelos difieren realmente en el mecanismo aleatorio que
genera los datos, y de forma comn para todos ellcs el estimador de
mnimos cuadrados (1.3) minimiza la norma eucldea de los errores aleatorios E; = Y; - A` (X;) , i=1, ..., n del modelo {1.1).
Cuando los errores { E,, ..., E } siguen una distribucin normal, el estimador de mnimos cuadrados es el de mxima verosimilitud y sus propiedades
distribucionales son conocidas de forrna exacta. EI texto de Seber (197 7 j o
el de Pea (1987 ) son ejemplas de libros en los que un estudio de estos
estimadores es desarrollado exhaustivamente bajo suposiciones de normalidad. Sus propiedades relativas a la consistencia, normalidad exacta (por
ejemplo en el modelo de diseo fijo, 8m^ N(o, 02 [^ A(x;1 At(x;) ]^' ) con a^ _
Var(^) ) y eficiencia (propiedades relativas a la miima varianza), seran las
ms importantes en este contexto.
Frecuentemente en la prctica los tests de normalidad sobre los residuos,
errores estimados", ^; = Y; - A` (X;) ^m^ i=1, . .., n, nos indican la no
normalidad de los errores. Esto es atr^buble, en muchas s^tuac^ones, a que
los errores no siguen una distribucin normal o a la posibilidad de existencia de datos contaminantes.

^
En este tipo de situaciones los estimadores mnimo cuadrticos Hm^ pierden propiedades de eficiencia, as como de consistencia. EI trabajo de
Ruppert-Carroll (1980), donde se comprueba con estudios de simulacin,
resultados de gran ineficiencia para dichos estimac^ores cuando el error
sigue una distribucin con colas ms pesadas que la normal, puede ser un
ejemplo ilustrativo entre otros muchos.
Consideraciones de este tipo fueron las que Ilevaron a la bsqueda de
estimadores alternativos con objetivos fundamentales: el de la eficiencia
bajo otras suposiciones poblacionales sobre el error distinta a la Gaussiana
y el de la robustez (poca sensibilidad a la existencia de datos espreos en
la muestra).
Esencialmente, la construccin de nuevos estimadores en el contexto de
la regresin tineal sigui caminos similares en su desarrollo al de fos
estirnadores de parmetros de localizacin y escala, surgiendo:
^
vendra
M
Los
M
estimadores
(ver
Huber
(1981)
).
EI
M
estimador
)
definido como aquel valor para el que:

^ yr (Y; - A` (X;) BM) A (X;) = 0


;^^

(1.4)

E.STA[)I^TI( A E:Sf'r1ti()l_A

^ ^4

donde ^r es una funcin de R en R, frecuentemente antisimtrica respecto


del 0 1 yrlx) = x dara lugar a los estimadores mnimo cuadrticos y en cuyo
caso la resolucin de 11.4) sera equivalente a la minimiiacin de (1.2) ).

iiJ Los L o R estimadores. Construdos a partir de los estadsticos


ordenados o los rangos correspondientes a los residuos { r; }, donde

^
r; ={ Y; - A` (X;) ^m^ }. As por ejemplo, Ruppert y Carroll (1980) construyen
un estimador mnirno cuadrtico entre los datos {(X; , Y;) } para los que sus
residuos { r; } estn entre r,n y r2n, los residuos que ocupan la posicin [na]
y[n(1-a) ] con a cornprendido entre 0 y 1(siendo [] la funcin parte
entera). Es decir aquel valor de 4 para el que se minimiza:
^o (B) _

(Y; - A` (X;) ^)2

(1.5)

{ r; / ^naJv <fn(1-aJ }

y finalmente:
iiiJ Los estimadores en rnnima distancia. Estn generalmente constru
dos con distancias del tipo Cramer-Von Mises. Los desarrollos principales
de los mismos fueron los Ilevados a cabo por Koul-De Wet (1983) para la
regresin y por Kaul (1986) para los procesos AR (1). En lneas generales
se definen como aquellos para los que se minimiza una distancia del tipo:

^0 18) = J^^ (V d(z, 8) -(^ dn;) F(z) 12 dH (z)


;= r

dande Vs(z, 8) _^^ dn;

1{Y; - A`(X;)

(1.6)

^ <I} representa una distribucin emprica

ponderada de los errores, F la distribucin del error E supuestamente conocida y H una funcin de ponderacin. Modificaciones de la distancia anterior podran considerarse en el supuesto de F desconocida, por ejemplo
cuando F es simtrica.
De forma alternativa al modelo paramtrico lineal (1.1) en el que se
verifica E (Y / X= x) = A` (xl 8, el desconocimiento de la posible dependencia
de Y sobre X da lugar a la consideracin del modelo ms general:
Y = a(X) + E

11.7)

donde ahora la funcin de regresin a(x) = E(Y/X=x) es de tipo no paramtrico.


EI que la funcin de regresin poblacional a sea frecuentemente desconocida, incluso en lo relativo a su forma, dio lugar en los ltimos 20 aos a
una inmensa investigacin relativa a posibles estimadores no paramtricos
para la funcin de regresin. En este contexto, a diferencia del paramtrico,

l'NA PERSPECTIVA C;ENERAL C'ON NIJE.VOS RESL;LT.ADC)S

I4S

donde el objetivo era estimar 8, el estimador es una curva construda a


partir de la muestra inicial { IX,, Y,),...,(X,,, Y^) } y que ha de estar definida
sobre todos los posibles valores del soporte asociado a la variable X.
EI gran desarrollo experimentado en la investigacin relativa a la estimacin no paramtrica de la funcin de
. regresin, tanto en el contexto terico
como en el aplicado, hace de dicho estimador una potente herra^nienta no
slo para estimar en s misma a la funcin de regresin, sino que a su vez
permite utilizarla como un elemento fundarnental cara a un anlisis exploratorio de los datos. En el reciente texto de H^rdle ( 19$8) se da una
descripcin exhaustiva de los distintos estimadores no paramtricos para la
funcin de regresin asi como de sus aplicaciones en distintos problemas
prcticos ^Prediccin del precio del oro en el da Y a partir del anterior X,
prediccin del volmen de agua en los ernbalses, etc.)

Un estimador no paramtrico de la funcin de regresin tiene la forrna:


n

a (x) _ ^ w,,; (X) Y;


^_ ^

11. $ )

donde { w,,; (xl } denota una sucesin de pesos que puede depender de la
muestra { X; }; . Intuitivamente para estimar a(x) = E(Y/X=x) en el modelo
(1.7), lo que se establece es un promedio local en x de los datos Y; ,
i=1,..., n, con una mayor influencia en dicho promedio de aquellos Y; para
los que w,,;(x) es mayor, frecuentemente coincidente con aquellos Y; cuya X;
es mas cercana a x.
La formulacin (1.8) cubre la prctica totalidad de los estimadores hasta
ahora tratados en la literatura al respecto. Desde el ms antiguo conocido
por regresograma, donde w,,;(x) ;(1 ^;E,x}) / n(x) (con 1{} la funcin indicador,
IX un intervalo al que pertenece x dentro de una particin en Rp por
intervalos y n(x) el nmero de X; pertenecientes a Ix), en cuyo caso (x) es
la media aritmtica de los Y; cuyos X; estn en Ix, hasta otras elecciones de
inters como por ejemplo:

w,,; (x) _ ^ K [ (x- X ;) / E) ] / [

r-1

K [ (x- X r) / ^1 ] ] ^ ( 0 s i 0 ,/o )

con K de Rp en R una funcin ponderacin conocida con el nombre de


ncleo lkernel) y^ el Ilamado parmetro ventana.
As por ejemplo, con K de soporte compacto [-1,1 ], la estimacin de a1x)
estara considerando aquellos Y; cuyas X; distan de x menos que E para un
tamao muestral igual a n. otras elecciones de w,,; produciran los Ilamados
estimadores en desarrollos ortogonales, interpolaciones, penalizaciones,...
etc. (ver el texto de H^rdle (1988) para un desarrollo detallado de los
mismos ^ .

Fsr^^r^^S^r^c A ^:sP^^^ tir>^_^

1^^

La estimacin no paramtrica de la regresin represent tambin por


otro lado en los ltimos aos un ejemplo de estimacin de curvas dentro
de una familia r^s amplia a considerar, como pueden ser la curva de
funcin de densidad, de funcin de distribucin de ra2n de fallo, la curva
funcin cuantil,...' etc. Sienda su conexin ms importante, desde el punto
de vista de la estimacin, la que tiene con la funcin de densidad.

Es clara que si {X,Y) tiene funcidn de densidad conjunta f y X funcin de


densidad mrginal f, entonces:
^
a(x} = E(Y/X=x) - jy f(y/X=x} dy =[ jyf(x,y) dy/f, (x) ]
y por tanto, si utilizamos el mtodo ncleo para estimar la regresin
(x) = ^ ^ K [ (x- X;) / ^^ ] Y; ^ / ^ ^
i_1
n

^ ^

K [ (x- X;) / E ] ^

K [ (x- X;) / ^ ] Y; 1 / ^ ^
^_^ ll

^^^ 17 E n
n

K [ (x- X,) ^ En ] ^ _

r-1

_^^

En

,.

K [ (x- X;) / En ] Y; ^ / f, {x)

^-1 /^ E^

aparece de forma natural en el denominador el estimador no paramtrico


tipo ncleo para la densidad f,. Lo propio con el regresograma dara lugar
al estimador histograma de la densidad,.., etc.
Obviamente en un contexto de suposicin paramtrica para el modelo de
regresin como el (1.1), un estimador no paramtrico nunca sera competitivo con los estimadores ( 1.3), (1.4}, (1.5) o ( 1.6) antes introducidos, ya que
estn elaborados bajo la suposicin paramtrica del modelo.
Antoch-Collomb y Hassani { 1984) realizan un estudio comparativo de
simulacin entre los estimadores paramtricos antes mencionados y uno
no paramtrico de tipo ncleo para modelos paramtricos previamente
prefijados. As por ejemplo, consideran el modelo de regresin polinmica
a(x}=E (Y/X=x) = 60 + 8,x +...+ ^^,x^', con x E R y donde el error E sigue una
distribucin Gaussiana o Gaussiana contarninada. Establecindose corno
medidas comparativas:

sup ^ (x) - a(x} ^: f ^ {x) - a{x) ^ dx y f f (x) - a(x) }2 dx


X
donde n es un estimador no paramtrico tipo ncleo o (x) = f^o +^,x +...+
H^., x^' con (^p, 8,,..., ^.,) = 8t alguno de los estimadores paramtricos.
.V

Se comprob el funcionamiento prcticamente equivalente entre los estimadores paramtricos, salvo en los casos de contaminacin sobre el error

l.'!rA PERSPEC'TIVA GF.NFRAI. C()!^ til!EVnS RE^SI _TACXiS

147

Gaussiano, donde se aprecia un mejor funcionamiento para los estimadores


robustos ( 1.4) o el ( 1.5). EI funcionamiento del estimador no paramtrico
es ciaramente peor que el de todos los paramtricos.
Lo que no se hace en este estudio de simulacin es el uso del estimador
no paramtrico como fuente de informacin inicial para la estimacin de
los parmetros en el modelo paramtrico. Es decir, si por un lado disponemos del estimador no paramtrico (como elemento sustituto de la
muestra inicial {(X,,Y,),...(X^,Y) }) y por otro lado del modelo paramtrico
E(Y/X=x) = A`(x) B, es posible utilizar ^z,,, definiendo como estimador de 4,
aquel valor para el que se minimiza alguna distancia funcional entre n y la
funcn regresin paramtrica del modelo.
EI estimador ser una curva suavizada de la muestra que normalmente
perseguir a la curva del modelo terico paramtrco y por tanto una buena
fuente de informacin inicial (ver figura i y figura 2). A su vez dicha
suavizacin ser funcin de la ventana a utilizar. Una ventana extremadamente grande no dara informacin y por lo contrario una extremadamente
pequea sera equivalente a dar la muestra de partida. La solucin de
comprorniso entre ambas situaciones extremas se convierte de forma natural en lo ms correcto.
.

.
.
.. .
. .
.
.

..
.
.

. .

.. r..
,^-_
.
^-.^

:
:

. 1^
.
:

_.

. __ _..
,_ -^ . ,_. .

^ ,.

^r. ^^^. .^^^J

^ ...'
i ^

../^

^ r^

i^ ^,.r

^ .^

. ^%.. ^
..r

^,.r..r

'

^
^

-^J

^^

_- .
r
.

^^ .

.. .. . . . .
.
.
.
.. .
: .
.
.
. . .
... . . . .
_ .
.

^t
.^

(fig. 1)

.
.
.

f
.

r .r ^ w w w ^ ^ w ... , .w ^ r,.s

^ ^ rr.^;.^ w.. ^. ^..^.. ^^ ..^ w^.^.^.^ ^ +.^ w^ : w

^ i w w^.^.i. w , a...r.iww. ^ ^...^^^^r

Figu^a 1
1
Estimacin no paramtrica de a(x) = 1+x, en el modelo Y= 1+X+^ con X E U^0,1 ],
Var(Y/X=x) = 1+x y E/X=x E N(0, ^ +x) del que se simul una muestra de tamao n=20o.

148

FS^TACaISTI('A ESPA^IC)LA

..r.

i^
.
.
.

.^

.
.
.

.
N

^
i^

^,!

i
^

^
^

M^

l^
.

+i^ .^. ^. w

r. .

+ ^
^
^

^ ^r^

*
t'!
{
^i
t+ ^1^ ^, .
^
. y- ^-.

r.

V^ .
` ^ -^..^.,
.,,.

r ` ^.^ ^,^..^ ^^T

'

.
'
'

^.

^
. .

^^

'

- ^ ^
^
I

. .

r. ^^ -^ ^- r^ ^ ^^^^

^ ^

^ .

. . . ^. .

.
^

.
.
^
a^ ^t^...^^ ^^...i n.^^ ^ ^.^ ^ ^^^ w r^+^^^T^

(fig. 2 )

Estimacin no paramtrica en un modelo de regresin polinmica con X exponencial de


parmetro 1 truncada en [0,1 ], Var(Yf ^C=xj=1 y E/X=x E N(0,1) del que se simui una
muestra de tamao n=200.

Dentro de las posibles distancias, la nica hasta el momento abordada y


que comentaremos a lo largo del trabajo es la definida como:

w ^ ( ) =1 ( 4x) - At (x) e) 2 dS2 ( x)

(1 . 9 )

donde S^ es una funcin ^de ponderacin construda a partir de la muestra

{X,, .,., X}. EI estimador a resultante de la minimizacin del funcional (1.9)


es un nuevo estimador general funcin del estimador piioto no paramtrico
inicial y de la funcin ponderacin.

Es interesante observar cmo en una situacin extrema en la que


fuese un estimador no paramtrico de fa regresin no suave, por ejemplo
n

(x) =^ Y; 1 {X^=x} y^2(x) =#{X; < x} / n la distribucin emprica de la


muestrr{X,,..., X}, el funcional (1,9} se convertira en el (1.2) y los nuevos
estimadores seran en este caso los mnimos cuadrticos.

149

l'NA PERSPE.('T[VA (:;EtiERAL C'O^l !^IJEVQS RE:SI'LT.A[^(7S

En lo que sigue y a lo largo de este trabajo revisaremos los ^ estimadores hasta el momento estudiados, en funcin de tos modelos de regresin a
considerar. Dicha revisin se ve prolongada con nuevos resultados en los
modelos de diseo experimental y de tipo secuencial. Inclumos finalmente
algunas consideraciones de 1a nueva metodologa sobre otros modelos de
regresin.
Como el estimador piloto no paramtrico que utiliiarernos ser en geneen cuenta cuestiones de robustez, nuestro estudio
ral diseado sin tener
^
comparativo entre H y los estimadores ya existentes tendr corno rnedida
fundamental de precisin el error cuadr^itico medio (M.S.E.). Ello dar lugar
a una eleccin natural dentro de las ya existentes, correspondiente al
^
mnimo cuadrtico f^m^, ya que en las hiptesis en las que nos moveremos
ste ser optimal. Por supuesto con un estimador no paramtrico rabusto
(como por ejemplo el introducido por H^rdle (1984) ), el estirnador 8 resultante, sera previsiblemente competitivo con las versiones robustas paramtricas antes citadas y esto ser objeto de estudio en prximos trabajos.
A

Atendiendo a ra2ones metodolgicas, rns que cronolgicas respecto de


la teora expuesta (tanto de resultados conocidos como inditosl estructuramos el resto del trabajo de !a siguiente forma:
2.

LA RECTA DE REGRESION.

3.

EL MODELO DE REGRESION MULTIPLE: PLANTEAMIENTO Y


NUEVOS RESULTADOS.

4.

EL MODELO DE CORRELACION. NUEVOS APORTES PARA EL


MODELO SECUENCIAL.

5.

OTROS MODELOS DE INTERES EN TEORIA DE LA REGRESION.


A1 El modelo autoregresivo.
B) El mode% de heterocedasticidad.
C) El mode% con datos censurados.
D^ El mode% Bootstrapping.

6.

APENDICE.

7.

BI BLIOGRAFIA.

^ ^^^

2.

kS^T,AC^^^TIt^A F^^;^F'^tiOE..,A

LA RECfiA DE REGRESION

^uanda la muestra de partida {{X,, Y,), .., (X,,, Y) ^ es bidimensional


(q=1 ) y A ( x) _( l,x), se obtiene el caso ms sencillo de la regresin lineaf: el
de la recta de regresin. EI modelo en este caso es del tipo:

Y=^,+f^2X+E

(2.1)

del que supondremos que E es una variable aleatoria de media cero y


varianza o^ (situacin de homocedasticidad).
En este epgrafe desarrollaremos la recta de regresin con suposicin de
variable regresora X aleatoria. Aquella situacin de variable regresora deterrninstica quedar^ includa en el cntexto del epgrafe siguiente.
Los funcionales (1.2) y( i.9) en este caso son respectivamente los siguientes:
n

^a ^ 1, , B^ ) ` ) ^ ^ ^ { Y; - e, - 82 X;) 2

^2.2)

^1 { ^^l ^ ^2)` ) ` ^ (CXn^X) - ^, - ^2 i()2 C,^^ln ^x)

(2.3)

con { tf^,m^, ^2m^)` } y{(^,, 02>^ ) los estimadores de mnirr^os cuadracJas y


los construdos con la nueva metodologa resultantes de la minmizacirr de
los correspondientes funcionales.

En general 1os estimadores { f^, , ^2 } definidos a partir de {2.3) vienen


dados por:
^
^
A
f^, = rz {x) dS^ {x) - H2 f x d S2 (x)
^
42 = ^ x aR (x) ds2^ (x) - 1 ^^ (x) dS^ lX) Jxd^^ (x) ] /

^2.4)

/[ jx^ ds2n 4x) -[ f xds2n (x) ] 2]


Una eteccin bastante general para el estimador piloto no paramtrico
incal es la siguiente:
{x) _ ^ vv; {x) Y; = ^ [ ^5,^ ^xX;) Y; ] ^ L ^ ^Sm {x-x^) ^
^_ ^
;_ ^

^^ ^

^2.5)

donde { rSm : R x R--^ R},,.^,,.,{} ^^ es una sucesin de funciones


medibles.

l'N,A PE-:RSF'E(^T1^'A (;EtiERAL (^O!V Nl E^'OS RE:SI l. T A[x)S

I51

As por ejemplo ^Sm(x,u) _(1 /E^) K[ {x-U)/F ] representa el mtodo


m-1

ncleo, ^^,{x,u) = m ^^ 1 ^,^} {x) 1 ^,^; (ul

con

lo= [a,a+(b-a)/m] , I, _

[a+(b-a) /rn, a+2 {b-a) /m], . . . ., I m_, _ [a+(m-1) Ib-a1 /m,b], el mtodo h istom

grama en el intervalo [a,b], dm(x,u) _.^ ^r^(x) yr^(u), donde { ^r^ } es un siste^
ma ortonormal completo en SC R, el mtodo de desarrollos ortogonales,
..., etc. Formalizacin tambin vlida para la estimacin de la densidad
donde:

f^ (x = { 1 //7) ^ ,,, ^x, iC,.^

(2.6)

;-^

representara un estimador no paramtrico de la densidad ( ver por ejemplo


Wertz 11978), Susarla-Walter 11981) y Collomb ( 19$3) entre otros).
De hecho {^m } contiene dos factores de informacin: por un lado m=m (n),
factor de suavizacin ( m=1 /E es la ventana en el mtodo ncleo, el
nmero de intervalos en ei mtodo histograma, el nmero de eiementos de
la base en el mtodo de desarrollos ortogonales,... etc.) y por otro lado la
forma de ^ que realmente es funcin del mtodo a considerar ( por ejemplo
en el mtodo ncleo funcin del ncleo K).
Los primeros trabajos en los que se aborda un estudio inicia! de los
estimadores ( 2.4) son i os de Gonzlez Manteiga { 1982) y Faraldo Roca
(1982) donde se realizan algunas simulaciones ilustrativas de 1os mismos.
Faraldo Roca 11984) realiza un primer estudio terico probando resultados
relativos a su consistencia y normalidad asinttica cuando la secuencia de
pesos { w,,;(x) } es la utilizada en los estimadores pilotos no paramtricos
definidos en 12.5) y 12.6); en cuyo caso !os nuevos estimadores f^, y f^2
vienen definidos como aquellos valores que minimizan el funcional:

V/r ( (0^,02) ) = JS (rY(x) - , - ^2x)2 f(x) dx


resultando:

^
ZV-T W

__ ^ 2
V D-W

donde Z, V,

(2.7)

TD-Z W

D^ _ _ _

V D-W

^
W. T y Z son !as medias de las variables:

Z; = f S Y; ^Sm (x,X;) dx , V; = JS ^^m (x,X;) dx, W; = Js x cS,,, (x,X;) dx


T; -.^s Y; x bm (x,X;) dx y D; = JS c^m (x,X;) dx , =1, ..., n.

(2.8)

15?

ESTADISTICA ESP:^ti()LA

siendo S en el funcional 12.7 ) un conjunto soporte conteniendo al de la


densidad de la variable regresora X, f, que se supone existente.
Faraldo Roca y Gonzlez Manteiga (1987) prolongan el estudio terico
iniciado en el trabajo anterior probando propiedades asintticas ba ^ o condiciones ms generales para los estimadores ( 2.8), que podramos resumir
como:
iJ e, --^--^ B,
82 --P--^ H^ siempre que S sea compacto, E(Y2) <^
y m=m(n) --^ ^ .
w

i) 8, -^-^ S^-^ 8,
n2 -^ 5---^ H2 siempre que S sea compacto, Y
acotada con probabilidad uno y m=m(n ^ ---^ ^ . Y adems:

ii) y [ 8,,^2i` ' (Q,.^zf` ] -^ N [ ^^-0)`^ B ]


con B = o^ [ E{(1,X?` f 1,X) }]^' , siempre que S sea compacto y
^
Y
2+Y)
<^
E( ^
pa ra a I g n y> 0 y v' n m---^ 0.

Sobre la sucesin {^m } se exigen las siguientes condiciones axiomticas


de tipo general:
a)

s^ p^m (x, u) = ^{m)

bxE R

b) c^^, x, t) _^^, ( t,x) y 8m (x,t) > 0

b (x, t) E R2

c) J^m(x,u) du=1
bx E R con ^m(x,t)=0 si
y ^ -^ o Sl n -^ ^ .

^x-t ^> cE^, (^=0(1 /m) )

EI histograma o el ncleo con soporte compacto son ejempios cuyas 8m


verifican las condiciones anteriores.
La clase general de estimadores { 8,, 8,^ } presenta buenas propiedades
asintticas (consistencias en probabilidad y de forma casi segura) a la vez
que su varanza asinttica es ptima, en el sentido de que es similar a la de
los estimadores mnimo cuadrticos, en un contexto de optimalidad para
stos como es el hecho de que E (( Y ^ 2+^) <^ en el modelo ( 2.1). Por todo
ello, en ei mismo trabajo anterior se establece por primera vez un riguroso
estudio comparativo entre los nuevos estimadores resultantes y los mnimos cuadrticos deducidos de (2.2) utilizando como criterio el error cuadrtico medio.

A la luz de los resultados all explicitados, se resalta la importancia de la


eleccicn inicial de la ventana m=1 /E y del soporte S de ponderacin. Una
mala eleccin de E puede producir estimaciones ineficientes respecto a ia

1 S^

[;NA Pf-.RSPEC^T[VA (^EtiERAL ('()^J til'EVf)S RESI LT.ACX)^

mnimo cuadrtica. Un ejemplo de evolucin del M.S.E. en funcin de E


puede ser el indicado en la figura 3.

^
M.S.E. (8;)

^
M. S. E. (f);mc)
_______
_^.___._

Figura 3
^
Por otro lado los estimadores 8; i=1,2, pueden heredar las malas propiedades que presentan los estimadares piloto no paramtricos iniciales en

aquellas situaciones del tipo S=[a,b]. En efecto, en las colas

[a,a+^] y

[b-E,,,b] es conocida la ineficiencia que presentan las estimaciones no paramtricas, tanto de la densidad como de la regresin. Dicha ineficiencia es
tambin trasladada a los estimadores f^; i=1,2, respecto de los mnimo
cuadrticos.
`

Sin embargo en una gran generalidad de situaciones se producen estimaciones ms eficientes que la mnimo cuadrtica. As por ejemplo, si
S=(-^, ^ } ^m(x,^) - ^ 1 /E) K [ (X-U)/^ ] COn:
^
K E{ K* / K* es simtrico, positivo, acotado y con ,^^K Iz)dz=1
c}
/.

para algn

entonces M.S.E.^B;) < M.S.E.(4;m,^) i=1,2 para ciertas elecciones de E,,.

E:STADISTI(`.^ ESf'Ati()LA

Como ejemplos ilustrativos de simulacin se toman los siguientes modelos:

Y=1 +X+E con X E U(0, i}, E E N(O,a^;^ i=1,2 ; a?=1 y ^=2


para los que se usan como ventanas E;, = cr^^[ n J w^ k(w} dw ] i=1,2
ptimas para estimar el parmetro H2 (en este caso 82 = 11 (ver Faraldo
Roca - Gonzlez i^/lanteiga ( 1987) para ms detalles relativos a la ventana
ptima} y donde el ncleo viene dado por:

K ( w) _

(3/4^)(1 - v^/5) si ^ w ^< ^ 5


resto
0 en el resto

el conocido ncleo de Epanechnikov. Se obtiene la siguiente tabla de


errores cuadrtico medios construida para simulaciones de 100 muestras
de tamao 50 y 100.

tamao muestral = n
varianza = a2

MSE [^,J

MSE [82J

MSE [8,m^]

MSE [82m^J

n= 50

^= 1

0.08064

0.228592

0.094363

0.25246

n= 100
n= 50
n= 100

a^ = 1
a^ = 2
a-2=2

0.039096
0.14097
0.072068

0.109807
0.38771
0.197106

0.046646
0.188727
0.093291

0.128587
0.504919
0.257174

Una mayor eficiencia de los estimadores { ^8,, 82 }, bajo el criterio del


M.S.E., respecto de { ,m^, ^2m^ } es apreciada en un _ contexto de situacin
ptima para stos.

Como ejemplo ilustrativo del efecto frontera reiativo al estimador no paramtrico inicial y sus efectos proyectados a los estimadores paramtricos,
consideraremos el siguiente relativo a un ejemplo biomdico basado en la
contrastada reiacin lineal existente entre la ceruloplasrnina en plasma y su
actividad oxidsica. Lo cual, como es sabido en la literatura al respecto, nos
permite predecir el valor de la concentracin, mucho ms laboriosa de determinar y con un mayor costo, a partir de la actividad oxidsica, rpida de
medir y barata.

l!^1A PERSPEC'71VA C^ENERAL CC>^J !^I^EVOS RE:SI'LT^A[^OS

ISS

Se toma como estimador no paramtrico para la regresin:


(x) _ (1 /(^En) ) ^ Y;K [ (F^(x) - F^(X,) } / ^n ]
^-^

(2.9}

estimador introducido por Yang (1981) y estudiado por Stute (1984}, y


que en lneas generales es una modificacin del estimador nc^eo basada
en el hecho de que:

a(x) = E (Y/X=x) = E (Y/F (X)=F (x) )


} en el funcional
con S1 (x) la distribucin emprica de la muestra { X,, ..., X^
^
(2.31. Con la optimizacin de dicho funcional se obtiene f^.
En la gr^fica 4 se representa una muestra de tamao 50 obtenida
experimentalmente a partir de las dos variables anteriores; en la 5 el
estimador no paramtrico ( 2.9^ con E=0.1 y K(u)=(1 /2) 1 ^_, ,^ (u}. En la 6,
una estimacin no paramtrica corregida de la anterior con:

^(x^ _ [ ^_^^ Y; K [ c F^(x) - F^(x;) ) i ^^ ] ] / [ ^^- ^K [ ( F^(x) - F^(x; ^ ) / ^^ ] ]


es presentada. Es claramente visible la eliminacin del efecto frontera respecto del estimador anterior. Finalmente en la grfica 7 se presentan tres
rectas resultantes de la estimacin mnimo cuadrtica M.C., la proyectada
del primer estimador no paramtrico N y del corregido N.C.

Se deduce de la grfica un mejor funcionamiento de M.C. respecto de N


(la herencia del efecto frontera} con una situacin mejor de las tres para
^
N.C.

E:ST,^[)IST It^ ^ E=SP:^tiOLA

Cerulop la5nina
[ng/IOOnIl
75 r

. .
.
_..
.. . ... ..
.
..
. .
.
.,

^-------- f -

^D,Q ^

$^

Z1^

Act i U i dad 4x i d3s i ca [!1/ i]


Figura 4

^Carulo lasni^a
E ng/ 1 Dn I]
7S -r
. ^^.

..
j.^!_ ^ .r^. .
" Ty. .

L----+---

^a,o)

^^

Act i U i dad 4x i das i ca [ ^/ I l


Figura 5

^1Q

157

l'ti.A PFRSPE('TIVA C;E^+ER.AL. (.'O^+ tiI:E.VC)S RE:S[ L.TAfX:)S

Ceruloe lasnina
[ng/ 17^n IT
^^-^-^-*^^
. .

-^^+-r..

.
^-

.
^ t-^^_,..i ^^

. ,^.+ _ . .
..
. . ^^.
-

L---lQ^ol

2?U

^ct i u i dad ax i da5 i ca [ U! f l


Figu=a

Ceru I oe I asn i na
Ing/ 100n I ]
N = Estinador Propuesto
T5
T NC= Estinador Propuesto Corregido
I NC= Est i nador N i n i nos Cuadrados

L^^--^^^^^^
^^

Actiuidad Oxidasica [ U/I ]


Fiqura 7

I^lC
.
__ -.^-NC
^ -^.z11-'r^^
^ J"-+ N

^.
^`G^^ ..r'`^

f ^il ^^()ItiT IC :^ E fiF':^ti()L_:^

3.

EL MODELO DE REGRESION
NUEVOS RESULTADOS.

MULTIPLE: PLANTEAMIENTO Y

Como ya se indic en la introduccin, el vector de variables regresoras X


puede ser controlado por el experimentador en este caso, perdiendo por
tanto X su naturaleza de tipo aleatorio para dar paso a una de tipo determinstico ( el model0 de diseo fijo o experimental antes aludid0).

La muestra inicial es ahora de! tipo {{x;, Y; ) }; i,


resumida en el modelo:
Y,=A`{x,)f^+E,
Y^ = A` {x2) f^ + E2
...............
donde x,, . . ., x E C C Rp
(3.1)
Y = A ` (x) F^ + E^
con C generalmente un conjunto de tipo compacto (as con q=1 es frecuente C=[a,b] ).
Como generaimente en (3.1) !os datos x; controfadas por el investigador
tienden a estar uniformemente distribuidos en C, parece razonable elegir a
travs de la nueva metodologia como estirnadores para f^, a aqullos que
minimizan el funcional:

S^,(f^) = J^ {(x) - A`(x) f^)2 dx

(3.2)

donde es un estimador^ no paramtrico de la funcin de regresin adaptada a los diseos fijos y f es ahora la densidad uniforme en C.
La formulacin general ms v^lida de para este tipo de situaciones es
la definida por:

(X^(X) _ ^ W,,;(X) Y;

(3.3)

i=1

a la que ya aludimos en la introduccin. Sin embargo los pesos w,,;(x) son


distintos a los utilizados en un contexto de variable regresora aieatoria.
Recientemente Georgiev ( 1985, 1986) investiga las propiedades asintticas del estimador ( 3.3), mostrando que ste contiene a los estimadores
ms importantes de la funcin de regresin en los modelos de diseo fijo.
As por ejempl0:
a) w,,;(x) _ ( (x; - x;-,j / E) K [ (x-x;) / E 1 {Priestley-Chao (1972) Y
Benedetti (1977) ).
S.
b1 ^^';(x) _(1 /^) S;.-, K[(x-s) / E ] ds con so-1, s;_, < x^ < s; j=1, ..., n
s=1 y C=[0,1 ] ^Gasser-Muller (1979) ).

^ 59

1;,1A PE:RSPF('TIVA C;ENFR.4L C`()*^ til'E^VC)S RE:SI'LTAU()S

c) wn;(x) _((x; - x;_,) / rn) K[(x-x;) / rn ], donde r es la k-sma dstancia


del punto ms prximo de x entre los { x; }.
Tanto para a1, b) como para c), K es una funcin ncleo.
Una posible motivacin intuitiva de estos estimadores aplicada al caso a),
pues b) y c^ seran generalizaciones de a), podra ser, tomando esperanzas,
la siguiente:
n

;^ ^

^^ ^

,- ^

E ( ^zn (x} } = E ( ^ wn; (x) Y;) _ ^ wn; (x) a (x;) _ ^

, ,- ^

X-X ^
^n

K(

, ) a (x^)

X-X ^
^n

siendo el ltimo trmino aproximadamente igual a:

J a!u) K [ Ix-u) / E) ] 11 /e) du -^ alx)


ya que, se supone un diseo que en funcin de n va distribuyendo los x uniformemente, al tiempo que la funcin ncieo K por su forma normalmente
pondera ms a los u cercanos a x, comprobndase la ltima convergencia.

De sta forma, bajo la suposicin


de existencia de la inversa abajo utiliza^

d a, e I e st i m a d o r g e n e ra I ^ cons trudo a partir de (3. 2^, viene definido por:

^_[ 1^ A(x) Atlx) dx ]-^ J ^n(x) A(x) dx

(3.4)

verificndose los siguientes resultados inditos (cuyas demostraciones se


desarroilan en el apndice).
TEOREMA 1. Bajo las condiciones:
n

a) E ^ wn; (x) ^< b, para algn b y d n> 1


;-^
n
^ Wn; (X ) ---^.> 1
^_ ^

^ 0 cuando n---^ ^, da > 0

^_^

^ ^ w,,; (x) ^ 1

{IIx,XII>s}

SU/7 I Wni ^X i I

= O (n^s), s > a

sobre los pesos { wn; }, x E C y

b^ E( ^^ ^^^^ ^s1) ,^ ^

s> o

c^ A continua y C compacto
sobre el modelo ( 3.1), se verifica: Q ^^s -^ p

E-.ST,AC)ISTI( A ESPAtiOLA

I6^)

TEDREMA 2. Denotando por A`(x) _(A, (x), ..., AP(x) ), x E C y bajo las
condiciones:
y[ ^ w,,,(x)- 1 ]-^ 0
;^ ^

n
^ ^^ w,,; (x) ^ 1{ ^^ ^ X; ii ,,^ ^---^ 0 cu a nd o n-^--^ ^, d a> 0

a)

/S ^

n^ [ Je w^; (x1 A, (xf dx ][ f^


;^ ^

(x) A; (x) dx

j^ A, (x) A; . (x) dx

para todo j,r=1, . . ., ^v.


n

^[ N j^ w^k (x) A; (x) dx ^ 2+^ ] n'^Yj^^ _--^, 0, co n j=1, ..., P Y Y> o

k=1

sobre los pesos { w^; (x) }, x E C y


b)

E ( ( E ^yi < ^ , y > 0

c/ A continua y C compacto
sobre el modelo ( 3.1), se verifica:
=--^ Np (o, cr^ B) con B=[ j A(x) At (x) dx ]
Las condiciones a), b) y c1 no son restrictivas en el Teorema 1, a)
representa las hiptesis exigidas ya por Georgiev 11985, 1986) para !a
consistencia de los estimadores piloto no paramtricos. La b) es m^s dbil
que la existencia de varianza para el error E y c) es verificado por ia
prctica totalidad de los diseos ms frecuentes.
Respecto al Teorerna 2, a^ es cierto para numerosas clases de pesos w,,;.
Por ejemplo si C=[o,1 ](o cualquier intervalo compactoy y los x; son equidistantes con w,,; (x) _((x - x; y / E) K[(x -x;) / E^ ] y K funcin de densidad
con soporte compacto ( Priestley-Chao (19 72 }) se verifica a).
Llamando:
X(n) _

una medida comparativa entre 4 y 8m^ se establecera entre las matrices de


covarianzas asntticas respectivas:

(a2/n 1 [ f A (X) A ` (x) dx ]-' y ^ [ X ^ l n) X ( n) ]^'

I f^ I

l'tiA PERSPE.( TIVA C;ENERAL C(^iti Nl'EV()S RESI'LT.A[7(^S

Como ejemplo ilustratrivo consideramos el siguiente modelo:

Y,=4,+f^2(/n)+^, con E(^;)--0 y E1^--a^, i=1,...,n


A

Se verifica que la cov18) es aproximadamente igual a:

(a^^n) [ jo ( ^.x)` ( 1.x) alX ]-' ^ 12 (a^^n) [ 113


1 /2

-1 /21
f ,1

y la cov(8^,^) es aproximadamente igual a:


1 2 (^2/^) [ (1 /61(2n+3+(1 /nJ1/(n-(1 /nll -(l+nl/(2(n-(1 /n))J ]
n/(n-(1 /n)^
-(1+n1/(2(n-(1 /nJll

siendo obvio que:


Var (6,m^)/Var(8,) > 1

y Var (8^m^) / Var (21 > 1


A

aprecindose por tant0 una mayor precisin de 8 sobre ^m^.

4.

EL MODELO DE CORRELACION. NUEVOS APORTES PARA EL


MODELO SECUENCIAL

En el modelo de correlacin (situacin de variable regresora aleatoria) lo


que realmente se tiene es ia muestra de partida {(X,,Y,), ..., (Xn,Yn) } del
vector IX,Y) (p+1) dimensional, siendo de inters frecuentemente, encontrar
el hiperplano de regresin:

y=l^t (X) eo = Xt eo = X, ; + . . . + Xp ap
que mejor se ajusta a la distribucin poblaciona! de (X,Y). EI criterio que
ms se usa para disear tal hiperplano es el mnimo cuadrtico, bajo el cual
Bo es el parmetro para el que se rninimiza:

^^ (e) = E ( lY-xt)2 )= f 1y-^ 8)2 dF (x, y)

14. ^)

donde F es la funcin de distribucin del vector (X,Y).


EI criterio ms utilizado para la estimacin de ^o es tambin en forma
lgica, el mnimo cuadr^tico, definido a partir de la estimacin en (4.1) de F
por la emprica:
Fn(x,y) _ [ #{(X;,Y;) /X;< x Y;< y}] /n

EST.4[)15^T1( A ^.SP4^iC)l_,A

y consistente en la minimizacin de:


yro ( f^i = n J( y-xt f^) 2 d F (^ y

^ (Y -Xt
, )2
,

(4.2 )

es decir ( 1.2 ) cori A (x)=x.


Lgicamente s e1 modelo que sigue el vector ( X,Y) es lineal, es decir,
Y=X`eo+^e con E (^)=o y E 1^)=0^, el hiperplano de regresin es la mejor
explicacin de Y sobre X y yr2 viene dado camo:
^
^r2 () _ ^2 + j (xreo-x^^)2 dF, (x)

(4.3)

donde F, es la distribucin marginal de X.


Por tanto es claramente intuitivo sustituir en (4.3) la funcin xr 8o por un
estirnador no paramtrico de E(Y/X=x)=a(x), ,,, que siempre perseguira a
dicha funcin, y F, por un estimador S^ y aplicar !a minimizacin del
funciona! (1.9).

En esta lnea y suponiendo que F, es absolutamente continua, Cristbal


Cristbal, Farald Roca y Gonz^lez Manteiga (1987) proponen minimizar
tal funcional considerando como estimaciones para a y F,:
(X (X) =

[ ^ Y; m (x, X;) ] / [ ^ ^m (x, X;) ] con 0/0 = 0


i^ ^

i_ 1

S2 (x) = Jx^, f ( t) dt = (1 /n) ^ JX ^ ^m ( t, X ;) dt


;^ ^

donde f es un estimador no paramtrico para la densidad de X y la


sucesin {^^, : Rpx Rp ---^ R}m-mr^--^ ^ es ahara una generalizacin de la
antes mencionada en el caso p=1.
Bajo condiciones ms dbiles (E (Y4) <^ por Y acotada con probabilidad
uno) en una situacin ms general (p > 1) y con una sucesin { bm } adaptada a la situacin muitidimensional:
a^

sup ^m (x, u) = O(r) , dx E R


u

b^

m (x,u) > 0 y c^m (x,u) = m (u,x) d(x,u) E R 2p

(4.4)

c/ J^m (x,u) du = 1 y Sm (x,u) = 0 si II x-u I > c E (^=0 (1 /m) ) con

---^ 0 si n ---^ ^

en el trabajo anterior se prueba:


i)

Si E(Y4) <^ entonces 8

c.s.^ ^

1 C^^

l;!ti,A PEFiSP^:C'TI^'A GENER,AL C'Oti til_'EVC)ti RfSI'L..T^A[X)S

i) Si E( II (X,Y) O ^) < ^
entonces:

y con

y> 0 se tiene

E( ^ Y(^+%') <^

^ ( - o) -.---^ Np (o, ^ ( E (x`x) ) -')


w

En consonancia con lo expuesto en la recta de regresin los estimadores

e son asintticamente eficientes, presentando error cuadrtico medio ms


w

pequeo que el de 8m^ definido a partir de (4.2).

EI estudio del M.S.E. es muy importante sobre todo en lo relativo al


problema de la multicolinealidad en la regresin lineal. Estadsticamente
ello quiere decir que las variables regresoras p-dimensionales estn cercanas a la dependencia lineal, con una posibilidad de reduccin de dimensin
del espacio correspondiente. Por otro lado, desde el punto de vista num-

rico significa que las matrices de covarianzas son obtenidas a partir de


inversas de matrices con autovalores prximos a 0 producindose varianzas muy grandes para los estimadores Bm^.
A

Una de las mayores aportaciones para la correccin del M.S.E. en los


estimadores anteriores es la introducida por Hoerl y Kennard ( ^ 970) definiendo fos Ilamados estimadores riscal:
(4.5)

9k = [ X ` (n) X (n) + k I P ] ^' X ` (n) Y (n}

donde X(n) es !a matriz formada por las filas X; e Y(n) _(Y,, ..., Yn1t. Estos
estimadores producen un sesgo sobre los mnimo cuadrticos pero una
sensible reduccin de la varianza.
^
Es curioso observar cmo los estimadores 8k definidos en (4.5), que
siempre tuvieron fundamentalmente una interpretacin Bayesiana (ver Vinod y Ullah (1981) para ms detallesl, son ahora un caso particular de la
nueva metodologa.

En efecto, tomando ^Sm(x, u) _(1 /^) [^ ,^K[(x; - u;) / E ]] donde K es


un ncleo simtrico monodimensional positivo, y verificando:
J K1z)dz = 1

J zK(z)dz = 0

y J ^K(z)dz < ^

se tiene que:

e= 8k con k= nE^ j z2 K(z} dz

(ver el artculo de Cristbal-Faraldo-Gonzlei Manteiga (1987) para un


estudio relativo a estos estimadores y sus posibles generalizaciones).

Fsr:^nisric^ ^ ^:sp.atic^t ,^

164

Una propiedad de notable inters en la prctica es la recursividad de las


estimacianes, siendo i mportante que los estimadores puedan ser computados de forma secuencial en funcin de !a entrada de datos {(X,,Y,), ...,.
En la literatura relativa a la estimacidn mnimo cuadrtica de fI, pueden
encontrarse numerosos artculos concernientes a versiones recursivas de
los estimadores minima cuadrticos, destacando, por ser recientes, entre
otros, los artculos de Hasiett ( 1985) y Sidalhartha-Rao y Tiwari ( 1987}.
Si se pretende la obtencin de estimadares recursivos con la nueva
metodofoga, necesariamente tambin lo han de ser los estimadores piloto
no paramtricos que se utilicen inicialmente para estimar a y la densidad
de X si se supone existente.
En el contexto de la estimacin no paramtrica, podramos destacar los
estirnadores recursivos tratados por Yamato ( 1971 }, Wolverton-Wagner
(1969), Deheuvels ( 1974, 1979) y Devroye ( 1979) para la funcin de
densidad y Greblicki (1974), Ahmad--Lin (1976), Buldakov (1977) y
Devroye-Wagner ( 1980} para la regresin. Recientemente Singh-Ullah
(1986) tratan ambos casos.
Una formulacin general de todos ellos utilizando el lenguaje de las
sucesiones { c^m ^ podra ser la siguiente:
^rn (x) _ [ ^
i=1

Cim(iJ (x,i^`;) Y; ] ! [ ^ l^m^i1 (


i=1

x,X;) ] (o si 0/0)
t4.6)

fn `x) ^` [ ^ Um(il `x. X f) ] ^ i


^=1
w

Se observa que los estimadores 8 minmiZantes del funeional

(4.7)

^^ (8i -- J (an (x) - xt 8)2 fn (x} dx

^
con n y fn definidos en (4.6), heredan la recursividad. De hecho aplicando
resultados relativos a inversas de matrices es posible obtener que:
^

Q = n = [ ^ f X Xt (Sm^(il {x, i^i} dX + ,^ X Xt ^m ^n^ (x, X n) dX ^ i=1

[^^J^ (xX.)xdxY,+JcS
(xX}xdxY
m(i)
^
i
r
mtn)
^
n
n
^=1

^.

- L A n-1 + D n J r[ brr-1 + Cn ]

es decir:
f^n = [ Ip - A^,' , Dn(Ip + A^ f ^ Dn)-r ] ^n-^ ' A^ ^ ^

(Ip+An1l Dn^ ^ An^ l ^ Cn

(4.8}

l'N;1 PE:RSPEC'TIVA t^Fti^RAL C'Oti til.'FVC)S RE^.SI'L-TACX)S

I6S

obtenindose una formulacin recursiva para f^,,.


Finalmente presentamos como resultado indito, el siguiente relativo a la
clase recursiva (4.8), cuya demostracin puede verse en el apndice.

TEOREMA 3. Bajo las condiciones definidas en 14.4) se verifican


^ tambin
los resultados sobre consistencia y normalidad asinttica para 8 definido a
partir del funcional (4.7).
c.s.^ ^o
i^ Si E(Y4) <^ entonces ^

i) Si E( ^^ (X,Y) ^^ 2) < ^ y existe y> 0 con E( ^ Y^2+^) <^ entonces:

1^ on - ^o)

d--^ Np (0, ^ (E (X` X) )^').

Es decir, asintticamente las versiones recursivas y no recursivas se


comportan de forma similar. Es de notable inters y puede ser objeto de
futuros trabajos, la comparacidn entre ambos estimadores en base al
M.S.E. con muestras de tamao n. Como punto de referencia puede indicarse el buen funcionamiento que presentan ios estimadores recursivos respecto a los no recursivos en la estimacin no pararntrica de curvas (ver
por ejemplo el artculo de Singh-Ullah (1986) ).

5.

OTROS MODELOS DE INTERES EN LA TEORIA DE LA


REGRESION.

Como ya se coment anteriormente, el modelo (1.11, en funcin de que X


sea aleatoria o determinstica, da lugar a distintas derivaciones del mismo.
En este apartado, y de forma ms breve, comentaremos esencialmente
algunas otras derivaciones de inters distintas a las tratadas anteriormente,
que reflejaremos en los siguientes casos:
A)

El mode% autoregresivo.

B1

El mode% de heterocedasticidad.

^ C)

El mode% con datos censurados.

D)

El mode% Bootstrapping.

A)

El mode% A utoregresivo

Este modelo viene a representar un caso particular de modelo de correlacin, construdo a partir de una serie temporal, normalmente de tipo estacionaria. Si { Xt }tE Z+ es dicha serie y A (x) = x, para que se tenga una

I`STAC^ISTIC',a E.^ ^ PA`^CII^.A

^ fib

dependencia en autoregresin de orden p, se ha de verificar: Y= Xr y Xt=


(X:_,, ..., Xt_p) con un modelo definido por:

X t = ^ f^X + E
I

%i

t-I

(5.i )

donde, el error que verifica frecuentemente E(^r) = 0 E(E^ = a2 recibe el


nombre de ruido blanco para indicar una independencia entre sus variables
a lo largo del tiernpo. Por otro lado por comodidad a!as variables X^ del
modelo 15.1) se las supone centradas, es decir E(Xt) = 0.
La fiiosofia de la nueva metodlogia es !a misma que la desarrollada en
el apartado 4. En este caso, a partir de !a muestra_ { X,, ..., X } con_n > p,
de { Xr }, se construye la muestra transforrnada {{X,, Y, ^ , ..., (X_^,, Y_P) }
con:
X, - (X,, . . ., XP)

Y, = Xp+r

(XZ,..,,X^,)

Y2-X p+2

Xn_p -- ^Xn_p, . . ., Xn-1)

Yn-p' Xn

y a continuacin se procede a la estimacin no paramtrica de 1a funcin


de prediccin a(x) = E(X p+, i(X,, ..., XPj = x) y de la distribucin estacionaria
de (X,, . . ., Xp).
Dichas consderaciones nos Ilevan al uso de estimadores no paramtricos
con datos dependientes, cuyos estudios son fundamentalmente recientes,
pudindose citar entre otros los articulos de Collomb { 1982), Masry (1983,
1986j, Berens (1983 ), Co(lomb y Doukhan (1983), Bosq (1983), Hart
(1984), Yakowitz (1985), Collomb y H^rdle (i 986), Gydrfi (1987), Gy^rfi y
Masry { 198?), Robinson (19$6, 1987) y Vilar Fernndez (1987).
La adaptacin de ias estimaciones no paramtricas introducidas en 4 a
este contexto, da lugar, fundamentalmente, a los estimadores no paramtricos de a y de la distribucin estacionaria respectivamente:
L^P Y; ^n^ ^X x;) 1/ L

^_ ^

^P am (X^ %^;) J

^_ ^

y0sio/0

JX^ f (t) dt =(1 /(n'p) ) Ep J a,,, (t, X^) c^t


^= r

EI estimador ^ resultante, verfica resultados similares a los correspondientes del modelo de correlacin, si bien, la herramienta probabilistica

l'ti,A YE::EttiPE=..('^TI^'A ( ^ E^:^+f:EZAI_ C^t^^ til E-.^'OS FtESt l.T ^^[k)S

6^

necesaria para la obtencin de dichos resultados es sensiblemente distinta


(ver Gonz^lez Manteiga y Vilar Fernndez (1987a, 1987b) ).
B)

El mode% de heterocedasticidad.

A lo largo de la introduccin se hizo mencin de situaciones, en las que,


el estimador de mnimos cuadrados dejaba de ser eficiente.
Colas pesadas para el error E q una posible contaminacin del mismo
eran sealadas como algunas de las causas ms significativas.
Otra posible causa no considerada anteriormente, es la existencia de
heterocedasticidad en los errores, es decir, errores de varianza no homognea. En cuyo caso, Var(Y /X=x) _^(x) en el modelo (1.1).
La estimacin mnimo cuadrtica, definida a partir de la optimizacin def
funcional ( 1.2), ha de ser corregida por una estimacin mnimo cuadrtica
ponderada, resultante de la optimizacin del funcional:

(5.2)

^o ( f^) _ ^ [ ( Y;- A ( x;) > / Q ( x;) ] 2


,- ^
con el consiguiente estimador:
n

i=1

i^ 1

mGP = [ ^ A (X;1 At^X;) /^(X,) ] ^' / [ ^ A (X;) Y;/^(X;) ]

( 5.3)

EI claro desconocimiento de la funcin o-^(x) hace que en el funcional


(5.2), c^(x) sea estimada previamente, para utilizar dicha estimacin posteriormente en la optimizacin del funcional. Los estimadores as obtenidos,
reciben en la literatura el nombre de adaptados, siendo el artculo de Carroll
(1982) un buen estudio ilustrativo de los mismos. Realmente son estimadores construdos en dos etapas por no ser el estimador ( 5.3) obtenible en
la prctica.
^
La versin heterocedstica de los estimadores fI en la nueva metodologa
es todava un problema abierto de investigacin. No est todava claro
dnde debe reflejarse ^ la heterocedasticidad. A nuestro juicio, son dos, las
posibles vas de estudio:
a) Como la varianza condicional Var(Y/X=x) = cr2(x) es realmente una
funcin construda a travs de funciones de regresin:
Va r (Y /X=x^ = E (Y2/X=x) - ( E (Y /X=x) )2
una estimacin no paramtrica de la misma, ^r^ (x), nos permitira construir
un nuevo funcional:

E ^T 1F)I!^T[t -l E^4F'-1tiC)1.A

^,cf^y _^^ c ^^(x} - Ar{x^ f^) f^{x> ^2 ds^ (x^


^
cuya optimizacin daria lugar a una nueva clase (^ de estimadores adaptados a la heterocedasticidad.

b)

De forma alternativa, se puede hacer una estimacin no paramtrica

de la funcin de regresin x(xy teniendo en cuenta la heterocedasticidad y a


w

continuacin definir el estimador f^ cmo el optimizante del funcional (1.9}.


EI uso y estudio de estimadores no paramtricos de este tipo es muy
reciente siendo el nico artculo que conocemos el de H^rdle-Tsybakov
{ 1 988).

C}

E/ modelo de datos eensurados.

En teora de Fiabilidad es muy frecuente el estudio de la variable


T= tiempo de vida (tiempo de duracin de una pieza en un sistema mecnico, tiempo de metstasis dei cncer,... etc.}. Dicha variab^e va acompaada muy ar menudo de covariables de inters. As por ejemplo, ante el
tiempo de vida de un enfermo desde que se le diagnostica una enfermedad
grave, se pueden considerar las covariables edad, peso, indices especficos
de la enfermedad,... etc.
En varias ocasiones la variable T puede estar censurada por otra C,
independiente o no de la anterior, dando lugar a la realmente observable
Y=min {T,C}. Miller--Halpern { 1 982) presentan un estudio relativo a esta
situacin: Sobre un banco de datos inicializado en 1967 y cuyo estudio se
prolong hasta 1980, se aborda el tiempo de vida T de 1 $^ pacientes
desde que reciben un transplante de corazn. La variable C que censura,
indica que ^a variable T no pudo ser observada, bien sea porque en 1980
todavia vivia el enfermo, bien por la prdida del historial en un determinado
instante,... etc., siendo el tiempo C precisamente el registrado.

EI planteamiento del modelo de regresin entre la variable T y las consiguientes covariables determinadas por el vector X, da iugar al modelo (1 .1 }
con T=Y.
Para que tenga sentido un modeio de regresin lineal con la variable T,
ya que sta slo toma valores positivos, es necesario una transformacin
de la misma a otra escala, por ejemplo la log-escala.
La estimacin de f^ en este contexto es relativamente reciente, siendo de
destacar los mtodos propuestos por: Cox (1 972}, Miller { 1 976), Buckley y
James (1 979) y Koul-Susaria y Van Ryzin { 1 981 }. Ei factor comn a todos
ellos es el alto costo computacionaf.

^^iy

l'ti.A PERSPE^.(^^T^IVA ( ;E:^+F:R.4L ('Oti til:f_V(ri F^E^SE 1_T^.^[x)S

Alternativamente a todos elfos, aqu la nueva metodloga puede tener


una especial cabida. La muestra inicial, ahora para este contexto, es del
tipo {(Y,,X,,^,), ..., (Y,,,Xn,d) } donde Y,= min { T,,C, } y ^5,= 1 T^ , ^^; , es decir,
^; codifica los valores 0 0 1 segn haya o no censura. E! stimador no
paramtrico para a(x) = E(T/X=x) = f tdF(t/x), donde F(./X=x) representa la
distribucin condicional de T a X=x, es del tipo:
n(x) = f t dFn(t/X=x) _ ^ [ Y, cS, B,,; (x) / 11-F^ (Y;/X=x) ) ] (5.4)
;_ ^
donde F(./X=x) representa un estimador de Kaplan-Meier generalizado
con covariab^es para la distribucin de la variable T/X=x. Y F^(./X=x) sera
el anlogo para la variable C, siendo:
B n^ (ii) _[ Um (X, x^) / C^
r=1

^m (x^ X r) J

es decir:
n
1
n

1- F ( t/ X= X) - II
;_^

^^

1 {Yr<

_ tdj-^}

(5.5)
n

-^

r_^

^ { Y<
r_ Y^}
1 Bnr (X) -i- gn^/ (X)

y 1-F (t/X=x) definido de forma anloga pero sustituyendo 1{,,^,_ r^,^_, j por
1 ` 1 {r^< r,a^=^}^

Ctaramente, en situaciones de no censuraje ^^-1 e Y^-T^ b j los estimadores no paramtricos se convierten en los cl^sicos previamente indicados. Es
decir, el estimador (5.5) cuando no hay censuraje ni covariables da lugar al
emprico. Cuando hay censuraje y no hay covariables da lugar al estimador
de Kaplan-Meier ( Kaplan-Meier ( 19 58) )(en estos dos casos Bn,--1 /n) y
cuando no hay censura y s covariables se tiene el estirnador no paramtrico de la funcin de distribucin condicionada:
F(t/X=x) = P{T < t/X=x} -= E(1 {T< r}^x=X^
Con las estimaciones (5.4), la optimizacin
del funcional (1.9) da lugar a
^
una nueva clase de estimadores f^, definidos para este contexto. Los problemas computacionales aqu desaparecen, si bien permanece como objeto de
investigacin futura, su funcionamiento cornparativo respecto de los ya
existentes con el criterio del error cuadrtico medio.

^ ^o
D)

F ST 1[^ltiF!( A F4PAti()L_A

E/ modelo Bootstrapp.

Cuando en el modelo (1.1 ), considerando X como variable aleatoria o determinstica, se dan resultados relativos a!a normalidad asinttica de los
estimadores de mnimos cuadrados:

v' n( f^m^ - E^ }
^^ ( ^rnc - ^ )

d----^.

N P{ CJ, a3 ( E( X X^} )^' }

d---,

U P ! o, ^ B ^ t }

con B=lim X`(n} X( n) /n con X(n} defnida como en el apartado 4 para


^
n -^

^os modelos respectivos, es indudable, que la inferencia que se haga para f^,
por ejemplo intervalos de confianza, ha de estar basada en estas aproximaciones de tipo asinttico. Por otro lado, los parmetros desconocidos pertenecientes a la matriz de covarianzas asinttica tambin han de ser estimadas.
Como afternativa a este tipo de inferencia clsica para ^ surge ei Bootstrapping. .

Para el modelo de correlacin, s f^=f^o es e^ parmetro dei modelo, es de^


cir, e^ que minimiza el funcional (4.1 }, f^^,^ es el valor para el que se minimiza el funcional (4.^) y por tanto f^o es a F en et mode^o terico como dm^ es
a F en e^ modelo emprico. De esta forma el Bootstrapping o simulacin
artificial del modelo, se ha de desarroflar en base a la distribucin emprica
^n '

Si { (^C;,Y;}. . .,(X^,Y^} } es la muestra artfcial simulada,


mc

C ^ X # x*r ^ -^ ^ ^ X,^Y;` ^
i=1

i= t

( 5.6 }

es el estimador minimo cuadrtico Baotstrapping. Si a su vez se estabiecen N rpticas correspondientes a las muestras artificiales {(X;;, Y;;}, ...,
^
(X*;, Y;} ;^,, .., N, es posible la obtencin de {m^; };_, . ^; estimadores artificiales mnimo cuadrticos. Dichos estimadores pueden ser utilizads para
^
A
aproximar la distribucin de
n(f^m^ - t"^m^}, de la cual, ya prob Freedman
(1_981 ), cuando n
^^, su aproximacin de forma cas segura a la de
Y n ( ^mc - ^o) '

En conversaciones personales con el Profesor Stute, ste nos adelantt el


mejor funcionamiento, deducido de estudos de simulacin para este modelo dei Bootstrapp sobre los mtodos clsicos.
Para la situacn de variable X determinstica, la muestra inicial es:
{ (x,,Y,}, . ., (x,,,Y} } y la artifcia^ { (x,,Y; }. . -, (x,,,Y^} } donde

l'NA PE:RSPE:('TIVA C;EtiER.AI_ C`Oti tiI:E^VOS RF:^I l TAC

^
1

Y (n1 =
Y^

X1

^
X

^
^

= X (n) f^m^ +

donde E* es simulado de la distribucin ernprica de !os residuos centrados:


{^,-^,...,^-^},

X; B,n^ ,

. ., n y^=(^ ^;/n).
;= r

EI estimador mnimo cuadrtico bootstrapping es ahora:

(5.7)

em^ _[ X(n)t X( n) ^^' Xln)` Y* In)

marcndose una diferencia respecto de (5.6) ya que ahora X no debe ser


simulada por ser determinstica.
Dado que los estimadores diseados por la nueva metodologa presentan
problernas anlogos a los de mnimos cuadrados, parece razonable plantearse e! Bootstrapping en la nueva metodologa.
En e! modelo de correlacn, en base a la^muestra artificial {(X;,Y; ), ...,
(X,Y^) }, es posible construir el estimador f^* que minimiza

^l/, (8) =1(an(x) - xx o)2 dSZn x)


donde:
a^ (x) _ [ ^ Y;' ^m (x, X ;^ ] / [ ^ ^Sm (x, X;i ] ( s i 0/0 )
i=1

r=1

y S1^(x) son los estimadores no paramtricos Bootstrapp.

En el modelo de correlacin, en base a la muestra artificial {(X;,Y; ), ...,


^
(X,*,Y^) } es posible construir el estimador ^ que minimiza:
yr; (H) = f ^({x) - x^ j2 dx
n

donde ^x^(x) _ ^ w,,; (x) Y*, con los Y*i=1, .., n construdos de forma artificial
a partir de lo ^-r'esiduos centrados de ; = Y; - x; f^ i=1, .., n.
Es objetivo claro de investigacin el comportamiento asinttico de los estimadores Bootstrapp para la nueva metodologa. Pareciendo razonable
^
plantearse si los nuevos estimadores f^* sern de una utilidad smilar a!a
^
que ya tenan los Om^ definidos por (5.6) y(5.7) respecto de los mnimo
cuadrticos.

17?

E ^ T ^>[)ISI !( ^> E SF'->^+()!.. ^

APEfVDICE

6.

Demvstracin de/ Teorema 1


^
Teniendo en cuenta la expresin (3.4} para ^ y la (3.3,! para n se verfica:
B = [ ,^^A (xi At (x) dx ] - r ^ ^ J^ Wn,^{x) A {x) dx Y; ] _
,_ ^

_ ^ j^Q {x) q^ (X) dx ] - r ^n ^ J


A {x) dx { At {x;} + E;} ] _
,=^ ^ wn^ (x)
n

_ ^ [ ^ l^w^; (x) A (x) dx (A^(x;) ^ + E;) ] _


i- 1

= B[^ .^^wn, (x) A(x) At tx;) dx ] f^ + B(^ J^wn; (x} A(x) d'x E; ] = d, + 1^2 .
^=1

,= f

para ^, se verifica:
n

^ w^; (x} R {x) At (x;} _ ^ w,,; (x) A (x) (Ar

,_ ^

^
A x) 1{liX;-xf^^a}+
n

^ w,,, (x) A{x? (A` {x;1 - At (x) ) 1 { ^^ X; _ X ^^ ^ a ^ +


;_ ^

L^1 wn (x)

1] A (x) Ar (X) +

+ A{xj At(x)=(1}+{2)+(3}+(4i .
Como A es continua definida en un compacto {c} del Teorema), es por
tanto uniformernente continua, verific^ndose b^ ^> O que cuando: a--^ o,
^(1 )^^
_ bE. Por otro lado corno A es acotada ap^icando la hiptesis a^ del
teorerna, {2)--^ O y(3)--^ O cuando a^ O. Por tanto:
^ w,,; (x) A (x) At (x;} ---^ A (x) Ar (x)
^- ^
con lo que, una aplicacin del teorema de convergencia dominada nos
permite deducir que L1, --^,,> B B^ "' f.^ = f^.
Por lo que respecta a d2, aplicando el teorema de Pruitt { 196f ) en ^a
misma linea que Georgiev 41 985), con las hiptesis a) y b) se verifica que:
n

t12 = B[,^ E W,,; (X) ^; A(x) dx ]


,_^

c. s.

.,

ya que ^ wn; (x) E; -----^ O(por Pruitt { 1966) ) y A es acotada.


;^^

l;tiA PE^RSPE(^i l^'A t;ENER^AL tOti til;E^"OS RE ^l l^T,^^[)OS

173

Demostracin del Teorema 2.


Teniendo en cuenta que:
^In (^-8^ =1^ [B [^ ,^^w,,;(x) A(x)A`(x;) dx] f^--H +
,, ^
+ B[ j w,,; (x) A(x) dx^; ) ]= y' n 0, + ^r n2
,- ^
y aplicando las hiptesis
^ del teorema, ^ 0, --^ 0, quedando por ver la
distribucin lmite de y n 02 .
^
Ahora bien, Ilamando Zn; = ti n
w,,; (x) A(x) dx ^; i=1, ..., n y teniendo en
cuenta las hiptesis a), b) y c^ es posible, desarrollando clculos matemticos, probar que:
n

[^ E(Z^,; Z;,; ) ]-^ a,^ , donde, a,^ es el elemento general de la matriz


,- ^
02 B -' y:
;_^

{Ilzni ^^^^^

II

Lni

I I 2 d P^^ -"'^j o

Los desarrollos para estos ltirnos clculos, son similares a los ya utilizados por Gonzlez Manteiga (1982, pg. 243).
Finalmente aplicando el criterio de Liapunov generalizado se deduce:
n

^ n E J w,,; (x) A(x) dx E;

d---^ Np ( o, c^ B^' )

i-1

y por consiguiente ^ A2
tracin del teorema.

d--^ Np (o, cr^ B-') lo cual conc^uye la demos-

D emos tracin del Teorema 3.


^
Teniendo en
cuenta
las
expresiones
(4.6)
para
n
y
fn
y el funcional (4.7),
^

es claro que fI puede expresarse como:

8n =[ J X x` dFn (x, y) ) J x` dFn (x, yi

donde F es la distribucin:
Fn (x^ Y) _

( 1 /n) ^X ^ ^m(il

(^;,t) dt =

{(X;. Y; l i Y; < y;
^
_ ^;_1
( 1 /n) J _aY,-^
[l JX^, (^m;
( ,
(1 (u,t) dt ] dG ^^ (u,v)

1 7-^

f^ 1" ^^f}[ti-T It ^ f 4P Ati()1. ^^

donde G, es ia distribucin degenerada asociada a 1 ; rX ,, ,^.


^ ,
Para la deduccin de a1 (usando razonamientos similares, mediante mtricas de Mallows, a los uti^izados en Cristbal-Faraldo y Gonz^lez IVlanteiga (1 987} ) ser^ suficiente con comprobar que:

Ftx, y}

^.s---^. F(x, Y} v j I I {x- ^i I I a ^n(^, y}

G. S.

J II (^- y) II 4 d^ {,^j y}

donde F es la distribucin de (X,Y}.


Para demostrar que se verifica ia primera de las anteriores convergencias
tendremos en cuenta que:
..

.^

f ^ , y)

F^ {x- y) - F {x. y> = F^ (X- r) -i=1^ { ^ /^} 1,_ ^.


+ ^ { 1 /r^) ,^^ ^
r= ^

^mCil

{[t, t} dt ] d^ ( u, Y) +

^,T,(;^(u,t} dt] dF(u,v)- F(x,y}^

n
fx
(1^,y1
= ^L ( ^ ,fl^^ ^ J r_ ^,, _ ^^^ 1 _ a, ^m^il

(u, t) +dt ] d(G; (u, v) -- F (u, v ) ]

i= ^

a , ^/J

+^ (1//1)^
i=1
n

rX

, - ^ ) ^ Jj - ^ ^m(i)
(X- Y^

( u, t) dt ] d F( u, v} ]+

+ ^ (1 /n ) [ ,^r- ^ , - ^ ^[ J- ^ cS,F,r;^ { u, t) dt - 1 ] dF ( u, v) ] = I . + I I . + I I I .
i-1

Considerando la funcin:
x
9n ( u, v} _ ^_ ^ c^^, ( u, t} dt - 1
por la hiptesis del te+urema, si u> x, g^n(u,v) + 1 ----^ O y si u< x, gn(u,v}
---^ Q. Por consiguiente, una aplicacicn conjunta del teorema de convergencia dominada en conjuncin con el lema de Toeplitz implica: (^I) y(III)

O
Por lo que respecta a( I):
!7

X-C^i, YJ

{^) _ ^1= { ^ ^^) [ Jr-^, -^^ d(G;(U, v) - F (u, v) } ]


n

( ^ , YI

+ ^ (1 /n) 1 rX-^E;. - ^^
,_ ^

^ ^- ^. ^.^,r^ {u- t) dt ] d(G;(r,,^, v} - F {u, v) ) ] = IA + I B

Tomando !as variables:


(^. Y

^; ^ -^rx-C^:;. - ^^1

^ -^- ^ ^mri^ (u, t) ] d{G;{u, v) - F {u, v) ), i^ 1, . . ., n

l!^IA PF:RSPE^.C'TIVA (;FtiERAL C'O^1 tit'EVOS RE^SI'LTALaOS

17S

y aplicando la desigualdad de Bennett (1962) ,


P {^ IB ^>e}= 01exp {- neZ} )
y por tanto por el lema de Borel Cantelli IB -^5^-^ 0 .
Razonamientos similares con la apficacin de la desiguafdad de Bennett
(1962 ^ y !a continuidad de F nos permiten deducir IA
^^5^--^ 0, lo cual
concluye la demostracin de que F(x, y^ c.s.^ F(^ y^
Para la demostracin de la otra convergencia es suficiente con ver que:
A

^I (Xy^ ^^ 4^^ (x,Y^ " J i^ (^Y^ j^ 4 dF(x,y ^ _


n
'( 1/n^ ^ J( I^ x
i=1
+(2 ^n ^

^ Y?J (
i=1

I I^

II x^I2

I I Xi ( I 4^ um(i1 (^ i^i^ C^X ^-

I I Xi

(^ 2^ ^m(il ( X, i^i^ CiX +

^ ( ^^ x ^^2 + Y?) - E( (^ (X-Y1 ^^^1 = 0, + d2 + 0^


+ (1 ^^^ i-1
c.s.--^ 0 por la ley fuerte de los grandes nmeros y
verificndose que ^3
^^5^-^ 0 sin mas que aplicar razonamientos relativos a la desigual0,, d2
dad de Bennett.
La demostracin de b^ puede obtenerse de forma similar a ias demostraciones correspondientes a las situaciones no recursivas (ver por ejemplo
Faraldo - Gonzlez Manteiga (1987) o Cristbal i Faraldo - Gonzlez
Manteiga (1987) ^ .
Agradecimientos: Deseo expresar mi agradecimiento al Profesor Daniel Pea y a un
editor asociado por el inters que rnostraron por este artculo. As misrno agradezco a
los Profesores: Jose Manuel Prada Snchez, M. Angeles Fernndez Sotelo y Pedro
Faraldo Roca por sus crticas, las cuales, reportaron una mejor presentacin del trabajo. Los comentarios de dos referees annimos tambin fueron de utilidad.

BIBLIOGRAFIA
AHMAD, I.A. y LIN, P. (1976). IVonparametric sequential estimation of a
multiple regression function . Bull. Stat., 17, 63-7 5.
ANTOCH, A. COLLOMB, G. y HASSANI, S .

(1984) Robustness in Parametric


and Non Parametric Regression Estimation: An Investigation by Computer Simulations. Compstat. Physica-Verlag. 49-54.

BENEDETTI, J. (1977). On the nonparametric estimation of regression function. J. Roy Stat. Soc. B., 39, 248-253.
BENNETT, G. (1962 ^ . Probability inequaiities for the sum of independent
random variables. J.A.S.A., 57, 34-45.

1^6

E::^T^^f)I!ii 1C 4 E_SP;^tit)L.:4

BEERENS, H, J. ^1983^. Uniforms consistency of Kernel estimators of a


regression function
under generalized conditions. J.A.S.A.,
78,
699-707.
BosQ, D. ^ 1 983). Nonparametric prediction in stationary processes. Lecture Notes in Staiistics 16, 69-84.
BU^KLEY, y JAMES, I. (1 979j. Linear regression with censored data. Biometrika 66, 429-436.

BU^DAKOV, V.M. y KosHiN, G. M. (1977). <tRecursive estimators of a prob.


density and regression line. Problems of lnformatron Transmission. 13,
41-48.
CARROLL., R. J. (1982). Adapting for heteroscedastic in linear models.
Ann. Stat. 10, 1224-1233.

CO^^.oMB, G. { 1982) Prdiction non paramtrique tude de I'erreur quadratique du prdictogramme. C.R. Acad. Sc. Pars, t. 294, 59-62.
Co^^oMB, G. (1983}. t< Nonparametric regression on up-to data bibliography. Sixth /nternationa/ Summer an prob/ems of mode/ choice and parameter es timation n regression analysis, S e I I i n/R u ge n.
COL^OMB, G. y DOUKHAN, P. (1983). c<Estimation non parametrique de la
fonction d"autorgression d'un processus stationaire et s^-mlangeant:
risques quadratiques pour le mthode du noyau. C. R. Acad. Sc. Pars, t.
296, 859-862.
COLLOMB, G. y HARDLE, W. { 1 986). Strong uniform convergence rates in
robust nonparametric time series analysis and prediction: Kernel regression estimation from dependent observations. Sthocastic Processes and
its .q^ pp/catons.

Cox, D.R. (1 972}. Regression modeis and life -- tables (with discussionj.
J. R. Statst. Soc., B 34, 187-202.
CRISTOBAL, J. ,A., FARALDO ROCA, P. y GON2ALEZ MANTEIGA, W . (1987}. ttA
class of linear regression parameter estimators constructed by nonpara-

metric estimation. Ann. Stat. 1 5.2, 603-609.


DEHEUVELS, P. (1974}. Estimation squentielle de ia densit. Tesis doctora/, Pa rs.
DEHEUVELS, P. t 1979}. Estimation squentielle de la densit. ^ontribuciones en Prob. y Est. Matemtica, 1 56-16 9. G ranada.

DEVROYE, L. P. (1 979). on the pointwise and the integral convergence or


recursive kernel estimators of probability densities. Uti/itas /l/lathematica,
.
15, 1 13-128.
DEVROYE, L. P. y WAGNER, T. J. (1 980i. tcThe strong uniform consistency of
kernel density estimators. l1/lultivarr'ate Ana/ysrs. Ed. por Krisnaiah.
North-Holland, 59-7 7.

DRYGAS, H. { 1 976). Weak and strong consistency of the least squares


estimators in regression models. ^. 1N: und verm. Gebiete 34, 1 1 9-127.
FARALDO RoCA, P. (1 982). Una generalizacin del mtodo de mnimos
cuadrados utilizando procedimientos no paramtricos3>. /X Jrnadas Matemtr'cas Hispano-Lusas, Salamanca.

I;NA PF:RSPE^('TIVA (;EtiERAL ('O^i !til'E^'OS RE^:SI^LT.A^DOS

FARALDO RocA, P. (1984). Nuevos aportes de mtodos no paramtricos a


la teora de regresin paramtrica. Tesis Doctoral. Universidad de Santiago de Compostela.
FARALDO ROCA, P. y GONZALEZ MANTEIGA, W. (1 987). On efficiency of a

new class of linear regression estimators obtained by preliminary nonparametric estimation. New P'erpespectives rn Theoretical and Applied
Statistics. Puri-Vilaplana y Wertz(editores), John Wiley.
FREEDMAN, D. A. 11981). Bootstrapping Regression Models. Ann. Stat.,
Vol 9.6, 1218-12 2 8.
GASSER, T. y MULLER, H. G. (1979). Kernel estinnation of regression function. Smoothing Techniques for Curve Estimation. L.N.M. 757, Gasser y
Rosenblatt, {editores^. Springer, 23-68.

GEORGIEV, A. (1983). c<Local properties of function fitting estimates with


application to system identification . Proc. of the fourth Pannonian Symp.
on Math. Stat. Bad Tatzamansdorf, Austria. Grossman, Pflug, Vincze y
Wertz, (editores), 141-1 51.
GEORGIEV, A. (1985). Propiets asymptotiques d'un estimateur fonctionnel
non paramtrique. C.R. Acad. Sc. Pars, t. 300, serie I, 12, 407-410.
GYORFI, L. (1987). Density estimation from dependent sample. Preprint.
GONZALEZ MANTEIGA, W. (19$2). Construccin axiomtica, consistencias y
distribuciones asintticas de estimadores no parmetricos para funciones de densidad y de regresin. Tesis Doctoral. Universidad de Santiago
de Compostela.
GONZALEZ MANTEIGA, W. y VILAR FERNANDEZ, J. M. (1 987). Una clase de

estimadores para ios parmetros de un proceso A.R(1), obtenidos a partir

de estimaciones no paramtricas previas. (Trabajos de Estadrstica Vo% 2,


2, 55- 70).
GONZALEZ MANTEIGA, W. y VILAR FERNANDEZ, J. M. (1 987). A class of

non-parametrically constructed parameter estimators for a stationary


autorregressive model. Procedings of the sixth pannonian Syrp. on Math.
Stat. Bad Tatzmansdorf. Revesz y Wertz, Ieditores). Reidel Holland.
G REBLICKI, W. (1974). Asymptotically optimal probabilistic algorithms for
Pattern Recognition and identification. Monografie 3 Prece Neukowe.
Instytutu Cybernetyki Technicznej Politechniki Wroclawsjiej, 18. Wroclaw. Poland.
HARDLE, W(1984). Robust Regression function estimation. J. Multiv.
Analysis, 14, 169-180.
HARDLE, W(1988). Applied Nonparametric Regression. (Aparecer en la
Springer Verlag).
HARDLE, W y TSYBAKOV, A. B. (19$$). Robust nanparametric regression
with simultaneous scale curve estimation. Ann. Stat. (Vo% 16, 12D-135).
HART, J. D. (1984). Efficiency of a kernel density estimator under an
autorregresive dependence model. J.A.S.A. 9, 1 1 1-1 1 7.
HART, J. D. y WEHR^Y, T. E. (1986). Kernel regression estimation usng
repeated measurements. J.A.S.A. 81, 1080-1088.

^ 7^

EST 4C^15TJC' 4 E SPA`'vC)1.A

HASLETT, S. (1985). Recursive Estimation of the Generai Linear Model


with Dependent Errors and Multiple Additional Observations. Austra/ian
Journa/ of Statistics, 2 7.2, 183-188.

HOERL, A. E. y KENNARD, R. W. (1970}. Ridge regression: Biased estimation


for non orthogonal problems. Technometrics, 12, 55-67.
H usER, P. J. (1981). Robust Statistics. Wi/ey.
KAPi.AN, E. L. y MEIER, P. (1958}. ccNanparametric estimation from incoplete
observations. J.,r4.S..4., 53, 457-481.
KouLr H. L. ^ 1 986). Ntinimun distance estimation and goodness-of-fit test
in First - order Autoregression. Ann. Stat, 14.3, 1 i 94-121 3.
Kou^, H. L. y DE WET, T. ^ 19831. #1/linimun distance estimation in a linear
regression model. Ann. Stat., i 1.3, 921-932.
Kou^, H. SuSARLA^, V. y VAN RYZ^N, J. (1 981 }. <c Regression analysis with
randomly right censored data}>. Ann. Stat. 9, 1276-1288.
MASRY, E. ^ i 9831 Probability density estimation from sampled data. /,EEE
Trans. lnform. Theary, I T-2 9, 6 9 6- 7 0 9.
MASRY, E. ^ 1986}. Recursive probability density estimation for wekly dependent stationary processes. /^EEE Trans. /nform. Theory, IT-32,
254-267.
MASRY, E. y GYaRFt, L. ^ 198?}. Strong consistency and rates for recursive
probability density estimators of stationary processes. Journa/ of Mu/tivariate .4na/ysis, 22.1, 79-83.
MILLER, R. G. ^ 1976). Least squares regression with censored data. Biametrika, 63, 4^49-464.

, R. G. y

HALPERfti ,

J. (1982}. Regression with censored data.


Biornetrika, ^i9.3, 521-531.
P E A, D. (19 8 7). ^rEstadstica, mode%s y mtv^dos. 2 Mode/as /inea/es y
series temparalesa^. Alianza Editorial.
PRIESTLEY, M. B. y cHAO, M. T. (^ 972) . Nonparametric function fitting. ;./.
MILLER

Roy. Stat. Soc. B., 34, 385-392.


PRUtTT, W. E. (1 966}. Summability of independent random variables. J.
Math. Mech. 1 5, 7 6 9- 7 7 6.
RoBtNSON, P. M. (1 9$fy. On the consistency ^ and limite-sample properties
of nonparametric kernel time series regression, autoregression and density estirnators. Ann. /nst. Stat. lVlath., 3$, Parte A, 539- 549.
ROB^NSON, P. M. ^ 1987}. Time series residuals with application to probability density estimation. Journa/ of Time Series Ana/ysis. 3, 329-344.
RUPPERT, D. y CARROL^, R. J. (1 980}. c<Trimmed Least Squares Estimation in

the Linear Model. J.A.S.A. 75,372, 828- 838.


SEBER, G. A. F. (1 977}. r^Linear Reg^ressian Ana/ysis^^. John Wiley. Rtew York.
SIDHARTA, C. RAO, S. y TlWARI, R. (1979}. c<Another look at some resutts
on the recursive estimation n the General Linear Model. The American
Statis tician, 41,1.

l;tiA f'E;R^PEC`Tf^'r^ (iE1iF.k^f_ (.'Oti til E^'OS RF:SI'1.^1^AfX)S

^ 7y

SINGH, R. S. y ULLAH, A. 11986). Nonparametric recursive estimation of a


multivariate, marginal and conditional DG P with application to specification of econometric models. Commun. Statist. Theor. Meth. 1 5(12),
3489-3513.

STUTE, W. ^ 1984). Asymptotic norrnality of nearest neigh bor regression


function estimates. Ann. Stat. 12,917-926.
SusAR^A, V. y WA^TER, G. (1981). Estimation of a multivariate density
function using delta sequences. Ann. Stat. 9,2, 347-355.

Vi^.AR FERNANDEZ, J. M. (1987). Estimacin no paramtrica de la funcin


de densidad y prediccin en series de tiempo. Tesis Doctoral. Universidad de Santiago de Compostela.
VINOD ,

H. D . y UL^AH , A. (1891). Recent advances in regression methods.

Marcel Dekker.
WERTZ, W. 11978). Statistical density estimation. A survey. Vandenchoeck & Ruprecht, G^ttingen.
WOLVERTON, C. T. y WAGNER, T. J. (

1986). Recursive estimates of probabi-

lity densities. /EEE Trans. on Systems Science and Cybernetic, ^ 5, pg.


307.
YAKOWITZ, S. J. (1985). Nonparametric Density Estimation, Prediction and

Regression for Markov Sequences. J.A.S.A. 80, 215- 221.


YAMATO, H. (1971). Sequential estimation of a continuos probability density function and the mode. Bull. Math. Stat. 14, 1- 12.
YANG. (1981). Linear functions of concomitants of order statistiocs with
applications to nonparametric estimation of a regression function.
J.A.S.A. 76, 658-662.

SUMMARY
In this paper different applications in the linear regression of
the new methodology consisting of the parameter estimation in
the model using nonpararnetric estimation of the density and
regression are reviewed. New results in the fixed design modeis
and sequential modets are ntroduced. Finally a discussion on
the new methodology in the models with heterocedasticity, censoring data and Bootstrapping is also included.
Key words and phrases: Nonparametric estmaton, regression mode%

AMS. 1980.
Subject Classifica tion: 6 2 J 0 5, 6 2 G 0 5.

ESTADISTICA ESPAC?LA

Vol. 30, Nm, 1 1$, 198$, p^gs. 1 80 a 202

CO M E N TA R IOS
ViCENTE QUESADA PALOMA
Universidad Complutense de Madrid

EI artculo invitado del Profesor Gonz^lez Manteiga, presenta, dentro de


la lnea habitual de sus trabajos sobre estimacin na paramtrica de curvas,
una sobrevisin de ^as aplicaciones de la misma a la Regresin Lineai.
Considero que es un buen artculo, y algunos de mis comentarios parten
de una perspectva un poco distinta sobre ef tema.
Como sabemos, muchos procedimientos estadsticos estan basados en
hiptesis especficas sobre la forma de las distribuciones muestrales de las
observaciones. Podramos pregunta^-nos, si las conclusiones del anlisis san
sensibles a!as hiptesis hechas. Este grado de preacupacin, que podramos denorninar como anlisis de la "r-obustez" del pracedimiento, puede
considerarse como punto de partida del mtado no paramtrico aplicado ai
problema estadstico.
En la Regresin Lineal, como indica el Profesor Gonzlez Manteiga, aparecen estos problemas, que han empezado a ser estudiados por diferentes
mtodos, los M-L-R estimadores, los estimadores de mnima distancia, etc.
La novedad metodolgica planteada por el Profesor Gonzlez Manteiga
radica en la estimacin en dos etapas de los parmetros en el Modelo de
Regresin.
Comentaremos los aspectos que nas parecen de mayor inters en esta
estimacin en dos etapas. En primer lugar la utilizacin directa del estimador no paramtrico puede producir malos resultados, esto es as, sin embargo hay que hacer notar que el empleo del estimador no paramtrico de
la lnea de regresin en algunos casos, vase van Ryzin (1 970) en los
Mtodos Ernpricos Bayes, puede ser satisfactorio, obtenindose inciuso

(^'(IMEtiTAFtI(^5

181

tasas de convergencia para los estimadores. Creo que la bondad de la


utitizacin directa depender en cierto mado de la "suavidad" con la que se
presenten los datos.
Otro punto que me parece importante comentar, es la frmula (1.9)
^
^^ (e) _ (a^ {x) - A` (xj 8 )2 d S2 (x)
en la que S2 {x) es una funcin de ponderacin, construida a partir de la
muestra. Hay aqu dos elementos de carcter subjetivo en prircipio.
11

En la estimacin de (x) la ventana y la funcin ncleo (en su caso).

2) La funcin de ponderacin S2 que a su vez en el Modelo de Regresin, vuelve a depender de la ventana y la funcin ncleo.
Aunque admitiendo la utilizacin de criterios objetvos en la eleccin de
los mismos, ia consideracin de estos elementos como subjetivos, me
parece podra dar lugar a una concepcin ms arnplia del Modelo, en la que
el estadstico pudiera presentar su informacin a priori y que englobase a
este como caso particular. Obsrvese que esta apreciacin es sugerida por
el autar cuando comenta la frmula (3.1).
Respecto al Teorema 3, en el que se comprueban los comportamientos
asintticos de las versiones recursivas y no recursivas, creo que sera
interesante adems calcular la tasa de convergencia, como mtodo de
comparacin.
En el Modelo con datos censurados, es interesante considerar el caso en
que la variable de Censura C y la variable en estudio T, sean independientes, lo cual nos Ileva al estudio de ios Modelos de azar proporcional en los
que la supervivencia de la variable T: P(T > t) = S, (t) y la supervivencia de
la variable de censura C: P(C > t) = S2(t) vienen ligadas por el parmetro de
censura f3 > 0, S, (t) _(S2(t) )^. Si consideramos covariables determinadas
por el vector X, esta informacin adicional seria necesaria introducirla en el
modeto de estimacin de la regresin, despus de los consabidos cambios
de escala. Por ltimo dei Modelo Bootstrapp, creo que es donde ms futuro
' se presenta dentro de la posible aplicacin prctica de todos estos mtodos, incluso si se utiliza la metodologa de gootstrapp Bayesiano (Rubin
(1981) ), ya que su comportamiento asinttico es equivalente en muchos
casos segn ha demostrado A. Lo (1987).
Felicito al Profesor Conzlez Manteiga y espero que sig^a en esta lnea de
investigacin en la que como refleja este artculo existen muchos campos
abiertos en los que obtener importantes logros cientficos.

1 ^?

E^^^t^1r^itirrc .^ F.^w^tit. ^

^iB^^oGRAFiA
A. Lo, A Large Sample Study of the Bayesian Bootstrapp. Ann. Stat. 1 987,
vol. 1 5.
V. QUESADA, A. VIVAR, Modelo de supervivencia con azar proporcional.
Estadstica Espaola 99, 1983.
D. RuB^N, The Bayesian Bootstrapp. Ann. Stat. 1981. vol. 9.
VAN RYZ^N, ^n some nonparametric Bayes multiple decision problems.
Nonparametric Techiniques in Statistical Influence. Cambrige U. P.
1970.

J. DE LA HQR RA NAVAR RO
Universidad Autnoma de Madrid

Et trabajo del Profesor Gonzlez Manteiga aborda el estudio de! modelo


lineal
Y = At(x) f^ + ^
de una manera novedosa e interesante. Resultados inditos se unen a otros
anteriormente obtenidos por l y sus colaboradores. Algunos de estos
resultados han sido pubiicados en revistas de prestigio y, obviamente, su
inters es grande. Uno de !os principales atractivos de este artculo (y no e!
nico} es presentarnos todo este material de manera unificada.
El estimador de mnimos cuadrados de! parametro ^ ha sido el estimador
por antanomasia en este tipo de situaciones. Este estimador es muy adecuado siempre que ef modelo sea correcto y los errares sean normates,
pero empieza a perder buenas propiedades cuando esas hiptesis dejan de
ser ciertas. Los estirnadores no paramtricos de la funcin de regresin
surgeron precisamente como una alternativa que se debera emplear cuando #uera dudoso que el modelo Y = At(x} f^ + F fuera adecuado, y tuvirarnos
que considerar un modelo ms general Y= rz{X) +^e = E[Y/X^ +^. En este
caso, en vez de construir un estimador f^, debemos construir un estimador
a tx y
La idea bsica que desarrolla el Profesor Gonzlez Manteiga cambina
estos mtodos y creo que se puede resumir de !a siguiente manera: aceptando que el modelo es de la forma Y= At(x}f^ + E, propone como estimador
f^ aquel que verifique que y = Ar(x) f^ se ajuste io mejor posible ( en e! sentido
de mnimos cuadrados} a la curva y = a(x). Esto supone una generalizacin

c^c^ti^F^.ti r :^Ki<^^

de la idea que conduca al estimador clsico de minimos cuadrados el cua!


trataba de ajustarse lo mejor posble a la nube de puntos. En este enfoque
a(x) reemplazar a la nube de puntos.
EI trabajo me ha sugerido algunas reflexones que p(anteo a continuacin
con la esperanza de que al menos alguna pueda ser de inters:
a) Los principaies resultados obtenidos prueban que los estimadores
propuestos tienen buenas propiedades asintticas. Para tamaos muestrales pequeos el comportamiento parece ser satisfactorio, al menos en
ejemplos como el que sirve para ilustrar la Seccin 2(recta de regresin).
Naturalmente, en este ejemplo, los parmetros toman valores concretos
(f^, _ ^2 = 11. zSe dispone de resultados de buen comportamiento de los
estimadores propuestos, para valores cualesquiera de los parmetros cuando la muestra est formada por pocos elementas?
b) EI funcional minimizado es el cuadrado de la distancia L2. Hay una
larga tradicin en el empleo de este funcional (en gran parte, por su
faciiidad de manejo). Devroye y Gyrfi (1985; captulo 1) argumentan que
la distancia L' es la ms natura! para medir distancias entre densidades.
Aunque el contexto no es exactamente el mismo, posiblemente valdra la
pena investigar esta distancia, ya que como el propio autor seala hay una
fuerte conexin con la estimacin de funciones de densidad.
c^ zSe ha aplicado la metodologa descrita en este trabajo a la estimacin del parmetro de una familia de densidades, utilizando estimadores no
paramtricos de la funcin de densidad? Si no se ha aplicado, creo que
sera interesante hacerlo, ya que cabe esperar la obtencin de buenos
resultados, similares a los obtenidos en regresin lineal.
Para terminar, quiero felicitar al Profesor Gonzlez Manteiga por este
trabajo que viene a resumr su labor investigadora de los ltimos aos.

REFERENCIAS
L . y GY^RFI , L. (1985): "Nonparametric Density Estimation. The L'
View" Wiley, New York.

DEVROYE ,

I`,^ 1,fJd^1f( ^f^f'\`l^E t

MANUEL DEL R!O


Departamento de Estadist^ca e I. U.
Un^vers^dad Complutense de Madr^d,

Me complace felicitar a! Profesor Gonzlez Manteiga por este nuevo


trabajo sobre el uso de estimaciones no paramtricas en modelos de
regresin lineal. EI inters del artr'culo radica no slo en la presentacin de
nuevos resultados sino tambin en la completa revisin del buen aprovechamiento que del tema estn obteniendo el autor y sus colegas. Espero
que mis comentarios, esencialmente de carcter general (quizs los ms
ctmodos en este tipo de discusiones}, sean de algn valor y que de haber
sido ya considerados por el autor no hayan sido desechados por falta de
inters.
La aceptacin de un modelo lineal de regresin bajo normalidad supone,
inicialmente, una dable simplificacin: ) hiptesis especficas sobre la distribucin de errores, y ii1 restriccin a priori de la clase de posibles funciones de regresin. Para solventar, al menos parcialmente, estas limitaciones
existen soluciones que podemos denominar "clsicas": a) utilizacin de
tcnicas de regresin ^-obusta (una excelente revisin puede verse en Li,
1 985}, y b) extensin de la familia de respuestas considerando modelos de
regresin no pararntricos, situacin en que los datos conducen a elegir un
elemento de cierto espacio funcional (una referencia muy interesante en
este sentido, complementaria a las indicadas en el trabajo, es Eubank,
1 988}. Surge naturaimente una primera cuestin: comparar bajo el mayor
nmero cie criterios la nueva metodologa con las soluciones arriba indicadas. Por ejemplo, es bien sabido que para la mayor parte de los estimadores paramtricos usuales el error cuadrtico esperado es a(n-') mientras
que para las no pararntricas es o(n-''), ^^ ^; (0,1 }, z qu puede decirse en este
sentido, al variar la ventana, de los nuevos estimadores? o bien, ^cul es
su comportamiento, no slo asinttico, en funcin de la distribucin o sus
perturbaciones de las variables y de los errores? Obviamente, este tipo de
comparaciones tericas son difciles y puede recurrirse a simulaciones.
Algunas se presentan en el trabajo pero pecan de una excesiva ""preparacin'"; a mi juicio, slo prueban un buen comportamiento en circunstancas
muy particulares y no siempre reales. En este sentido, uno de ios factores
que debera tenerse en cuenta en las posibles comparaciones es la amplitud de la ventana.
Asimismo, los resu^tados de carcter comparativo permitirian proporcionar alguna respuesta a la pregunta: z bajo qu circunstancias es preferible
suavizacin de los
recurrir al proceso bietpico descrito en el artculo
que el ajuste direcdatos y posterior obtencin del modefo ms prximo
to de un modelo no paramtrico? (Sin olvidar que un mtodo no paramtri-

c ^ati^f ^ r iFl^r,^

co puede representar el punto final del anlisis de los datos o simplemente


una etapa exploratoria en el proceso de modelizacin).

Otra cuestin de inters es la definicin de residuos bajo la nueva metoz cul


dologa. Previa a posteriores normalizaciones o transformaciones,
^
sera una definicin ms adecuada, la usual Y, - Ar(x,) (1 o alguna otra que
contemple en forma directa el estirnador " piloto" ? Ello permitira abordar
otros aspectos de inters, por ejemplo, la comparacin de ajustes (paramtricos) diferentes a un mismo conjunto de datos o la seleccin de modelos.
Muy relacionado con la cuestin anterior est el anlisis de influencia y el
diagnstico bajo el mtodo en cuestin. Las posibles tcnicas deberan
cumplir requisitos generales ya admitidos en los contextos " clsicos"; ver,
por ejemplo, Weisberg ( 1983). Ahora bien, incluso bajo el enfoque sencillo
usual de eliminacin de casos, parece que en el nuevo contexto se tendr
una considerable dificultad de cmputo. Quizs en el mtodo recursivo sea
ms inmediato el estudio del cambio en el estimador tras la supresin de
un caso; la inversin del procedimiento indicado en el trabajo permite
^
^
^
expresar f^_, (o en general f)^;^, con una notacin usual) en trminos de 0 .
Concretamente, se tiene
f^n_, _ { I + A;,' D ( I + A^', D )-' } ^ A;,' { I+ D ll + A;,' D)..' A' } c .
Tambin, de acuerdo con Carroll y Ruppert 11985), podra dar buen resultado tener en cuenta los pesos w^,; (x,) del estimador "piloto" como una
rnedida parcial de la influencia de los casos.
Por ltimo, y muy brevemente, dos ltimas sugerencias: i) comparar las
tasas de convergencia de los estimadores propuestos tras (4.3) y de los
estimadores recursivos de (4.4), y ii) estudiar la utilizacin de estimadores
es decir, dependiendo de la variable X
ncleo con ventana variable
como estimadores "piloto'" y analizar, en la lnea de los resultados expuestos, el comportamiento asinttico de los estimadores resultantes.

BlBLIOGRAFIA
(1985). Transformations in regression: A
robust analysis. Technometrics 27, 1-12.
EUBANK, R. ^. (1988). Spline Smoothing and Nonparametric Regression, New
York: Marcel Dekker.

CARROLL, R. J. y RUPPERT, D .

E til 1,l)itiT tt 1 E`+E' 1tit^l ^,

L^, G. (1 985^. Robust Regression. En Exp/oring^ Data Tables, Trends and


Shapes, Ed. Hoaglin, D. C., Mosteller, F., y Tukey, J. W. pp: 281-343.
New York: Wiley.
WEfsBERG, S. ( 1983). Principles for regression diagnostics and influence
analysis. Technometrics 2 5, 240-244.

ANTONIO CUEVAS
(Universidad Complutense de Madrid)

EI presente artculo es una exceiente recapitu^acin de trabajos anteriores


de W. Gonzlez Manteiga ( individuales y en colaboracin} en los que se
propone y analiza una nueva clase de estimadores para los parmetros de
regresin. EI autor ofrece una gran cantidad de informacin til y de ideas
sugestivas, a lo que contribuyen en buena medida ias propuestas sobre
problemas abiertos que se esbozan en la parte final.
Los comentarios que sguen estn infludos, sin duda, por mi inters en ta
estimacin de densidades que, como e! autor seala, es uno de los campos
ms afines a la ^stimacin no paramtrica de la regresin.
1) i Sera factibie utilizar " estimadores piioto" cz(x) en los que el "parmetra ventana" E sea en funcin de la muestra?, Hablando en trminos
generales, !a elecci^ n subjetiva de una sucesin de canstantes {E} es
suficiente cuando la estimacin se realiza con fines descriptivos o para un
anlisis exploratorio de datos. Sin embargo, en el caso que nos ocupa, la
estimacin ..de E(Y ^ X=x) se plantea como paso intermedio para obtener un
estimador fi y padria ser interesante asignar E de acuerdo con algn criterio
objetivo que Ilevarra, de forma casi abligada, a elegir un ^-^(Xr, ... X^,)
aleatorio ( funcin de la muestra^. EI criterio ms estudiado en la literatura
reciente es el de validacin cruzada de Rudemo-Bowman [ver, por ejemplo, Silverman { 198fi), p. 48]. Los intentos de determinar un ^ constante
(no aleatorio) que sea ptimo con respecto a algn criterio prefijado conducen usualmente a valores que dependen de elementos desconocidos def
modelo bajo estudio y que, por tanta, deben ser estimados a partir de la
muestra.
En este sentida, creo que !as comparaciones por simulacin (crrespondientes a! modelo Y=1 +^G+E^ que se realizan en el Apartado 2 estn un poco
desvirtuadas por el hecho de que en el clculo de 4, y ^2 se utiliza el valor
exacto de una ventana ptima E que depende de parmetros poblaciones y
que, en consecuencia, slo podr considerarse conocida cuando las datos
provengan, como en este caso, de una simulacin de un modelo prefijado.

('OMf=.ti^1 ^RIO^

En las situaciones reales ser necesario utilizar un valor estimado de F lo


cual puede producir una cierta prdida de eficiencia en f^, y f^2.
En definitiva, el uso de estimadores " automticos" ( i.e., con E en funcin
de la muestra) parece, en principia, una prolongacin natural de la metodologa expuesta por el autor que se podra tantear a pesar de las previsibles
complicaciones en el cilculo de los estimadores y en la obtencin de sus
propiedades asintticas.
2) EI planteamiento bsico del trabajo, consistente en realizar una estimacin paramtrica a partir de un estimador previo no paramtrico, tiene una
atractiva simplicidad y una apariencia natural que son, a mi juicio, caractersticas comunes a muchas de las mejores ideas en Estadstica. Por esta
razn intuyo que dicho planteamiento podra tal vez generalizarse a otros
modelos distintos del de regresin.
A continuacin propongo, a ttulo de sugerencia sin elaborar, un posible
enfoque general. Sea un modelo estadstico (paramtrico) caracterizado por
un funcional S=S(4), que puede representar una familia paramtrica de
funciones de densidad, de distribucin o de regresin [S(^)=f^, , S(^)=F^, o
S(^)=AtB, respectivamente]. Sea ^ un estimador no paramtrico de S y d
una cierta medida de discrepancia. Se define un estimador ^ mediante

d(S,, , S(4) ) = min^,d( ^ , S(0)).


obviamente, el caso S(f^)=AtB es el considerado por W. Gonzlez Manteiga en este trabajo, con una discrepancia de tipo cuadrtico [definida en
(1.9)]. EI caso S(f^)=ff, corresponde a un problema clsico de estimacin
puntual paramtrica,
^ con distribucin bsica absolutamente contnua, en el
que el estimador F^ se construira minimizando la distancia entre un estimador no paramtrico de la densidad y las funciones de densidad de la familia
{ff,}. Anlogo comentario puede hacerse para S(f^1=F . Los estimadores
resultantes en este ltimo caso ya han sido considerados en la literatura
con el nombre de "estimadores de mnima distancia" [Parr y Schucany
(1982)], si bien el nico "estimador piloto" ^ utilizado en este contexto
para S(f^)=F^, ha sido, que yo sepa, la funcin de distribucin emprica.
Este enfoque podra ofrecer las siguientes ventajas:
(a) Proporciona un punto de vista unificado que podra facilitar la obtencin de resultados generales (de consistencia y de normalidad asinttica,
por ejemplo) vlidos para las tres situaciones antes mencionadas.
(b^ Establece una relacin entre el mtodo propuesto por Gonzlez
Manteiga y los estimadores de mnima distancia, sugiriendo adems nuevas modalidades de estos ltimos.

I^^K

# ^ 1 i!)!^ 1 It^ > f`^1'^> ^i ^E -\

Por supuesto, una de los primeros problemas que habrr'a que resolver
sera !a eleccin de medidas de discrepancia adecuadas. En e! caso
S(f1)=f((^) hay importantes motivaciones conceptuales [ver Devroye y
Gyrfi ( 1985), cap. 1] a favor de la mtrica L, , d(f,g} - J ^ f-g ^, aunque habra
que analizar tambin hasta qu punto esta distancia es adecuada a efectos
computacionales. EI reciente traba ^ o de Hall y Wand (1988) podra ser til a
este respecto.
Una observacin final: soy consciente de que es ms fcil plantear problemas que resolverlos. De hecho, es probabie que alguna de las anteriores
sugerencias haya sido considerada ya (y quiz desechada) por el autor.
Confo en que, al menos, estas ineas contribuyan a aportar atguna perspectiva complementaria a los lectores de este interesante traba ^ o.

REFEREtVC1AS
DEVROYE, L.; GY^RF^, L. (1 985). Nonparametric Densty Estimatin. The
L,--View. Wiley. Nueva York.
HALL, P.; WAND, M. P. (1988). Minimizing L, d'+stance in nonparametric
density estimation. J. Multiv. Ana/. 26, 59-88.

W. R. (1982^. Minimum distance estimatfon and


components of goodness-of-fit statistics. J. Roy. 5tat. Soc. B 44, 2,
178-189.

PARR, W. C.; SCNUCANY ,

SILVERMAN, B. W. (19$6}. Density Estimatian for Statistics and Data Analy^


sis. Chapman and Hall. Londres.

JOSE A. CRISTOBA,L CRlSTOBAL


Universidad de Zaragoza

EI trabajo de Gonzlez es una magnifica exposicin de cmo emplear


tcnicas usuales en estimacin no paramtrica de curvas en modelos de
regresin paramtrica, sacando partido a la sugestiva idea de utilizar el
principio de mnimos cuadrados, en donde se han sustituido las observaciones Y; por sus correspondientes estimaciones suavizadas (X;} ( estimador
piloto no paramtrico de la regresin). Se obtiene as un estimador del vector paramtrico t^ que, bajo condiciones poco restrctivas ( ver Cristbal -Faraldo - Gonzlez. 1987), es fuertemente consistente y asintticamente
normal con velocidad de convergencia de arden n-'^2, tpica de las situaciones paramtricas, y que puede ser ms eficiente ( segn el tamao de la
ventana elegido para ) que el estimador usual de mnimos cuadrados (Faraldo - Gonzlez, i 987)

( ^Oti1f ^ 1 1ft1(a^

Precisamente, por esta ltima razn, creo que el anlisis del tamao de la
ventana para x merece un tratamiento mucho ms amplio que el que se
dedica en el artculo de Gonzlez, y mis comentarios se centrarn fundamentalmente en este tema.

Cuando lo que se pretende es, tan solo, encontrar un buen estimador no


paramtrico de la funcin de regresin (sin ningn tipo de hiptesis paramtrica), suele tomarse como ptimo del tamao de la ventana del estimador (entre otros criterios) aqul que minimiza el error cuadrtico ponderado
(ASE) definido por
dA(h)_1 n
^^ [ a(X;) - :z(X,) ]^ w(X,)
n

(1 )

con la anotacin utilizada en el artr"culo de Gonzlez, siendo h el tamao de


la ventana y w una funcin de pesos introducida para evitar la incorporacin ai error del efecto frontera (ver G asser y Mi^ller, 19 7 9)

Tambin son muy utilizados criterios de optimalidad basados en la minimizacin de otras medidas del error, como el error cuadrtico ponderado
integrado (IASE):
d,(h) ^ JS [^(x) - a(x)]2 w(x) f(x) dx

(2)

o el error cuadrtico ponderado medio ( MASE) ( condicional o no):


d^(h) = E [ dA (h) ^ X,, . . ., X]

(3 )

dM(h) = E [dA(h)]
De todos ellos se han investigado leyes de los grandes nrneros y teoremas centrales de lmite ( ver, por ejemplo, Hall, 1 984)
Sin embargo, dentro del contexto que nos ocupa, en donde la regresin
se supone lineal:

a(x) = A`{x) fl

(4)

A
el estimador de f) se toma como aquel vector fI que minimiza el funconal:
JS[ ^(x)-At(x)l1]2f,.,(x)dx

(5)

por lo cual, la funcin de regresin alx), en realidad, la estamos estimando


por
^

(x) = At (x) . ^I

(6)

( ti i-^1>I^ 1 Ic ^ E.^F^.^+ ^ tic ^l. ^^^

! y[)

Por lo tanto, 1a generalizacin l+gica del criterio de m^nimo ASE vendr


ahora determinada por ia construccin del tamao de ventana que minimiza la expresin:
^^ 1 (h) = ,_^
^ [ ^n(x,) - a(X,) ^
1

(7)

^ (4 - f^yt A (X ;) Ar (X , } (fI - 4)
n ;^,

y de forma anlaga para las otras medidas


del error. La funcin de pesos se
..
ha suprimido, puesto, que, af ser de tipo lineal, ya no tiene sentido 1a
aminoracin del efecto frontera.
Como apuntan H^rdle, Hall y Marron (1 988}, parece m^is lgico el criterio de minmzar dA que su media d^,, ya que el estimador de ta regresin ^
debe estar io ms a ^ ustado posible a los datos particulares que tenemos, y
no a la media de todos !os posibles conjuntos de datos. Ahora bien, hay
que tener tambin en cuenta que, en la situacin anloga para el problema
de estimacin de densidades (utilizando errores integrados), ambos criterios han dado muy pocas diferencias en gran nmero de simulaciones
(pues los errores no son observabies) (ver Scott, 198$).
Por otra parte, bajo ciertas restricciones analiticas, Marron y H^rdle
(1986) probaron que la diferencia relativa entre dA y d^, (y tambin entre d,
y dM) converge casi seguro a cero. Par todo ello, consideramos ambos criterios.
Observemos que en el caso ms simple que se trata en el trabajo de
Gonzlez, correspondiente al modelo de una recta de regresin:
a(x}-f^,+f^2x

($)

la expresin (7) puede descomponerse en:

drP^(h)
_ {1 - f^1 )2 + 2 X (f^ 1 - f,^ 1) ( ^2 _ ^2 ) + ^ X? ( ^2 - 8 2)2
A

(g}

/^
J.

donde f^, y f^^ vienen dados en la expresin ( 2.8) del articulo de Gonz^ez.
Por lo tanto, tomando esperanzas condiconadas en (9^, queda:
_
^X z
d^P^ (h} = MSE, (X,, . . ., X^ + 2 X MCE (X,, . . ., X} +
' MSE2 (X,, . . ., X)
n

(10y

191

C'C)ME=NT;AR1()S

siendo MSE, (X,, ..., X) el error cuadrtico medio condicional del estimador (), (i = 1, 2}, y M C E(X,, ..., X^} el error cuadrtico cruzado medio condicional:

(11}

MCE (X,,...,X1=E [18,-e,} (e2-^2} ^X,,...,X^]

Este criterio de minimizacin de d^P^ (h} tiene una base terica ms consistente que el utilizado en la simulacin del p^irrafo 2 del trabajo de Gonzlez, el cual slo est basado en la minirnizacin de MSE^ (X,, ..., X^ .
No obstante, en algunas situaciones, ambos criterios dan soluciones muy
prximas. As, en las condiciones supuestas en el Ejemplo 3.1 del artculo
de Faraldo y Gonzlez (19$7}, puede hallarse una aproximacin al h ptimo, ya que, partiendo de las expresiones de f^, y ^2 dadas en ( 2.8) y tras algunos clculos, se obtiene que:
.,

,.

Cov (e,, 82 ^X,,..., X}=

a2 =

[-

2+2

4a2h2]+

M C E(^C,, ..., X} ^- q, h+

4z

(12}

t 13)

J`^ ^ k ( w) dw

82 ^ X a^
q, _
S4

o(h2)

^2 ^ Q3

(14)

X Q2

2 X crZ
^ a^

(15)

lo que da, para h, un valor ptimo del orden:


1

2n
2

[ P,^ - 2X9'2 + P22


2

P^o+ Pzo

^X?

^ X? ^
n

-2 X4'^

^
na2

(16^

siendo P;^ las definidas en el mencionado Ejemplo 3.1. de Faraldo-Gonzlez.


Por lo tanto, esta solucin se halla muy prxima a la que se obtiene minim izando slo uno de los M S E; .

f`^ I^\l)I^ 1 i^ ^i F til'^^^tit ^l 1

^,X ^
Para el caso de error no condicional, habra que sustituir X, S`',

{ 1 5) y(1 i por EX, Var(X) y EX2, respectivamente.

en

Es de notar que todas estas medidas de error son algo diferentes a la


ms utilizada en teoria de regresin paramtrica, que es el error cuadrtico
,.
medio dei vector fI (esto es, en el caso de una recta (8), valdr MSE, +
^
MSE^), el cual es rnenor en ios correspondientes estimadores risca^ f.^ (k^ ,
para ciertos Ualores de la constante k(o constantes K;, en su caso). Para
una conexin entre los estimadores riscal y los utlizados en el trabajo de
Gonz^ez, ver cristbaE - Faraldo - Gonzlez (1 987).
Respecto a la estirnacin de haP (observemos que la expresind ^ (h), as
como la de los derns errores consderados, dependen del vector paramtrico (1, que es desconocido), lo ms natura! parece ser utilizar en ella el
principio de resustitucin, que ser equivalente a c;onsiderar el error de
prediccin.

p (h} ^ - ^

^ Y^ - q^ (X^} ^, ^ 2

(1 7}

Esta medida, corno sabemos, da una estimacin sesgada de dArP^ (notemos que cualquer Y; se emplea para predecirse a s rnisma). Este problema
puede atacarse utilizando todos fos Y; (i ^ f^ cuando se predice Y;, lo cual
Ileva a considerar la funcin de Cross-Validation.
Tambin existen otras tcnicas, como ias basadas en penalizar el error de
prediccin, multiplicando esta funcin por un factor corrector " {n-' h^'} para
corregir e^ sesgo de p(h); puede ser de tipo cross-Validation generalizada,
criterio de informacin de Akaike, error de prediccin finito, modelo de
Shibata, o modela de Rice, entre los ms conocidos. Todos etlos bien
estudiados en la eleccin ptima de h dentro de la teora de la regresin no
paramtrica (ver, por ejemplo H^rdle, 19881, y que se extienden de manera
natural a nuestro caso.
Queda abierto el problema de estudar el comportamiento de todos estas
estimadores de dA^P^, as como el de los obtenidos por mtodo F'I (plug-in},
e^ cual utiliza el desarrallo asinttico del error. De hecho, seria interesante
probar si estos estirnadores son asintticamente ptimos, en el sentido de
Shibata (1981 ){esto es, que el caciente entre error estimado y error
mnimo converja casi seguro a 1), bajo condiciones anlogas a las exigidas
en H^rdle y Marron {1985).
Finalmente, hay que destacar que otros enfoques totalmente diferentes,
como la posibilidad de bootstrapear los residuales (convenientemente centralizados) para obtener una aproximacin del error cuadrtico medio en un

c ^^^1E ti ^ -1FtIc

ly?

punto concreto, no quedan reflejadas aqu, pero son tambin susceptibies


de un estudio para atacar el problema de la eleccin del tamac ^ ptimo de
la ventana, dentro de nuestro contexto.

BIBLIOGRAFIA ADICIONAL
HALL, P. (1984): "/ntegrated Square Error Properties of Kerne/ Estimators of
Regressron Functions" Annals of Statistics, 12, 1, 241-260.
HARDLE, W., HALL, P. y MARRON, J. S. (19$8): "How for are automatcally
chosen Regression Smoothing Parameters from their Dptimum?". J.A.S.A.,
83, 401, 86-95.
H A R D L E, W. y M A R R O N, J. S.(19 8 51: "Bandwidth choice in Nonparame tric
Kernel Regressin': Statistics and Decisions, Suppl. lssue 2, 1 73-77.
H A R J LE, W. y M A R R O N, J. S.(19 8 5): "Optimal Bandwrdth Selection in Nonparametric Regresson Function Estimation". Annals of Statistics, 13,
1465-1481.

M A R R O N, .1. S. y H A R D LE, W.(19 8 6): "Random A pproxirnatons to an Error


Criterion of Nonparametric Stats,tics ". Ju rna I of M u Itiva riate Analysis,
20, 91-1 13.
ScoTT, D. W. (1988): "Camment" in "How far are automatically chosen
Regression Smoothing Parameters from their Qptimum?' : J. A. S. A., 83,
401, 96-98.

S H I B ATA, R.(19 81) : "A n Optimal Se%ction of Regressron Variables' : B i o m etrika, 68, 45-54.

ROSAR IC1 RON! ERA


Universidad Politcnica de Macirid

EI anlisis de regresin es una tcnica de anlisis de datos ampliamente


utilizada. ^os resultados e^ ideas contenidos en el artculo respecto a la
metOdologa de estimacin no paramtrica previa a la estimacin paramtrica en la regresin lineal presentan, aderns de rigor cientfico, un aspecto
de importancia prctica.
Como apunte margina! y en el contexto de estimacin paramtrica de
modelos lineales, quiza se echa en falta algn comentario sobre estimadores bayesianos. Sin embargo, y dadas las dificultades del tratamiento bayesiana para e^ caso de estimacin no paramtrica, sera un argumento ms a
favor de la metodologa propuesta por el autor.

j^j.^

f ST ^^[)IS1 1( A f-.SP^1tiOl ^^

EI comentario que la lectura del artculo me suscita, no se va a centrar


tanto en los resultados presentados cuanto en la aplicacin de las ideas
contenidas en l.

R EX es el desencadenante de las siguientes reflexiones.


EI uso de poderosas herramientas para el anlisis estadstico de datos
alcanza actualmente el campo de accin de diversos profesionales no
estadsticos. Los procesos computaciones de anlisis de datos, han Ilegado
a ser asequibles sin la accin experta del estadstico que gue el anlisis,
con el consiguiente riesgo de mala utilizacin de dichas herramientas. Una
posible solucin para cierto tipo de problemas no sofisticados (aquells que
no requieren determinaciones por parte del computador de propiedades
relevantes del contexto objeto de la accin), se propone como la incorporacin de "experiencia estadstica" en los programas de ordenador.
Los paquetes de programas estadsticos de que se dispone habitualmente, consisten en una serie de subrutinas, que, de forma interactiva, permiten
largos clculos, exhibiciones grficas en pantalla y sobre todo un entorno
para la gestin y manipulacin de datos; sin embargo, tales sistemas incluyen escasa ayuda para el usuario no versado en estrategias del anlisis
de datos.

Desde los cornienzos de esta dcada, han sido numerosos los intentos
para sistematizar " los razonamientos empleados por estadsticos expertos
en el curso del anlisis de algn aspecto de problemas estadsticos sustantivos", esto es, las " estrategias estadsticas", (ver { 1), (2} ).
Surge as, el problema de capturar ste conocimiento estratgico que
reside en el estadstico experto e incorporarlo al sistema. Esta experiencia o
entrenamiento estadstico, se compone de dos aspectos: uno riguroso y
otro heurstico. EI anlisis exploratorio de datos (EDA, John Tukey 1977}
es una clara muestra de sistematizacin dentro de heurst^cas.
La inclusin de ste conocimiento en los programas de ordenador, requiere tcnicas que mecanicen tareas de procesamiento de informacin
si^-nblica. Los investigadores en el campo de la Inteligencia Artificial, han
dado respuesta en la ltima dcada a stas cuestiones. EI razonamiento
simblico, unido a la capacidad de justificar su lnea de razonamiento
resultan sealadas caractersticas del ms reciente producto de la investigacin en los Sistemas Expertos. {FOX J., {3} } resulta una buena introduccin a ellos.
No resulta casual que en 1982, William A, Gale y Daryl Pregibon ^4^
presentaran como pionero su Sistema Experto, seleccionando como objetivo el Anlisis de Regresin: REX (Regresin EXpert).

CO ti1 E^. ^+ T-^ R I(^S

195

De una forma somera ia "estrategia estadstica" que utiliza REX comienza por aceptar los datos tal y como se le facilitan, suponiendo un modelo
lineal y mtodo de ajuste de mnimos cuadrados ordinario. Inicialmente
busca posibles problemas en cada una de las variables, estudia cada variable explicativa para la linealidad y finalmente, se centra en los residuos.
Ante cada pasible problema (hiptesis no verificadas) REX considera posibles transformaciones de los datos, del modeio o del mtodo de ajuste para
solventar el problema; si alguna transformacin fuera conveniente R EX la
sugiere al usuario. R EX finaliza bien resolviendo los problemas, o bien
localizando un problema para el cual no puede encontrar ninguna solucin
efectiva y aceptable.
Bajo ste esquema, aparentemente simple, y a partir de ste primer
intento de aplicacin de tcnicas de Inteligencia Artificial al anlisis de
regresin, se desarrollaron otros sistemas 1STU DENT concretamente, se
marca en un objetivo ms didctico}.

La reflexin aparece de forma natural. Un nuevo impulso ha surgido para


determinar la importancia de ciertas lneas en la investigacin estadstica
actual. EI anlisis exploratorio de datos y la rnodelizacin se perfilan como
los dos campos en los que la Inteligencia Artificial presta mayor apoyo a la
Ciencia Estadstica actual. Por otra parte, la Inteligencia Artificial contempla
la Ciencia Estadstica como solucin a sus problemas de tratamiento de la
incertidumbre.
Contribuciones de la lnea de estimacin no paramtrica de la funcin de
regresin, se revalorizan por su utilizacin en el anlisis exploratorio de
datos. Las aplicaciones a distintos contextos (economtricos, fiabilidad...) de
la estimacin no paramtrica de funciones de densidad, de distribucin, o
de tasa de fallos, que reduzcan el costo computacional como las contenidas en el artculo, tienen un inters ms que evidente.
He querido con este comentario apuntar una motivacin ms a la lnea
de investigacin a la que el autor del artculo contribuye tan brillantemente.
REFERENCIAS
^ 1) `"Implementacin of Statistical Strategy". OLDFORD R. W., PETERS S. C.,
Artificial Intelligence & Statistics. Ed. Wil/iam A. Gale (A ddison-Wes/ey^.
.
(1986).
(2^ "Environements for Supporting Statistical Strategy" HuBER P. J. ARTIFIC/AL.
lntelligence & Statistics. Ed. William A. Gale (Addison-Wesley} ( 19$6}.
(3) "A short account of knowledge engineering". Fox J. The Knowledge
^
Engineering Review (19 8 5). 1, 4-14.
(4) "'An expert system for regression analysis"' GA^E, W. A. and PREGYBON
D. Proceedings of the 14th Symposium on the interface, 1 10-1 1 7.
11982).

tti1 ^I)I`^1It \ ^^f'^^ti,t)t ^

Contesta cin
Inicialmente dese expresar mi satisfacin por el notable enriquecimiento
que experiment este artculo gracias a fas valiosas opiniones y nuevas
ideas aportadas sobre el mismo por ios Profesores Jos ^4ntonio Cristbal
Cristcbal, Vicente Quesada, Antonio Cuevas, Manuel del Ro, Rosario Romera y Julin de la Horra.
Debido a la variedad de los comentarios, muchos de ellos comunes a
varios autores, mi respuesta estar dirigida a contestar cada uno de ellos
finalizanda con una opinin general sobre algunas de las nuevas ideas que
se desprenden de las discusiones.
Esencialmente son fundamentales ios siguientes puntos:
aj t Qu sucede con el parmetro ventana cuando se quiere hacer uso de
la nueva metodologa en la prctica ?.
b1 Extensin de la nueva metodoioga a una generalidad de situaciones.
c1 Posibilidades de introduccin del Bayesianismo.
d/ EI enfoque de la nueva metodologa. Interaccin con el REX.
e1 EI uso de 1a distancia L'.
f,l Nuevas vas de investigacin.
A) Sin duda el problema relativo a la ventana es uno de los de mayor
importancia y a el aluden directa o indirectamente los Profesores Cristbal,
Quesada, Cuevas y del Ro. Una de las cuestiones que plantea el Profesor
Cuevas es la de la prolangacin de la teora aqu desarrollada a un contexto
en el que las ventanas {^^ }, determinsticas a fo largo de todo el trabajo,
puedan reflejar la informacin muestral y convertirse en ventanas aleatorias: F = E(n, (}C,,Y^)..., (X,,,Y) ). Similares resultados asintticos a los de

ly7

c ^i):^ I E:^S 1^ -^( ^!(a^^

c.s.> 0 y n F
este trabajo pueden obtenerse bajo !as condiciones ^;,,
v ^ 0 para la norma_c.s.^ ,^ para la consistencia casi segura y^n f;,,
lidad asinttica ( como se puede ver en Gonzlez Manteiga ( 1 988) ).

^
Con todo, una ventana ^ estimada de la que podramos llamar ptima
terica, aunque con buenas propiedades asintticas, podra Ilevar consigo
una prdida de eficiencia en algunos casos como se refleja en la siguiente
simulacin:
Para el modelo Y=f^; +^2X + ^ con E[E]=o y Var (E)^a2 siendo X E U[0,1 ],
E E N(O,a^) y f^; = f^2= 1 (para otros valores cualesquiera de f^, i=1,2 se
presenta una situacin similar) se hace uso de la librera IMSL con la
subrutina G G U B FS para generar N=1.000 muestras de tamao n=25,50 0
de f)2 por
100 i(X,, Y; ), ..., (}C,,, Y^ )};;,, . , N. Centrndonos en la esti macin
^
ejemplo, y considerando como criterio comparativo el MS E [f^2 ,/ X,, ..., X],
una aproximac^n del mismo puede ser obtenida a travs de
N
,.
M ^ E [ ^2/X,,..., Xn] _(^ ^2;/N -H2)2+(^ (^2-- (^ f^2i/N) )2)/N
^
i=1
j=1
i=1
^

siendo 82i el estimador de f^2 usando la muestra {(X,,Y; ), ..., (X,,,Y^) .


Teniendo en cuenta que la ventana ^ptima terca cuando se utiliza el

mtodo ncleo ( la que minimiza MSE(f^1/X,, ..., X) ) viene dada por


QZ

n(f^2)^ J cv^ K(c^^) dc^


y que una estimada directamente de la misma podra ser

, donde
n f)2r,,^

^ (Y;^_r

f cv2 k( cv ) dcv

^1 rr,c- ^2mc X;)2

y ^i^^^, i = 1, 2,

(n- 2)

son estimadores clsicos de la varianza y de los parmetros en el contexto


de mnimos cuadrados, es posible construir tres estimadores competitivos
^
para v2 , el de mnimos cuadrados f^^m^, el diseado por la nueva rnetodolo^
^
ga con ventana ptima f^2ap y el diseado con ventana estimada f^2es. Los
resultados obtenidos para el MSE(f^2/X,, ..., X) con distintos n y a^ vienen
reflejados en la siguiente tabla
h

I^

E ^T ^i^)ItiT!( A E-tiP^tti()!.:^

^yf^

TABLA DE D^ ISTINTC^S ERRt)RES CUADRATICC^ MEDIC^


C+ONDICIOIVALES
^
82^ r^

^
82 pp

O,C3259
0,02 7 2

t?,0255
O,C^2 69

c^,c^28o

o,a267

C3,12 9 4
Q,1 2 5 9
0,1 3 2 3

0,1 1 3 9
Q,1 1 1$
0,1 1 5 5

0,1 61 1

n= 2 5
Q= 1,4

C1,5847
Q,61 51
t^,5962

U,3914
0,391 7
tJ,3949

0,5563
t^,58t38
0,56Q4

n= 2 5
a^ = 2,0

2,1 926
2,2994
2,+0^ 300

0,6986
0,7065
0,6987

1,3$20
1,451 5
1,27^3

n= 25
a- = 3,0

3,9427
4,3996
4,5490

0,7969
Q,8081
C),8282

2,1485
2,4522
2,6357

n = 5 t^

tJ,01 3 2

O, O 1 31

4, C^ 1 3 8

cr = O, 3

fJ, O 1 2 8
O, O 1 2 3

C}, O^ 1 2 5
0^, O 1 21

O, O 1 31
CJ, t^ 1 2 8

n= 50
, 5

O,C.3656
Q, O 6 6 4
O,t'J681

0,4612
O, O 61 8
0,064^

ti,0780
t), U 7 8 4
0,0820

Est^madores

n -- 25
Q= 0,3

n= 2 5
a= O, 5

2 ss

CJ,0282
4,a2 9 7
0,0296
O,1 6 O 5
0,1 6 O O

^ y9

t'()tiTESTA('1()ti

TABLA DE DISTtNTOS ERRORES CUADRATICO^ MED10


CONDICtO^ NALES
w

2, m c

e2 oP

f^2 es

n= 50
Q' 1,0

0,3056
0,3055
0,3124

0,2383
0,231 5
0,2357

0,3492
0,3454
0,3569

n= 50
^ = 2,0

1,043 7
1,0203
1,0191

0,5066
0,5191
0,5190

0,82 53
0,7995
0,7967

n= 50
Q= 3,0

1,9442
1,9648
1,9863

0,637 3
0,6507
0,6592

1,2429
1,2329
1,2807

n= 100
Q= 0,3

0,007 5
0,0064
0,0064

0,007 5
0,0063
0,0064

0,007 7
0,0065
0,006 5

n= 100
Q= 0,5

0,0295
0,0317
0,0303

0,0284
0,0307
0,0295

0,0318
0,0344
0,0331

n= 100
Q= 1,0

0,1005
0,1025
0,1 14 5

0,0943
0,0905
0,102 9

0,1291
0,1239
0,142 2

n= 100
^ = 2,0

0,5020
0,4977
0,4878

0,3273
0,3312
0,3274

0,4955
0,4855
0,4696

Estimadores

A la vista de los resultados puede deducirse el buen funcionami,ento que


presentan los nuevos estimadores cuando se utilizan las ventanas ptimas
tericas. La eficiencia de estas respecto de los mnimos cuadrados se
acrecienta a medida que aumenta la varianza siendo precisamente para
valores grandes de la varianza cuando los nuevos estimadores con ventana

_'O(

F ^1 ^it)I^t I( ^^ i^^F'^ti(1[ -^

estimada presentan tambin eficiencia. Dando esto en cierta medida respuesta a algunas de las cuestones def Profesor del Rio, eE proceso bietpico parece ser preferible al clsico de mnimos cuadrados en situaciones
crecientes de !a varianza. Es sin duda en estos casos cuando la suavizacin
inicial aporta efciencia.
Por atro lado los nuevos estimadores con ventana estimada usados en la
simulacin son nicamente un primer paso cara a la construccin de mejores estimadores de la ventana. En esta lnea son muy vafiosos ios comentarios del Profesor Cristbal sobre la adaptacin de los criterios de error de
prediccin utilizados en estimacn no paramtrca de curvas, e! ASE y ei
MASE, a nuestro contexto. Sin embargo aunque para e! caso f^; = f^2 = 1 !as
..

ventanas ptimas tericas del MASE y por ejemplo de! MSE [f^2 / X,, ...,
X^] son las mismas es todava rnuy dudosa la proximidad que existir^i entre
ambas ventanas ptimas tericas en un contexto general y por tanto
permanece como problema abierto el funcionamiento de la ventana obtenida de la minimizacin del ASE.
Cualquiera que sean !os mtodos a utilizar para la estimacin de !a
ventana, objeto de investigacin futura, han de pasar por algn mecanismo
de valizacin cruzada. Obsrvese que si utilizamos el criterio directo de
minimizacin de
1 ^ {Y^_At{X`^ ^h^,^
n ;_,
^
siendo f^,, el nuevo
dependiente de h, e! mnimo se aicanza para
^ estimador
^
,.
h=4, es decir f^h =^a = f^^C .
B) Son sin duda muy ilustrativas !as ideas expuestas por el profesor
Cuevas sobre la posibilidad de extender la nueva metodologa a una generalidad de situaciones. Precisamente una de eflas, !a estimacin de un
parmetro de una funcin de densidad a partir de un estimador piloto no
paramtrico de fa densidad ya ha sido elaborada en algunos casos tomando un estimador no paramtrico tipo Kernel de la densidad y una medida
de g-divergencias de tipo general entre este y!a densidad de tipo paramtrica. ver Beran { 1 9^7 y Cano-Lasala (1984a, 1 984b) para ms detalles.
Espero que estas consideraciones sirvan tambin para responder al Profesor de !a Horra.
Cy Aigunos comentarios de fos Profesores Rosario Romera y Vicente
Quesada apuntan a la posibilidad de uti^izar mecanismos Bayes en la nueva
metodologa basndonos en alguna posible informacin a priori que se
puede tomar del modelo. Un estmador ploto Bayes no paramtrico podra
considerarse como estimador inicial en el funcional { 1 9) del trabajo
como elemento reflejo de la informacin a posteriori para su uso en la

t c^tirttir^^t ^c^ti

estimacin de (>. Quiz una buena eleccin inicial sera el estimador Bayes
no paramtrico propuesto por Barry (1 9$6).
D) Los comentarios de Rosario Romera van enfocados a resaltar la
importancia del R EX y de la valiosa ayuda que puedan representar cara a
un anlisis exploratorio de datos las estimaciones previas no paramtricas
de las curvas de regresin en la prctica. Desde esta perspectiva es interesante mencionar el paquete "X plore - a computing enviroment for exploratory regression and density smoothing" que se encuentra actualmente en
fase de elaboracin por el profesor H^rdle de la Universidad de Bonn.
E) Los profesores Cuevas y de la Horra consideran la posibilidad del
uso de la distancia L' alternativamente a la L2 usada a lo largo del artculo.
A parte de los problemas computacionales que ello conlleva para su uso en
la prctica, no debemos de olvidarnos que Devroye-Gidrfi (1985) motivan
profundamente esta distancia para la estimacin de la densidad. Sin duda
nuestro contexto es distinto aunque se usen estimaciones de la densidad.
Basta con ver el escaso uso de la distancia L' en la estimacin no paramtrica de curvas de la regresin.
F^ Finalmente comentar las valiosas ideas y problemas propuestos,
sugeridos en la discusin corno: el uso de la nueva metodologa para la
seleccin de modelos, el manejo de la versin recursiva para el anlisis de
la influencia y el diagnstico, la comparacin entre las tasas de convergencia entre las versiones sin y con recursividad, e! uso de los modelos de azar
proporcional en la situacin de datos censurados que sern sin duda objeto
de futura investigacin.
BI BLIOGRAFIA
BARRY, D. (1986): "Nonparametric Bayesian Regressin". Ann of Stat. Vol.
14, 3, 934-9 53.
BERAN, R. (1977): "Minimun Hellinger Distance Estimators for Parametric
Models" Ann. Stat 5, 445-463.
CANO, F. .J. - LASALA ^CALLEJA, M. P .

(19841: "Funcionales de mnima g-

divergencia y sus estimadores asociados 11)". Trabajos de Estadstica e l.

0. Vol. 35, 2. 125-138.


M. P. (1984): ""Funcionales de mnima gdivergencia y sus estimadores asociados (II)". Trabajos de Estadstica e l.

CANO, F. .J. - LASALA CALLEJA ,

0. Vol. 35, 2. 125-138.


GONZA^EZ MANTE^GA, W. (1988): "" Properties of smooth linear regression
parameter estimators constructed using non-parametric pilot estirnators
with sample-determined bandwidth" (Preprint).

También podría gustarte