Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Una Perspectiva General (Aplicacion Estimacion No Parametrica)
Una Perspectiva General (Aplicacion Estimacion No Parametrica)
RESUMEN
En este artculo se revisan las distintas aplicaciones, en el
contexto de la regresin lineal, de la nueva metodologa consistente en la estimacin de los parmetros de los rnodelos a partir
de estimaciones previas no paramtricas de la funcin de densidad y de regresin. Nuevos resultados en los modelos de correlacin desde un punto de vista secuencial y de diseo experimental son a su veZ introducidos. Finalmente una discusin de
la nueva metodologa en los modelos de heterocedasticidad, de
datos censurados y de Bootstrapping es tambin considerada.
Palabras elave: Estimacin no paramtrica, modelos de regresin.
AMS. 1980. 62J05, 62G05.
1.
INTRODUCCION
1^?
Y=A`(X)f1+F
donde F es el error de media cero y A: R
> Rp un funcional
arbitrario, disponindose de una muestra { IX, , Y,) ..(X , Y) } relativa al
misr^no, el estimador de mnimos cuadrados para el parrnetro f^ pdimensional viene definido como aquel valor para el que se minimiza el
funcional:
n
(1.2)
resultando:
^ ^ A (X;) A` (X;) ^ ^' ^ ^ A (X;) Y; ^
r=1
(1.3)
i=1
143
miento Y de una determinada planta frente al nivel de concentracin controlable x de un fertilizante es una tpica situacin de diseo experimental.
Todos los modelos difieren realmente en el mecanismo aleatorio que
genera los datos, y de forma comn para todos ellcs el estimador de
mnimos cuadrados (1.3) minimiza la norma eucldea de los errores aleatorios E; = Y; - A` (X;) , i=1, ..., n del modelo {1.1).
Cuando los errores { E,, ..., E } siguen una distribucin normal, el estimador de mnimos cuadrados es el de mxima verosimilitud y sus propiedades
distribucionales son conocidas de forrna exacta. EI texto de Seber (197 7 j o
el de Pea (1987 ) son ejemplas de libros en los que un estudio de estos
estimadores es desarrollado exhaustivamente bajo suposiciones de normalidad. Sus propiedades relativas a la consistencia, normalidad exacta (por
ejemplo en el modelo de diseo fijo, 8m^ N(o, 02 [^ A(x;1 At(x;) ]^' ) con a^ _
Var(^) ) y eficiencia (propiedades relativas a la miima varianza), seran las
ms importantes en este contexto.
Frecuentemente en la prctica los tests de normalidad sobre los residuos,
errores estimados", ^; = Y; - A` (X;) ^m^ i=1, . .., n, nos indican la no
normalidad de los errores. Esto es atr^buble, en muchas s^tuac^ones, a que
los errores no siguen una distribucin normal o a la posibilidad de existencia de datos contaminantes.
^
En este tipo de situaciones los estimadores mnimo cuadrticos Hm^ pierden propiedades de eficiencia, as como de consistencia. EI trabajo de
Ruppert-Carroll (1980), donde se comprueba con estudios de simulacin,
resultados de gran ineficiencia para dichos estimac^ores cuando el error
sigue una distribucin con colas ms pesadas que la normal, puede ser un
ejemplo ilustrativo entre otros muchos.
Consideraciones de este tipo fueron las que Ilevaron a la bsqueda de
estimadores alternativos con objetivos fundamentales: el de la eficiencia
bajo otras suposiciones poblacionales sobre el error distinta a la Gaussiana
y el de la robustez (poca sensibilidad a la existencia de datos espreos en
la muestra).
Esencialmente, la construccin de nuevos estimadores en el contexto de
la regresin tineal sigui caminos similares en su desarrollo al de fos
estirnadores de parmetros de localizacin y escala, surgiendo:
^
vendra
M
Los
M
estimadores
(ver
Huber
(1981)
).
EI
M
estimador
)
definido como aquel valor para el que:
(1.4)
E.STA[)I^TI( A E:Sf'r1ti()l_A
^ ^4
^
r; ={ Y; - A` (X;) ^m^ }. As por ejemplo, Ruppert y Carroll (1980) construyen
un estimador mnirno cuadrtico entre los datos {(X; , Y;) } para los que sus
residuos { r; } estn entre r,n y r2n, los residuos que ocupan la posicin [na]
y[n(1-a) ] con a cornprendido entre 0 y 1(siendo [] la funcin parte
entera). Es decir aquel valor de 4 para el que se minimiza:
^o (B) _
(1.5)
{ r; / ^naJv <fn(1-aJ }
y finalmente:
iiiJ Los estimadores en rnnima distancia. Estn generalmente constru
dos con distancias del tipo Cramer-Von Mises. Los desarrollos principales
de los mismos fueron los Ilevados a cabo por Koul-De Wet (1983) para la
regresin y por Kaul (1986) para los procesos AR (1). En lneas generales
se definen como aquellos para los que se minimiza una distancia del tipo:
1{Y; - A`(X;)
(1.6)
ponderada de los errores, F la distribucin del error E supuestamente conocida y H una funcin de ponderacin. Modificaciones de la distancia anterior podran considerarse en el supuesto de F desconocida, por ejemplo
cuando F es simtrica.
De forma alternativa al modelo paramtrico lineal (1.1) en el que se
verifica E (Y / X= x) = A` (xl 8, el desconocimiento de la posible dependencia
de Y sobre X da lugar a la consideracin del modelo ms general:
Y = a(X) + E
11.7)
I4S
11. $ )
donde { w,,; (xl } denota una sucesin de pesos que puede depender de la
muestra { X; }; . Intuitivamente para estimar a(x) = E(Y/X=x) en el modelo
(1.7), lo que se establece es un promedio local en x de los datos Y; ,
i=1,..., n, con una mayor influencia en dicho promedio de aquellos Y; para
los que w,,;(x) es mayor, frecuentemente coincidente con aquellos Y; cuya X;
es mas cercana a x.
La formulacin (1.8) cubre la prctica totalidad de los estimadores hasta
ahora tratados en la literatura al respecto. Desde el ms antiguo conocido
por regresograma, donde w,,;(x) ;(1 ^;E,x}) / n(x) (con 1{} la funcin indicador,
IX un intervalo al que pertenece x dentro de una particin en Rp por
intervalos y n(x) el nmero de X; pertenecientes a Ix), en cuyo caso (x) es
la media aritmtica de los Y; cuyos X; estn en Ix, hasta otras elecciones de
inters como por ejemplo:
r-1
K [ (x- X r) / ^1 ] ] ^ ( 0 s i 0 ,/o )
1^^
^ ^
K [ (x- X;) / E ] ^
K [ (x- X;) / ^ ] Y; 1 / ^ ^
^_^ ll
^^^ 17 E n
n
K [ (x- X,) ^ En ] ^ _
r-1
_^^
En
,.
^-1 /^ E^
Se comprob el funcionamiento prcticamente equivalente entre los estimadores paramtricos, salvo en los casos de contaminacin sobre el error
147
.
.
.. .
. .
.
.
..
.
.
. .
.. r..
,^-_
.
^-.^
:
:
. 1^
.
:
_.
. __ _..
,_ -^ . ,_. .
^ ,.
^ ...'
i ^
../^
^ r^
i^ ^,.r
^ .^
. ^%.. ^
..r
^,.r..r
'
^
^
-^J
^^
_- .
r
.
^^ .
.. .. . . . .
.
.
.
.. .
: .
.
.
. . .
... . . . .
_ .
.
^t
.^
(fig. 1)
.
.
.
f
.
r .r ^ w w w ^ ^ w ... , .w ^ r,.s
Figu^a 1
1
Estimacin no paramtrica de a(x) = 1+x, en el modelo Y= 1+X+^ con X E U^0,1 ],
Var(Y/X=x) = 1+x y E/X=x E N(0, ^ +x) del que se simul una muestra de tamao n=20o.
148
FS^TACaISTI('A ESPA^IC)LA
..r.
i^
.
.
.
.^
.
.
.
.
N
^
i^
^,!
i
^
^
^
M^
l^
.
+i^ .^. ^. w
r. .
+ ^
^
^
^ ^r^
*
t'!
{
^i
t+ ^1^ ^, .
^
. y- ^-.
r.
V^ .
` ^ -^..^.,
.,,.
'
.
'
'
^.
^
. .
^^
'
- ^ ^
^
I
. .
r. ^^ -^ ^- r^ ^ ^^^^
^ ^
^ .
. . . ^. .
.
^
.
.
^
a^ ^t^...^^ ^^...i n.^^ ^ ^.^ ^ ^^^ w r^+^^^T^
(fig. 2 )
(1 . 9 )
149
En lo que sigue y a lo largo de este trabajo revisaremos los ^ estimadores hasta el momento estudiados, en funcin de tos modelos de regresin a
considerar. Dicha revisin se ve prolongada con nuevos resultados en los
modelos de diseo experimental y de tipo secuencial. Inclumos finalmente
algunas consideraciones de 1a nueva metodologa sobre otros modelos de
regresin.
Como el estimador piloto no paramtrico que utiliiarernos ser en geneen cuenta cuestiones de robustez, nuestro estudio
ral diseado sin tener
^
comparativo entre H y los estimadores ya existentes tendr corno rnedida
fundamental de precisin el error cuadr^itico medio (M.S.E.). Ello dar lugar
a una eleccin natural dentro de las ya existentes, correspondiente al
^
mnimo cuadrtico f^m^, ya que en las hiptesis en las que nos moveremos
ste ser optimal. Por supuesto con un estimador no paramtrico rabusto
(como por ejemplo el introducido por H^rdle (1984) ), el estirnador 8 resultante, sera previsiblemente competitivo con las versiones robustas paramtricas antes citadas y esto ser objeto de estudio en prximos trabajos.
A
LA RECTA DE REGRESION.
3.
4.
5.
6.
APENDICE.
7.
BI BLIOGRAFIA.
^ ^^^
2.
kS^T,AC^^^TIt^A F^^;^F'^tiOE..,A
LA RECfiA DE REGRESION
Y=^,+f^2X+E
(2.1)
^a ^ 1, , B^ ) ` ) ^ ^ ^ { Y; - e, - 82 X;) 2
^2.2)
(2.3)
^2.4)
^^ ^
^2.5)
I51
con
lo= [a,a+(b-a)/m] , I, _
[a+(b-a) /rn, a+2 {b-a) /m], . . . ., I m_, _ [a+(m-1) Ib-a1 /m,b], el mtodo h istom
grama en el intervalo [a,b], dm(x,u) _.^ ^r^(x) yr^(u), donde { ^r^ } es un siste^
ma ortonormal completo en SC R, el mtodo de desarrollos ortogonales,
..., etc. Formalizacin tambin vlida para la estimacin de la densidad
donde:
(2.6)
;-^
^
ZV-T W
__ ^ 2
V D-W
donde Z, V,
(2.7)
TD-Z W
D^ _ _ _
V D-W
^
W. T y Z son !as medias de las variables:
(2.8)
15?
ESTADISTICA ESP:^ti()LA
i) 8, -^-^ S^-^ 8,
n2 -^ 5---^ H2 siempre que S sea compacto, Y
acotada con probabilidad uno y m=m(n ^ ---^ ^ . Y adems:
bxE R
b (x, t) E R2
c) J^m(x,u) du=1
bx E R con ^m(x,t)=0 si
y ^ -^ o Sl n -^ ^ .
1 S^
^
M.S.E. (8;)
^
M. S. E. (f);mc)
_______
_^.___._
Figura 3
^
Por otro lado los estimadores 8; i=1,2, pueden heredar las malas propiedades que presentan los estimadares piloto no paramtricos iniciales en
[a,a+^] y
[b-E,,,b] es conocida la ineficiencia que presentan las estimaciones no paramtricas, tanto de la densidad como de la regresin. Dicha ineficiencia es
tambin trasladada a los estimadores f^; i=1,2, respecto de los mnimo
cuadrticos.
`
Sin embargo en una gran generalidad de situaciones se producen estimaciones ms eficientes que la mnimo cuadrtica. As por ejemplo, si
S=(-^, ^ } ^m(x,^) - ^ 1 /E) K [ (X-U)/^ ] COn:
^
K E{ K* / K* es simtrico, positivo, acotado y con ,^^K Iz)dz=1
c}
/.
para algn
E:STADISTI(`.^ ESf'Ati()LA
K ( w) _
tamao muestral = n
varianza = a2
MSE [^,J
MSE [82J
MSE [8,m^]
MSE [82m^J
n= 50
^= 1
0.08064
0.228592
0.094363
0.25246
n= 100
n= 50
n= 100
a^ = 1
a^ = 2
a-2=2
0.039096
0.14097
0.072068
0.109807
0.38771
0.197106
0.046646
0.188727
0.093291
0.128587
0.504919
0.257174
Como ejemplo ilustrativo del efecto frontera reiativo al estimador no paramtrico inicial y sus efectos proyectados a los estimadores paramtricos,
consideraremos el siguiente relativo a un ejemplo biomdico basado en la
contrastada reiacin lineal existente entre la ceruloplasrnina en plasma y su
actividad oxidsica. Lo cual, como es sabido en la literatura al respecto, nos
permite predecir el valor de la concentracin, mucho ms laboriosa de determinar y con un mayor costo, a partir de la actividad oxidsica, rpida de
medir y barata.
ISS
(2.9}
Cerulop la5nina
[ng/IOOnIl
75 r
. .
.
_..
.. . ... ..
.
..
. .
.
.,
^-------- f -
^D,Q ^
$^
Z1^
^Carulo lasni^a
E ng/ 1 Dn I]
7S -r
. ^^.
..
j.^!_ ^ .r^. .
" Ty. .
L----+---
^a,o)
^^
^1Q
157
Ceruloe lasnina
[ng/ 17^n IT
^^-^-^-*^^
. .
-^^+-r..
.
^-
.
^ t-^^_,..i ^^
. ,^.+ _ . .
..
. . ^^.
-
L---lQ^ol
2?U
Ceru I oe I asn i na
Ing/ 100n I ]
N = Estinador Propuesto
T5
T NC= Estinador Propuesto Corregido
I NC= Est i nador N i n i nos Cuadrados
L^^--^^^^^^
^^
I^lC
.
__ -.^-NC
^ -^.z11-'r^^
^ J"-+ N
^.
^`G^^ ..r'`^
3.
EL MODELO DE REGRESION
NUEVOS RESULTADOS.
MULTIPLE: PLANTEAMIENTO Y
(3.2)
donde es un estimador^ no paramtrico de la funcin de regresin adaptada a los diseos fijos y f es ahora la densidad uniforme en C.
La formulacin general ms v^lida de para este tipo de situaciones es
la definida por:
(X^(X) _ ^ W,,;(X) Y;
(3.3)
i=1
^ 59
;^ ^
^^ ^
,- ^
, ,- ^
X-X ^
^n
K(
, ) a (x^)
X-X ^
^n
(3.4)
^_^
^ ^ w,,; (x) ^ 1
{IIx,XII>s}
SU/7 I Wni ^X i I
= O (n^s), s > a
b^ E( ^^ ^^^^ ^s1) ,^ ^
s> o
c^ A continua y C compacto
sobre el modelo ( 3.1), se verifica: Q ^^s -^ p
E-.ST,AC)ISTI( A ESPAtiOLA
I6^)
TEDREMA 2. Denotando por A`(x) _(A, (x), ..., AP(x) ), x E C y bajo las
condiciones:
y[ ^ w,,,(x)- 1 ]-^ 0
;^ ^
n
^ ^^ w,,; (x) ^ 1{ ^^ ^ X; ii ,,^ ^---^ 0 cu a nd o n-^--^ ^, d a> 0
a)
/S ^
(x) A; (x) dx
j^ A, (x) A; . (x) dx
k=1
c/ A continua y C compacto
sobre el modelo ( 3.1), se verifica:
=--^ Np (o, cr^ B) con B=[ j A(x) At (x) dx ]
Las condiciones a), b) y c1 no son restrictivas en el Teorema 1, a)
representa las hiptesis exigidas ya por Georgiev 11985, 1986) para !a
consistencia de los estimadores piloto no paramtricos. La b) es m^s dbil
que la existencia de varianza para el error E y c) es verificado por ia
prctica totalidad de los diseos ms frecuentes.
Respecto al Teorerna 2, a^ es cierto para numerosas clases de pesos w,,;.
Por ejemplo si C=[o,1 ](o cualquier intervalo compactoy y los x; son equidistantes con w,,; (x) _((x - x; y / E) K[(x -x;) / E^ ] y K funcin de densidad
con soporte compacto ( Priestley-Chao (19 72 }) se verifica a).
Llamando:
X(n) _
I f^ I
-1 /21
f ,1
4.
y=l^t (X) eo = Xt eo = X, ; + . . . + Xp ap
que mejor se ajusta a la distribucin poblaciona! de (X,Y). EI criterio que
ms se usa para disear tal hiperplano es el mnimo cuadrtico, bajo el cual
Bo es el parmetro para el que se rninimiza:
14. ^)
EST.4[)15^T1( A ^.SP4^iC)l_,A
^ (Y -Xt
, )2
,
(4.2 )
(4.3)
i_ 1
b^
(4.4)
---^ 0 si n ---^ ^
c.s.^ ^
1 C^^
i) Si E( II (X,Y) O ^) < ^
entonces:
y con
y> 0 se tiene
E( ^ Y(^+%') <^
donde X(n) es !a matriz formada por las filas X; e Y(n) _(Y,, ..., Yn1t. Estos
estimadores producen un sesgo sobre los mnimo cuadrticos pero una
sensible reduccin de la varianza.
^
Es curioso observar cmo los estimadores 8k definidos en (4.5), que
siempre tuvieron fundamentalmente una interpretacin Bayesiana (ver Vinod y Ullah (1981) para ms detallesl, son ahora un caso particular de la
nueva metodologa.
J zK(z)dz = 0
y J ^K(z)dz < ^
se tiene que:
Fsr:^nisric^ ^ ^:sp.atic^t ,^
164
x,X;) ] (o si 0/0)
t4.6)
(4.7)
^
con n y fn definidos en (4.6), heredan la recursividad. De hecho aplicando
resultados relativos a inversas de matrices es posible obtener que:
^
[^^J^ (xX.)xdxY,+JcS
(xX}xdxY
m(i)
^
i
r
mtn)
^
n
n
^=1
^.
- L A n-1 + D n J r[ brr-1 + Cn ]
es decir:
f^n = [ Ip - A^,' , Dn(Ip + A^ f ^ Dn)-r ] ^n-^ ' A^ ^ ^
(4.8}
I6S
1^ on - ^o)
5.
El mode% autoregresivo.
B1
El mode% de heterocedasticidad.
^ C)
D)
El mode% Bootstrapping.
A)
El mode% A utoregresivo
Este modelo viene a representar un caso particular de modelo de correlacin, construdo a partir de una serie temporal, normalmente de tipo estacionaria. Si { Xt }tE Z+ es dicha serie y A (x) = x, para que se tenga una
^ fib
X t = ^ f^X + E
I
%i
t-I
(5.i )
Y, = Xp+r
(XZ,..,,X^,)
Y2-X p+2
Yn-p' Xn
^_ ^
^P am (X^ %^;) J
^_ ^
y0sio/0
EI estimador ^ resultante, verfica resultados similares a los correspondientes del modelo de correlacin, si bien, la herramienta probabilistica
6^
El mode% de heterocedasticidad.
(5.2)
i=1
i^ 1
( 5.3)
E ^T 1F)I!^T[t -l E^4F'-1tiC)1.A
b)
C}
EI planteamiento del modelo de regresin entre la variable T y las consiguientes covariables determinadas por el vector X, da iugar al modelo (1 .1 }
con T=Y.
Para que tenga sentido un modeio de regresin lineal con la variable T,
ya que sta slo toma valores positivos, es necesario una transformacin
de la misma a otra escala, por ejemplo la log-escala.
La estimacin de f^ en este contexto es relativamente reciente, siendo de
destacar los mtodos propuestos por: Cox (1 972}, Miller { 1 976), Buckley y
James (1 979) y Koul-Susaria y Van Ryzin { 1 981 }. Ei factor comn a todos
ellos es el alto costo computacionaf.
^^iy
^m (x^ X r) J
es decir:
n
1
n
1- F ( t/ X= X) - II
;_^
^^
1 {Yr<
_ tdj-^}
(5.5)
n
-^
r_^
^ { Y<
r_ Y^}
1 Bnr (X) -i- gn^/ (X)
y 1-F (t/X=x) definido de forma anloga pero sustituyendo 1{,,^,_ r^,^_, j por
1 ` 1 {r^< r,a^=^}^
Ctaramente, en situaciones de no censuraje ^^-1 e Y^-T^ b j los estimadores no paramtricos se convierten en los cl^sicos previamente indicados. Es
decir, el estimador (5.5) cuando no hay censuraje ni covariables da lugar al
emprico. Cuando hay censuraje y no hay covariables da lugar al estimador
de Kaplan-Meier ( Kaplan-Meier ( 19 58) )(en estos dos casos Bn,--1 /n) y
cuando no hay censura y s covariables se tiene el estirnador no paramtrico de la funcin de distribucin condicionada:
F(t/X=x) = P{T < t/X=x} -= E(1 {T< r}^x=X^
Con las estimaciones (5.4), la optimizacin
del funcional (1.9) da lugar a
^
una nueva clase de estimadores f^, definidos para este contexto. Los problemas computacionales aqu desaparecen, si bien permanece como objeto de
investigacin futura, su funcionamiento cornparativo respecto de los ya
existentes con el criterio del error cuadrtico medio.
^ ^o
D)
F ST 1[^ltiF!( A F4PAti()L_A
E/ modelo Bootstrapp.
Cuando en el modelo (1.1 ), considerando X como variable aleatoria o determinstica, se dan resultados relativos a!a normalidad asinttica de los
estimadores de mnimos cuadrados:
v' n( f^m^ - E^ }
^^ ( ^rnc - ^ )
d----^.
d---,
U P ! o, ^ B ^ t }
^os modelos respectivos, es indudable, que la inferencia que se haga para f^,
por ejemplo intervalos de confianza, ha de estar basada en estas aproximaciones de tipo asinttico. Por otro lado, los parmetros desconocidos pertenecientes a la matriz de covarianzas asinttica tambin han de ser estimadas.
Como afternativa a este tipo de inferencia clsica para ^ surge ei Bootstrapping. .
C ^ X # x*r ^ -^ ^ ^ X,^Y;` ^
i=1
i= t
( 5.6 }
es el estimador minimo cuadrtico Baotstrapping. Si a su vez se estabiecen N rpticas correspondientes a las muestras artificiales {(X;;, Y;;}, ...,
^
(X*;, Y;} ;^,, .., N, es posible la obtencin de {m^; };_, . ^; estimadores artificiales mnimo cuadrticos. Dichos estimadores pueden ser utilizads para
^
A
aproximar la distribucin de
n(f^m^ - t"^m^}, de la cual, ya prob Freedman
(1_981 ), cuando n
^^, su aproximacin de forma cas segura a la de
Y n ( ^mc - ^o) '
^
1
Y (n1 =
Y^
X1
^
X
^
^
= X (n) f^m^ +
X; B,n^ ,
. ., n y^=(^ ^;/n).
;= r
(5.7)
r=1
donde ^x^(x) _ ^ w,,; (x) Y*, con los Y*i=1, .., n construdos de forma artificial
a partir de lo ^-r'esiduos centrados de ; = Y; - x; f^ i=1, .., n.
Es objetivo claro de investigacin el comportamiento asinttico de los estimadores Bootstrapp para la nueva metodologa. Pareciendo razonable
^
plantearse si los nuevos estimadores f^* sern de una utilidad smilar a!a
^
que ya tenan los Om^ definidos por (5.6) y(5.7) respecto de los mnimo
cuadrticos.
17?
APEfVDICE
6.
= B[^ .^^wn, (x) A(x) At tx;) dx ] f^ + B(^ J^wn; (x} A(x) d'x E; ] = d, + 1^2 .
^=1
,= f
para ^, se verifica:
n
,_ ^
^
A x) 1{liX;-xf^^a}+
n
L^1 wn (x)
1] A (x) Ar (X) +
+ A{xj At(x)=(1}+{2)+(3}+(4i .
Como A es continua definida en un compacto {c} del Teorema), es por
tanto uniformernente continua, verific^ndose b^ ^> O que cuando: a--^ o,
^(1 )^^
_ bE. Por otro lado corno A es acotada ap^icando la hiptesis a^ del
teorerna, {2)--^ O y(3)--^ O cuando a^ O. Por tanto:
^ w,,; (x) A (x) At (x;} ---^ A (x) Ar (x)
^- ^
con lo que, una aplicacin del teorema de convergencia dominada nos
permite deducir que L1, --^,,> B B^ "' f.^ = f^.
Por lo que respecta a d2, aplicando el teorema de Pruitt { 196f ) en ^a
misma linea que Georgiev 41 985), con las hiptesis a) y b) se verifica que:
n
c. s.
.,
173
{Ilzni ^^^^^
II
Lni
I I 2 d P^^ -"'^j o
Los desarrollos para estos ltirnos clculos, son similares a los ya utilizados por Gonzlez Manteiga (1982, pg. 243).
Finalmente aplicando el criterio de Liapunov generalizado se deduce:
n
d---^ Np ( o, c^ B^' )
i-1
y por consiguiente ^ A2
tracin del teorema.
donde F es la distribucin:
Fn (x^ Y) _
( 1 /n) ^X ^ ^m(il
(^;,t) dt =
{(X;. Y; l i Y; < y;
^
_ ^;_1
( 1 /n) J _aY,-^
[l JX^, (^m;
( ,
(1 (u,t) dt ] dG ^^ (u,v)
1 7-^
Ftx, y}
G. S.
J II (^- y) II 4 d^ {,^j y}
.^
f ^ , y)
^mCil
{[t, t} dt ] d^ ( u, Y) +
n
fx
(1^,y1
= ^L ( ^ ,fl^^ ^ J r_ ^,, _ ^^^ 1 _ a, ^m^il
i= ^
a , ^/J
+^ (1//1)^
i=1
n
rX
, - ^ ) ^ Jj - ^ ^m(i)
(X- Y^
( u, t) dt ] d F( u, v} ]+
+ ^ (1 /n ) [ ,^r- ^ , - ^ ^[ J- ^ cS,F,r;^ { u, t) dt - 1 ] dF ( u, v) ] = I . + I I . + I I I .
i-1
Considerando la funcin:
x
9n ( u, v} _ ^_ ^ c^^, ( u, t} dt - 1
por la hiptesis del te+urema, si u> x, g^n(u,v) + 1 ----^ O y si u< x, gn(u,v}
---^ Q. Por consiguiente, una aplicacicn conjunta del teorema de convergencia dominada en conjuncin con el lema de Toeplitz implica: (^I) y(III)
O
Por lo que respecta a( I):
!7
X-C^i, YJ
( ^ , YI
+ ^ (1 /n) 1 rX-^E;. - ^^
,_ ^
^; ^ -^rx-C^:;. - ^^1
17S
^ Y?J (
i=1
I I^
II x^I2
I I Xi
BIBLIOGRAFIA
AHMAD, I.A. y LIN, P. (1976). IVonparametric sequential estimation of a
multiple regression function . Bull. Stat., 17, 63-7 5.
ANTOCH, A. COLLOMB, G. y HASSANI, S .
BENEDETTI, J. (1977). On the nonparametric estimation of regression function. J. Roy Stat. Soc. B., 39, 248-253.
BENNETT, G. (1962 ^ . Probability inequaiities for the sum of independent
random variables. J.A.S.A., 57, 34-45.
1^6
E::^T^^f)I!ii 1C 4 E_SP;^tit)L.:4
CO^^.oMB, G. { 1982) Prdiction non paramtrique tude de I'erreur quadratique du prdictogramme. C.R. Acad. Sc. Pars, t. 294, 59-62.
Co^^oMB, G. (1983}. t< Nonparametric regression on up-to data bibliography. Sixth /nternationa/ Summer an prob/ems of mode/ choice and parameter es timation n regression analysis, S e I I i n/R u ge n.
COL^OMB, G. y DOUKHAN, P. (1983). c<Estimation non parametrique de la
fonction d"autorgression d'un processus stationaire et s^-mlangeant:
risques quadratiques pour le mthode du noyau. C. R. Acad. Sc. Pars, t.
296, 859-862.
COLLOMB, G. y HARDLE, W. { 1 986). Strong uniform convergence rates in
robust nonparametric time series analysis and prediction: Kernel regression estimation from dependent observations. Sthocastic Processes and
its .q^ pp/catons.
Cox, D.R. (1 972}. Regression modeis and life -- tables (with discussionj.
J. R. Statst. Soc., B 34, 187-202.
CRISTOBAL, J. ,A., FARALDO ROCA, P. y GON2ALEZ MANTEIGA, W . (1987}. ttA
class of linear regression parameter estimators constructed by nonpara-
new class of linear regression estimators obtained by preliminary nonparametric estimation. New P'erpespectives rn Theoretical and Applied
Statistics. Puri-Vilaplana y Wertz(editores), John Wiley.
FREEDMAN, D. A. 11981). Bootstrapping Regression Models. Ann. Stat.,
Vol 9.6, 1218-12 2 8.
GASSER, T. y MULLER, H. G. (1979). Kernel estinnation of regression function. Smoothing Techniques for Curve Estimation. L.N.M. 757, Gasser y
Rosenblatt, {editores^. Springer, 23-68.
^ 7^
, R. G. y
HALPERfti ,
^ 7y
Marcel Dekker.
WERTZ, W. 11978). Statistical density estimation. A survey. Vandenchoeck & Ruprecht, G^ttingen.
WOLVERTON, C. T. y WAGNER, T. J. (
SUMMARY
In this paper different applications in the linear regression of
the new methodology consisting of the parameter estimation in
the model using nonpararnetric estimation of the density and
regression are reviewed. New results in the fixed design modeis
and sequential modets are ntroduced. Finally a discussion on
the new methodology in the models with heterocedasticity, censoring data and Bootstrapping is also included.
Key words and phrases: Nonparametric estmaton, regression mode%
AMS. 1980.
Subject Classifica tion: 6 2 J 0 5, 6 2 G 0 5.
ESTADISTICA ESPAC?LA
CO M E N TA R IOS
ViCENTE QUESADA PALOMA
Universidad Complutense de Madrid
(^'(IMEtiTAFtI(^5
181
2) La funcin de ponderacin S2 que a su vez en el Modelo de Regresin, vuelve a depender de la ventana y la funcin ncleo.
Aunque admitiendo la utilizacin de criterios objetvos en la eleccin de
los mismos, ia consideracin de estos elementos como subjetivos, me
parece podra dar lugar a una concepcin ms arnplia del Modelo, en la que
el estadstico pudiera presentar su informacin a priori y que englobase a
este como caso particular. Obsrvese que esta apreciacin es sugerida por
el autar cuando comenta la frmula (3.1).
Respecto al Teorema 3, en el que se comprueban los comportamientos
asintticos de las versiones recursivas y no recursivas, creo que sera
interesante adems calcular la tasa de convergencia, como mtodo de
comparacin.
En el Modelo con datos censurados, es interesante considerar el caso en
que la variable de Censura C y la variable en estudio T, sean independientes, lo cual nos Ileva al estudio de ios Modelos de azar proporcional en los
que la supervivencia de la variable T: P(T > t) = S, (t) y la supervivencia de
la variable de censura C: P(C > t) = S2(t) vienen ligadas por el parmetro de
censura f3 > 0, S, (t) _(S2(t) )^. Si consideramos covariables determinadas
por el vector X, esta informacin adicional seria necesaria introducirla en el
modeto de estimacin de la regresin, despus de los consabidos cambios
de escala. Por ltimo dei Modelo Bootstrapp, creo que es donde ms futuro
' se presenta dentro de la posible aplicacin prctica de todos estos mtodos, incluso si se utiliza la metodologa de gootstrapp Bayesiano (Rubin
(1981) ), ya que su comportamiento asinttico es equivalente en muchos
casos segn ha demostrado A. Lo (1987).
Felicito al Profesor Conzlez Manteiga y espero que sig^a en esta lnea de
investigacin en la que como refleja este artculo existen muchos campos
abiertos en los que obtener importantes logros cientficos.
1 ^?
E^^^t^1r^itirrc .^ F.^w^tit. ^
^iB^^oGRAFiA
A. Lo, A Large Sample Study of the Bayesian Bootstrapp. Ann. Stat. 1 987,
vol. 1 5.
V. QUESADA, A. VIVAR, Modelo de supervivencia con azar proporcional.
Estadstica Espaola 99, 1983.
D. RuB^N, The Bayesian Bootstrapp. Ann. Stat. 1981. vol. 9.
VAN RYZ^N, ^n some nonparametric Bayes multiple decision problems.
Nonparametric Techiniques in Statistical Influence. Cambrige U. P.
1970.
J. DE LA HQR RA NAVAR RO
Universidad Autnoma de Madrid
c^c^ti^F^.ti r :^Ki<^^
REFERENCIAS
L . y GY^RFI , L. (1985): "Nonparametric Density Estimation. The L'
View" Wiley, New York.
DEVROYE ,
c ^ati^f ^ r iFl^r,^
BlBLIOGRAFIA
(1985). Transformations in regression: A
robust analysis. Technometrics 27, 1-12.
EUBANK, R. ^. (1988). Spline Smoothing and Nonparametric Regression, New
York: Marcel Dekker.
CARROLL, R. J. y RUPPERT, D .
ANTONIO CUEVAS
(Universidad Complutense de Madrid)
('OMf=.ti^1 ^RIO^
I^^K
Por supuesto, una de los primeros problemas que habrr'a que resolver
sera !a eleccin de medidas de discrepancia adecuadas. En e! caso
S(f1)=f((^) hay importantes motivaciones conceptuales [ver Devroye y
Gyrfi ( 1985), cap. 1] a favor de la mtrica L, , d(f,g} - J ^ f-g ^, aunque habra
que analizar tambin hasta qu punto esta distancia es adecuada a efectos
computacionales. EI reciente traba ^ o de Hall y Wand (1988) podra ser til a
este respecto.
Una observacin final: soy consciente de que es ms fcil plantear problemas que resolverlos. De hecho, es probabie que alguna de las anteriores
sugerencias haya sido considerada ya (y quiz desechada) por el autor.
Confo en que, al menos, estas ineas contribuyan a aportar atguna perspectiva complementaria a los lectores de este interesante traba ^ o.
REFEREtVC1AS
DEVROYE, L.; GY^RF^, L. (1 985). Nonparametric Densty Estimatin. The
L,--View. Wiley. Nueva York.
HALL, P.; WAND, M. P. (1988). Minimizing L, d'+stance in nonparametric
density estimation. J. Multiv. Ana/. 26, 59-88.
( ^Oti1f ^ 1 1ft1(a^
Precisamente, por esta ltima razn, creo que el anlisis del tamao de la
ventana para x merece un tratamiento mucho ms amplio que el que se
dedica en el artculo de Gonzlez, y mis comentarios se centrarn fundamentalmente en este tema.
(1 )
Tambin son muy utilizados criterios de optimalidad basados en la minimizacin de otras medidas del error, como el error cuadrtico ponderado
integrado (IASE):
d,(h) ^ JS [^(x) - a(x)]2 w(x) f(x) dx
(2)
(3 )
dM(h) = E [dA(h)]
De todos ellos se han investigado leyes de los grandes nrneros y teoremas centrales de lmite ( ver, por ejemplo, Hall, 1 984)
Sin embargo, dentro del contexto que nos ocupa, en donde la regresin
se supone lineal:
a(x) = A`{x) fl
(4)
A
el estimador de f) se toma como aquel vector fI que minimiza el funconal:
JS[ ^(x)-At(x)l1]2f,.,(x)dx
(5)
(x) = At (x) . ^I
(6)
! y[)
(7)
^ (4 - f^yt A (X ;) Ar (X , } (fI - 4)
n ;^,
($)
drP^(h)
_ {1 - f^1 )2 + 2 X (f^ 1 - f,^ 1) ( ^2 _ ^2 ) + ^ X? ( ^2 - 8 2)2
A
(g}
/^
J.
donde f^, y f^^ vienen dados en la expresin ( 2.8) del articulo de Gonz^ez.
Por lo tanto, tomando esperanzas condiconadas en (9^, queda:
_
^X z
d^P^ (h} = MSE, (X,, . . ., X^ + 2 X MCE (X,, . . ., X} +
' MSE2 (X,, . . ., X)
n
(10y
191
C'C)ME=NT;AR1()S
siendo MSE, (X,, ..., X) el error cuadrtico medio condicional del estimador (), (i = 1, 2}, y M C E(X,, ..., X^} el error cuadrtico cruzado medio condicional:
(11}
Este criterio de minimizacin de d^P^ (h} tiene una base terica ms consistente que el utilizado en la simulacin del p^irrafo 2 del trabajo de Gonzlez, el cual slo est basado en la minirnizacin de MSE^ (X,, ..., X^ .
No obstante, en algunas situaciones, ambos criterios dan soluciones muy
prximas. As, en las condiciones supuestas en el Ejemplo 3.1 del artculo
de Faraldo y Gonzlez (19$7}, puede hallarse una aproximacin al h ptimo, ya que, partiendo de las expresiones de f^, y ^2 dadas en ( 2.8) y tras algunos clculos, se obtiene que:
.,
,.
a2 =
[-
2+2
4a2h2]+
M C E(^C,, ..., X} ^- q, h+
4z
(12}
t 13)
J`^ ^ k ( w) dw
82 ^ X a^
q, _
S4
o(h2)
^2 ^ Q3
(14)
X Q2
2 X crZ
^ a^
(15)
2n
2
P^o+ Pzo
^X?
^ X? ^
n
-2 X4'^
^
na2
(16^
^,X ^
Para el caso de error no condicional, habra que sustituir X, S`',
en
p (h} ^ - ^
^ Y^ - q^ (X^} ^, ^ 2
(1 7}
Esta medida, corno sabemos, da una estimacin sesgada de dArP^ (notemos que cualquer Y; se emplea para predecirse a s rnisma). Este problema
puede atacarse utilizando todos fos Y; (i ^ f^ cuando se predice Y;, lo cual
Ileva a considerar la funcin de Cross-Validation.
Tambin existen otras tcnicas, como ias basadas en penalizar el error de
prediccin, multiplicando esta funcin por un factor corrector " {n-' h^'} para
corregir e^ sesgo de p(h); puede ser de tipo cross-Validation generalizada,
criterio de informacin de Akaike, error de prediccin finito, modelo de
Shibata, o modela de Rice, entre los ms conocidos. Todos etlos bien
estudiados en la eleccin ptima de h dentro de la teora de la regresin no
paramtrica (ver, por ejemplo H^rdle, 19881, y que se extienden de manera
natural a nuestro caso.
Queda abierto el problema de estudar el comportamiento de todos estas
estimadores de dA^P^, as como el de los obtenidos por mtodo F'I (plug-in},
e^ cual utiliza el desarrallo asinttico del error. De hecho, seria interesante
probar si estos estirnadores son asintticamente ptimos, en el sentido de
Shibata (1981 ){esto es, que el caciente entre error estimado y error
mnimo converja casi seguro a 1), bajo condiciones anlogas a las exigidas
en H^rdle y Marron {1985).
Finalmente, hay que destacar que otros enfoques totalmente diferentes,
como la posibilidad de bootstrapear los residuales (convenientemente centralizados) para obtener una aproximacin del error cuadrtico medio en un
c ^^^1E ti ^ -1FtIc
ly?
BIBLIOGRAFIA ADICIONAL
HALL, P. (1984): "/ntegrated Square Error Properties of Kerne/ Estimators of
Regressron Functions" Annals of Statistics, 12, 1, 241-260.
HARDLE, W., HALL, P. y MARRON, J. S. (19$8): "How for are automatcally
chosen Regression Smoothing Parameters from their Dptimum?". J.A.S.A.,
83, 401, 86-95.
H A R D L E, W. y M A R R O N, J. S.(19 8 51: "Bandwidth choice in Nonparame tric
Kernel Regressin': Statistics and Decisions, Suppl. lssue 2, 1 73-77.
H A R J LE, W. y M A R R O N, J. S.(19 8 5): "Optimal Bandwrdth Selection in Nonparametric Regresson Function Estimation". Annals of Statistics, 13,
1465-1481.
S H I B ATA, R.(19 81) : "A n Optimal Se%ction of Regressron Variables' : B i o m etrika, 68, 45-54.
j^j.^
f ST ^^[)IS1 1( A f-.SP^1tiOl ^^
Desde los cornienzos de esta dcada, han sido numerosos los intentos
para sistematizar " los razonamientos empleados por estadsticos expertos
en el curso del anlisis de algn aspecto de problemas estadsticos sustantivos", esto es, las " estrategias estadsticas", (ver { 1), (2} ).
Surge as, el problema de capturar ste conocimiento estratgico que
reside en el estadstico experto e incorporarlo al sistema. Esta experiencia o
entrenamiento estadstico, se compone de dos aspectos: uno riguroso y
otro heurstico. EI anlisis exploratorio de datos (EDA, John Tukey 1977}
es una clara muestra de sistematizacin dentro de heurst^cas.
La inclusin de ste conocimiento en los programas de ordenador, requiere tcnicas que mecanicen tareas de procesamiento de informacin
si^-nblica. Los investigadores en el campo de la Inteligencia Artificial, han
dado respuesta en la ltima dcada a stas cuestiones. EI razonamiento
simblico, unido a la capacidad de justificar su lnea de razonamiento
resultan sealadas caractersticas del ms reciente producto de la investigacin en los Sistemas Expertos. {FOX J., {3} } resulta una buena introduccin a ellos.
No resulta casual que en 1982, William A, Gale y Daryl Pregibon ^4^
presentaran como pionero su Sistema Experto, seleccionando como objetivo el Anlisis de Regresin: REX (Regresin EXpert).
195
De una forma somera ia "estrategia estadstica" que utiliza REX comienza por aceptar los datos tal y como se le facilitan, suponiendo un modelo
lineal y mtodo de ajuste de mnimos cuadrados ordinario. Inicialmente
busca posibles problemas en cada una de las variables, estudia cada variable explicativa para la linealidad y finalmente, se centra en los residuos.
Ante cada pasible problema (hiptesis no verificadas) REX considera posibles transformaciones de los datos, del modeio o del mtodo de ajuste para
solventar el problema; si alguna transformacin fuera conveniente R EX la
sugiere al usuario. R EX finaliza bien resolviendo los problemas, o bien
localizando un problema para el cual no puede encontrar ninguna solucin
efectiva y aceptable.
Bajo ste esquema, aparentemente simple, y a partir de ste primer
intento de aplicacin de tcnicas de Inteligencia Artificial al anlisis de
regresin, se desarrollaron otros sistemas 1STU DENT concretamente, se
marca en un objetivo ms didctico}.
Contesta cin
Inicialmente dese expresar mi satisfacin por el notable enriquecimiento
que experiment este artculo gracias a fas valiosas opiniones y nuevas
ideas aportadas sobre el mismo por ios Profesores Jos ^4ntonio Cristbal
Cristcbal, Vicente Quesada, Antonio Cuevas, Manuel del Ro, Rosario Romera y Julin de la Horra.
Debido a la variedad de los comentarios, muchos de ellos comunes a
varios autores, mi respuesta estar dirigida a contestar cada uno de ellos
finalizanda con una opinin general sobre algunas de las nuevas ideas que
se desprenden de las discusiones.
Esencialmente son fundamentales ios siguientes puntos:
aj t Qu sucede con el parmetro ventana cuando se quiere hacer uso de
la nueva metodologa en la prctica ?.
b1 Extensin de la nueva metodoioga a una generalidad de situaciones.
c1 Posibilidades de introduccin del Bayesianismo.
d/ EI enfoque de la nueva metodologa. Interaccin con el REX.
e1 EI uso de 1a distancia L'.
f,l Nuevas vas de investigacin.
A) Sin duda el problema relativo a la ventana es uno de los de mayor
importancia y a el aluden directa o indirectamente los Profesores Cristbal,
Quesada, Cuevas y del Ro. Una de las cuestiones que plantea el Profesor
Cuevas es la de la prolangacin de la teora aqu desarrollada a un contexto
en el que las ventanas {^^ }, determinsticas a fo largo de todo el trabajo,
puedan reflejar la informacin muestral y convertirse en ventanas aleatorias: F = E(n, (}C,,Y^)..., (X,,,Y) ). Similares resultados asintticos a los de
ly7
c.s.> 0 y n F
este trabajo pueden obtenerse bajo !as condiciones ^;,,
v ^ 0 para la norma_c.s.^ ,^ para la consistencia casi segura y^n f;,,
lidad asinttica ( como se puede ver en Gonzlez Manteiga ( 1 988) ).
^
Con todo, una ventana ^ estimada de la que podramos llamar ptima
terica, aunque con buenas propiedades asintticas, podra Ilevar consigo
una prdida de eficiencia en algunos casos como se refleja en la siguiente
simulacin:
Para el modelo Y=f^; +^2X + ^ con E[E]=o y Var (E)^a2 siendo X E U[0,1 ],
E E N(O,a^) y f^; = f^2= 1 (para otros valores cualesquiera de f^, i=1,2 se
presenta una situacin similar) se hace uso de la librera IMSL con la
subrutina G G U B FS para generar N=1.000 muestras de tamao n=25,50 0
de f)2 por
100 i(X,, Y; ), ..., (}C,,, Y^ )};;,, . , N. Centrndonos en la esti macin
^
ejemplo, y considerando como criterio comparativo el MS E [f^2 ,/ X,, ..., X],
una aproximac^n del mismo puede ser obtenida a travs de
N
,.
M ^ E [ ^2/X,,..., Xn] _(^ ^2;/N -H2)2+(^ (^2-- (^ f^2i/N) )2)/N
^
i=1
j=1
i=1
^
, donde
n f)2r,,^
^ (Y;^_r
f cv2 k( cv ) dcv
y ^i^^^, i = 1, 2,
(n- 2)
I^
E ^T ^i^)ItiT!( A E-tiP^tti()!.:^
^yf^
^
82 pp
O,C3259
0,02 7 2
t?,0255
O,C^2 69
c^,c^28o
o,a267
C3,12 9 4
Q,1 2 5 9
0,1 3 2 3
0,1 1 3 9
Q,1 1 1$
0,1 1 5 5
0,1 61 1
n= 2 5
Q= 1,4
C1,5847
Q,61 51
t^,5962
U,3914
0,391 7
tJ,3949
0,5563
t^,58t38
0,56Q4
n= 2 5
a^ = 2,0
2,1 926
2,2994
2,+0^ 300
0,6986
0,7065
0,6987
1,3$20
1,451 5
1,27^3
n= 25
a- = 3,0
3,9427
4,3996
4,5490
0,7969
Q,8081
C),8282
2,1485
2,4522
2,6357
n = 5 t^
tJ,01 3 2
O, O 1 31
4, C^ 1 3 8
cr = O, 3
fJ, O 1 2 8
O, O 1 2 3
C}, O^ 1 2 5
0^, O 1 21
O, O 1 31
CJ, t^ 1 2 8
n= 50
, 5
O,C.3656
Q, O 6 6 4
O,t'J681
0,4612
O, O 61 8
0,064^
ti,0780
t), U 7 8 4
0,0820
Est^madores
n -- 25
Q= 0,3
n= 2 5
a= O, 5
2 ss
CJ,0282
4,a2 9 7
0,0296
O,1 6 O 5
0,1 6 O O
^ y9
t'()tiTESTA('1()ti
2, m c
e2 oP
f^2 es
n= 50
Q' 1,0
0,3056
0,3055
0,3124
0,2383
0,231 5
0,2357
0,3492
0,3454
0,3569
n= 50
^ = 2,0
1,043 7
1,0203
1,0191
0,5066
0,5191
0,5190
0,82 53
0,7995
0,7967
n= 50
Q= 3,0
1,9442
1,9648
1,9863
0,637 3
0,6507
0,6592
1,2429
1,2329
1,2807
n= 100
Q= 0,3
0,007 5
0,0064
0,0064
0,007 5
0,0063
0,0064
0,007 7
0,0065
0,006 5
n= 100
Q= 0,5
0,0295
0,0317
0,0303
0,0284
0,0307
0,0295
0,0318
0,0344
0,0331
n= 100
Q= 1,0
0,1005
0,1025
0,1 14 5
0,0943
0,0905
0,102 9
0,1291
0,1239
0,142 2
n= 100
^ = 2,0
0,5020
0,4977
0,4878
0,3273
0,3312
0,3274
0,4955
0,4855
0,4696
Estimadores
_'O(
F ^1 ^it)I^t I( ^^ i^^F'^ti(1[ -^
estimada presentan tambin eficiencia. Dando esto en cierta medida respuesta a algunas de las cuestones def Profesor del Rio, eE proceso bietpico parece ser preferible al clsico de mnimos cuadrados en situaciones
crecientes de !a varianza. Es sin duda en estos casos cuando la suavizacin
inicial aporta efciencia.
Por atro lado los nuevos estimadores con ventana estimada usados en la
simulacin son nicamente un primer paso cara a la construccin de mejores estimadores de la ventana. En esta lnea son muy vafiosos ios comentarios del Profesor Cristbal sobre la adaptacin de los criterios de error de
prediccin utilizados en estimacn no paramtrca de curvas, e! ASE y ei
MASE, a nuestro contexto. Sin embargo aunque para e! caso f^; = f^2 = 1 !as
..
ventanas ptimas tericas del MASE y por ejemplo de! MSE [f^2 / X,, ...,
X^] son las mismas es todava rnuy dudosa la proximidad que existir^i entre
ambas ventanas ptimas tericas en un contexto general y por tanto
permanece como problema abierto el funcionamiento de la ventana obtenida de la minimizacin del ASE.
Cualquiera que sean !os mtodos a utilizar para la estimacin de !a
ventana, objeto de investigacin futura, han de pasar por algn mecanismo
de valizacin cruzada. Obsrvese que si utilizamos el criterio directo de
minimizacin de
1 ^ {Y^_At{X`^ ^h^,^
n ;_,
^
siendo f^,, el nuevo
dependiente de h, e! mnimo se aicanza para
^ estimador
^
,.
h=4, es decir f^h =^a = f^^C .
B) Son sin duda muy ilustrativas !as ideas expuestas por el profesor
Cuevas sobre la posibilidad de extender la nueva metodologa a una generalidad de situaciones. Precisamente una de eflas, !a estimacin de un
parmetro de una funcin de densidad a partir de un estimador piloto no
paramtrico de fa densidad ya ha sido elaborada en algunos casos tomando un estimador no paramtrico tipo Kernel de la densidad y una medida
de g-divergencias de tipo general entre este y!a densidad de tipo paramtrica. ver Beran { 1 9^7 y Cano-Lasala (1984a, 1 984b) para ms detalles.
Espero que estas consideraciones sirvan tambin para responder al Profesor de !a Horra.
Cy Aigunos comentarios de fos Profesores Rosario Romera y Vicente
Quesada apuntan a la posibilidad de uti^izar mecanismos Bayes en la nueva
metodologa basndonos en alguna posible informacin a priori que se
puede tomar del modelo. Un estmador ploto Bayes no paramtrico podra
considerarse como estimador inicial en el funcional { 1 9) del trabajo
como elemento reflejo de la informacin a posteriori para su uso en la
t c^tirttir^^t ^c^ti
estimacin de (>. Quiz una buena eleccin inicial sera el estimador Bayes
no paramtrico propuesto por Barry (1 9$6).
D) Los comentarios de Rosario Romera van enfocados a resaltar la
importancia del R EX y de la valiosa ayuda que puedan representar cara a
un anlisis exploratorio de datos las estimaciones previas no paramtricas
de las curvas de regresin en la prctica. Desde esta perspectiva es interesante mencionar el paquete "X plore - a computing enviroment for exploratory regression and density smoothing" que se encuentra actualmente en
fase de elaboracin por el profesor H^rdle de la Universidad de Bonn.
E) Los profesores Cuevas y de la Horra consideran la posibilidad del
uso de la distancia L' alternativamente a la L2 usada a lo largo del artculo.
A parte de los problemas computacionales que ello conlleva para su uso en
la prctica, no debemos de olvidarnos que Devroye-Gidrfi (1985) motivan
profundamente esta distancia para la estimacin de la densidad. Sin duda
nuestro contexto es distinto aunque se usen estimaciones de la densidad.
Basta con ver el escaso uso de la distancia L' en la estimacin no paramtrica de curvas de la regresin.
F^ Finalmente comentar las valiosas ideas y problemas propuestos,
sugeridos en la discusin corno: el uso de la nueva metodologa para la
seleccin de modelos, el manejo de la versin recursiva para el anlisis de
la influencia y el diagnstico, la comparacin entre las tasas de convergencia entre las versiones sin y con recursividad, e! uso de los modelos de azar
proporcional en la situacin de datos censurados que sern sin duda objeto
de futura investigacin.
BI BLIOGRAFIA
BARRY, D. (1986): "Nonparametric Bayesian Regressin". Ann of Stat. Vol.
14, 3, 934-9 53.
BERAN, R. (1977): "Minimun Hellinger Distance Estimators for Parametric
Models" Ann. Stat 5, 445-463.
CANO, F. .J. - LASALA ^CALLEJA, M. P .