Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estimacao Robusta
Estimacao Robusta
Estimacin robusta
por
RUBEN H. ZAMAR
University of British Columbia
RESUMEN
En este artcula se presentan algunos enfoques recientes de la
teora de estimacin robusta, particularmente resultados en el rea
de minimizacin del sesgo mximo. Se describen algunos estimadores robustos de regresin y se introduce la definicin de curva de
sesgo mximo. Se discute !a relacin entre esta curva y la sensitividad a errores groseros. Estos conceptos se ilustran en el caso de
modelos sencillos de posicin y dispersin.
Palabras clave: estimadores minimax, sesgo mximo, sensibilidad a
contaminacones.
C/asificacin AMS: 62Jxx, 62H12.
1.
INTRODUCCION
Una prctica muy comn en estadstica (tanto terica como aplicada) es suponer que los datos han sido generados por un mecanismo aleatorio y que ste
puede ser representado por un miembro F^ de la familia paramtrica de funciones de distribucin
^={F^:HE O}
[1]
E^.^EAE^I^TI(^^1 E^^Ei,1tic)I^
La caracterstica ms sobresaliente de estos modelos matemticos es la suposicin de que el mecanismo aleatorio que gener las observaciones es totalmente conocido a excepcin del parmetro desconocido e. Naturalmente, el
principal problema en estos casos es la estimacin de e usando un estimador 6
con buenas propiedades estadisticas: sesgo pequeo o nulo y varianza pequea. Un mtodo que, en general, satisface estos requerimientos es el mtodo de
mxima verosirnilitud. Muchos de los mtodos de estimacin usados en la prctica fueron derivados a partir de modelos paramtricos, notablemente modelos
normales o gaussianos. Adems, las prapiedades estadsticas de estos mtodos han sido estudiadas a la luz de tales modelos.
Desafortunadamente, ios mecanismos aleatorios que producen los datos en
la prctica muy raramente obedecen con exactitud a un modelo paramtrico. En
muchos casos, sin embargo, el modelo paramtrico provee una razonable aproximacin del mecanismo estocstico F que cantrola la generacin de las observaciones.
En resumen, la utilizacin del modelo [1 ] y, consecuentemente, el empleo de
^
estimadores de mxima verosimilitud 8 se justifica usualmente por los siguientes argumentos:
a)
b)
EI ejemplo del prrafo anterior muestra que el estimador de mxima verosimilitud bajo el modelo normal ( en este caso, la media muestral) puede producir
estimaciones muy ineficientes si los datos son producidos por una distribucin
que es prxima, pero no exactamente igual, a la normal. La conclusin, en mi
opinin, es que el hecho de que el modelo normal es solamente una buena
E:ti^^fl?^^tAC'ION itOBt'S'fA
^?y
.^E _ { (1 -- E) F^ + ^H : 8 E O}
[2)
Fn (z) =n 1 ^ bz,(z)
donde ^ Z (z )= 1 si cada elemento del vector z es menor o igual que el correspondent elemento del vector ^; , y b Z( z )= 0 en otro caso. Por lo tanto, 8n
,
puede escribirse corno
^^O
E^_^^1^^^[^)I^^T^^I(':1^ f^S1'A:^i^E.,1
6(Fe)=8, b'6E O
A
y que e^ ( F^ ) es consistente:
^
l (F)-l
6
Y
^s (F)
^
6
-1^
F:^f1^1,^^c'!c)ti Kc)Bl':^ 1 :^
^^I
l (F)-l
^
=^(F)I
a
Y
^
6 (F)
^
,^
--1 (=^a(F)-1 ^
E6]
respectivamente.
Este trabajo est organizado como sigue. En la seccin 2 discutir los dos
principales aspectos de la teora de robustez: eficiencia y estabilidad. En esta
seccin tambin mencionar brevemente los diferentes enfoques utilizados para
medir la estabilidad de un estimador. En las secciones 3 y 4 describir dos irnportantes familias de estimadores robustos de regresin. En la seccin 5 ilustrar el clculo de la funcin de sesgo mximo y la derivacin de estimadores de
sesgo minimax en el casa del modelo simple de posicin. En la seccin 6 dar
algunas conclusiones.
2. DEFINICIONES DE ROBUSTEZ
Ahora pasaremos a consderar diferentes formas en que se puede medir ia
^
^
Para cumplir el requerimiento de eficiencia,
8{F ) debe ser comparabie con
^
e(F^}=8,de
^
6{
F) debe ser asintticamente normal, con matriz de covarianzas C^( F) y
2.
traza { C ^( FH }} ^ 1+ b
traza { C ,^ ( F^ ) }
[7]
donde ^> 0 es un nmero pequeo (b = 0.05 y^= 0.10 son valores usuales
de s).
Notemos que la eficiencia asinttica de un estimador multivariante se puede
medir de manera natural en trminos de la traza de su matriz de covarianzas
asinttica, esta es, de su varianza asinttica generalizada. La formalizacin
del requerimiento de estabilidad ha dada lugar a varios en#oques en la teora de
robustez: Robustez Cualitativa, Robustez Cuantitativa y Robustez Infinitesimal.
Gada uno de estos enfoques ser brevemente discutido a continuacin.
Robustez Cualitativa
^
Este enfoque, iniciado par Hampel (1971), considera que el funcionai 9(F}
^
es estable {cualitativamente robusto) si 8 es continuo en una cierta manera {los
detalles tcnicos pueden encontrarse en la referencia). Robustez cualitativa es
una propiedad muy bsica y, por lo tanto, estimadores que no poseen esta propiedad pueden ser descartados desde el punto de vista de la robustez. Por otro
lado, esta teora no es completamente satisfactoria por cuanto no permite comparaciones dentro de la clase de estimadores que son cualitativamente robustos.
Robustez Cuantivativa
Este enfoque, originado por Huber ( 1964), intenta cuantificar la estabilidad
^
de 9(F). Esto puede ser hecho en trminos del sesgo asinttico mximo:
B ^ (E)=supbe{F,9)
FE 'tt.
E:S"T1!vfAClON RC)Bl!S"1^.A
EI punto de ruptura:
E*=sup{^:Be(
^
representa la mayor fraccin de contaminacin que el estimador e puede tolera^r
antes de camenzar a comportarse en forma totalmente aberrante. Para que ^
pueda ser considerado estable
cuantitativamente robusto
de acuerdo con
esta teor a, el sesgo mximo B' ^(^) y la varianza mxima AV ^ (^) deben ser relativamente pequeos. ^bsrvese que el requerimiento de que B^ (^) sea pequeo er^uivale a que la primera condicin de eficiencia la consistencia en el senn
sea relativarnente preservada cuando Fvatido de Fisher de 9 (b,^ (Fe , 8) = 0)
ra sobre ^^. Similarmente, el requerimiento de que AV ^(^) sea pequea es
equivalente a que la segunda condicin de eficiencia sea relativamente preservada cuando F vara sobre ^E.
Huber ( 1964) encantr los estimadores que minimizan B ^(E) y AV ^(^) en la
ciase de estimadores M de posicin y abri el camino para el desarrollo de la
teora de robustez cuantitativa. Como estos estimadores minimizan el sesgo
mximo y la varianza mxima, son Ilamados estimadores minimax.
^
En general, la desviacin tpica de un estimador 6^ es tpicamente de orden
Robustez Infinitesimal
Una manera muy til de simplificar el estudio del sesgo mximo es aproximar linealmente B^ (^) cerca de cero:
B ^ (^) = B' ^ (0} ^ + o (^)
y concentrar la atencin en la cantidad B' (
F.S"T^,^1C)15^1^1C'A F-:tiE'ANOL^1
de infJuencia, IF (^ , z), y la sensibilidad a errores groseros, y(e), fueron definidas por Hampe! t 1974} como
^
lF {8 , z ) = lim
F --^o
^
^
8((1 --E) Fo+E^=)-6(Fo)
^
Y
^
Es^r^irwAC^c^^N Kc^^^!s^r.A
335
3.
Una buena parte de la teora de robustez se ocupa del problema de estimacin robusta en el modelo de regresin lineal. Existen muchas propuestas de estimadores robustos de regresin y en esta seccin nos ocuparemos slo de algunas de ellas: estimadores S, ^ y MM, definidos por Rousseeuw y Yohai (1984),
Yohai y Zamar (1988) y Yohai (1987}, respectivamente. Estos estimadores tienen la propiedad de minimizar una funcin objetivo que depende de los datos
nicamente a travs de los residuos. En la prxima seccin nos ocuparemos de
otra clase de estimadores de regresin Ilamados estimadores M generalizados.
Estos estimadores minimizan una funcin objetivo ms compleja que depende
de los datos a travs de Ios residuos y de las variables independientes.
Los estimadores S no pueden ser estables y eficientes al mismo tiempo,
pero tienen la importante ventaja de poder calcularse directamente a partir de
los datos sin necesidad de estimadores iniciales de regresin ni dispersin. Por
esta razn, los estimadores S son a menudo utilizados como estimadores iniciales en los algoritmos de clculo de estimadores robustos.
Los estimadores ^ y MM pueden cornbinar las propiedades de estabilidad y
eficiencia y se calculan a partir de estimadores S.
Para poder definir los estimadores S de regresin se definirn primero los
estimadores M de escala y dispersin.
Estimadores M de Escala
Huber (1964) defini los estimadores M de la escala de las observaciones
..., r^ como la solucin de la ecuacin
=b
La funcin x normalmente satisface las siguientes condiciones: i) x(y )= x(-y );
ii) x es no-decreciente en [0, ^}; iii) x es continua excepto en un nmero finito de
puntos, y iv} x(^) = 1. Por otro lado, la constante b se toma normalmente igual a
,
Fo x( Y), donde Fo es una distribucion especificada ( e.g. Fo (y) = 1- e-y }.
F^S^I^A[.)IS^^I.ICA ESF',=^Iti(}LA
Martin y Zamar {1989} mostrar-on que, cuando las observaciones r; son positivas,
Mediana {r; } I F ' (0.5)
cuando y<_ a
[9]
cuando y > a
^
^
{nmero de observaciones con r; > F^ ' (0.5}}
^x(r.lcs)=0.5
n ;^,
'
i = 1, . . . , n
[11J
n
Si 6 es un estimador de 8, entonces r; = r; {8) - y; - g(x; , e) son los residuos estimados y el estimador M de dispersin se defne como la solucin s de la ecuacin
n ^ x ^ s / b
[12]
H^^rtM^^c^io^v ttc^Ht^s'r^t^
Estimadores S de Regresi^Sn
Sea r^ (t )= y; - g(x; , t), donde t E R P vara libremente, y sea S( t) el estimador M de escala de los nmeros r; (t), i= 1, ..., n. Esto es, S(t) es la solucin
en s de la ecuacin ^12] con r; = r; (t ). EI estimador S de regresin se define
^
ahora como el vector 8 que minimiza la escala S(t). Esto es, 8 satisface la desigualdad
^
S( t)> S {8 ),
para todo t E R p
r; ( tk )
^ x * < b
s
[14]
dande
s* -- min (s^, ..., sk _^}
y s^ es la solucin de [12j con r, = r; {t^ ).
Los estimadores Tau de regresin (as como los estimadores MM de regresin) fueron definidos con el objeto de alcanzar eficiencia y robustez simultneamente. Sea S(t ) un estimador de escala de los residuos r; (t } y sea p una
funcin con !as mismas propiedades i)-iv} de x. E! estimador Tau de regresin
se define por !a propiedad de minimizar !a siguiente medida de la escala de !os
residuos r^ ( t }:
r; {t}
^
(t} = s^ (t} n^ P S t
(}
[15]
^.a idea intuitiva que motiv la definicin de estas estimadores es !a siguiente: supongamos que !a funcin p es aproximadamente cuadrtica cerca de cero.
Si fos residuos tipificados r; (t ) l S( t ) son relativamente pequeos, entonces
S^{ t) p{r; { ^t )! 5( t}) = r,? ( t) y!a medida de escala ^( t} no ser muy diferente
de la funcin cuadrtica ^ r;2 (t }. Por otro lado, si r; ( t )/ S(t } es grande, entances la influencia del punto i es reducida.
ESTI^IA('1()N R()Bl'S"1`A
^i ^ y
[16]
Cuando est dada por [13] se obtiene el estimador MM (estimador M de regresin combinado con un estimador M de dispersin). Yohai ( 1987) prob que en
este caso el punto de ruptura est completamente determinado por la eleccin
de la funcin x y que la eficiencia bajo errores normales est completamente
determinada por la eleccin de la funcin p. Por lo tanto, estos estimadores pueden ser simultneamente robustos y eficientes.
Si x y p son de la familia bi-cuadrada propuesta por Tukey, los valores apropiados de las constantes c1 y c2 de x y p para alcanzar punto de ruptura de 1/2
y 95% de eficiencia son 1.04 y 4.7, respectivamente.
Fs^rf^^^^s^ric^t^ t^s^,^NC^^..^
4.
1 ^ ^ r' (tk ) , (^ x. ^^ x.
n
'
'
s*
donde ^^ x ^^2 = x' ^ r' x y donde ^ es un estimador robusto de la matriz de covarianzas de x. La funci+n r^ (r, x} se supone: i) continua; ii} impar y no-decreciente en r; y iii) acotada, con sup r X r^ {r, x)= 1.
Todas las funciones ^ propuestas hasta ahora son de la forma
^ (r, x) = y! (rv(x)) w(x)
donde la funcin y^r es como las de los estimadores M de posicin. Los estimadores de influencia acotada se obtienen escogendo la funcin w o ia funcin v
con la prapiedad que sup w {x } ^( x^^ <^ o sup v (x ) ^^ x^(<^, Este es el caso
con los estirnadores propuestos por Mallows y por Andrews (ver Hill, 1977) que
tienen v (x )= 1 y w( x )= 1, respectivamente. Hill y Ryan (ver Hill, 1977) propusieron usar w{x )- v{x ), y finalmente Schweppe (ver Merril! y Schweppe, 1971 }
sugiri tomar v(x )= 1/ w(x ), con la idea de que los puntos con valores de (( x I I
grandes pero que satisfacen el modelo apropiadamente no vean su infiuencia limitada. Los estimadores propuestos por Huber (1973} tienen w(x )= v(x ) = 1, y
por lo tanto no tienen influencia acotada.
Estas estimadores son tambin Ilamados estimadores M generalizados (estimadores GM, usando las siglas en ingls} y se pueden calcular usando el mtodo de Newton y Raphson. Antes de poder calcular estos estimadores, sin embargo, debemos
contar con estimadores robustos de y de ^. La estimacin ron
busta de ^ irnplica problemas nurnricos muy serios que pueden resoiverse, al
menos aproximadarnente, usando mtodos de re-muestreo similares a!os descritos en la seccin anterior. ^a estimacin de , por otro lado, tiene que basar^
r;
{H)
y, por lo tanto, se requiere conse necesariamente en residuos estimados
^
tar con un estirnador robusto 8.
A diferencia de los estimadores de regresin descritos en la seccin anterior,
la eficiencia de los estimadores GM depende de la distribucin conjunta del vector de variables independientes x. Por ejemplo, estimadores ^M que en principio disfrutarian de una eficiencia del 95% cuando x tiene distribucin normal
f:S"i'IMAC`1ON ROHI.'STA
^41
multivariante pueden resultar muy ineficientes si la distribucin de x no es normal {ver Maronna, Bustos y Yahai, 1979). Notemos que mientras la hiptesis de
normalidad de los errores s^; bajo el modelo central puede parecer razonable, la
suposicin de que x es normal multivariante bajo el modelo central puede ser injustificada en muchos casos.
5.
E^:S"iAUiS"1^IC`A f^Si'A!^f()1.r1
Estimadores M
Los estimadores M de poscin fueron definidos por Huber (1964) como la
solucin de la ecuacin
dande yl es una funcin no decreciente, impar y acotada. Por ejemplo, la famosa funcin ^.^r de Huber:
si (y^<c
W H {Y ) = Y^
= signo (y } c,
si^yj>c
[^ 8]
donde c >_ Gl es una constante que puede tomarse igual a 1.345 si se desea una
eficiencia del 95% en el caso normal.
Sea
^^,(t, F) =-EF{yf(Y-t)}
[19]
Huber ( 1964, 1981) prueba que, si existe un nico punto ^{F) tal que la funcin
^.^, ( (F}, F} ! 0
entonces el estimadar M, = (F }, converge casi seguramente a (F}, esto es,
{Fn ) -^ ^ (F),
a.s. [F]
[2qj
EF { y^2 ( Y- (F)}}
^
{21 ]
ES'T'IMAC'IC.)l^ ROBUSTA
^4 ^
9,^ ( t ) _ -EFo ^ ( Y - t ) _ --
lV (Y - t ) fo (Y ) dY
^
-0
4^(Y)[fo(Y-t)-fo(Y+t)^dY
donde [fo (y - t)- fo (y + t)] > O para todo par (y, t) con y> O y t> 0.
Sea F =(1 -^) Fo + E H. Por definicin de ( F),
^w({F)^ F)=(1 -E)gW((F))+E^,W(!^(F), H}=0
De aqu se sigue que
satisface la ecuacin
9',^ (B^, (E)) _ [E / (1 -- ^)] ^ (^)
[22]
En la figura 1 presentamos las curvas de sesgo mximo de la mediana y del estimador de Huber con c= 1.345 y eficiencia del 95%. Observernos que la curva de
la mediana (lnea Ilena) es uniformemente menor que la del estirnador de Huber (lnea quebrada). En la seccin siguiente se muestra que, en realidad, la mediana es
el estimador minimax de posicin.
^4^
^STAE)tSTIC'A ^:SPA?^JC)LA
Figura 1
SESGO MAXIMO DE LA MEDIANA (inea iiena) Y DEL ESTIMADOR DE HUBER
CON o - 1 .345 {lnea quebrada)
2.5
2.0
1.0
^.5
fl.0
0.0
0.1
a.2
0.3
o.a
0.5
Epsilon
d t>_ 0
b' ^ >_ 0
entonces
- fo (y +
t}] ? 0}
t ) _ ^ _ [ ta (Y - t ) -- fo (Y + t ) ] dy = 2 Fo { t } -- 1
Por lo tanto,
B^ (^ C ^^Median
^ ^ ^ O
(^^
ES"T'IMA(^'IC}N ROBl`STA
^45
y la mediana minimiza el sesgo mximo (es minimax) en la clase de los M-estimadores de posicin.
Usando un mtodo de prueba muy ingenioso (que no requiere el clculo de
las funciones de sesgo mximo), Huber (1964) obtuvo un resultado an ms general: la mediana es minimax en la clase de todos los estimadores de posicin T
que tienen !a propiedad
T(Y^ +b, ..., Y^+b)= T(Y^, ..., Y^)+b
Desafortunadamente, el mtodo de Huber no se puede aplicar a otros modelos uniparamtricos (por ejernplo, escala o dispersin) ni multipararntricos
corno posicin multivariante y regresin. Sin embargo, el mtodo de prueba descrito aqu s puede aplicarse con xito en otros modelos uniparamtricos y multiparamtricos. Ver, por ejemplo, Martin y Zamar (1989, 1993a y 1993b) y Martin,
Yohai y Zamar (1989).
^
^
[23^
^r (y ) fo ( y+ t) dy , se obtiene
^
9w(^)_
^ {Y ) f^ (Y ) dY
Y
^
9'';^ (^) =
^ (Y ) f^' (Y ) dy = 0
Diferenciando dos veces los dos lados de [23] con respecto a^ y poniendo ^= o,
obtenemos
9;^(^)
r:s^rA[^is^ric^A ^-.^^Ar^c^t.a
Y
Y^ _ !g W (p ) _
9W (0)
^ ^
^ ^ tY ) fo
^ ^ + ) + Q ^ 2)
(Y ) dY
EI factor
^ 4^ (Y } f (Y ) dY
se obtiene tambin como resultado dei siguiente procedimiento: primero se ca!cula e1 iimite
,b({1 -) Fo+^Sy)
Be(}^y*
Noternos que debido al orden en que ei f imite y ei supremo se aplican en e1
ciculo de y*, en general,
Aunque no existe una prueba formal de este hecho, y* _^y1 en todas los casas
en que B^, (^) es aproximadamente lineal cerca de cero, esto es, cuanda
E:STIMAC'1ON kOHUS'TA
En la figura 2 comparamos las aproximaciones lineat (lnea de puntos) y cuadrtica ( lnea quebrada) en el caso del estirnador de Huber con c= 1.345. Observamos que la aproximacin lineal
B,^(^) -
c
2^^ (c)-1
B (E) ^
`^
2^(c)-1
^ (1 + ^)
Figura 2
APROXIMACION LINEAL ( lnea de puntos) Y CUADRATICA (lnea quebrada)
A LA FUNCION DE SESGO MAXIMO (lnea Ilena)
5
0
0.0
0.1
0.2
0.3
Epsilon
0.4
0.5
E^S'TAUIS`T'1C`A E5F'A!VC)I.A
fi.
COMENTARIt^S FINALES
Aunque ya han transcurrido treinta aos desde el inicio de fa teoria cuantitativa de robustez can el trabajo pionero de Huber (1964), esta teora no est
completada, ni mucho menos. Las curvas de sesgo mximo de estimadores robustos de regresin an no se conocen en la mayora de los casos irnpartantes
(por ejemplo, en el caso de los estimadores MM y T). En los pocos casos en que
esta curva se conoce (estimadores S y estimadores GM) las resultados son parcialmente satisfactorios, puesta que slo valen bajo condiciones restrictivas. En
el caso de los estimadares S debe asumirse que la distribucin conjunta de las
variables independientes es esfrica. En el caso de los estimadores GM debe
asumirse, adem^s, que la dispersin de los residuos y que la matriz de covarianzas de las variables independientes son conocidas. La funcin de sesgo mximo de estimadares robustos de la ordenada al Origen no se conoce an en
.
ningun caso.
C7tra cuestin importante es que la curva de sesgo mximo captura sbio uno
de los dos aspectos irnportantes del concepto de robustez, el de la estabilidad.
EI otro aspecto importante es el de la eficiencia bajo el modelo y en sus inmediaciones. Desde ese punto de vista, la teora de sesgo minimax sin condiciones
laterales de eficiencia est incompleta. Puede considerarse como una teora de
estabilidad pero no como una teora global de robustez.
REFERENCIAS
. (1993): A bounded influence, h'rgh
breakdown, efficient regression estimator, J. Amer. Statist. Assoc., 88, 872880.
E^STIMAt'ION R(:)Bl.!STA
i49
LI, B., y ZAMAR, R. H. (1991): Min-max asymptotic variance when scale is unknown , Statist. and Probability Letters, 11, 139-145.
R. A. (1981): Robust M-estimators of multivariate location and scatter, Ann. Statist., 4, 51-67.
MARONNA ,
MARONNA, R. A.; BusTOS, o. H.., y YoHAI, V. J. (1979): Bias- and efficiencyrobustness of general M-estimators for regression with random carriers, en
T. Gasser y M. Rosemblat (eds.), Smoothing Techniques for Curve Estimation, Springer-Verlag, New York.
MARTIN ,
R. D.; YoHAI, V. J. , y ZAMAR , R. H. (1989): Min-max bias robust regression, Ann. Statst., 4, 1608-1630.
MARTIN, R. D., y ZAMAR, R. H. (1989): Asymptotically min-max bias-robust M-estimates for positive random variables, J. Am. Statist. Assoc., 17, 494-501.
H. M.,
y SCHWEPPE ,
tem static state estimation, IEEE Trans. Power App. Syst., PAS-90, 27182725.
87, 439-450.
SIMPSaN, D. G., y YoHAI, V. J. (1993): Functional stability of one-step GM estimators in linear regression. Unpublished manuscript.
F^sr^[^is^r^c^A FsPAC^^.A
^5()
YoHA^, V. J. {1987): High breakdown point and high efficiency robust estimates
for regression, Ann. Statist., 15, 642-656.
YOHAI, V. J., y MARC}NNA ,
R4BUST ESTIMATION
SUMMARY
The present paper presents some recent approaches of the robust estimation theory, in particular the results in the area of maximum bias minimization. A description is made of some regression robust estimators and the definition of maximum bias curve is introduced, The relation between ths curve and the senstivity to gross
errors is discussed. These concepts are explained in the case of
simple position and dispersion models.
Key Words: minimax estirnators, maxirnum bias, sensitivity to pollutons.
AMS Classificatin: 62Jxx, 62H 12.
CO MENTARIO S
ANTONIO CUEVAS
Universidad Autnoma de Madrid
Los trabajos de Rubn Zamar sobre sesgo minimax son un buen exponente
de esta recuperacin.
Es un honor para Estadistica Espaola contar con un artculo invitado de
este autor, componente destacado de la excelente escuela argentina de estadstica robusta creada en torno a Vctor Yohai (Graciela Boente, Oscar Bustos,
Nlida Ferretti, Ricardo Fraiman, Ricardo Maronna...).
Mi comentario est, inevitablemente, sesgado por mi experiencia personal
sobre el tema y se dirige hacia la fundamentacin materntica de los conceptos
de robustez, con mayor nfasis en algunas ideas que rne parecen especialrnente atractivas. Me interesa tambin destacar las relacianes de la estadstica robusta con otros campos de la investigacin estadstica o materntica, ya que, en
mi opinin, el valor de una teora est muy relacionado con su capacidad para
salir de s misma e interaccionar con otros temas.
En beneficio de una mayor claridad dividir mi discusin en apartados.
1.
Funcionales estadisticos
F.^r.>t^iti^ic^r^ ^^.^t}}^,!^t>i.f^
2.
Robustez cualitativa
F:ST'11^1A('IOti KC)F3l1S.i_i
^5 i
A propsito del comentario de Zamar ... esta teora (...) no permite comparaciones dentro de la clase de estimadores que son cualitativamente robustos,
quisiera matizar que, en cierto modo, el punto de ruptura [ver, por ejemplo, Huber (1981)] es una nocin complernentaria que cumple la funcin de cuantificar
la robustez. EI punto de ruptura es, en trminos intuitivos, !a mxima cantidad
de contaminacin en la distribucin subyacente que puede tolerar un estimador
de manera que todava proporcione alguna informacin sobre el parmetro de
inters. Creo que este concepto no ha sido an estudiado con la profundidad
que merece. Hay varias cuestiones, como la definicin de aproximaciones
rnuestrales satisfactorias o la extensin a diferentes contextas (incluyendo la inferencia bayesiana), que son an, bsicamente, problemas abiertos.
3.
La curva de influencia
Este es, sin duda, uno de los conceptos ms populares y fecundos dentro de
la teora de la robustez. De hecho, es el eje central del libro de Hampel et al.
(1987) sobre estadstica robusta. ^as observaciones que siguen pretenden simplemente completar los comentarios de Rubn Zamar sobre el tema.
Desde el punto de vista matemtico, la funcin de influencia es para un funcional estadstico lo que el vector gradiente es para una funcin real de n variables. La funcin de influencia proporciona el trmino lineal de los desarrollos de
Taylor de primer orden [ver Fernholz {1983)] que permiten probar la normalidad
asinttica para los estimadores definidos como restriccin de un funcional diferenciable. Coma consecuencia, la varianza asinttca aparece en estos casos
como la media del cuadrado de la funcin de influencia. Este hecho puede utilizarse para estimar la varianza asinttica, supuesto que se dispone de un estimador adecuado de la curva de influencia. EI estimador ms popular es la as
Ilamada curva de sensibilidad. Curiosamente, el estudio de sus propiedades
asintticas permanece casi indito; una referencia reciente sobre este tema es
Cuevas y Romo (1995).
Recordemos, por ltimo, que la curva de influencia tiene una interesante relacin con el mtodo de remuestreo denominado jackknife [ver Efron (1992)]; en
particular, se puede obtener una aproximacin muestral de la curva de influencia como subproducto de los clculos necesarios para obtener la versin jackknife de un estimador.
4.
Los ejemplos presentados en el artculo se centran en modelos de posicin/escala y regresin. En este tipo de modelos los estimadores considerados
{principalrnente los de tipo M) ocupan, sin duda, un papel protaganista. Hay, sin
embargo, otras situacianes (por ejemplo, Ios modelos paramtricos de mixturas)
en que resulta til considerar !os estimadores Ilarrtados de mnima distancia
que, bajo condiciones bastante amplias, son robustos. EI trabajo de Parr y
Schucany (1980) es una referer^cia clsica sobre el tema.
La forma general de estos estimadores es:
^
8 = argmin (F,,, F^),
cin
Una idea bastante natural {aunque, sorprendentemente, no estudiada hasta
ahora) es considerar una versin suavizada de la anterior definicin en la que
FH es reemplazada par la densidad f^ (cuando esto tenga sentido} y F^ se reemplaza por un estimador no paramtrico (de tipo ncleo, por ejemplo) de fe. La
discrepancia b se cambiara entonces por una distancia natural (por ejemplo, L^
o L2) entre densidades. En Cao et a!. (1995) se analizan algunas aspectos tericos (consistencia, normalidad asinttica, robustez) y prc#icos (comparaciones
por simulacin} de esta modalidad de estimadores de mnima distancia. Los resultados son, en general, bastante alentadores.
t:ti'1'Iti1A(^1Oti ROfil'^"^ A
^55
como el de punto de ruptura o el de curva de influencia que tienen una gran potencialidad desde el punto de vista aplicado: una vez ms, su popularizacin dependera de su presencia en el software comercial. Se trata, en ltimo trmin,
de un problema de divulgacin que, por otra parte, no es exclusivo de la estadstica robusta.
REFERENCIAS
Qualitative robustness for stochastic processes, Ann. Statist., 15, 1293-1312.
CAO, R.; GUEVAS, A., y FRAIMAN, R. (1995}: <tMinimum distance density-based estimation^>, Comp. Statist. & Data Analysis (en prensa).
CuEVAs, A., y RoMO, J. (1993): pn robustness properties of bootstrap approx'rmations , J. Statist. P/ann. lnference, 37, 181-191.
-(1995): On the estimation af influence curve, Canadian J. Statist. (en prensa).
EFRON, B. {1992): Jackknife-after-bootstrap standard errors and influence functions , J. R. Statist. Soc. B, 54, 1, 83-127.
FERNHOLZ, L. T. (1983): Von Mises Calculus for Statistical Functionals, SpringerVerlag, New York.
GILL, R. D. (1989): Non- and semi-parametric maximum lkelihood estimators
and #he von Mises method (Part I}, Scand. J. Statist., 16, 97-128.
HAMPEL, F. R. (1971): A general qualitative definition of robustness, Ann.
Math. Stat., 42, 1887-1996.
I-iAMPEL, F. R.; RONCHETTI, E. M.; ROUSSEEUW, P. J., y STAHEL, W. A. (^ 987):
RO-
^^ ^ E^
ALFCrNSO GOF^UALIZA
Universidad de Valladolid
F:^"I^IMA('It)N R()K('tiTA
^5x
EI mtodo alternativo para tratar el problema del sesgo mximo que se recoge en este artculo, tiene la doble ventaja de ser extensible a otros conceptos y
de arrojar alguna luz sobre las relaciones entre las teoras minimax e infinitesima, por medio de la derivada de la curva de sesgo mximo y el supremo de la
funcin de influencia.
Existen otros enfoques, igualmente actuales, en la teora de la estimacin robusta, y se echa de menos siquiera una referencia a los misrnos en este artculo. Me refiero especialmente al artculo de Davies (1993) en ef que se defienden
posiciones de alguna manera encontradas con la lnea de trabajo minimax que
se discute en este artculo y se ofrecen vas alternativas. EI articulo de Davies
contiene, entre otras cosas, notas crticas sobre robustez y optimalidad, sobre el
uso de mtricas y entornos de contaminacin y sobre las distintas nociones de
punto de ruptura. Davies defiende que ia estabilidad de la inferencia no se consigue obteniendo funcionales ptimos sino construyendo funcionaies con propiedades especificadas. Tambin defiende que los estimadores ptimos son fronteras que delimitan la posible y no son utilizables para aplicaciones a datos reales, donde la nico razonable es utilizar estirnadores que sean un compromiso.
Asimismo critica ios entornos de contaminacin por violar el esp ritu de la robustez y, en su lugar, aboga por el uso de mtricas, lo que tambin serviria para reconducir a sus orgenes la nocin de punto de ruptura. Davies hace propuestas
de estimadores de dispersin y de regresin en la lnea de estimadores compromiso mencionada anteriormente.
REFERENCIAS
DaviES, P. L. (1993}: Aspects of Robust Linear Regression, Ann. Statist., 21 ,
4, 1843-1899.
HAMPE^, F. R. (1968}: Contributions to the theory of robust estimation, Ph. D.
Thesis, University of California, Berkeley.
(1971 }: A general qualitative definition of robustness, Ann. Math. Statist.,
42, 1887-1896.
(1974): The influence curve and its role in robust estimation, J. Am. Statist.
Assoc., 69, 383-393.
F:ST'1ti1AC'1c)N R()E3l'STA
bust Statistics: The approach based on inf/uence functions, Wiley, New York.
HETTMANSPERGER, T. P., y SHEATHER, S. J
JULIAN DE LA HORRA
Universidad Autnoma de Madrid
^6C }
(1994b}: Bayesian robustness of credibfe regions in the presence of nuisance parameters , Commun. Statist. -Theory Meth., 23, 689-699.
WASSERMAN, L. {1989) :A robust Bayesian interpretation of likelihood regions,
Ann. Statist., 17, 1387-1393.
EST'IMAC'It)N ROHl'S"I^A
= sup d [ T( G), 9^
G E iF
en donde
^^(Fe)={G^G=(1 -) F^+H, HE ^(X)}
siendo
y*(T)=sup^^/F(x; T)II
X
la sensibilidad a grandes errores definida por Hampel (1974).
Si esta idea #uera viable, permitira, posiblemente, una aproximacin del tipo
VT (E} ^ V ( T, FH ) exp {^ k * ( T, F,^ )}
es decir, que, en analoga con la aproximacin a la funcin de sesgo mximo,
fuera k* ( T) la pendiente de la tangente en cero, ahora de la funcin In VT {^),
funcin sta que probablemente deberia tener una asntota vertical en el, (Huber, 1981 }, punto de ruptura +de fa varianza (asnttica), ^**.
En esta situacin, entiendo que tambin sera viable una aproximacin cuadrtica a la funcin de varianza mxima, corno la que hace el profesor Zamar en
su artculo con funcin de sesgo mximo.
Respecto a las aproximaciones, suele tomarse como regla prctica en cuanto a la vatidez de la aproximacin lineal para ia funcin de sesgo mximo BT (^),
valores ^<_ ^* 1 2. ^,Qu ocurre con la aproximacin cuadrtica? ^Qu ocurriria
con las hipotticas aproximaciones a In VT (^)?
Todo esto en lo referente aentornos de contaminacin, pero ^se podrian
extender algunos resultados a verdaderos entornos en la topologia dbil, en la
direccin seguida por Rychlik y Zielinski o Riedel?
Otra cuestin que afecta no slo a este artculo, sino de forma bastante generalizada a la Estadstica Robusta, es la relacionada con la posibilidad de evitar resultados ( totalmente} asintticos, los cuales, en mi opinin, no son enterarnente satisfactorios. Estos, aunque simplifican notablemente el problema, en no
pocas ocasiones equiparan comportamientos de estimadores claramente diferentes cuando se emplean tamaos muestraies pequeos.
^ fa.i
REFERENCIAS
COLLINS, J. R. (1960): Robust estimation fo a iocation parameter in the presence of asymmetry, Ann. Statis., 4, 68-85.
(1977): Upper bounds on asymptotic variances of M-estirnators of location, Ann. Statis., 5, 646-657.
J. R., y PORTNOY , S. L. (1981): Maximizing the variance of M -estimators using the generalized method of moment spaces, Ann. Statis., 9, 567-
COLLINS ,
577.
FIELD, C. A., y HAMPEL, F. R. (1982): Smali-sample asymptotic dis#ributions of
M-estimators of location, Biametrika, 69, 29-46.
HAMPEL, F. R. (1974): The influence curve and its role in robust estimation,
J. Am. Statist. Assoc., 69, 383-393.
HUBER, P. J. (1964): Robust estimation of a location parameter, Ann. Math.
Statis., 35, 73-101.
(1981) : Robust Statistics, Wiley.
RoussEEUw, P. J. (1981): New infinitesimal rnethods in robust statistics, tesis
doctoral, Vrije Universiteit, Bruselas, Blgica.
^f^
RICARDC^ A. MAR4NNA
Universidad Nacional de La Plata y CICPBA
E1 interesante artculo del profesor Zamar trata del modelo de posicin y escaia univariados y, en general, del modelo lineal con respuesta univariada. C^uisiera hacer aqu algunas consideraciones sobre el modelo lineal multivariado
Bx; + e; ,
ti- 1, ..., n}
[1]
^ ^ (x^ x}-1
^2]
E:^"I'IMAC'1(3N R()B(_!S"T^,
3f^5
^U^(d;)r;i0
i^ 1
^u^(d;)r; r;=n^
^-,
[4]
(B)`^-^ r; (B)
C5]
S= D-' A(D-')'
[6]
con
D=2 Eu^ (d) ee' V-' + Eu^ (d) I
y
A= E u1 ( d) 2 e e'
donde d= e' V-' y V se defi ne como
V=Eu2(d)ee'
Pero el punto de ruptura de estos estimadores es 0, pues no tienen robustez
frente a x; atpicos.
^%^
det ( ^) _
^ p2 (d;)}q = rnin
;= ^
[10]
bajo la condicin
n
^ p1 (d; ) = n
^_,
EI clculo numrico se puede realizar en forma aproximada usando las mismas ideas que en el caso univariado.
REFERENCIAS
KOENKER, R., y PoRTNOY, S. (1994): M Estimation of Multivariate Regressions,
Journa/ of the American Statistica/ Association, 85, 1060-1068.
LOPIJHA,4, H. (1992}: Estimation of Location and Covariance with High Breakdawn Point, tesis doctoral, Technische Universiteit Delft.
MARC}NNA ,
.ifi7
F:S^^1^1^1A('I^)ti ROfil^ti"^fA
ELIAS MORENO
Universidad de Granada
Es un placer expresar nuestra felicitacin y agradecimiento al profesor Zamar por brindarnos este excelente artculo sobre Robustez Local de un procedimiento de estimacin 6(^), que con tanta claridad expone. G?uede tambin nuestro agradecimiento al profesor Daniel Pea, editor de Estadstica Espaola, por
brindarnos la oportunidad de comentar sobre este artculo.
No deja de ser curioso que la motivacin utilizada por el autor ( motivacin
que compartimos) se base en unas determinadas observaciones muestrales y
que, sin embargo, todo el desarrollo posterior dependa exclusivamente de la forma estructural del modefo considerado F^ ={F : F=(1 -^) Fo + F H, H(arbitraria)}
tales como
B^ {0) = lim sup [ 8 ((1 - ^) Fo + E H} - 6 (Fo )] / ^
F --^ 0
Qb={q(xl e) ^fo(xle)-b^q(xle)^f^(x^e)+s,s>o}
Q^ nos dice que la verosimilitud de 6 para el dato x; est prxima (^) a la dada
por el modelo base fo (x; ^ e).
Para las observaciones x=(x1, x2, ..., x ), la clase de verosimilitudes viene
dada por
e) +^ q(x; ^ e), q E Q^ }
;fa,?^
sup
f E `j.s
P^ {A ^ x}-
Pf (A ^ x)
inf
f E `^^_^
conPtn(A^x)=^Af(x^H)n(8)d8/jc,f(x^8)n{6)d8.
EI siguiente ejemplo muestra un resultado de este tipo y, aunque muy sirnplista, ilustra un problema de incremento de incertidumbre a posteriori a pesar
de que aurnente nuestra informacin muestral.
E^emplo
Sea el espacio rnuestral X={x^ , x2 } y el espacio paramtrico O={61, 82 }.
Supongamos rc (9; )= 0.5, i= 1, 2, y sea la funcin de probabilidad fo (x ^ 9) la
dada por los valores de la tabla ^.
Tabla 1
VALORES DE fo (x ^ 8)
x2
8^
0.37
0.63
62
0.38
0.62
Pf (H1 ^ x1 )= 0.47,
sup
Pf (81 ^ x1 )= 0.52
fE '^.21
^f^y
E^"1'I!^^1A('IOti ROHl'ti^I:l
Es fcl probar que cualquiera que sea ^(0; )> o, i= 1, 2, hay sucesiones x^n ^
para las que
lim
inf
Pf (61^x^^^)=0, i=1,2
n-,^ fE %j21
lim
n --^ ^
sup
fE `J2
i^ 1, 2
JOAQUIN MUOZ-GARCIA
Departamento de Estadstica e Investigacin Operativa
Universidad de Sevilla
Para estudiar la robustez se ha considerado en el artculo una familia de distribuciones definida en [2], la cual puede ser considerada simple para explicar
las observaciones muestrales, aunque no conviene olvidar que el estudio y la
t ti I^I>l^ ^ It
^ F.^I^,^^tic^l.^^
comprensin ^ie tales modelos son fundamentales para la explicacin de modelos ms complejos. N obstante, como es un modeio que trata de explicar las
posibles observaciones out/iers, es necesario traer a colacin la conjetura de
Anscombe (196Q) sobre la variabilidad propia del modelo poblacional inicial;
sta Ilevara posiblemente a perturbar la fraccin de contaminacin del modelo.
Este es un aspecto que en las Ilamadas tcnicas de acomodacin (estimacin
robusta} de outliers, segn la clasificacin propuesta por Barnett y Lewis (1994},
no suele considerarse tanto desde un punto de vista terico como prctic.
AI introducir los distintos tipos de robustez habra sido oportuno, en un trabajo de este tipo, recoger la definicin de punto de ruptura de un estimador y su
relacin con aquellas otras medidas que se introducen en torno a las distintas
ramas de la robustez, como indica el autor; asimismo, pienso que se deberia
haber empleado el trmno robustez global, como ya se indica en el trabajo
de nJlartin, Yohai y Zamar (1989).
En la estimacin robusta deben plantearse dos niveles de proteccin, la correspondiente al modelo pobfacional del que se ha extrado ia muestra, o ms
simplernente de la muestra en s, y la correspondiente a la tcnica estadistica
que se aplicar a los datos; esta apreciacin la hago desde la definicin de observacin outlier dada por Muoz-^arca, Moreno-Rebollo y Pascual-Acosta
(1990}: Un outlier es una observacin que siendo atpica y/o errnea se desva
rnarcadamente dei comportamiento general de los datos experimentales con
respecta al criterio por el que han de ser analizados. Y ella me Ileva a hacerme
algunas consideraciones dentro del problema de la estimacin robusta. Los das
niveles de proteccin pueden interaccionar o pueden enmascararse, pueden
perderse propiedades de optimalidad o de proteccin cuando los estimadores
obtenidos para un nivel son modificados para utilizarlos en el otro, etc. Cuestiones similares a stas me planteo con los ^11 estimadores, por el hecho de tener
una estimacin robusta (la varianza o la matriz de covarianzas} dentro de un esti mador robusto, y a las que aado el anlisis del posible efecto que pueden
presentar en los procesos de convergencia de estos estimadores robustos.
BIBLIO^GRAFIA
AtiscoMe^E, F. J. {1960}: Rejection of outliers, Technometrics, vol. 2, 123-147.
BARNETT, V., y LEwis, T. {1994}: Outliers n Statistical Data (3rd Edition), Ed.
John Wiley & Sons.
R. D.; YoHA^, V. J., y zAMAR , R. H. {1989}: Min-max bias robust regression^>, The Annals of Statisties, val. 17, 1608-1630.
MARTaN ,
MUOZ- C`
..aARCA, LJ.; MORENO-REBOLLO, J. L., ^/ PASCUAL-ACOSTA, A. (1 99O}: OUt-
En particular, quisiera destacar la cuidada introduccin al problema de la estimacin robusta, presentada a lo largo de las dos primeras secciones de este
artculo, que permite que cualquier lector no iniciado en este tema pueda adquirir una idea clara acerca de lo que se pretende con su estudio, as como de los
distintos enfoques que se han venido desarrollando a lo largo de los ltimos
aos para el tratamiento de este problema.
En lo que sigue me voy a limitar a exponer un aspecto de la estimacin robusta que entiendo que debe ser tratado en esta discusin:
La idea de los modelos paramtricos corno aproximaciones de la realidad
justifica la bsqueda de estimadores que sean estables ante pequeas desviaciones del modelo supuesto. Aunque no existe un nico criterio de robustez,
la bsqueda de estimadores robustos trata de resolver un compromiso entre la
estabilidad y la eficiencia del estimador, lo cual introduce una notable complicac'rn en los mtodos desarrollados que dificulta su aplicacin en la prctica.
Dejando aparte el aspecto computacional de ios estimadores robustos (na
siempre fcil de resolver en la prctica), que slo puede abordarse con !a ayUda
del soporte informtico, para su clculo (como puede observarse en los distintos
casos tratados en las secciones 3 y 4 de este artculo) es necesario especificar
ciertas funciones y constantes que son elegidas por el interesado. As, para el
estimador de Huber, al que se refiere el autor en la seccin 5 de este artculo, el
valor de la constante c determina la eficiencia y la robustez del M estimador resultante y deber ser propuesta por el interesado jen Hampel (1986, p. 138)
puede verse una extensa tabla en la que se relacionan distintas rnedidas de robustez, incluida la sensibilidad mxima agross errors, y la eficiencia en el modelo normal del estimador de Huber para diferentes valores de la constante c].
Por lo anteriormente expuesto, sera deseable disponer de algn criterio objetivo (basado en la informacin muestral) para la eleccin de tales funciones y
constantes. Me gustara que el autor pudiera formularnos alguna indicacin sobre este aspecto que facilite la aplicacin en la prctica de los mtodos de estimacin robusta.
^7^
Por mi parte, nada ms. Espero que este breve comentario pueda contribuir
a completar esta discusin sbre el tema tratado en este artculo def profesor
Zamar, al cual reiter una vez ms mi feficitacin.
REFERENCIAS
HAMPE^, R. I'i.; RONCHETTI, E. M.; ROUSSEEUW, P. ^J., ^/ STAHEL, W. A. (1976}:
RO-
Introduccin
^s^riti^f^c^ic^^rv Ko^^'^s^r;^
que permite controlar lo peor que puede ocurrir en entornos grandes . En Donoho y Huber (1983) puede encontrarse una defensa de la utilizacin de este
concepto (muestras finitas) que, por diferentes razones, no fue muy considerado
en los comienzos del estudio de los mtodos robustos.
En los ltimos a^ios se han presentado diversas propuestas de estimadores
con PR alto en modelos de posicin y de regresin; algunas de ellas han contado con la intervencin del profesor Zamar y han sido revisadas en su trabajo.
Aun a riesgo de reiterar alguna de las exposiciones, consideraremos inicialmente el desarrollo histrico de estos estimadores restringindonos al caso de modeios de regresin.
2.
EI primer estimador con PR mximo ( 50%) es el estimadar de medianas repetidas, Siegel {1982). Puede ser calculado explcitamente, si bien su obtencin
es costosa, pues precisa considerar todos los subconjuntos con p observaciones, siendo p el nmero de regresores. CJtro inconveniente reside en no ser
equivariante bajo transformac'rones lineales de los regresores.
Rousseeuw {1984} ntroduce el estmador consistente en minimizar la mediana
de los cuadrados de los residuos
least median of squares ( LMS) : med r,?.
Este estimador alcanza PR mximo y es equivariante; sin embargo, su eficiencia asinttica es baja debido a su lenta tasa de convergencia (n-'^3 }. Para solventar este inconveniente, Rousseeuw ( 1984) propone el estimador de mnima
suma truncada de cuadrados
least trimmed squares ( LTS) , consistente en
minimizar ^ ;'_ ^ r ^^ ; ? , donde r ^^ ; ,^ ^ < . . . ^ r ^^ : ^ ^ son los cuadrados ordenados
de los residuos. con PR mximo, su tasa de convergencia es la habitual ( n-'^2 ).
Sobre la eleccin ptima de h puede consultarse Rousseeuw y Leroy (1987, pginas 132-134}.
Notemos que la idea que subyace en la construccin de los dos ltimos estimadores es robustecer la medida de error del criterio mnirno-cuadrtico mediante una rnedida robusta de la dispersin de los residuos. Manteniendo este
planteamiento, Rousseeuw y Yohai (1984) consideran los S-estimadores de regresin, basados en minimizar un M-estimador de escaia para los residuos aso-
3.
frente a distribucior^es en un entorno, puede ser ms adecuado trabajar directamente con el sesgo bajo contaminacin y utilizar el mximo sesgo asinttico
para fracciones de contaminacin inferiores al PR. Esto conduce a la bsqueda
de estimadores minimizando el mximo sesgo asinttico en un ^-entorno de
contaminacin. Recordemos, como hace el profesor Zamar, que esta idea ya
fue considerada por Huber, si bien esta aproximacin a la robustez global parece haber sido dejada de lado hasta hace unos aos; varios resultados e ideas
interesantes en problemas de localizacin y regresin se exponen en su trabajo. Sin entrar en detalles, revsaremos brevemente algunos resultados recientes obtenidos bajo este planteamiento en modelos de regresin.
En Martin, Yohai y Zamar (1989} se presentan estimadores robustos con
sesgo minimax para dos clases diferentes de estimadores de regresin: i) Mestimadores basados en funcones p acotadas y con estimador de escala general para los residuos (estos estimadores pueden ser considerados S-estimadores y tienen la misma tasa de convergencia que el estimador LMS); y ii) GM-estimadores con curva de influencia acotada. En particular, se rnuestra que para
la regresin simple a travs del origen (p - 1), el GM-estimador minimax es la
mediana de las pendientes ( y; l x^ ), siendo este estimador tambin minimax en
la clase de los estimadores equivariantes por transformaciones lineales. EI trabajo incluye una comparacin, para distintos valores de p, de los sesgos rninimax para los estimadores S, GM y LMS bajo el modelo normal multivariante.
En Zamar (1992) se consideran modelos de regresin con errares en !as variables. En este contexto, se analiza el comportamiento del mximo sesgo de
M-estimadores en entornos de ^-contaminacin con distribucin central Fo - N
(, E+ a2 /}, obtenindose el correspondiente estimador ptimo. Indiquemos
que los M-estimadores en el contexto citado fueron previamente consderados
por Zamar (1989).
Citemos, finalmente, el trabajo de Maronna y Yohai (1993), en donde se introduce y estudia un nuevo tipo de estimadores de regresin con robustez aita
respecto al sesgo (ver tambin Maronna y Yohai, 1991). Estos estimadores,
denominados por los autores P-estimadores, se construyen partiendo de un estimador robusto y equivariante por transformaciones iineales del parmetro de
regresin simple a travs del origen. A continuacin, se obtiene un ptirno al
considerar las regresiones simples de la respuesta frente a todas las proyecciones unidimensionales de los regresores. En particular, se prueba que utilizando como estimador inicial la mediana de las pendientes, el estimador resultante es robusto frente al sesgo, obtenindose una cota superior para su mximo sesgo.
4.
#^S"I'IMAC'IC)N kO^3US'f^^A
REFERENCIAS ADICIONALES
ATKINSON ,
RoussEEUw, P. J., y YOHAI, V. (1984): Robust regression by means of S-estimators, en Robust and Nonlinear Time Series Ana/ysis, J. Franke, W. Hardle y
R. D. Martin {eds.), Springer-Verlag, New York.
RoussEEUw, P. J., y VAN ZOMEREN, B. C. (1990): Unmasking multivariate outliers and leverage points, J. Amer. Statist. Assoc., 85, 633-639.
SIEGEL, A. F. (1982): Robust regression using repeated medians, Biometrika,
69, 242-244.
STROMBERG, A. J. {1993): Computation of high breakdown nonlinear regression
parameters, J. Amer. Statist. Assoc., 88, 237-244.
STROMBERG ,
;^x
Agradezco, en primer lugar, a la Revista Estadstiea Espaala por la oportunidad de participar en la discusin del trabajo invitado Estimacin Robusta y,
por extensin, en un debate ampiio sobre las tcnicas de estimacin robustas.
EI articulo del profesor Zamar comienza con una motivacin sobre la necesidad
de introducir tcnicas robustas, el contexto en el que stas se han de construir y
la discusin de varios criterios de robustez. La segunda parte del artcula revisa
varias propuestas de estimadores robustos en regresin (estimadores M, S y i,
y estimadores con influencia acotada), para terminar con una presentacin de
resultados recientes sobre (a funcin de sesgo mximo y el clculo de estimadores con sesgo minimax. Mis comentarios se refieren tanto al artculo como a
cuestiones que creo de inters en un debate general sobre estimacin robusta,
y se dividen en tres apartados: 1) Motivacin y aspectos generales; 2) Eleccin
del criterio de robustez; y 3) Aspectos numricos.
[1]
.^ 7 ^)
tes. Para ver esto, basta considerar el siguiente ejemplo. Sean {X; o, i= 1, ..., n}
datos de N(, 6) y sean {X; ^, i= 1, ..., n} datos de N( + 6, 6). Se definen
(
E;) X;o+^;X;^
[2]
donde los {E; } son variables que toman valores 0 y 1 con probabilidades 1-^ y
, respectivamente, y tales que las ternas (^; , X; a,X; ,) son i.i.d., donde, adems, ^; es independiente del par (X; o, X;1 ) . Es inmediato que los {X; } son una
muestra del modelo (1 - E) fo + c f1 . Para los casos ^_.05 y .10, = 1 y a=.03,
la tabla 1 recoge n= 30 datos simulados de fo ( Xo ), de f1 (X^ ) y de la mixtura
(1 - E) fo +^ f1 (XX^ , XX2 ) de acuerdo con la tcnica [2]. Es inmediato que las
columnas Xo y (XX1 , XX2 ) difieren en la aparicin de las observaciones anmalas 19 y(24, 27), respectivamente, que estn rnuy alejados de la media = 1
del modelo central. Los datos hablan por s solos de la necesidad de construir
un estimador T = T [X1 ,..., X ] para , alternativo a X y que sea menos sensible ante la aparicin de datos anmalos.
Otro punto de inters relativo al entorno [1 ] es la interpretacin del modelo
de perturbacin, en particular de la distribucin H responsable de las desviaciones dei modelo central, y la interpretacin de los resultados de un anlisis robusto o, en otras palabras, dado el valor observado de un estimador robusto
T = t = T [x1 ,..., xn ], qu parmetros se estn estimando. En el caso simple
en el que {^e }^ E ^ es un modeo de posicin en ^^, un estimador robusto natural
es med ( X;), que resulta ser un estimador de la posicin 9, libre del efecto de la
perturbacin H. Cuando la dimensin de los datos aurnenta, la respuesta, en rni
opinin, no es tan sencilla. En un problema de regresin en el que los datos z;
presentan una estructura natural de la forma z; _ (y; , x; )' donde y; es una respuesta escalar y x; es un vector de regresores, el significado del estimador depende de varios factores; entre otros, la eleccin de: a) ia distribucin marginal
Go (x ) de los regresores bajo el modelo central Fo (y , x); b) la distribucin condicionada Ho (y ^ x) en el modelo Fo (y , x ), y c) los anlogos G(x ) y H(y ^ x)
en la distribucin de perturbacin F(y , x). EI punto c) implica una caracterizacin de puntos anmalos tanto en el espacio de las variables {y; } como en el
espacio de los regresores {x; } que es siempre delicada, en particular en dimensin p >_ 3. Por ejemplo, la construccin de un M-estimador de regresin obtenido como solucin de una ecuacin de la forma
n
[3]
^=1
crticamente de la eleccin de !a constante c> 0 que, irnplcitamente, caracteriza el urnbral a partir del cual los residuos r; (^i) = y; - x; R se consideran gran-
ES)Al)Iti"II('.A ESPAtiO1.,^1
T^bl^ 1
MUESTRAS SIMULADAS DE TAMAO n= 30 DE LAS DENSIDADES
fo (Xo ), f^ (X^ } Y (1 - ^) fo + F f^ , DONDE fo ^- N (1, .03), f^ ^ N (7, .03}
Y^=.05(XX^)Y.10(XX2)
i
Xo
x,
1.0213
.9441
.9776
6.9824
7.0123
6.9799
4
5
.9588
.9627
^ . oso4
7
8
9
10
1.0013
1.0330
1.0352
1.0357
11
1.015$
12
1.0341
13
14
.9788
1.0463
15
1.0481
16
17
18
.9826
.9889
.9810
19
.9737
20
21
22
23
24
25
26
.9566
.9551
1.0035
1.0076
.9700
1.0179
.9949
27
.9875
28
29
30
1.0126
.96E6
.9987
7.0448
7.01 1 E
7.0590
7.0066
7.0324
7.0289
7.0087
7.031 1
6.9246
7.0359
6.9887
7.0156
7.0405
6.9660
7.071 1
6.9905
7.0163
6.991 1
6.9845
7.0030
7.0194
6.9439
6.9806
6.9996
6.9931
6.9857
6.9801
.0
.0
.0
.0
.0
.0
.0
.a
E2
X^C1
xx2
.0
.0
.0
.0
1.0213
1.0213
.9441
.9776
.9588
.9441
.9776
.9588
.o
.o
.o
.o
.o
.9627
.9627
1. 0604
1.0013
1.0330
1. a352
.0
.0
1.0357
1.0158
1.0604
1 .0013
1 .0330
1 .0352
1 .0357
1 .0158
.0
.0
.0
.0
.0
.o
1.0341
1.0341
.0
.a
.o
.9788
1.0463
.9788
1 .0463
.0
.0
1. 0481
1 .0481
.o
.o
.0
.0
1.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
.0
1.0
.0
.0
1.0
.0
.0
.9826
.9889
.9826
.9889
.9810
.9810
6.9905
.9566
.9551
1.0035
1.0076
.9700
1.0179
.9949
.9875
.9949
6.9996
1.o12s
1.0126
.9626
.9987
.9626
.9987
.9737
.9566
.9551
1.0035
1 .0076
7.0194
1.0179
FSTIti1AClON RUBI_-STA
2.
IIT[F]-eIIM
[4]
donde M es una matriz definida positiva, elegida usando argumentos de invarianza, T[F ] es el funcional asociado a la definicin del estimador T [X^ ,...,
X ]= T[F ] como funcin de la distribucin emprica de los datos y ^ ^ a ^ ^M =
_{a' Ma )'^2 es la norma elptica asociada a M. Se observa que [4] involucra explcitamente que la convergencia de T[F,^ ] es hacia T[F ] que, para F general
en el entorno [1 ], ser diferente de 9 0, en otra ^ palabras, que los estimadores
T[F^ ] son inconsistentes para e pese a imponer la restriccin de consistencia
Fisher T [Fe ]= 8 en el modelo central. La curva de sesgo asinttico mximo
B{T, ^) =
suP
F E ^^.
II T[F] - 9 IiM
[5]
se relaciona tambin de forma inmediata con el punto de ruptura de T[F ][Martin, Yohai y Zamar ( 1989)]. La teora basada en la minimizacin de [5] conduce
a resultados interesantes, pero creo que debera complementarse con algn resultado de convergencia asinttica del tipo n 12 [T^ - 8] ^ Np [o, ^], donde p es
la dimensin del parrnetro e, que permitiera estudiar y comparar las eficiencias,
bajo el modelo central {^^ } e E o, de T^ con el estimador de mxima verosimilitud. Este parece ser el contexto de recientes investigaciones [Coakley y Hettmansperger ( 1993); Croux, Rousseeuw y Hssjer ( 1993)] en la bsqueda de estimadores de regresin eficientes y de punto de ruptura prximo a 1/2.
Aspectos numricos
Esta es una cuestin fundamental, puesto que la determinacin de los estimadores robustos depende siempre de tcnicas computacionales ms o menos
sofisticadas y, en ocasiones, de la minirnizacin de funciones no convexas con
mnimos locales. La complejidad del problema aumenta en dimensiones altas
(tanto en el nmero n de datos corno en la dimensin p del parmetro), como
ilustra un reciente trabajo de Woodruff y Rocke (1994). La elaboracin de algoritmos manejables, que implementen en la prctica la computacin explcita de
los diferentes tipos de estimadores propuestos, facilitara la comprensin y asimilacin de las tcnicas robustas por una audiencia mayor de estadsticos.
VICTOR J. YOHAI
Universidad de San Andrs y Universidad de Buenos Aires
Quisiera felicitar a Rubn Zamar por su excelente exposicin sobre los mtodos estadsticos robustos para los modelos de posicin y regresin.
En mi comentario me referir a otro enfoque para obtener estimadores con
buenas propiedades de robustez para problemas de regresin mltiple: las estimadores basados en proyecciones.
Sea z; _ ( y; , x; ), 1^ i<_ n, y E I^ , x; E I^.p una muestra correspondiente a un
modelo de regresin lineal; por lo tanto, se tiene
+ u;
[1]
z;*=(Y;*^x;*)^
^ ^i
ESTIMAC'1ON ROBC'5^^1^^A
[2]
mediana
[3]
r; (e)
mediana
x;
, 1 <_ i <_ n
r; {e)
mediana
^, x, 1<_ i<_ n= 0
^
d^, E I^p
[4]
Esta ecuacin est expresando que se busca un valor 6 de tal manera que
los residuos r; (9) no tengan ninguna estructura de regresin con ninguna combinacin lineal ^.' x, y por lo tanto que, al aplicar el estimador ^de regresin dado
por [3], tomando como variable dependiente los residuos r; (9) y como variable
independiente las proyecciones ^' x; , ste da el valor cero.
Sin embargo, como en general^[4] no tendr solucin, se definir el estimador de proyeccin por aquel valor 9 para el cual esta ecuacin est ms prxima a ser satisfecha. EI significado exacto de la expresin ms prxima se
precisar a continuacin. Para esto definimos
n
mediana
r; (e)
^,' x;
, 1 <i<_n
[5]
^
La ecuacin [4j puede ser escrita como A(8) = 0. Como, en general, esto no
es posible, Maronna y Yohai {1993) definen el estimador de proyeccin {estimador P) por
argmin ^ ^ ^R A (8)
^
Se puede demostrar que si 6 es el estimador P, entonces para todo otro esti^*
F^^^r^^^^c^^^^^v K^^^^^^-^^.^
Tabla 1
MAXIMtJS SESGOS DEL ESTIMADOR GM MINIMAX
p
F=.05
F=.10
E=.15
e=.20
1
2
1.57
2.00
0.08
0.10
0.18
0.27
0.28
0.47
0.41
0.83
3
4
5
10
15
2.35
2.67
2.94
4.06
4.94
0.15
0.17
0.18
0.27
0.33
0.34
0.43
0.49
0.83
1.30
0.67
0.92
1.29
^
^
1.72
^
^
^
^
20
5.66
0.41
2.31
Tabla 2
MAXIMOS SESGOS DE ESTIMADORES S Y P
Todo p
y
E=.05
^=.10
^=.15
^=.20
Minimax
0.49
0.77
1.05
1.37
LMS
0.53
0.83
1.07
1.52
3.14
0.16
0.36
0.56
0.82
REFERENCiAS
(1992): BiaS-robust estimators of
multivariate scatter based on projections, Journal af Multivariate Ana/ysis,
42, 141-161.
MARONNA, R. A., y YoHAi, V. J. (1993): Bias-robust estimates of regression based on projections, Annals of Statistics, 21, 965-990.
MARTIN, R. D.; YOHAi, V. J., y ZAMAR, R. H. (1989): Min-max bias robust regression, The Anna/s of Statistics, 17, 1608-1630.
RoussEEUw, P. J., y LEROY, A. M. (1987}: Robust regression and outlier detection, Wiley, New York.
SIMPSON, D. G., y YoHAi, V. J. (1993): Functional stability of one-step GM-estimators in linear regression, Technical Report #71, Department of Statistics,
University of Illinois Urbana-Champaign.
.^?^fl
CO NT ESTA C I O N
En primer lugar, quiero agradecer al profesor Daniel Pea y a la Revista Estadstica Espaola por esta oportunidad de discutir uno de mis temas favoritos:
estadstica robusta. Tambin quiero agradecer a los distinguidos comentaristas
por prestigiar rni contribucin con sus comentarios y sugerencias.
Mi trabajo no es una revisin de la teora de robustez, sino una introduccin
a ia misma. Consecuentemente, muchas cantribuciones importantes han sido
intencionaimente omitidas con el objetivo de simplificar la exposicin y resaltar
las ideas centrales. Algunas de esas omisiones fueron recogidas por los comentaristas en sus comentarios. EI profesor Victor J. Yohai describe una clase rnuy
interesante de estimadores Ilarnados estimadores de proyeccin, el profesor Ricardo Maronna resalta la importancia e inters de ciertos problemas multivariados, el profesor Manuel del Ro discute posibles aplicaciones de los mtodos robustos en problernas de deteccin de outliers, y los profesores Elas Moreno,
Juan Antonio Cano y Julin de la Horra enfatizan las posibles conecciones con
el rea de robustez bayesiana. La teoria de robustez presentada en mi articulo
est basada en el concepto de sesgo asinttico mximo y, por lo tanto, es de
naturaieza global. EI resuitado del ejemplo presentado por los profesores Moreno y Cano puede deberse a la alta proporcin de autliers en la muestra. Si las
probabilidades condicionales de x^ y x2 son apraximadamente iguales {bajo los
dos escenarios posibles), entonces muestras muy desequilibradas, como por
ejemplo x1 , x1 , x1 , ..., x1 , sern muy atpicas y el consecuente colapso de la inferencia basada en tales rnuestras no sera entonces sorprendente.
Otros comentaristas resaltan ciertos problemas que an subsisten y constituyen, en mi opinin, interesantes desafos. Los profesores Alfonso Garca Prez
y Santiago Velilla critican la naturaleza eminentemente asinttica de la teora de
robustez. Puesto que una teora basada en muestras finitas no ser factible en
el futuro previsible, creo que se deberia prestar mayor atencin al grado de uniformidad y a la velocidad de la convergencia de los estimadores robustos hacia
sus respectivos funcionales asintticos. Martin y Zamar {1993) es un modesto
paso en esa direccin. Los profesores Joaqun Muoz Garca, Quindimif y Antonio Cuevas mencionan los problemas computacionales y la conveniencia de incluir mtodos robustos en paquetes estadsticos comerciales. Yo concuerdo plenamente con ellos.
EI interesante comentario del profesor Alfonso Gordaliza sita mi trabajo en
un contexto m^s amplio dentro de la teora de robustez y pone de relieve algunos aspectos que encontr muy interesantes.