Está en la página 1de 14

Vol.

XX, N
o
2, Diciembre (2012)
Matematicas: 5568
Matematicas:
Ense nanza Universitaria
c Escuela Regional de Matem aticas
Universidad del Valle - Colombia
Calculo eciente del estimador Jackknife agrupado para mnimos
cuadrados lineales
Alexander Arevalo S.
Universidad del Valle
Hector J. Martnez R.
Universidad del Valle
Ana M. Sanabria R.
Universidad del Valle
Recibido Ago. 30, 2011 Aceptado Ago. 01, 2012
Abstract
In this paper, we generalize the results obtained by Martinez and Sanabria to calculate the
Jackknife Estimator for Linear Least Squares, which express the estimates of the subproblems
that result when calculating the Grouped Jackknife Estimator for the Linear Least Squares
Problem (GJELLS) in terms of the initial estimate and other simple expressions to calculate,
and thus modify the standard algorithm to calculate the GJELLS.
This modication reduces the number of operations of the order O(
m
2
n
2
h
) +O(
m
2
n
h
) +O(
mn
3
h
)
to a number of operations of the order O(mn
2
) + O(hn) + O(mn) + O(mh
2
), where m is the
sample size, h a xed number given by the Grouped Jackknife Estimator (h << m) and n is
the number of parameters to estimate (m n).
Keywords: Linear Least Square, Jackknife estimator, Complexity of computation
MSC(2000): 93E24, 62F40, 03D15
Resumen
En este artculo, hacemos una generalizacion de los resultados obtenidos por Martnez y Sanabria
para el c alculo del Estimador Jackknife para Mnimos Cuadrados Lineales (EJMCL), los cuales
permiten expresar los estimadores de los subproblemas que resultan al calcular el Estimador
Jackknife Agrupado para Mnimos Cuadrados Lineales (EJAMCL) en terminos del estimador
inicial y otras expresiones sencillas de calcular, y as modicar el algoritmo est andar para calcular
el EJAMCL.
Con esta modicaci on, se reduce el n umero de operaciones del orden O(
m
2
n
2
h
)+O(
m
2
n
h
)+O(
mn
3
h
)
a un n umero de operaciones del orden O(mn
2
)+O(hn)+O(mn)+O(mh
2
), donde m es el tama no
de la muestra, h un n umero jo dado por el Estimador Jackknife Agrupado (h << m) y n es el
n umero de par ametros a estimar (m n).
Palabras y frases claves: Mnimos Cuadrados Lineales, Estimador Jackknife, Complejidad
computacional
1 Introduccion
El algoritmo estandar para el calculo del Estimador Jackknife para Mnimos Cua-
drados Lineales (EJMCL) requiere un n umero de operaciones del orden O(m
2
n
2
)+
O(mn
3
), donde m es el tama no de la muestra y n es el n umero de parametros
a estimar, lo cual hace que calcular el EJMCL sea muy costoso, computacional-
mente hablando. Sin embargo, Martnez y Sanabria, usando convenientemente
propiedades basicas del algebra lineal, lograron obtener un algoritmo mucho mas
eciente, disminuyendo el n umero de operaciones al orden O(mn) +O(mn
2
) bajo
la condicion de que el problema de estimacion inicial y los subproblemas involu-
crados sean de rango completo [2]; posteriormente, lograron mantener el resultado
56 A. Arevalo, H. Martnez y A. Sanabria
anterior sin la necesidad de que los subproblemas involucrados fuesen de rango
completo [3]; y por ultimo, lograron conservar la eciencia del calculo sin requerir
condicion alguna sobre el problema inicial, es decir, sin importar que el problema
de estimacion inicial sea de rango deciente [4].
En este artculo, presentamos una generalizacion de los resultados obtenidos
por Martnez y Sanabria, los cuales permiten realizar una modicacion al al-
goritmo estandar para calcular el Estimador Jackknife Agrupado para Mnimos
Cuadrados Lineales (EJAMCL), reduciendo el n umero de operaciones a realizar,
generalizando as el algoritmo para calcular el EJMCL obtenido por Martnez y
Sanabria para el caso del estimador Jackknife agrupado.
2 Estimador Jackknife Agrupado para Mnimos Cuadrados Lineales
(EJAMCL)
Denicion 1. Sea X
1
, . . . , X
m
una muestra aleatoria de una poblacion caracteri-
zada por un parametro y T = t
m
(X
1
, . . . , X
m
) un estimador de dicho parametro,
basado en la muestra de tama no m. Al dividir la muestra en g grupos de tama no
h (m = gh), si denotemos por T
j
al estimador T evaluado para los (mh) ele-
mentos que quedan despues de quitar el j-esimo grupo de elementos de la muestra
(j = 1, . . . , g), el Estimador Jackknife Agrupado (EJA) [1] es
T
JA
=
1
g
g

j=1
(gT (g 1)T
j
) = gT
(g 1)
g
g

j=1
T
j
.
De otro lado, dado el conjunto de observaciones (a
T
i
,
i
), donde a
i
R
n
y

i
R para i = 1, . . . , m con m n, el problema de estimar x tal que
i
= a
T
i
x
por el metodo de los mnimos cuadrados lineales, se reduce a encontrar x tal que
A x y
2
= mn
xR
n
Ax y
2
,
donde A = [a
1
, . . . , a
m
]
T
R
mn
y y = (
1
, . . . ,
m
)
T
. Al vector x se le denomina
Estimador de Mnimos Cuadrados Lineales (EMCL). Ahora, dividiendo las m
observaciones de la muestra en g grupos de tama no h (m = gh) y aplicando el
metodo de estimacion Jackknife agrupado a x, obtenemos el Estimador Jackknife
Agrupado para Mnimos Cuadrados Lineales (EJAMCL)
x
JA
= g x (g 1)
g

j=1
x
j
g
,
donde x
j
es la solucion del subproblema
A
j
x
j
y
j

2
= mn
xR
n
A
j
x y
j

2
, j = 1, . . . , g ,
Calculo Jackknife agrupado 57
donde A
j
es la matriz resultante de extraer el grupo jesimo de las de la matriz
A y y
j
es el vector resultante de extraer el grupo jesimo de componentes del
vector y.
Para efectos de un mayor entendimiento, daremos a continuacion un peque no
ejemplo del calculo del EJAMCL.
Ejemplo 1. Dados los puntos (6, 9), (5, 6), (4, 5), (3, 3), (2, 1),
(1, 0), (0, 3), (1, 5), (2, 7), (3, 9), (4, 12), (5, 13), deseamos estimar la mejor recta
que los aproxime, en el sentido de los mnimos cuadrados; es decir, necesitamos
estimar M y b tales que, si z
i
= Mt
i
+b, z y
2
sea mnimo, siendo (t
i
, y
i
) los
puntos dados.
En terminos de la notacion utilizada, tenemos que m = 12 y n = 2, y la
matriz A, el vector y y el vector x estaran dados por
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
6 1
5 1
4 1
3 1
2 1
1 1
0 1
1 1
2 1
3 1
4 1
5 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
, y =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
9
6
5
3
1
0
3
5
7
9
12
13
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y x =
_
M
b
_
As, el estimador de mnimos cuadrados
x =
_
3402
1716
,
927
286
_
T
(1, 98, 3, 24)
T
resuelve el problema mn
xR
2 Ax y
2
.
De igual forma, tomando g = 3, h = 4, podemos calcular el EJAMCL, calcu-
lando los respectivos x
j
, para j = 1, 2, 3, que resuelven mn
xR
2 A
j
xy
j

2
para
las siguientes matrices y vectores:
y
1
= (1, 0, 3, 5, 7, 9, 12, 13)
T
A
1
=
_
_
_
_
_
_
_
_
_
_
_
_
2 1
1 1
0 1
1 1
2 1
3 1
4 1
5 1
_
_
_
_
_
_
_
_
_
_
_
_
, A
2
=
_
_
_
_
_
_
_
_
_
_
_
_
6 1
5 1
4 1
3 1
2 1
3 1
4 1
5 1
_
_
_
_
_
_
_
_
_
_
_
_
, y
2
=
_
_
_
_
_
_
_
_
_
_
_
_
9
6
5
3
7
9
12
13
_
_
_
_
_
_
_
_
_
_
_
_
, A
3
=
_
_
_
_
_
_
_
_
_
_
_
_
6 1
5 1
4 1
3 1
2 1
1 1
0 1
1 1
_
_
_
_
_
_
_
_
_
_
_
_
, y
3
=
_
_
_
_
_
_
_
_
_
_
_
_
9
6
5
3
1
0
3
5
_
_
_
_
_
_
_
_
_
_
_
_
58 A. Arevalo, H. Martnez y A. Sanabria
Los estimadores de las submuestras son:
x
1
=
_
_
_
_
41
21
93
28
_
_
_
_

_
1, 95
3, 32
_
, x
2
=
_
_
_
_
128
69
877
276
_
_
_
_

_
1, 85
3, 17
_
, x
3
=
_
_
_
_
27
14
43
14
_
_
_
_

_
1, 92
3, 07
_
Ahora, utilizando la formula para x
JA
, tenemos el EJAMCL as,
x
JA
= 3
_
_
_
_
3402
1716
927
286
_
_
_
_

3 1
3
_
_
_
_
_
41
21
93
28
_
_
_
_
+
_
_
_
_
128
69
877
276
_
_
_
_
+
_
_
_
_
27
14
43
14
_
_
_
_
_
=
_
_
_
_
212
100
334
100
_
_
_
_

_
2, 12
3, 34
_
,
el cual es un estimador de x que posee mejores propiedades estadsticas que x,
calculado inicialmente.
El algoritmo estandar para calcular el EJAMCL lo podemos expresar en los
siguientes cuatro pasos:
1. Dados A R
mn
, y R
m
.
2. Resolver mn
xR
n Ax y
2
2
. Salida: x.
3. Para j = 1, . . . , g. Resolver mn
xR
n A
j
x y
j

2
2
. Salida: x
j
.
4. Calcular x
JA
= g x (g 1)

g
j=1
x
j
g
. Salida: x
JA
.
Si las matrices A y A
j
, para j = 1, . . . , g, son de rango completo, los pasos 1
y 2 se reducen a encontrar las soluciones unicas de los sistemas de ecuaciones
A
T
Ax = A
T
y y A
T
j
A
j
x
j
= A
T
j
y
j
, para j = 1, . . . , g.
En otra palabras, se reduce a calcular x y los x
j
, tal que
x = (A
T
A)
1
A
T
y y x
j
= (A
T
j
A
j
)
1
A
T
j
y
j
, para j = 1, . . . , g.
Resolviendo los problemas planteados en los pasos 1 y 2 por el metodo de las
ecuaciones normales, un algoritmo mas detallado para el calculo de EJAMCL es
el siguiente.
3 Algoritmo estandar detallado para calcular el EJAMCL
1. Dados A R
mn
, y R
m
.
2. {Resolver A
T
Ax = A
T
y.}
Calculo Jackknife agrupado 59
Calcular C = A
T
A.
Calcular d = A
T
y.
Resolver Cx = d. Salida: x.
3. Para j = 1, . . . , g. {Resolver A
T
j
A
j
x = A
T
j
y
j
.}
Calcular C
j
= A
T
j
A
j
.
Calcular d
j
= A
T
j
y
j
.
Resolver C
j
x
j
= d
j
. Salida: x
j
.
4. Calcular x
JA
= g x (g 1)

g
j=1
x
j
g
. Salida: x
JA
.
En el algoritmo detallado anteriormente, notese que la cantidad de operacio-
nes necesarias para resolver los sistemas de ecuaciones lineales
1
en el paso 1
es aproximadamente [mn
2
+ mn +
n
3
3
] y, en el paso 2, es aproximadamente
[
m
h
((mh)n
2
+(mh)n+
n
3
6
)], donde m es el tama no de la muestra, h un n umero
jo dado por el Estimador Jackknife Agrupado (h << m) y n es el n umero de
parametros a estimar (m n); por tanto, lo mas costoso del algoritmo es el paso
2, donde se deben calcular los respectivos x
j
.
En adelante, usaremos la siguiente notacion. Dada A = [a
1
, . . . , a
m
]
T
con
a
i
R
n
, i = 1, . . . , m, la matriz A
j
R
(mh)n
es la matriz que resulta de
quitar h las a la matriz A, que, sin perdida de generalidad, suponemos que son
seguidas. As
A
j
= [a
1
, . . . , a
k1
, a
k+h
, . . . , a
m
]
T
.
Denotaremos por B
j
R
(hn)
la matriz formada por las h las que se le quitaron
a la matriz A. As
B
j
= [a
k
, . . . , a
k+h1
]
T
.
De igual forma, dado y = (
1
, . . . ,
m
)
T
con
i
R, i = 1, . . . , m, el vector
y
j
R
mh
es el vector que resulta de quitar las h componentes correspondientes
al vector y. As
y
j
= (
1
, . . . ,
k1
,
k+h
, . . . ,
m
)
T
.
Denotaremos por b
j
R
h
el vector formado por las h componentes que se le
quitaron al vector y. As
b
j
= (
k
, . . . ,
k+h1
)
T
.
1
Se asume que el sistema Cx = d se resuelve con un algoritmo como Cholesky. Otros algorit-
mos como QR, para resolver este sistema, no requieren el calculo de la matriz C pero resultan
ser m as costosos, aunque proporcionan una mayor estabilidad numerica.
60 A. Arevalo, H. Martnez y A. Sanabria
4 Algunos resultados del algebra lineal
A continuacion, veremos una serie de resultados que, aunque no sean requeridos de
manera directa, son importantes para el dise no y demostracion de los resultados
que respaldan los algoritmos.
En primer lugar, con el objetivo de rebajar el costo del calculo de A
T
j
A
j
,
obtuvimos una generalizacion del Lema de Vargas [2].
Lema 1. Dada una matriz A = [a
1
, . . . , a
m
]
T
R
mn
, si la matriz A
j
=
[a
1
, . . . , a
k1
, a
k+h
, . . . , a
m
]
T
, es la matriz que resulta de quitar h las a la matriz
A y la matriz B
j
es la matriz que se forma con las h las que se quitaron a A;
entonces
A
T
j
A
j
= A
T
AB
T
j
B
j
.
Demostracion.
A
T
j
A
j
= [a
1
, . . . , a
k1
, a
k+h
, . . . , a
m
][a
1
, . . . , a
k1
, a
k+h
, . . . , a
m
]
T
=
k1

i=1
a
i
a
T
i
+
m

i=k+h
a
i
a
T
i
=
k1

i=1
a
i
a
T
i
+
k+h1

i=k
a
i
a
T
i

k+h1

i=k
a
i
a
T
i
+
m

i=k+h
a
i
a
T
i
=
m

i=1
a
i
a
T
i

k+h1

i=k
a
i
a
T
i
= [a
1
, . . . , a
m
][a
1
, . . . , a
m
]
T
[a
k
, . . . , a
k+h1
][a
k
, . . . , a
k+h1
]
T
= A
T
AB
T
j
B
j
.
De igual manera, generalizamos el Lema 2 dado en [2], que nos permite sim-
plicar el calculo de A
T
j
y
j
.
Lema 2. Dada una matriz A = [a
1
, . . . , a
m
]
T
y un vector y = (
1
, . . . ,
m
)
T
, si
la matriz A
j
= [a
1
, . . . , a
k1
, a
k+h
, . . . , a
m
]
T
y el vector
y
j
= (
1
, . . . ,
k1
,
k+h
, . . . ,
m
)
T
,
son, respectivamente, la matriz y el vector que resultan de quitar h las a la
matriz A y las h componentes correspondientes del vector y, y la matriz B
j
es la
matriz que se forma con las h las que se quitaron a A y el vector b
j
es el vector
que se forma con las h componentes que se quitaron a y; entonces
A
T
j
y
j
= A
T
y B
T
j
b
j
.
Calculo Jackknife agrupado 61
Demostracion.
A
T
j
y
j
= [a
1
, . . . , a
k1
, a
k+h
, . . . , a
m
](
1
, . . . ,
k1
,
k+h
, . . . ,
m
)
T
=
1
a
1
+. . . +
k1
a
k1
+
k+h
a
k+h
+. . . +
m
a
m
=
1
a
1
+. . . +
m
a
m

k
a
k
. . .
k+h1
a
k+h1
=
m

i=1

i
a
i
[a
k
, . . . , a
k+h1
](
k
, . . . ,
k+h1
)
T
= A
T
y B
T
j
b
j
.
Por ultimo, un resultado clave para el logro de nuestro objetivo, conocido
como la formula general de Sherman-Morrison-Woodbury.
Lema 3. (Sherman-Morrison-Woodbury) Dadas las matrices W R
nn
no sin-
gular, U R
nm
, V R
mn
y la identica I
k
R
kk
. (I
m
+ V W
1
U) es no
singular, si y solo si, (W +UV ) es no singular. Ademas, si (I
m
+V W
1
U) es no
singular,
(W +UV )
1
= W
1
W
1
U(I
m
+V W
1
U)
1
V W
1
Demostracion.
) Si (I
m
+V W
1
U) es no singular, tenemos que
(W + UV )(W
1
W
1
U(I
m
+V W
1
U)
1
V W
1
)
= I
n
+UV W
1

_
U(I
m
+V W
1
U)
1
V W
1
+
UV W
1
U(I
m
+V W
1
U)
1
V W
1
_
= I
n
+UV W
1
(U +UV W
1
U)(I
m
+V W
1
U)
1
V W
1
= I
n
+UV W
1
U(I
m
+V W
1
U)(I
m
+V W
1
U)
1
V W
1
= I
n
+UV W
1
UV W
1
= I
n
.
) Sea Z = W
1
U. Si (I
m
+V W
1
U) = (I
m
+V Z) es singular, entonces existe
x R
m
diferente de cero, tal que (I +V Z)x = 0. Demostremos que y = Zx R
n
es diferente de cero y (I
n
+ZV )y = 0.
De las hipotesis sobre x, tenemos que x = V Zx = V y, por lo tanto, si
y = 0, x seria 0; por lo cual, concluimos que y = 0. Ademas,
(I
n
+ZV )y = (I
n
+ZV )Zx = (Z +ZV Z)x = Z(I
m
+V Z)x = Z0 = 0,
por lo tanto, (I
n
+ ZV ) es singular, y como (W + UV ) = W(I
n
+ W
1
UV ) =
W(I
n
+ZV ), concluimos que (W+UV) es singular.
62 A. Arevalo, H. Martnez y A. Sanabria
Ahora, haciendo uso de los lemas anteriores y bajo el supuesto que el problema
inicial y los subproblemas respectivos son de rango completo, podemos expresar
las soluciones de los sistemas A
T
j
A
j
x
j
= A
T
j
y
j
del segundo paso del algoritmo, en
terminos de la solucion de A
T
Ax = A
T
y y otras expresiones sencillas de calcular,
como se muestra en el siguiente teorema.
Teorema 1. Dada una matriz A = [a
1
, . . . , a
m
]
T
R
mn
y un vector y =
(
1
, ...,
m
)
T
, si la matriz A
j
= [a
1
, . . . , a
k1
, a
k+h
, . . . , a
m
]
T
y el vector y
j
=
(
1
, . . . ,
k1
,
k+h
, . . . ,
m
) son, respectivamente, la matriz y el vector que re-
sultan de quitar h las a la matriz A y las h componentes correspondientes del
vector y; y ademas, A y A
j
son matrices de rango completo, entonces x
j
, la
solucion de A
T
j
A
j
x
j
= A
T
j
y
j
, est a dada por
x
j
= x +Z
j
(w
j
b
j
),
donde x es la solucion de A
T
Ax = A
T
y , Z
j
es la solucion de A
T
AZ = B
T
j
, w
j
es la solucion de (I B
j
Z
j
)w = Z
T
j
d
j
con d
j
= A
T
j
y
j
, y ademas, B
j
y b
j
son la
matriz y vector formado con las h las quitadas a A y las h componentes quitadas
a y, respectivamente.
Demostracion. Sean C = A
T
A, C
j
= A
T
j
A
j
y d = A
T
y. Como A y A
j
son de
rango completo, entonces C y C
j
son invertibles. Por el Lema 1, C
j
= CB
T
j
B
j
,
por el Lema 2, d
j
= d B
T
j
b
j
y por el Lema 3, tenemos que
C
1
j
= C
1
+C
1
B
T
j
(I B
j
C
1
B
T
j
)
1
B
j
C
1
.
Ahora
x
j
= C
1
j
d
j
= [C
1
+C
1
B
T
j
(I B
j
C
1
B
T
j
)
1
B
j
C
1
]d
j
= C
1
d
j
+C
1
B
T
j
(I B
j
C
1
B
T
j
)
1
B
j
C
1
d
j
= C
1
(d B
T
j
b
j
) +C
1
B
T
j
(I B
j
C
1
B
T
j
)
1
B
j
C
1
d
j
= C
1
d C
1
B
T
j
b
j
+C
1
B
T
j
(I B
j
C
1
B
T
j
)
1
B
j
C
1
d
j
.
Sea Z
j
la solucion de CZ = B
T
j
, entonces
x
j
= x Z
j
b
j
+Z
j
(I B
j
Z
j
)
1
Z
T
j
d
j
.
Sea w
j
la solucion de (I B
j
Z
j
)w = Z
T
j
d
j
, entonces
x
j
= x Z
j
b
j
+Z
j
w
j
= x +Z
j
(w
j
b
j
).
Calculo Jackknife agrupado 63
Con base en el Teorema 1, podemos decir que para la solucion de los (mh)
sistemas de los subproblemas no es necesario calcular A
T
j
A
j
ni A
T
j
y
j
, y que la
solucion del sistema A
T
j
A
j
x = A
T
j
y
j
se reduce a la solucion de sistemas con la
matriz A
T
A
2
y al calculo de algunos productos internos, haciendo que el costo
del algoritmo estandar del EJAMCL sea mucho menor. Por tanto, proponemos
modicar el paso 2 del algoritmo estandar de la siguiente manera.
Para j = 1, . . . , g. {Resolver A
T
j
A
j
x = A
T
j
y
j
.}
Resolver CZ
j
= B
T
j
.
Calcular S
j
= B
j
Z
j
.
Calcular r
j
= Z
T
j
d
j
.
Resolver (I S
j
)w
j
= r
j
.
Calcular x
j
= x Z
j
(w
j
b
j
).
Salida: x
j
.
Haciendo esta modicacion en el paso 2 del algoritmo estandar del EJAMCL,
bajo el supuesto que A y A
j
son de rango completo, reducimos el n umero de
operaciones del algoritmo de [
m
h
((mh)n
2
+(mh)n+
n
3
6
)] a [n
2
+hn+2n+
h
2
3
],
donde m es el tama no de la muestra, h un n umero jo dado por el estimador
Jackknife Agrupado (h << m) y n es el n umero de parametros a estimar (m n).
Claramente, el hecho que una matriz A sea de rango completo no implica que
las matrices A
j
tambien lo sean. Por ello, nos propusimos encontrar una caracteri-
zacion de las soluciones de A
T
j
A
j
x = A
T
j
y
j
basada en la solucion de A
T
Ax = A
T
y,
independientemente si las respectivas A
j
son o no de rango completo. Para ello,
necesitamos probar que el sistema (I B
j
Z
j
)p = B
j
x b
j
tiene solucion, a un
cuando (I B
j
Z
j
) sea singular, como lo demostramos en el siguiente lema.
Lema 4. Dada una matriz A = [a
1
, . . . , a
m
]
T
R
mn
de rango completo, un
vector y = (
1
, . . . ,
m
)
T
, x, la solucion de A
T
Ax = A
T
y, y Z
j
la solucion de
A
T
AZ = B
T
j
, entonces
B
j
x
j
b
j
es solucion de (I B
j
Z
j
)p = B
j
x b
j
,
donde B
j
y b
j
son la matriz y el vector formado con las h las quitadas a A y
las h componentes quitadas a y, respectivamente.
Demostracion. Sean C = A
T
A, C
j
= A
T
j
A
j
, d = A
T
y y d
j
= A
T
j
y
j
, entonces
B
j
x b
j
= B
j
C
1
d b
j
= B
j
C
1
(d
j
+B
T
j
b
j
) b
j
= B
j
C
1
d
j
+B
j
C
1
B
T
j
b
j
b
j
= Z
T
j
d
j
+ (Z
T
j
B
T
j
I)b
j
2
Recordemos que resolver un segundo sistema con la misma matriz, resulta menos costoso
puesto que ya se tiene la factorizaci on de la matriz calculada al resolver el primer sistema.
64 A. Arevalo, H. Martnez y A. Sanabria
B
j
x b
j
= Z
T
j
C
j
x
j
+ (Z
T
j
B
T
j
I)b
j
= Z
T
j
(C B
T
j
B
j
) x
j
+ (Z
T
j
B
T
j
I)b
j
= Z
T
j
C x
j
Z
T
j
B
T
j
B
j
x
j
+ (Z
T
j
B
T
j
I)b
j
= B
j
x
j
Z
T
j
B
T
j
B
j
x
j
+ (Z
T
j
B
T
j
I)b
j
= (I Z
T
j
B
T
j
)B
j
x
j
+ (Z
T
j
B
T
j
I)b
j
= (I Z
T
j
B
T
j
)(B
j
x
j
b
j
)
= (I B
j
Z
j
)(B
j
x
j
b
j
),
puesto que Z
T
j
B
T
j
= Z
T
j
CZ
j
es una matriz simetrica.
Veamos ahora, que para el caso en que la matriz (I B
j
Z
j
) es singular, gracias
al lema anterior, podemos determinar un conjunto solucion de A
T
j
A
j
x = A
T
j
y
j
.
Teorema 2. Dada una matriz A = [a
1
, . . . , a
m
]
T
R
mn
de rango completo, un
vector y = (
1
, . . . ,
m
)
T
y x, la solucion de A
T
Ax = A
T
y, entonces un conjunto
solucion de A
T
j
A
j
x = A
T
j
y
j
es
x
j
= x +Z
j
u
j
,
para todo u
j
R
h
, tal que u
j
sea solucion de (I B
j
Z
j
)u = B
j
xb
j
, donde Z
j
es
la solucion de A
T
AZ = B
T
j
, y ademas, B
j
y b
j
son la matriz y el vector formado
con las h las quitadas a A y las h componentes correspondientes quitadas a y,
respectivamente.
Demostracion. Sean C = A
T
A, C
j
= A
T
j
A
j
, d = A
T
y y d
j
= A
T
j
y
j
, entonces
C
j
( x +Z
j
u
j
) = (C B
T
j
B
j
)( x +Z
j
u
j
)
= C x +CZ
j
u
j
B
T
j
B
j
x B
T
j
B
j
Z
j
u
j
= d +B
T
j
u
j
B
T
j
B
j
x B
T
j
B
j
Z
j
u
j
= d B
T
j
B
j
x +B
T
j
(I B
j
Z
j
)u
j
= d B
T
j
B
j
x +B
T
j
(B
j
x b
j
)
= d B
T
j
b
j
= d
j
.
Por el teorema anterior, garantizamos que todo elemento de la forma x +
Z
j
u
j
, donde (I B
j
Z
j
)u
j
= B
j
x b
j
, es solucion de A
T
j
A
j
x = A
T
j
y
j
. Ahora,
para completar una caracterizacion del conjunto solucion de A
T
j
A
j
x
j
= A
T
j
y
j
,
necesitamos ver que toda solucion x
j
es de la forma x+Z
j
u
j
, lo cual establecemos
en el siguiente resultado.
Calculo Jackknife agrupado 65
Teorema 3. Dada una matriz A = [a
1
, . . . , a
m
]
T
R
mn
de rango completo, un
vector y = (
1
, . . . ,
m
)
T
y x, la solucion de A
T
Ax = A
T
y. Si x
j
es una solucion
de A
T
j
A
j
x
j
= A
T
j
y
j
, entonces
x
j
= x +Z
j
u
j
,
para alg un u
j
R
h
, solucion del sistema (I B
j
Z
j
)u = B
j
x b
j
, donde Z
j
es
la solucion de A
T
AZ = B
T
j
, y ademas, B
j
y b
j
son la matriz y el vector formado
con las h las quitadas a A y las h componentes correspondientes quitadas a y,
respectivamente.
Demostracion. Sean C = A
T
A, C
j
= A
T
j
A
j
, d = A
T
y y d
j
= A
T
j
y
j
, entonces
C
j
x
j
= d
j
(C B
T
j
B
j
) x
j
= d B
T
j
b
j
C x
j
B
T
j
B
j
x
j
= d B
T
j
b
j
C x
j
= d B
T
j
b
j
+B
T
j
B
j
x
j
.
Sea v
j
= B
j
x
j
, entonces
C x
j
= d B
T
j
b
j
+B
T
j
v
j
= d +B
T
j
(v
j
b
j
).
Sea u
j
= v
j
b
j
, entonces
C x
j
= d +B
T
j
u
j
x
j
= C
1
(d +B
T
j
u
j
)
= C
1
d +C
1
B
T
j
u
j
= x +Z
j
u
j
.
Ademas,
(I B
j
Z
j
)u
j
= (I B
j
Z
j
)(v
j
b
j
) = (I B
j
Z
j
)(B
j
x
j
b
j
) = B
j
x b
j
.
As, hemos logrado caracterizar el conjunto solucion de A
T
j
A
j
x
j
= A
T
j
y
j
, a un
para cuando A
j
no es de rango completo.
De los resultados anteriores, se puede notar que u
j
es de la forma w
j
b
j
;
donde w
j
es solucion de (I B
j
Z
j
)w = Z
T
j
d
j
. Veamos que u
j
= w
j
b
j
es solucion
66 A. Arevalo, H. Martnez y A. Sanabria
de (I B
j
Z
j
)u = B
j
x b
j
.
(I B
j
Z
j
)u
j
= (I B
j
Z
j
)(w
j
b
j
) = (I B
j
Z
j
)w
j
(I B
j
Z
j
)b
j
= Z
T
j
d
j
+B
j
Z
j
b
j
b
j
= Z
T
j
(d B
T
j
b
j
) +B
j
Z
j
b
j
b
j
= Z
T
j
d Z
T
j
B
T
j
b
j
+B
j
Z
j
b
j
b
j
= B
j
C
1
d b
j
= B
j
x b
j
Ahora, en el caso en que A
j
es de rango completo, la matriz (I B
j
Z
j
) es no
singular y as el vector u
j
es unico e igual a (w
j
b
j
), donde w
j
es la solucion de
(I B
j
Z
j
)w = Z
T
j
d
j
, como se demostro en el Teorema 1.
Dados los resultados anteriores, ahora podemos realizar una peque na, pero
signicante modicacion al algoritmo dado en la seccion anterior, manteniendo
su eciencia y sin la condicion de que las matrices A
j
sean de rango completo; es
decir, con la unica condicion de que solo A sea de rango completo. Como existe la
posibilidad que alguno de los subproblemas (A
j
) sean de rango deciente (IB
j
Z
j
singular), el subproblema j tendra innitas soluciones. En tal caso, proponemos
tomar uno de los u
j
que sean solucion de (I B
j
Z
j
)u = B
j
x b
j
y tomar a
x
j
= x +Z
j
u
j
como solucion del subproblema.
Finalmente, generalizaremos nuestro resultado, quitando la condicion sobre
el problema inicial; es decir, sin importar si A es o no de rango completo. Para
ello, veremos un lema que nos permitira prescindir de esta condicion.
Lema 5. Dada una matriz A = [a
1
, . . . , a
m
]
T
, un vector y = (
1
, . . . ,
m
)
T
y x,
una solucion de A
T
Ax = A
T
y, entonces
B
j
x
j
b
j
es solucion de (I B
j
Z
j
)p = B
j
x b
j
,
donde Z
j
es una solucion de A
T
AZ = B
T
j
, y ademas, B
j
y b
j
son la matriz y el
vector formado con las h las quitadas a A y las h componentes correspondientes
quitadas a y, respectivamente..
Demostracion. Sean C = A
T
A, C
j
= A
T
j
A
j
, d = A
T
y y d
j
= A
T
j
y
j
. Como
C x = d = d
j
+B
j
b
j
, entonces
Z
T
j
C x = Z
T
j
d
j
+Z
T
j
B
j
b
j
.
Ahora, como CZ
j
= B
T
j
, entonces B
j
x = Z
T
j
C x = Z
T
j
d
j
+Z
T
j
B
j
b
j
. As, tenemos
Calculo Jackknife agrupado 67
que
B
j
x b
j
= Z
T
j
d
j
+ (Z
T
j
B
T
j
I)b
j
= Z
T
j
C
j
x
j
+ (Z
T
j
B
T
j
I)b
j
= Z
T
j
(C B
T
j
B
j
) x
j
+ (Z
T
j
B
T
j
I)b
j
= Z
T
j
C x
j
Z
T
j
B
T
j
B
j
x
j
+ (Z
T
j
B
T
j
I)b
j
= B
j
x
j
Z
T
j
B
T
j
B
j
x
j
+ (Z
T
j
B
T
j
I)b
j
= (I Z
T
j
B
T
j
)B
j
x
j
+ (Z
T
j
B
T
j
I)b
j
= (I Z
T
j
B
T
j
)(B
j
x
j
b
j
)
= (I B
j
Z
j
)(B
j
x
j
b
j
).
Notese que el sistema A
T
AZ = B
T
j
siempre tiene solucion (Z
j
), puesto que el
sistema A
T
AZ = B
T
j
puede verse como h sistemas de la forma A
T
Az
i
= a
k+i1
,
donde z
i
y a
k+i1
con i = 1, . . . , h, son los vectores columna de las matrices
Z y B
T
j
, respectivamente. Ahora, cada sistema A
T
Az
i
= a
k+i1
siempre tiene
solucion, puesto que, solucionar este sistema es equivalente a solucionar el sistema
A
T
Az
i
= A
T
e
k+i1
que es el sistema de ecuaciones normales correspondiente
al problema de mnimos cuadrados lineales mn Az e
k+i1
, el cual siempre
tiene solucion (e
r
es el resimo vector canonico de R
h
). As, con el Lema 5,
garantizamos el mismo resultado del Lema 4; con la diferencia que ahora no
necesitamos que la matriz A sea de rango completo, logrando garantizar que el
Teorema 2 siga siendo valido a un cuando la matriz A no sea de rango completo.
De esta manera, obtenemos un conjunto solucion de A
T
j
A
j
x = A
T
j
y
j
basado en
una solucion de A
T
Ax = A
T
y, sin condicion alguna sobre el problema inicial
o los subproblemas requeridos; es decir, que la matriz A y las matrices A
j
no
necesariamente sean de rango completo.
Cabe anotar que el Teorema 3 no es valido sin la hipotesis de rango completo
para la matriz A, por lo tanto, sin esta hipotesis no es posible caracterizar el
conjunto solucion de A
T
j
A
j
x = A
T
j
y
j
.
Dados los anteriores resultados, tenemos el soporte teorico para garantizar que
el algoritmo propuesto es valido a un para cuando A y A
j
sean de rango deciente.
As, si el problema inicial (A) es de rango deciente, entonces el problema inicial
(A
T
Ax = A
T
y) tendra innitas soluciones. En tal caso, tomamos una de sus
soluciones (un x), una de las soluciones (Z
j
) de A
T
AZ = B
T
j
y un vector u
j
que
sea solucion de (I B
j
Z
j
)u = B
j
x b
j
y la solucion de A
T
j
A
j
x
j
= A
T
j
y
j
sigue
siendo x
j
= x + Z
j
u
j
, como se propuso anteriormente. Cabe resaltar que esta
ultima modicacion no altera la eciencia lograda, puesto que la eciencia se da
al reducir el costo de solucion de los subproblemas con base en la solucion del
problema inicial, a un as los subproblemas y el problema inicial sean de rango
deciente.
68 A. Arevalo, H. Martnez y A. Sanabria
Creditos
Este artculo hace parte del Trabajo de Grado dirigido por H.J. Martnez y A.M.
Sanabria y presentado por A. Arevalo como requisito parcial para optar al ttulo
de Matematico en la Universidad del Valle. Una version inicial de este artculo
fue presentado en el XVIII Congreso Colombiano de Matematicas celebrado en
Bucaramanga (Santander), en julio de 2011.
Referencias
[1] Behar, R. y Yepes, M. Sobre algunas tecnicas de remuestreo: El metodo Jackk-
nife. Heurstica 5, No 6, 1991.
[2] Martnez, H. J. y Sanabria, A. M. Calculo eciente del estimador jackknife
para mnimos cuadrados lineales bajo condiciones de unicidad. Matematicas:
Ense nanza Universitaria, Vol III, No 1 y 2, 2000.
[3] Martnez, H. J. y Sanabria, A. M. Calculo eciente del estimador jackknife
para mnimos cuadrados lineales de rango completo. Revista de la Academia
Colombiana de Ciencias Exactas, Fsicas y Naturales, Vol XXX, 2006.
[4] Martnez, H. J. y Sanabria, A. M. Calculo eciente del estimador jackknife
para mnimos cuadrados lineales de rango deciente. Aceptado para publica-
cion en la Revista de la Academia Colombiana de Ciencias Exactas, Fsicas y
Naturales, 2012.
Direcci on de los autores
Alexander Arevalo S. Departamento de Matematicas, Universidad del Valle, Cali-
Colombia
e-mail: alexanderrvl@hotmail.com
Hector J. Martnez R. Departamento de Matematicas, Universidad del Valle, Cali-
Colombia
e-mail: hector.martnez@correounivalle.edu.co
Ana M. Sanabria R. Departamento de Matematicas, Universidad del Valle, Cali-
Colombia
e-mail: ana.sanabria@correounivalle.edu.co

También podría gustarte