Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Inversa Generalizada para Matrices Rectangulares
Inversa Generalizada para Matrices Rectangulares
rectangulares
Junio-2022
D. Néstor Thome Coppo, Catedrático de Universidad del Departamento de
Matemática Aplicada de la Universitat Politècnica de València; y D. David
E. Ferreyra, Investigador de CONICET y Profesor Adjunto Exclusivo de la
Facultad de Ciencias Exactas Físco-Química y Naturales de la Universidad
Nacional de Río Cuarto.
CERTIFICAN:
que la presente memoria "La Inversa core-EP y la inversa de grupo débil para
matrices rectangulares", ha sido realizada bajo su dirección por Dña. Valentina
Orquera, y constituye su tesis para optar al grado de Doctora por la Universitat
Politècnica de València.
ii
Resumen
Durante las primeras décadas del siglo pasado se estudiaron las inversas gene-
ralizadas que hoy en día se conocen como inversas generalizadas clásicas. Entre
ellas cabe mencionar la inversa de Moore-Penrose (1955) y la inversa de Dra-
zin (1958). Mientras que la inversa de Moore-Penrose se denió originalmente
para matrices complejas rectangulares, la inversa de Drazin fue tratada, en un
primer momento, únicamente para matrices cuadradas. Más tarde, en 1980,
Cline y Greville realizaron la extensión del caso cuadrado al caso rectangular,
mediante la consideración de una matriz de ponderación rectangular. Diferen-
tes propiedades, caracterizaciones y aplicaciones fueron obtenidas para estos
tipos de inversas generalizadas hasta nales del siglo pasado.
iii
Capítulo 0. Resumen
iv
Abstract
This last decade gave rise to new notions of generalized inverses. The rst of
these new notions is known as the core inverse. Core inverses were introdu-
ced in 2010 by Baksalary and Trenkler. Their work had a wide repercussion
in the mathematical community due to the simplicity of its denition and its
application in the solution of some linear systems with restrictions. The core
inverse further gain in interest due to their connection to the Bott-Dun inver-
se. There is a large body of work on the core inverse, including extensions to
more general sets such as the algebra of bounded linear operators on Hilbert
spaces and/or abstract rings.
v
Capítulo 0. Resumen
The main goal of this thesis is to dene and study in depth a new generalized
inverse for rectangular matrices. This new inverse is called weighted weak
group inverse (or weighted WG inverse). Weighted WG inverses extend weak
group inverse, recently dened for the square case by Wang and Chen, to the
rectangular case. We also consider an extensive study of the weighted core-EP
inverse. The latter type of inverse was dened by Ferreyra, Levis, and Thome
in 2018. This inverse extends the core-EP inverse introduced by Manjunatha-
Prasad and Mohana in 2014 to the rectangular case. This thesis presents new
properties, representations, characterizations, as well as their relation with
other inverses known in the literature are obtained, for weighted WG inverses
and weighted core-EP inverse. In addition, the thesis presents two algorithms
that allow for an eective computation weighted WG inverses and weighted
core-EP inverse.
vi
Resum
Durant les primeres dècades del segle passat es van estudiar les inverses genera-
litzades que hui dia es coneixen com a inverses generalitzades clàssiques. Entre
elles cal esmentar la inversa de Moore-Penrose (1955) i la inversa de Drazin
(1958). Mentre que la inversa de Moore-Penrose es va denir originalment per
a matrius complexes rectangulars, la inversa de Drazin va ser tractada, en un
primer moment, únicament per a matrius quadrades. Més tard, en 1980, Cline
i Greville van realitzar l'extensió del cas quadrat al cas rectangular, mitjançant
la consideració d'una matriu de ponderació rectangular. Diferents propietats,
caracteritzacions i aplicacions van ser obtingudes per a aquests tipus d'inverses
generalitzades ns a nals del segle passat.
vii
Capítulo 0. Resumen
viii
Agradecimientos
En primer lugar quiero agradecer a mis directores David y Néstor por la con-
anza depositada en mí para realizar este trabajo. Sin su paciencia, dedicación
y compromiso, no hubiese podido realizarlo. ½GRACIAS!
Valentina Orquera
Introducción
Los temas desarrollados en esta tesis se enmarcan dentro del área Análisis Ma-
tricial, más precisamente en el contexto de Matrices Inversas Generalizadas.
En 1920, Moore [41] introdujo una extensión de la inversa ordinaria de un ope-
rador lineal acotado sobre un espacio de dimensión innita, usando proyectores
ortogonales. En particular, en el caso matricial, estableció la existencia de una
única inversa para toda matriz compleja y la denominó recíproca general. Sin
embargo, esta denición no consiguió gran notoriedad en la comunidad cientí-
ca, quizás debido a la engorrosa notación utilizada por Moore. Su denición se
basaba en los proyectores ortogonales sobre los espacios columnas de la matriz
y su traspuesta conjugada, es decir, su denición se realizó desde un punto de
vista funcional o geométrico. En 1955, Penrose [48] presentó un nuevo con-
cepto de inversa generalizada para matrices rectangulares desde un punto de
vista más bien algebraico, en el sentido de que su denición venía dada por
cuatro ecuaciones matriciales, conocidas en la actualidad como ecuaciones de
Penrose. Posteriormente se probó que esta denición era equivalente a la dada
por Moore. A partir de allí, esta inversa generalizada es comúnmente conocida
como la inversa de Moore-Penrose y fue ampliamente estudiada. Una de las
principales razones de ello es su utilidad en aplicaciones para tratar diversos
problemas, en particular, la resolución de sistemas de ecuaciones lineales, que
constituye una de las aplicaciones básicas, pero a la vez más importante, de
xi
Capítulo 0. Introducción
xii
En 1980, Cline y Greville [7] extendieron la inversa de Drazin al caso de una
matriz rectangular A ∈ Cm×n mediante una matriz de ponderación no nula
W ∈ Cn×m . Probaron que dicha inversa siempre existe y es única. Tal inversa
es conocida como la inversa de Drazin ponderada. Se puede decir que esta
extensión es uno de los primeros antecedentes en el intento de extender una
inversa generalizada para matrices cuadradas al caso rectangular. A partir de
la inversa de Drazin ponderada surgieron numerosos trabajos de investigación
tanto en sus aspectos teóricos como así también en sus aplicaciones [26, 28,
30, 32, 33, 52, 56, 60, 61]. Siguiendo una técnica similar, en 2017, Meng [38]
denió la inversa DMP para matrices rectangulares, llamada inversa DMP
ponderada. Dicha inversa siempre existe, es única y fue representada usando
descomposiciones en valores singulares de las matrices A y W .
xiii
Capítulo 0. Introducción
xiv
Índice general
Resumen iii
Introducción xi
Índice general xv
1 Introducción y preliminares 1
1.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
4 La inversa WG ponderada 57
xv
Índice general
xvi
Capítulo 1
Introducción y preliminares
1.1 Preliminares
1
Capítulo 1. Introducción y preliminares
2
1.1 Preliminares
Más aún, algunas de las principales propiedades de estos subespacios son enu-
meradas en el siguiente teorema.
Otras propiedades útiles que poseen los subespacios columna y nulo pueden
resumirse en el siguiente teorema.
3
Capítulo 1. Introducción y preliminares
El índice de una matriz permite dar una descomposición del espacio vectorial
Cn como suma directa entre dos subespacios invariantes relativos a Ak .
a) Cn = N (A) ⊕⊥ R(A),
b) R(A) = R(A∗ ),
c) N (A) = N (A∗ ),
4
1.1 Preliminares
Lema 1.1.1. Sea A ∈ Cn×n una matriz representada en la forma (1.2). En-
tonces Ind(A) ≤ 1 si y sólo si K es no singular.
5
Capítulo 1. Introducción y preliminares
a) Ind(A1 ) ≤ 1,
b) Ak2 = 0,
c) A∗1 A2 = 0 y A2 A1 = 0.
Más aún, las matrices A1 y A2 son las únicas que satisfacen estas condiciones.
En esta sección se dan algunas deniciones de las inversas clásicas, a saber, las
inversas de Moore-Penrose, de Drazin y de grupo, estableciendo algunas de sus
principales propiedades y caracterizaciones.
6
1.2 Inversas generalizadas clásicas
7
Capítulo 1. Introducción y preliminares
Es bien conocido que toda matriz compleja siempre admite una inversa interior
y una inversa exterior. Más aún, dichas inversas son innitas, salvo que la
matriz resulte nula o no singular.
Proposición 1.2.1. [3, 62] Sea A ∈ Cm×n . Entonces, se satisfacen las si-
guientes armaciones
8
1.2 Inversas generalizadas clásicas
En el año 1920, Moore [41] notó la existencia de una única inversa para cada
matriz compleja y la denominó recíproca general. Su denición se basaba en
los proyectores ortogonales sobre el espacio imagen de A y el de su traspuesta
conjugada A∗ . Es decir, Moore dio una denición desde un punto de vista
funcional o geométrico. En 1955 Penrose [48] publicó un escrito con una
denición más bien algebraica pero sin embargo equivalente a la dada por
Moore. Muchas propiedades y aplicaciones fueron desarrolladas a partir de la
inversa de Moore-Penrose, más especícamente, esta inversa juega un papel
determinante en la resolución aproximada de sistemas de ecuaciones lineales
por el método de mínimos cuadrados y en el análisis de problemas de control
óptimo.
9
Capítulo 1. Introducción y preliminares
Proposición 1.2.2. [3, 48, 62] Sea A ∈ Cm×n . Entonces, se satisfacen las
siguientes propiedades
a) (A† )† = A.
b) (A∗ )† = (A† )∗ .
c) A∗ = A∗ AA† = A† AA∗ .
f) R(A† ) = R(A∗ ).
g) N (A† ) = N (A∗ ).
10
1.2 Inversas generalizadas clásicas
11
Capítulo 1. Introducción y preliminares
Proposición 1.2.5. [3, 39, 62] Sea A ∈ Cn×n tal que Ind(A) = k. Entonces,
se satisfacen las siguientes propiedades
a) (A∗ )d = (Ad )∗ .
b) (Am )d = (Ad )m , m ∈ N.
1. AAd = Am (Ad )m , m ∈ N.
c) (Ad )d = A si y sólo si Ind(A) ≤ 1.
d) Ind(Ad ) ≤ 1 y (Ad )# = A2 Ad .
e) R(Ad ) = R(Ak ).
f) N (Ad ) = N (Ak ).
Puesto que la inversa de Drazin de una matriz cuadrada es una inversa exterior,
usando los apartados f) y g) de la proposición anterior y el Lema 1.2.1, se puede
obtener una representación con espacios columna y núcleo prescritos, como lo
muestra el siguiente resultado.
12
1.2 Inversas generalizadas clásicas
b) rg(A) = rg(A2 ),
c) Ind(A) ≤ 1.
a) (A# )# = A.
b) (A# )∗ = (A∗ )# .
c) (Am )# = (A# )m , m ∈ N.
d) A# = A(A3 )† A.
e) R(A# ) = R(A).
f) N (A# ) = N (A).
Puesto que la inversa de grupo es una inversa interior y exterior, de los apar-
tados e) y f) de la proposición anterior y el Lema 1.2.1, se puede obtener una
13
Capítulo 1. Introducción y preliminares
Una condición necesaria para que la inversa core de una matriz A exista es que
Ind(A) ≤ 1. En efecto, de la igualdad AX = PA , se tiene que
AXA = AA† A = A.
14
1.3 Inversas generalizadas recientes
de donde,
rg(A) = rg(AX). (1.8)
Por otro lado, de la segunda ecuación de la Denición 1.3.1 y el Teorema 1.1.2,
se obtiene que X = AY , para alguna matriz Y ∈ Cn×n . Así,
AX = A2 Y,
es decir,
rg(A2 ) = rg(AX). (1.9)
Finalmente, de (1.8) y (1.9) se deduce que
rg(A2 ) = rg(A),
o equivalentemente, Ind(A) ≤ 1.
Teorema 1.3.1. [1] Sea A ∈ Cn×n tal que Ind(A) ≤ 1. Entonces, la inversa
core de A existe y es única.
Proposición 1.3.1. [1] Sea A ∈ Cn×n tal que Ind(A) ≤ 1. Entonces, se
satisfacen las siguientes propiedades
O
a) A # = A# PA . O O
f) (A # )m = (Am ) # , m ∈ N.
b) (AO ) = APA .
# †
g) AO#
A = A# A.
c) (AO ) = (AO
# #
).
# †
h) (AO# O
) # = (AO ).
# †
d) (AO
# O
) # = APA . i) R(AO #
) = R(A).
e) (AO ) A = A# .
# 2
j) N (AO #
) = N (A∗ ).
Puesto que la inversa core es una inversa interior y exterior, de los apartados i)
y j) de la proposición anterior y El Lema 1.2.1, se puede obtener una represen-
tación con espacios columna y núcleo prescritos, como lo muestra el siguiente
resultado.
15
Capítulo 1. Introducción y preliminares
O
" #
(ΣK)−1 0
#
A =U U ∗. (1.10)
0 0
Observación 1.3.1. Se observa que la Denición 1.3.2 fue dada para matrices
denidas sobre un cuerpo arbitrario.
16
1.3 Inversas generalizadas recientes
Ak = PX Ak
= XX † Ak
= (XAX)X † Ak
= XAPX Ak
= XAk+1 .
Más aún,
17
Capítulo 1. Introducción y preliminares
Por otro lado, de (1.14) y el apartado c) del Teorema 1.1.1 se tiene que rg(Ak ) =
rg(X) = rg(X ∗ ). Además,
R(X ∗ ) ⊆ R((AX)∗ ) = R(AX) = R(APAk X) ⊆ R(Ak ), (1.15)
es decir,
R(Ak ) = R(X ∗ ). (1.16)
De las igualdades (1.14) y (1.16), se concluye que R(A ) = R(X ) = R(X).
k ∗
18
1.3 Inversas generalizadas recientes
Por otro lado, notar que AX = Ak+1 (Ak+1 )† = PAk+1 , de donde claramente
resulta AX = (AX)∗ . Además, R(X) = R(Ak (Ak+1 )† ) ⊆ R(Ak ).
Unicidad : Sean X1 y X2 , dos matrices satisfaciendo el sistema de ecuaciones
XAk+1 = Ak , XAX = X , (AX)∗ = AX y R(X) ⊆ R(Ak ). Notar que
dicho sistema conduce a las siguientes dos condiciones AX = PAk y R(X) ⊆
R(Ak ). En efecto, la segunda condición es trivial. También es claro que
AX es un proyector ortogonal pues es una matriz hermítica e idempotente.
Por otro lado, usando la prueba de b) ⇒ a) del Teorema 1.3.3 se sigue que
R(AX) = R(Ak ). Además, como PAk es el único proyector ortogonal sobre
R(Ak ), se tiene que AX = PAk . Por lo tanto, las matrices X1 y X2 satisfacen
las siguientes ecuaciones
Por otro lado, usando las condiciones sobre los espacios columnas de X1 y X2 ,
dadas en (1.17) y (1.18), se obtiene que
Notar que si k ≤ 1, de (1.11) es fácil ver que R(X) ⊆ R(A). Sin embargo, no
es trivial deducir que AX = PA . En la siguiente observación se muestra que
efectivamente, la inversa core-EP coincide con la inversa core cuando el índice
de A es a lo sumo 1.
19
Capítulo 1. Introducción y preliminares
R(AAO †
) ⊆ R(A), de rg(A) = rg(AO †
A2 ) = rg(AO
†
AAO†
A2 ) ≤ rg(AAO†
) ≤
O
rg(A), se deduce que R(AA ) = R(A). Luego, como PA es el único proyector
†
Teorema 1.3.5. [15, 16, 36, 65] Sean A ∈ Cn×n tal que Ind(A) = k y
X∈C n×n
. Entonces, las siguientes condiciones son equivalentes
a) X es la inversa core-EP de A.
d) XAk+1 = Ak , AX 2 = X y (AX)∗ = AX .
g) AX = PAk y AX 2 = X .
20
1.3 Inversas generalizadas recientes
b) N (AO
†
) = N ((Ak )∗ ).
Teorema 1.3.6. [16] Sea A ∈ Cn×n tal que Ind(A) = k. Entonces, se satisface
AO
† (2)
= AR(Ak ),N ((Ak )∗ ) .
21
Capítulo 1. Introducción y preliminares
Una de esas extensiones fue realizada por Bakasalary y Trenkler. Más preci-
samente, estos autores denieron la inversa core generalizada de una matriz
cuadrada de índice arbitrario, en la actualidad más conocida como inversa BT,
en honor a sus autores.
Denición 1.3.3. [2] Sea A ∈ Cn×n . La inversa BT de A es la matriz dada
por
A⋄ = (APA )† .
22
1.3 Inversas generalizadas recientes
j=0
1.3.4 La inversa WG
AX 2 = X, AX = AO
†
A.
23
Capítulo 1. Introducción y preliminares
b) AOw
= (AO ) A.
† 2
f) AO
w
= (A2 PA )† A.
k
c) AOw
= (A2 )O
†
A. g) R(AOw
) = R(Ak ).
d) rg(AO
w
) = rg(Ak ). h) N (AO
w
) = N ((Ak )∗ A).
O O
a) AA w = A w A,
b) (A2 )O
w
= (AOw 2
) ,
c) AOw
= AD ,
24
1.3 Inversas generalizadas recientes
d) SN = 0.
AO
" #
w T −1 T −2 S
=U U ∗. (1.25)
0 0
25
Capítulo 2
core-EP ponderadas
27
Capítulo 2. Las inversas de Drazin y core-EP ponderadas
28
2.1 Descomposición core-EP ponderada
Es fácil ver que (W A)k A = A(W A)k . Luego, igualando bloque a bloque, se
tiene que A21 E k = 0, lo cual implica A21 = 0, pues E es no singular.
También, de (2.2) y (2.5), se tiene que
" # " #
A1 W1 + A12 W21 A1 W12 + A12 W2 ∗ C D
AW = U U =U U ∗,
A2 W21 A2 W 2 0 N
" # " #
W1 A1 W1 A12 + W12 A2 E F
WA = V V∗ =V V ∗,
W21 A1 W21 A12 + W2 A2 0 S
29
Capítulo 2. Las inversas de Drazin y core-EP ponderadas
O O
" #
# (A1 W1 )−1 0
†
(AW ) = (AW )1 = U U ∗, (2.10)
0 0
(W A)O
O#
" #
(W1 A1 )−1 0
†
= (W A)1 = V V ∗. (2.11)
0 0
30
2.2 La inversa de Drazin ponderada
31
Capítulo 2. Las inversas de Drazin y core-EP ponderadas
donde
k−1
X
RW A = (W1 A1 )j−k−2 (W1 A12 + W12 A2 )(W2 A2 )k−1−j ,
j=0
k−1
X
RAW = (A1 W1 )j−k−2 (A1 W12 + A12 W2 )(A2 W2 )k−1−j .
j=0
32
2.3 La inversa core-EP ponderada
y
k−1
X
TeW A = (W1 A1 )j−k−1 (W1 A12 + W12 A2 )(W2 A2 )k−1−j .
j=0
Por otro lado, si se dene RAW := (A1 W1 )−1 TeAW y RW A := (W1 A1 )−1 TeW A , la
expresión dada en (2.18) se obtiene de manera sencilla aplicando (2.12).
La inversa core-EP de una matriz rectangular fue denida en 2018 por los
autores Ferreyra, Levis y Thome [15], extendiendo la denición de inversa
33
Capítulo 2. Las inversas de Drazin y core-EP ponderadas
Por otro lado, si en el apartado f) del Teorema 1.3.5 se adaptan las ecuacio-
nes que caracterizan a la inversa core-EP para matrices cuadradas a matrices
rectangulares de índice arbitrario se puede plantear el siguiente sistema:
34
2.3 La inversa core-EP ponderada
de donde X1 = X2 .
AO
" #
(W1 A1 W1 )−1 0
† ,W
=U V ∗. (2.28)
0 0
35
Capítulo 2. Las inversas de Drazin y core-EP ponderadas
O O
" #" #" #
−1 −1
(A 1 W 1 ) 0 A 1 A12 (W A
1 1 ) 0
(AW ) † A(W A) † = U V∗
0 0 0 A2 0 0
" #
(A1 W1 )−1 A1 (W1 A1 )−1 0
= U V∗
0 0
" #
(W1 A1 W1 )−1 0
= U V∗
0 0
= X.
Luego,
R(X) = R((AW )O
†
A(W A)O
†
) ⊆ R((AW )O
†
). (2.30)
Sea s := Ind(AW ). Como k = max{Ind(AW ), Ind(W A)}, entonces k ≥ s.
Así, de (2.30) y la Proposición 1.3.3, se tiene que
R(X) ⊆ R((AW )O
†
) ⊆ R((AW )s ) ⊆ R((AW )k ). (2.31)
O
Finalmente, de (2.29), (2.31) y el Teorema 2.3.1, se tiene que X = A † ,W .
36
2.3 La inversa core-EP ponderada
Posteriormente, los autores Gao, Chen y Patricio [22] dieron una caracteri-
zación alternativa para la inversa core-EP ponderada, esta vez basada en la
caracterización dada en el apartado d) del Teorema 1.3.5.
37
Capítulo 2. Las inversas de Drazin y core-EP ponderadas
0 0 0 c+f c+f 0
" #
1 1
0
X= 2 2 . (2.37)
0 0 0
38
Capítulo 3
39
Capítulo 3. La inversa core-EP ponderada
XW AW X = XW AW P(AW )k ) X
= XW AW (AW )k ((AW )k )† X
= XW (AW )k+1 ((AW )k )† X
= (AW )k ((AW )k )† X
= P(AW )k X
= X.
40
3.1 Caracterizaciones de la inversa core-EP ponderada
XX † (AW )k = (AW )k .
Como " #
X1 0
X=U V ∗,
0 0
por apartado h) de la Proposición 1.2.2, es claro que
" #
† X1† 0
X =V U ∗.
0 0
41
Capítulo 3. La inversa core-EP ponderada
42
3.1 Caracterizaciones de la inversa core-EP ponderada
Corolario 3.1.1. Sea A ∈ Cn×n tal que Ind(A) = k. Entonces, las siguientes
condiciones son equivalentes
a) X es la inversa core-EP de A,
43
Capítulo 3. La inversa core-EP ponderada
O
a) W A † ,W = (W A) † . O
O
b) W AW A † ,W = W A(W A) † . O
c) AO
† ,W
= (AW )O †
A(W A)O †
.
d) AO
† ,W
= A[(W A)O ] .
† 2
e) AO
† ,W
= A[(W A)2 ]O †
.
f) AO
† ,W
= AO† ,W
W AW AO † ,W
.
g) AO
† ,W
= A[(W A)O ] W A.
† 3
W AO
† ,W
= (W A)O
† O O
y A † ,W = A[(W A) † ]2
44
3.2 Propiedades de la inversa core-EP ponderada
Se tiene que
1 − 12 0 1 − 14 0 − 14
(AW )O
†
= 0 1
0 y AO
† ,W
= 0 1
0 1
.
2 4 4
0 0 0 0 0 0 0
Además,
1 − 43 14 41
[(AW )O
† 2
] A= 0 1 1 1
̸ AO
= † ,W
.
4 4 4
0 0 0 0
Tiene sentido indagar qué condiciones deben cumplir las matrices A y W para
que la inversa core-EP ponderada satisfaga las igualdades anteriores. En los
dos siguientes teoremas se dan condiciones necesarias y sucientes para que la
inversa core-EP ponderada cumpla dichas igualdades.
45
Capítulo 3. La inversa core-EP ponderada
O
" #
† ,W (A1 W1 )−1 (W1 A1 W1 )−1 W12
A W = U V ∗,
0 0
O
" #
† (A1 W1 )−1 0
(AW ) = U V ∗.
0 0
O O
Por lo tanto, A † ,W W = (AW ) † si y sólo si (W1 A1 W1 )−1 W12 = 0, de donde
claramente W12 = 0.
AO
" #
† ,W (W1 A1 W1 )−1 0
= U V ∗.
0 0
Además, del Corolario 2.1.1, se sigue que
O
" #
† 2 (W1 A1 W1 )−1 (W1 A1 )−2 A12
[(AW ) ] A = U V ∗.
0 0
O
Por lo tanto, de las dos expresiones anteriores, es claro que A † ,W = [(AW ) † ]2 AO
si y sólo si A12 = 0.
46
3.2 Propiedades de la inversa core-EP ponderada
O
" #
† ,W W1−1 (W1 A1 W1 )−1 (W1 A12 + W12 A2 )
A WA = U V ∗,
0 0
O
" #
−1
W 0
AW A † ,W = U 1
V ∗.
0 0
O O
Por lo tanto, A † ,W W A = AW A † ,W es equivalente a (W1 A1 W1 )−1 (W1 A12 +
W12 A2 ) = 0, que a su vez equivale a W1 A12 + W12 A2 = 0.
47
Capítulo 3. La inversa core-EP ponderada
(AW A)O
† ,W
= AO
† ,W
W AO
† ,W
.
O O
" #
(W1 A1 W1 )−1 (W1 A1 )−1 0
A † ,W
WA † ,W
=U . (3.5)
0 0
Por otro lado, de (2.8) se tiene que
" #" #
A1 W1 A1 W12 + A12 W2 A1 A12
AW A = U V∗
0 A2 W 2 0 A2
" #
A1 W1 A1 A1 W1 A1 + (A1 W12 + A12 W2 )A2
= U V ∗.
0 A2 W2 A2
Ahora, si se denota por A′1 := A1 W1 A1 , A′2 := A2 W2 A2 y A′12 := A1 W1 A1 +
(A1 W12 + A12 W2 )A2 , se tiene que
" #
A′1 W1 A′1 W12 + A′12 W2
(AW A)W = U V ∗,
0 A′2 W2
" #
W1 A′1 W1 A′12 + W12 A′2
W (AW A) = U ′
V ∗.
0 W 2 A2
Notar que las matrices A′1 W1 y W1 A′1 son no singulares mientras que las ma-
trices A′2 W2 y W2 A′2 son nilpotentes de índices Ind((AW )2 ) e Ind((W A)2 ),
respectivamente. De esta forma, la matriz AW A está expresada en una des-
composición core-EP ponderada. Luego, por el Teorema 2.3.2, se obtiene que
O
" #
† ,W (W1 A′1 W1 )−1 0
(AW A) = U V∗
0 0
" #
(W1 (A1 W1 A1 )W1 )−1 0
= U V∗
0 0
" #
(W1 A1 W1 )−1 (W1 A1 )−1 0
= U . (3.6)
0 0
Por (3.5) y (3.6), la prueba está completa.
48
3.2 Propiedades de la inversa core-EP ponderada
O
Recientemente en [22], se calcularon los subespacios R(A † ,W ) y N (A † ,W ). AO
continuación, se enuncian dichas propiedades y se da una demostración alter-
nativa.
O
a) R(A † ,W ) = R((AW )k ).
b) N (AO
† ,W
) = N (((W A)k )∗ ).
R(AO
† ,W
) ⊆ R((AW )k ). (3.7)
k−1
X
donde, TeAW = (A1 W1 )j−k−1 (A1 W12 + A12 W2 )(A2 W2 )k−1−j , es claro que
j=0
rg((AW )k ) = rg((A1 W1 )k ) = rg(A1 W1 ). En consecuencia, de (3.8) se ob-
O
tiene rg(A † ,W ) = rg((AW )k ). Así, de (3.7), se concluye que R(A † ,W ) = O
R((AW )k ).
b) A partir del apartado a) del Teorema 3.2.1, del apartado b) de la Proposición
1.3.3 y del apartado d) del Teorema 1.1.2, se tiene que
N (AO
† ,W
) = N (W AO
† ,W
) = N ((W A)O
†
) = N (((W A)k )∗ )
= N ((W A)O
†
) ⊆ N (A[(W A)O ] ) = N (AO
† 2 † ,W
),
49
Capítulo 3. La inversa core-EP ponderada
El siguiente resultado es una versión ponderada del Teorema 1.3.6 que permite
obtener una representación con espacios columna y núcleo prescritos de la
inversa core-EP ponderada.
Teorema 3.2.6. Sean A ∈ Cm×n , W ∈ Cn×m y k = max{Ind(AW ), Ind(W A)}.
Entonces, se satisface
AO
(2)
† ,W
= (W AW )R((AW )k ))N ((W A)k )∗ ) . (3.10)
(3.10).
j=0
k−1
Demostración. Sea
X
T j SN k−1−j = 0. Reescribiendo la sumatoria en la
j=0
igualdad anterior, se tiene que
SN k−1 + T SN k−2 + · · · + T k−1 S = 0, (3.11)
Postmultiplicando la ecuación (3.11) por N k−1 , usando el hecho que N k = 0 y
la no singularidad de T , se sigue que SN k−1 = 0. Sustituyendo esta igualdad en
50
3.2 Propiedades de la inversa core-EP ponderada
O
a) A † ,W = Ad,W ,
O O
b) AW A † ,W = A † ,W W A,
c) W1 A12 + W12 A2 = 0.
O
a) A † = Ad ,
b) AAO†
= AO
†
A,
51
Capítulo 3. La inversa core-EP ponderada
c) S = 0.
a) Ad,W = (AW )ℓ+2 (AW )3ℓ+6 (AW )2ℓ+2 A = (W A)ℓ+2 (W A)3ℓ+6 (W A)2ℓ+2 .
† †
2
b) Ad,W = (AW )ℓ ((AW )2ℓa)+1 )† (AW )ℓ
2
A = A (W A)ℓ ((W A)2ℓ+1 )† (W A)ℓ .
c) Ad,W = (AW )ℓ A (AW )2ℓ+2 A (AW )ℓ A = A(W A)ℓ A(W A)2ℓ+2 A(W A)ℓ .
† †
Por otro lado, en [15], los autores dieron la siguiente expresión para la inversa
core-EP ponderada
O † h
A † ,W = W AW P(AW )k = W (AW )k+1 (AW )k
† i†
. (3.12)
Posteriormente Gao, Chen y Patrício [22], notaron que dicha expresión tiene
una desventaja computacional, ya que deben calcularse las inversas de Moore-
Penrose de dos matrices distintas. Uno de sus principales resultados muestra
una conexión entre la inversa de Drazin ponderada y la inversa core-EP ponde-
rada, que permite usar las representaciones del Teorema 3.3.1. A continuación,
se presenta dicho resultado con una ligera modicación en el enunciado y con
una demostración alternativa.
52
3.3 Representaciones de la inversa core-EP ponderada
A partir del teorema anterior se pueden obtener varios resultados que involu-
cren el cálculo de la inversa Moore-Penrose de una única matriz, y por lo tanto
se requerirán menos operaciones en el cálculo.
AO
† ,W
†
= Ad,W (W A)ℓ+2 (W A)ℓ+2
†
= [Ad,W W ][A(W A)ℓ+1 ] (W A)ℓ+2
†
= (AW )d (AW )ℓ+1 A (W A)ℓ+2 . (3.14)
53
Capítulo 3. La inversa core-EP ponderada
Por otro lado, de la Denición 1.2.6, se sigue que (AW )d (AW )ℓ+1 = (AW )ℓ ,
para cualquier entero ℓ ≥ Ind(AW ). Luego de (3.14), se obtiene que
O †
A † ,W = (AW )d (AW )ℓ+1 A (W A)ℓ+2 = (AW )ℓ A (W A)ℓ+2 .
†
(3.15)
O †
Finalmente, la igualdad A † ,W = A(W A)ℓ (W A)ℓ+2 sigue de aplicar en
54
3.3 Representaciones de la inversa core-EP ponderada
AO
† ,W
†
= Ad,W (W A)ℓ (W A)ℓ
†
= ((AW )d )2 A (W A)ℓ (W A)ℓ .
AO
h † i2 †
† ,W
= A (W A)ℓ (W A)2ℓ+1 (W A)ℓ (W A)2ℓ+1 (W A)2ℓ+1 , (3.18)
O
a) A † = Ad Aℓ (Aℓ )† .
55
Capítulo 3. La inversa core-EP ponderada
O
b) A † = Aℓ (Aℓ+1 )† .
O h † i2
c) A † = Aℓ A2ℓ+1 Aℓ Aℓ+1 (Aℓ )† .
O h † i2
c) A † = A Aℓ A2ℓ+1 Aℓ A2ℓ+1 (A2ℓ+1 )† .
56
Capítulo 4
La inversa WG ponderada
AW XW X = X, AW X = AO
† ,W
W A. (4.1)
57
Capítulo 4. La inversa WG ponderada
" # " #
A1 W 1 F W 1 A1 G
AW = U U ∗, WA = V V ∗, (4.2)
0 A2 W 2 0 W2 A2
AW X1 W X1 = X1 O
y AW X1 = A † ,W W A,
AW X2 W X2 = X2 y AW X2 = AO
† ,W
W A.
De esta forma, se tiene que
X1 = AW X1 W X1
= (AO
† ,W
W A)W X1
= AO
† ,W
W (AW X1 )
= AO
† ,W
W (AW X2 )
= (AO
† ,W
W A)W X2
= AW X2 W X2
= X2 .
58
4.1 Existencia y unicidad de la inversa WG ponderada
O
" #" #
−1
(W 1 A 1 W 1 ) 0 W 1 A 1 F
A † ,W W A = U V∗
0 0 0 W 2 A2
" #
W1−1 (A1 W1 )−1 F
= U V ∗. (4.6)
0 0
O
De (4.5) y (4.6) se concluye que AW X = A † ,W W A.
Por otro lado, es fácil ver que
" #
W1 (W1 A1 W1 )−1 W1 (A1 W1 )−2 (A12 + W1−1 W12 A2 )
WX = V V ∗ . (4.7)
0 0
59
Capítulo 4. La inversa WG ponderada
AO
" #
w ,W (W1 A1 W1 )−1 (A1 W1 )−2 (A12 + W1−1 W12 A2 )
=U V ∗. (4.8)
0 0
60
4.2 Propiedades de la inversa WG ponderada
AO
w ,W
= AO† ,W
W AO
† ,W
WA
" # 1 1 " # 1 1 " #
1/2 1/2 0 1/2 1/2 0 1 0 0
= 1 0 1 0
0 0 0 0 0 0 0 0 1
0 0 0 0
" #
1 0 1/2
= .
0 0 0
AO
w ,W
= (AW A)O
† ,W
W A.
AO
w ,W
= (AW AO
† ,W
W A)#,W .
61
Capítulo 4. La inversa WG ponderada
B := AW O† ,W W A
"A #" #" #
A1 W 1 F (W1 A1 W1 )−1 0 W 1 A1 G
= U V∗
0 A2 W 2 0 0 0 W2 A2
" #
A1 (W1 A1 )−1 (W1 A1 ) A1 (W1 A1 )−1 G
= U V∗
0 0
" #
A1 W1−1 (W1 A12 + W12 A2 )
= U V∗
0 0
" #
A1 A12 + W1−1 W12 A2
= U V ∗.
0 0
62
4.2 Propiedades de la inversa WG ponderada
63
Capítulo 4. La inversa WG ponderada
k−1
X
donde, TeAW = (A1 W1 )j−k−1 (A1 W12 + A12 W2 )(A2 W2 )k−1−j . Además, se
j=0
tiene que
" #" #
A1 W1 A1 W12 + A12 W2 (A1 W1 )k TeAW
(AW ) k+1
= U U∗
0 A2 W 2 0 0
" #
(A1 W1 )k+1 A1 W1 TeAW
= U U ∗. (4.11)
0 0
O
" #
−1 −2 −1
(A W ) (A W ) (A + W W A )
A w ,W W = U
1 1 1 1 12 12 2
1
V ∗. (4.12)
0 0
O
De (4.10), (4.11) y (4.12), cálculos sencillos muestran que A w ,W W (AW )k+1 =
(AW )k .
AO
w ,W
W AW AO
w ,W
= AO
w ,W
.
64
4.2 Propiedades de la inversa WG ponderada
AO
w ,W
= (AW )k [(AW )k+1 A]O
# ,W
W A.
Este hecho asegura que existe la inversa core ponderada de la matriz (AW )k+1 A.
O
Así, de (2.28), (2.9) y (4.10), la matriz B := (AW )k [(AW )k+1 A] # ,W W A, pue-
65
Capítulo 4. La inversa WG ponderada
R(AO
w ,W
) = R(Ad,W ) = R((AW )k ) = R(AW AO
w ,W
).
R(AO
w ,W
) = R(AO
† ,W
W AO
† ,W
W A) ⊆ R(AO
† ,W
) ⊆ R((AW )k ), (4.14)
R(AO
w ,W
) = R(Ad,W ) = R((AW )k ). (4.15)
O
Sólo resta probar que R((AW )k ) = R(AW A w ,W ). En efecto, de la Denición
O O
4.1.1, se tiene que AW A w ,W = A † ,W W A. Luego, se sigue que
R(AW AO
w ,W
) ⊆ R(AO
† ,W
) ⊆ R((AW )k ). (4.16)
66
4.2 Propiedades de la inversa WG ponderada
(AW )k = AO
† ,W
W (AW )k+1 = AO
† ,W
W AW (AW )k = AW AO
w ,W
W (AW )k ,
lo que implica
R((AW )k ) ⊆ R(AW AO
w ,W
). (4.17)
Así, de (4.16) y (4.17), se obtiene que
R(AW AO
w ,W
) = R((AW )k ). (4.18)
67
Capítulo 4. La inversa WG ponderada
O O
" #
w ,W w ,W W1−1 (W1 A1 )−2 (A1 W1 )−3 (A12 + W1−1 W12 A2 )
A WA =U V ∗.
0 0
(4.21)
Por lo tanto, de (4.20) y (4.21), se sigue que (AW A) w ,W
=A w ,W
WAOw ,W
si O O
y sólo si
(A1 W1 )−4 (A1 W1 A12 +F A2 +W1−1 W12 A2 W2 A2 ) = (A1 W1 )−3 (A12 +W1−1 W12 A2 ).
Por Denición 2.2.1, se sabe que una matriz A conmuta (respecto de la matriz
de ponderación W ) con su inversa de Drazin ponderada Ad,W . Sin embargo,
la inversa WG ponderada no cumple dicha propiedad, como lo muestra el
siguiente ejemplo.
Ejemplo 4.2.1. Retomando las matrices del Ejemplo 2.3.1, se tiene que
1 1
y AO
" # " #
1 0 0 w ,W 1 0 12
A= , W = 1 0 = .
0 0 1 0 0 0
0 0
AW AO = AO
" # " #
w ,W 1 0 12 1
2
1
0
2 w ,W
= ̸= W A.
0 0 0 0 0 0
68
4.2 Propiedades de la inversa WG ponderada
A partir del ejemplo anterior, tiene sentido indagar bajo qué condiciones la
inversa WG ponderada conmuta con la matriz A respecto de la matriz de
ponderación W . En el siguiente resultado, se establecen dichas condiciones.
O
" #" #
w ,W A1 W 1 F (W1 A1 W1 )−1 (A1 W1 )−2 D
AW A = U V∗
0 A2 W 2 0 0
" #
W1−1 (A1 W1 )−1 D
= U V ∗. (4.22)
0 0
O
" #" #
w ,W (W1 A1 W1 )−1 (A1 W1 )−2 D W 1 A1 G
A WA = U V∗
0 0 0 W 2 A2
" #
W1−1 (A1 W1 )−1 A12 + (A1 W1 )−2 DW2 A2
= U V ∗ , (4.23)
0 0
O O
Por lo tanto, de (4.22) y (4.23), se tiene que AW A w ,W = A w ,W W A si y sólo
si
(A1 W1 )−1 D = (A1 W1 )−1 A12 + (A1 W1 )−2 DW2 A2 ,
o equivalentemente, (W1 A12 + W12 A2 )W2 A2 = 0.
69
Capítulo 4. La inversa WG ponderada
Demostración. Si AO
w ,W
= Ad,W , entonces por la Denición 2.2.1 claramente
O O
se cumple que AW A w ,W = A w ,W W A.
Para probar la condición suciente, se considera la descomposición core-EP res-
O O
pecto del par {A, W } dada en el Teorema 2.1.1. Como AW A w ,W = A w ,W W A,
del Corolario 4.2.2, se sigue que (W1 A12 + W12 A2 )W2 A2 = 0. En consecuencia,
de la representación de la inversa de Drazin ponderada dada en el Teorema
2.2.2, se obtiene que
k−1
−1 j−k−2 k−1−j
P
(W1 A1 W1 ) A1 (W1 A1 ) G(W2 A2 ) ∗
Ad,W = U j=0 V
0 0
" #
(W1 A1 W1 )−1 A1 (W1 A1 )−3 (W1 A12 + W12 A2 )
= U V∗
0 0
" #
(W1 A1 W1 )−1 (A1 W1 )−2 (A12 + W1−1 W12 A2 )
= U V∗
0 0
= AO
w ,W
,
Demostración. Si AO
w ,W
W AO
w ,W
= (AW A)O
w ,W
del Corolario 4.2.3 se sigue
que
AW AO
w ,W
= AO
w ,W
W A.
O
Luego, por el Corolario 4.2.4, se concluye que A w ,W = Ad,W .
O O O
Recíprocamente, si A w ,W = Ad,W entonces A w ,W W A w ,W = (AW A) w ,W porO
[9].
70
4.2 Propiedades de la inversa WG ponderada
Demostración. Si AO
w ,W
= AO
† ,W
= Ad,W , la condición explícita sigue inme-
diatamente del Corolario 4.2.6.
Recíprocamente, si W1 A12 + W12 A2 = 0, del Teorema 3.2.7 se deduce que
O
A † ,W = Ad,W . Más aún, por el Corolario 4.2.6, también se cumple que
O O
A w ,W = A † ,W . Así, la prueba está completa.
(AW )O
" #
−1 −2
w (A 1 W 1 ) (A 1 W 1 ) (A 1 W 12 + A 12 W 2 )
=U U ∗, (4.24)
0 0
(W A)O
" #
w (W1 A1 )−1 (W1 A1 )−2 (W1 A12 + W12 A2 )
=V V ∗. (4.25)
0 0
(AW )O
w
= ((AW )O
† 2
) AW.
71
Capítulo 4. La inversa WG ponderada
(AW )O
w
= ((AW )O
† 2
) AW
" #" #" #
(A1 W1 )−1 0 (A1 W1 )−1 0 A1 W 1 F
= U U∗
0 0 0 0 0 A2 W 2
" #
(A1 W1 )−1 (A1 W1 )−2 (A1 W12 + A12 W2 )
= U U ∗.
0 0
O O
a) W A w ,W = (W A) w .
b) AO
w ,W
= A[(W A)O
w 2
] .
b) AO
w ,W
= (AW )O
w
A(W A)Ow
.
d) AO
w ,W
= A[(W A)O ] W A.
† 3
O
" #" #
−1 −2 −1
W W (W A W ) (A W ) (A + W W A )
W A w ,W = V
1 12 1 1 1 1 1 12 1 12 2
0 W2 0 0
" #
(W1 A1 )−1 (W1 A1 )−2 (W1 A12 + W12 A2 )
= V V∗
0 0
= (W A)O
w
,
72
4.2 Propiedades de la inversa WG ponderada
O
" # " # !2
w 2 A1 A12 ∗ (W1 A1 )−1 (W1 A1 )−2 G
A[(W A) ] = U V V V∗
0 A2 0 0
" #" #
A1 A12 (W1 A1 )−2 (W1 A1 )−3 G
= U V∗
0 A2 0 0
" #
(W1 A1 W1 )−1 (A1 W1 )−2 (A12 + W1−1 W12 A2 )
= U V∗
0 0
= AO
w ,W
,
O
" #" #" #
−3
A 1 A 12 (W 1 A 1 ) 0 W 1 A 1 G
A[(W A) † ]3 W A = U V∗
0 A2 0 0 0 W 2 A2
" #
(W1 A1 W1 )−1 (A1 W1 )−2 (A12 + W1−1 W12 A2 )
= U V∗
0 0
= AO
w ,W
,
73
Capítulo 4. La inversa WG ponderada
AO [(AW )O
" # " #
w ,W 1 1 1 w 2 1 2 1
= , ] A= .
0 0 0 0 0 0
0 0 0 0 0 0
[(AW )O
" #" #
w 2 (A1 W1 )−2 (A1 W1 )−3 F A1 A12
] A = U V∗
0 0 0 A2
" #
(W1 A1 W1 )−1 (A1 W1 )−2 A12 + (A1 W1 )−3 F A2
= U V ∗.
0 0
74
4.2 Propiedades de la inversa WG ponderada
si y sólo si W12 A2 W2 = 0.
AO
" #" #
w ,W (W1 A1 W1 )−1 (A1 W1 )−2 D W1 W12
W = U U∗
0 0 0 W2
" #
(A1 W1 )−1 (W1 A1 W1 )−1 W12 + (A1 W1 )−2 DW2
= U U∗
0 0
" #
(A1 W1 )−1 (A1 W1 )−2 G
= U U ∗. (4.26)
0 0
Luego, comparando (4.26) con la representación de la inversa WG de la matriz
cuadrada AW obtenida en (4.24), y usando la no singularidad de W1 y A1 , se
O O
obtiene que A w ,W W = (AW ) w es equivalente a
(W1 A1 W1 )−1 W12 + (A1 W1 )−2 (A12 + W1−1 W12 A2 )W2 = (A1 W1 )−2 G. (4.27)
75
Capítulo 4. La inversa WG ponderada
W12 + A−1 −1 −1 −1
1 A12 W2 + A1 W1 W12 A2 W2 = W12 + A1 A12 W2 ,
de donde
(W1 A1 )−1 W12 A2 W2 = 0,
con lo cual
W12 A2 W2 = 0.
Así, la prueba está completa.
O
a) A w ,W = A(W A)ℓ (W A)ℓ+2
†
(W A)ℓ+1 (W A)ℓ+2
†
W A.
76
4.3 Representaciones para la inversa WG ponderada
b) AO
h i2 2
w ,W 2ℓ+1 † ℓ †
WA .
ℓ
ℓ ℓ
=A (W A) (W A) (W A) (W A) (W A)
O
h i2 2
† †
c) A w ,W = A (W A)ℓ (W A)2ℓ+1 (W A)ℓ (W A)2ℓ+1 (W A)2ℓ+1 WA .
AO
w ,W
= AO
† ,W
W AO
† ,W
WA
= [A(W A)ℓ ((W A)ℓ+2 )† W ][A(W A)ℓ ((W A)ℓ+2 )† W ]A
† †
= A(W A)ℓ (W A)ℓ+2 (W A)ℓ+1 (W A)ℓ+2 W A.
AO
w ,W
= AO
† ,W
W AO
† ,W
WA
= A[(W A)ℓ ((W A)ℓ+2 )† (W A)ℓ ]2 (W A)ℓ ((W A)ℓ )† W A[(W A)ℓ
((W A)ℓ+2 )† (W A)ℓ ]2 (W A)ℓ ((W A)ℓ )† W A
h i2 2
ℓ 2ℓ+1 † ℓ ℓ ℓ †
= A (W A) (W A) (W A) (W A) (W A) W A .
AO
w ,W
= AO † ,W
W AO † ,W
WA
h † i2 †
= A (W A) (W A)2ℓ+1 (W A)ℓ (W A)2ℓ+1 (W A)2ℓ+1 W A
ℓ
h † i2 †
(W A)ℓ (W A)2ℓ+1 (W A)ℓ (W A)2ℓ+1 (W A)2ℓ+1 A
h i2 2
ℓ 2ℓ+1 † ℓ 2ℓ+1 2ℓ+1 †
= A (W A) (W A) (W A) (W A) (W A) WA .
77
Capítulo 4. La inversa WG ponderada
O h
a) A w = Aℓ+1 Aℓ+2
† i2
A.
b) AO
h i2 2
w 2ℓ+1 † ℓ †
ℓ
ℓ ℓ
=A A A A A A A .
c) AO
h i2 2
w 2ℓ+1 † 2ℓ+1 †
ℓ
ℓ 2ℓ+1
=A A A A A A A .
78
4.4 Caracterización mediante una ecuación de rango
Por otro lado, un problema recíproco de la ecuación de rango (4.29) fue tratado
en 1999 por Grob [23]. Este autor, estudió qué propiedades deben tener las
matrices B y C para que X resulte la inversa de Moore-Penrose A† de A ∈
Cm×n . En la misma dirección, en 2003, Thome y Wei [53] obtuvieron resultados
que caracterizan cuando X es la inversa de grupo A# de A. Más tarde, en el
año 2005, Cvetkovi¢-Ili¢ [8] generalizó dicho trabajo para el caso de la inversa
de Drazin Ad de A.
79
Capítulo 4. La inversa WG ponderada
X = In − W AW AO
w ,W
= In − W A(W A)O w
" #" #
W1 A1 W1 A12 + W12 A2 (W1 A1 )−1 (W1 A1 )−2 G
= In − V V∗
0 W 2 A2 0 0
" # " #
It 0 ∗ It (W1 A1 )−1 (W1 A12 + W12 A2 )
=V V −V V∗
0 In−t 0 0
" #
0 −(W1 A1 )−1 (W1 A12 + W12 A2 )
=V V ∗. (4.34)
0 In−t
80
4.4 Caracterización mediante una ecuación de rango
k−1
donde TeW A = (W1 A1 )j−k−1 (W1 A12 + W12 A2 )(W2 A2 )k−1−j .
P
j=0
Así, de (4.34) y (4.35),
" #" #
0 −(W1 A1 )−1 G (W1 A1 )k TeW A
X(W A)k = V V∗
0 In−t 0 0
= 0.
Por otro lado, de las representaciones (2.9), (4.34) y (4.35), se sigue que
" #" #
k ∗
((W 1 A 1 ) ) 0 0 0
((W A)k )∗ W AX = V V∗
(TeW A )∗ 0 0 W2 A2
= 0.
81
Capítulo 4. La inversa WG ponderada
82
4.4 Caracterización mediante una ecuación de rango
Y = Im − AOw ,W
W AW
" #" #
(W1 A1 W1 )−1 (A1 W1 )−2 D W1 A1 W1 W1 A1 W12 + G
= Im − U U∗
0 0 0 W 2 A2 W 2
" #" #
It 0 It (W1 A1 W1 )−1 [GW2 ] + D(W2 A2 W2 )
=U U∗
0 Im−t 0 0
" #
0 M
=U U ∗. (4.37)
0 Im−t
donde M = −[W1−1 W12 + (W1 A1 W1 )−1 W12 A2 ]W2 − (A1 W1 )−2 D(W2 A2 W2 ).
A continuación se verica que la matriz Y satisface las ecuaciones dadas en
(4.31). En efecto, de (4.10) y (4.37), se tiene que
" #" #
k
0 M (A 1 W 1 ) T
eAW
Y (AW )k = U U ∗,
0 Im−t 0 0
= 0
k−1
X
donde TeAW = (A1 W1 )j−k−1 (A1 W12 + A12 W2 )(A2 W2 )k−1−j .
j=0
Además, de (4.37), se tiene que
" #" #
0 M 0 M
Y 2
= U U∗
0 Im−t 0 Im−t
" #
0 M
= U U∗
0 Im−t
= Y.
83
Capítulo 4. La inversa WG ponderada
= 0.
84
4.4 Caracterización mediante una ecuación de rango
X = In − AAO
w
, Y = In − AO
w
A, Z = AO
w
. (4.41)
Como consecuencia inmediata del Teorema 4.4.1, se obtiene una nueva caracte-
rización mediante una ecuación de rangos para la inversa de grupo ponderada
A#,W de la matriz A.
XW A = 0, X 2 = X, (W A)∗ W AX = 0, rg(X) = n − t,
85
Capítulo 4. La inversa WG ponderada
Y A = 0, AY = 0, Y 2 = Y, rg(Y ) = n − t,
86
Capítulo 5
La inversa core-EP y WG
ponderadas mediante
descomposiciones
87
Capítulo 5. La inversa core-EP y WG ponderadas mediante descomposiciones
W A = P1 Q1 ,
Qi Pi = Pi+1 Qi+1 , i = 1, 2, . . . , k − 1,
donde P = P1 P2 · · · Pk y Q = Qk · · · Q2 Q1 .
AO
† ,W
= A[P (Qk Pk )−k−1 Q]2 P (P ∗ P )−1 P ∗ , (5.2)
donde P = P1 P2 · · · Pk y Q = Qk · · · Q2 Q1 .
88
5.1 La descomposición de rango completo y el cálculo de O
A † ,W y O
A w ,W
AO
† ,W
= Ad,W P(W A)k = A[(W A)d ]2 (W A)k ((W A)k )† . (5.3)
AO
† ,W
= A[P (Qk Pk )−k−1 Q]2 (W A)k ((W A)k )† . (5.4)
implica que
(ℓ) (r)
rg(P2 ) = rg(Q2 ) = rg(P2 Q2 ) = rg(P1 (W A)2 Q1 ) ≤ rg((W A)2 ) ≤ rg(P2 Q2 ),
AO
w ,W 2
= A [P (Qk Pk )−k−1 Q]2 P (P ∗ P )−1 P ∗ P1 Q1 , (5.6)
donde P = P1 P2 · · · Pk y Q = Qk · · · Q2 Q1 .
89
Capítulo 5. La inversa core-EP y WG ponderadas mediante descomposiciones
AO
w ,W
= [AO
† ,W
W ]2 A
= A[P (Qk Pk )−k−1 Q]2 RW A[P (Qk Pk )−k−1 Q]2 P (P ∗ P )−1 P ∗ W A
= A[P (Qk Pk )−k−1 Q]2 RP1 Q1 [P (Qk Pk )−k−1 Q]2 P (P ∗ P )−1 P ∗ P1 Q1
2
= A [P (Qk Pk )−k−1 Q]2 RP1 Q1 ,
donde R = P (P ∗ P )−1 P ∗ .
O
Es decir, A w ,W = A [P (Qk Pk )−k−1 Q]2 P (P ∗ P )−1 P ∗ P1 Q1 .
2
AO
† ,W
= (AW )k A((W A)k+2 )†
= (AW )k A(W (AW )k W A)†
= P Q(W P QW A)† .
90
5.1 La descomposición de rango completo y el cálculo de O
A † ,W y O
A w ,W
Algoritmo
Entrada: A ∈ Cm×n y W ∈ Cn×m .
Salida: AOw ,W .
Paso 1 Calcule k = max{Ind(W A), Ind(AW )}.
Paso 2 Calcular la descomposición de rango completo P1 Q1 del producto W A.
Paso 3 Para i = 1 hasta k − 1, calcular el producto Qi Pi y luego obtener la
descomposición rango completo Pi+1 Qi+1 de Qi Pi .
Paso 4 Calcular P = P1 P2 · · · Pk y Q = Qk · · · Q2 Q1 .
Paso 5 Calcular AO
w ,W
2
= A [P (Qk Pk )−k−1 Q]2 P (P ∗ P )−1 P ∗ P1 Q1 .
Fin
En el siguiente ejemplo se aplica el algoritmo anterior para calcular A w ,W . O
Ejemplo 5.1.1. Se consideran las matrices
1 0 1 0 0
1 0 0 0 0 0
1 0 0 0 0
1 0 0 1 0 0
0 0 0 0 0
y
A= W = 0 0 0 0 1 0 .
0 0 −1 0 0
0 0 0 −1 0 0
0 0 0 0 0
0 1 0 0 0 1
−1 1 0 0 0
91
Capítulo 5. La inversa core-EP y WG ponderadas mediante descomposiciones
es decir, W A = P1 Q1 , donde
1 0 1
1 0 0 1 0 0 0 0
y
P1 = 0 0 0 Q1 = 0 1 0 0 0 .
0 0 1
0 0 1 0 0
0 1 0
0 0 0
donde
1 1 " #
1 0 0
P2 = 1 0
y Q2 = .
0 0 1
0 0
Para i = 2, se tiene que
" #
1 1
Q2 P2 = = P 3 Q3 ,
0 0
donde, " #
1 h i
P3 = y Q3 = 1 1 .
0
Ahora, el Paso 4, consiste en calcular las matrices P y Q de la siguiente manera
1
1
h i
y Q = Q3 Q2 Q1 =
P = P1 P2 P3 =
0
1 0 1 0 0 .
0
1
92
5.2 La descomposición en valores singulares y el cálculo de O
A † ,W y O
A w ,W
AO
w ,W
0 0 0 0 0
=
0
.
0 0 0 0
0 0 0 0 0
0 0 0 0 0
93
Capítulo 5. La inversa core-EP y WG ponderadas mediante descomposiciones
" # " #
R1 R2 H1 H2
donde, Ũ U =
∗
y V Ṽ =
∗
, con R1 ∈ Cs×r y H1 ∈
R3 R4 H3 H4
Cr×s .
AO
w ,W
= AO† ,W O† ,W
" W A # "W A # " # " #
M 0 Σ2 0 ∗ M Σ2 0 ∗Σ1 0
= U Ũ U Ũ U V∗
0 0 0 0 0 0 0 0
" #" #" #" #" #
M Σ2 0 R1 R2 M Σ2 0 R1 R2 Σ1 0
= U V∗
0 0 R3 R4 0 0 R3 R4 0 0
" #
M Σ2 R1 M Σ2 R1 Σ1 0
= U V ∗, (5.8)
0 0
O
donde M = Σ1 H1 [(Σ2 R1 Σ1 H1 ) † ]2 .
Por otro lado, usando la caracterización de la inversa core-EP dada en el apar-
O O
tado d) del Teorema 1.3.5, se sabe que B(B † )2 = B † , donde B es una matriz
cuadrada compleja arbitraria. En consecuencia, de (5.8) se obtiene que
O
w ,W
"
O O
Σ1 H1 (N † )2 N (N † )2 Σ2 R1 Σ1 0
#
A = U V∗
0 0
"
O
Σ1 H1 (N † )3 Σ2 R1 Σ1 0
#
= U V ∗,
0 0
94
5.2 La descomposición en valores singulares y el cálculo de O
A † ,W y O
A w ,W
donde N = Σ2 R1 Σ1 H1 .
Algoritmo
Entrada: A ∈ Cm×n , W ∈ Cn×m y k = max{Ind(W A), Ind(AW )}
Salida: AOw ,W .
Paso 1 Calcular la descomposición en valores singulares de las matrices A y
W obteniendo U ,V Ṽ , Ũ , Σ1 y Σ2 como en (5.7)).
Paso 7 Computar AO
w ,W
= U BV ∗ .
Fin
A continuación se muestra cómo el algoritmo anterior puede ser computado
mediante un ejemplo. Para esto, se retoma el Ejemplo 5.1.1.
95
Capítulo 5. La inversa core-EP y WG ponderadas mediante descomposiciones
Ejemplo 5.2.1. Para las matrices del Ejemplo 5.1.1. Se comienza calculando
la descomposición en valores singulares de A y se obtiene que
−0.6565 −0.4285 0.2280 0 0.5523 0.1683
−0.4285 0.2280 0.6565 0 −0.5523 −0.1683
0 0 0 0 0.2915 −0.9566
U =
0.2280
,
0.6565 0.4285 0 0.5523 0.1683
0 0 0 1 0 0
0.5774 −0.5774 0.5774 0 0 0
1.9696 0 0 0 0
0 1.2856 0 0 0
0 0 0.6840 0 0
Σ1 =
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
−0.8440 0.2931 0.4491 0 0
0.2931 −0.4491 0.8440 0 0
y V =
−0.4491 −0.8440 −0.2931 0 0 .
0 0 0 0 1
0 0 0 1 0
96
5.2 La descomposición en valores singulares y el cálculo de O
A † ,W y O
A w ,W
−0.3030 0.1612 0.4642 0 0.7810 0.2380
0.1052 −0.2470 0.8725 0 −0.3905 −0.1190
∗
0 0 0 1 0 0
Ũ U =
−0.6255 −0.7673 −0.1418 0 0 0
0 0 0 0 0.2915 −0.9566
0.7113 −0.5695 −0.0560 0 0.3905 0.1190
y de esta forma, se obtiene el bloque R1
−0.3030 0.1612 0.4642
0.1052 −0.2470 0.8725
R1 = .
0 0 0
−0.6255 −0.7673 −0.1418
Por otro lado,
−0.1052 0 −0.4491 −0.5968 0.6565
−0.2470 0 −0.8440 0.2073 −0.4285
∗
V Ṽ =
0.8725 0 −0.2931 0.3176 0.2280
0 1 0 0 0
−0.4082 0 0 0.7071 0.5774
y de esta forma, se obtiene el bloque H1
−0.1052 0 −0.4491 −0.5968
H1 = −0.2470 0 −0.8440 0.2073
97
Capítulo 5. La inversa core-EP y WG ponderadas mediante descomposiciones
obtiene
0.6670 0.2557 −0.5241 0 0
0.1232 0.0472 −0.0969 0 0
−0.5437 −0.2084 0.4273 0 0
B= .
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
Finalmente, para el Paso 7 se calcula AO
w ,W
= U BV ∗ y se obtiene
2 1 1
3 3 3
0 0
2 1 1
0 0
3 3 3
AO
w ,W
0 0 0 0 0
=
0
,
0 0 0 0
0 0 0 0 0
0 0 0 0 0
que claramente coincide con el resultado del Ejemplo 5.1.1.
98
5.2 La descomposición en valores singulares y el cálculo de O
A † ,W y O
A w ,W
99
Capítulo 5. La inversa core-EP y WG ponderadas mediante descomposiciones
end
% Paso 7: Se computa la inversa WG ponderada .
WG = U * B *V '
100
Conclusiones y líneas futuras
101
Capítulo 5. Conclusiones y líneas futuras
tipo Schur para el caso de dos matrices rectangulares (véase el Teorema 2.1.1).
El resultado principal de este capítulo es el Teorema 2.2.2 en el que se obtuvo
una representación canónica para la inversa de Drazin ponderada usando la
descomposición core-EP ponderada.
102
la descomposición en valores singulares. A partir de dichas descomposiciones,
se construyeron dos algoritmos que se aplicaron en dos ejemplos numéricos
concretos y permitieron mostrar la efectividad de los mismos. Uno de los
algoritmos, para la descomposición en valores singulares, fue implementados
en MATLAB.
103
Capítulo 5. Conclusiones y líneas futuras
104
Tabla de símbolos
105
Capítulo 5. Tabla de símbolos
106
Bibliografía
[7] R.E. Cline, T.N.E. Greville, A Drazin inverse for rectangular matrices,
Linear Algebra and its Applications. 29 53-62 (1980)
107
Bibliografía
[9] A. Daji¢, J.J. Koliha, The weighted g-Drazin inverse for operators, J.Aust.
Math. Soc. 2 163?181 (2007)
[12] D.E. Ferreyra, S.B. Malik, Relative EP matrices, Rev. R. Acad. Cienc.
Exactas Fis. Nat. Ser. A Math. 116, 69 (2022)
[15] D.E. Ferreyra, F.E. Levis, N. Thome, Revisiting of the core EP inverse and
its extension to rectangular matrices, Quaest. Math. 41 (2) 265-281 (2018)
[16] D.E. Ferreyra, F.E. Levis, N. Thome, Characterizations of k -commutative
equalities for some outer generalized inverses, Linear Multilinear Algebra.
68 (1) 177-192 (2020)
[17] D.E. Ferreyra, F.E. Levis, N. Thome, Maximal classes of matrices deter-
mining generalized inverses, Appl. Math. Comput. 333 42-52 (2018)
[18] D.E. Ferreyra, F.E. Levis, A.N. Priori, N. Thome, The weak core inverse.
Aequat. Math. (2020) https://doi.org/10.1007/s00010-020-00752-z
[19] D.E. Ferreyra, V. Orquera, N. Thome, A weak group inverse for rectan-
gular matrices, Rev. R. Acad. Cienc. Exactas Fis. Nat. Ser. A Math. 113
3727-3740 (2019)
108
Bibliografía
[23] J. Grob, Solution to a rank equation, Linear Algebra and its Applications.
289 127-130 (1999)
[33] H. Kurata, Some theorems on the core inverse of matrices and the core
partial ordering, Appl. Math. Comput. 316 43-51 (2018)
109
Bibliografía
[34] T. Li, J. Chen, Characterizations of core and dual core inverses in rings
with involution, Linear Multilinear Algebra. 66 (4) 717-730 (2018)
[35] S.B. Malik, N. Thome, On a new generalized inverse for matrices of an
arbitrary index, Appl. Math. Comput. 226 575-580 (2014)
[36] K. Manjunatha Prasad, K.S. Mohana, Core EP inverse, Linear Multili-
near Algebra. 62 (3) 792-802 (2014)
[37] G. Marsaglia, G.P.H Styan, Equalities and inequalities for ranks of matri-
ces, Linear Multilinear Algebra. 2 269-292 (1974)
[38] L.S. Meng, The DMP inverse for rectangular matrices, Filomat. 31 (19)
6015-6019 (2017)
[39] C.D. Meyer, Matrix Analysis and Applied Linear Algebra, SIAM. Univer-
sidad Estatal de Carolina del Norte (2000)
[41] E.H. Moore, On the reciprocal of the general algebraic matrix, Bulletin of
the American Mathematical Society. 26 394-395 (1920)
[42] D. Mosi¢, The CMP inverse for rectangular matrices, Aequaetiones Math.
92 649-659 (2018)
[45] D. Mosi¢, D. Zhang, Weighted weak group inverse for Hilbert space opera-
tors, Front. Math. China. 15 709?726 (2020)
[46] D. Mosi¢, P. Stanimirovi¢, V. Katsikis, Solvability of some constrained
matrix approximation problems using core-EP inverses, Comp. Appl. Math.
39 (2020) https://doi.org/10.1007/s40314-020-01360-y
110
Bibliografía
[49] D.S. Rakić, A note on Rao and Mitra's constrained and Drazin's (b, c)
inverse, Linear Algebra and its Applications. 523 102-108 (2017)
[50] D.S. Rakić, D.S. Djordjevic, Core inverse and core partial order of Hilbert
space operators, Appl. Math. Comput. 244 283-302 (2014)
[51] F. Soleimani, P.S. Stanimirovi¢, F. Soleymani,Some marix iterations for
computing generalized inverses and balancing chemical equations, Algo-
rithms. 8 982-998 (2015)
[55] H. Wang, J. Chen, Weak group inverse, Open Math. 16 1218-1232 (2018)
[56] X. Wang, H. Ma, P.S. Stanimirovi¢, Recurrent neural network for compu-
ting the W -weighted Drazin inverse, Appl. Math. Comput. 300 1-20 (2017)
[57] J. Wanlin, Z. Kezheng, Revisiting of the BT-inverse of matrices, AIMS
Mathematics. 6 (3) 2607?2622 (2020)
111
Bibliografía
[60] Y. Wei, A characterization for the W -weighted Drazin inverse and a Cram-
mer rule for the W -weighted Drazin inverse solution, Appl. Math. Comput.
125 303-310 (2002)
[65] K.Z. Zu, Y.J Chenga, The new revisitation of core EP inverse of matrices,
Filomat. 33 (10) 3061-3072 (2019)
112