Está en la página 1de 36

Formas Cuadráticas, Matemática III

Prof. José M. Vargas

27 de mayo de 2011
Índice general

0.1. Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . 2


0.2. Transformaciones Simétricas . . . . . . . . . . . . . . . . . . . 7
0.3. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . 10
0.3.1. Teorema de la Signatura . . . . . . . . . . . . . . . . . 15
0.3.2. Demostración del Teorema 0.3 . . . . . . . . . . . . . . 15
0.3.3. Ejemplos de cálculo . . . . . . . . . . . . . . . . . . . . 24
0.4. Formas Cuadráticas con Restricciones . . . . . . . . . . . . . . 26

0.1. Vectores y Valores Propios


Dado un operador lineal T : V → V sobre un espacio de dimensión finita,
considere el problema de encontrar una base Φ de V en la que la matriz que
representa a T es diagonal. Algunas cosas se pueden decir inmediatamente.
Para fijar ideas, asuma que V = Rn y que T tiene matriz en la base canónica
A n × n. Entonces, si T tiene matriz diagonal D = [T ]Φ en la base Φ =
{α1 , . . . , αn }, debe ocurrir

T αi = λi αi , i = 1, 2, . . . , n

donde los escalares λi son las entradas en la diagonal de D. Esto motiva la


siguiente

Definición 0.1. Sea T : V → V una transformación lineal sobre un espacio


vectorial V de dimensión finita n. Un vector no nulo α0 ∈ V es un vector
propio de T correspondiente al valor propio λ0 ∈ R si T α0 = λ0 α0 .

En términos de la definición anterior, lo que se desea es una base consis-


tente de vectores propios de T . Regresando a nuestro caso, denotando [α] a

2
0.1. VECTORES Y VALORES PROPIOS 3

las coordenadas de un vector en la base canónica, la ecuación T α0 = λ0 α0 ,


en coordenadas de la base canónica, se convierte en

A[α0 ] = λ0 [α0 ]

En otras palabras, buscamos los λ ∈ R para los cuales el sistema

(A − λI)X = 0

tiene soluciones no triviales. Esto ocurre si y sólo si

det(A − λI) = 0

El polinomio de grado n P (λ) = det(A − λI) se denomina el polinomio


característico de T . Hay una buena razón para llamarlo de T y no mera-
mente de A: P no es afectado si se usa otra matriz que represente a T porque
el determinante es invariante por conjugaciones; esto es, det(Q−1 AQ) = detA
para toda matriz invertible Q. Entonces, si Q−1 AQ representa a T en otra
base,
det(Q−1 AQ − λI) = det(Q−1 (A − λI)Q)
= det(Q−1 )det(A − λI)detQ
= det(A − λI)
y por lo tanto no importa la matriz que usemos para representar a T .
Por el teorema fundamental del álgebra, existen a lo más n raíces para
el polinomio P (λ), y exactamente n raíces en los complejos contadas con
su multiplicidad. En resumen, los valores propios de T son las raíces de su
polinomio característico y a lo más hay tantas como la dimensión de V . Todo
lo dicho hasta aquí alcanza para el siguiente

Teorema 0.1. Si el polinomio característico de T : V → V tiene todas sus


raíces reales y distintas, existe una base de V que diagonaliza a T .

En realidad, sólo falta ver que vectores propios de valores propios dis-
tintos son linealmente independientes entre sí. Para ver esto, supongamos
que los n = dim(V ) valores propios de T son λ1 , . . . , λn , todos distintos en
los reales. Y supongamos que α1 , . . . , αn son los correspondientes vectores
propios. Entonces, si
c1 α1 + · · · + cn αn = 0,
4

aplicando T a ambos lados, se tiene


c 1 λ 1 α1 + · · · + c n λ n αn = 0
Si de esta última identidad se resta la primera multiplicada por λ1 , resulta
c2 (λ2 − λ1 )α2 + · · · + cn (λn − λ1 )αn = 0
En otras palabras, se eliminó el primer término. Si nuevamente se aplica T a
la tercera identidad y se resta de ésta λ2 por la tercera, se elimina el término
con α2 . Si así se sigue, por inducción, después de n − 1 pasos se llega a
cn (λn − λ1 )(λn − λ2 ) · · · (λn − λn−1 )αn = 0
de donde cn = 0 (porque los valores propios se asumieron todos distintos.)
Regresando recursivamente se tiene que cn−1 = 0, . . . , c2 = 0, c1 = 0. Osea,
los αi ’s son linealmente independientes, y forman, por lo tanto base de V .
No siempre ha de esperarse que existan los valores propios sobre los reales.
Por ejemplo, si T está representado en la base canónica por la matriz
 
0 −1
A=
1 0
entonces el polinomio característico de T es
  
0 −1
P (λ) = det − λI
1 0

P (λ) = λ2 + 1
que no tiene raíces reales. Esto dice que imposible esperar que T se pueda
diagonalizar en alguna base de R2 .
Aún cuando todas las raíces del polinomio característico existan en los
reales, no siempre existen suficientes vectores propios para formar una base
de V . Veamos un ejemplo de esto. Supongamos que T está representado en
la base canónica por la matriz
 
1 1
A=
0 1
Entonces T tiene polinomio característico
  
1 1
P (λ) = det − λI
0 1
0.1. VECTORES Y VALORES PROPIOS 5

 
1−λ 1
P (λ) = det
0 1−λ

P (λ) = (λ − 1)2
que tiene todas sus raíces en R: λ0 = 1 es raíz doble. Para buscar los vectores
propios miramos las soluciones no triviales del sistema

(A − λ0 I)X = 0
  
1 1
−I X = 0
0 1
    
0 1 x 0
=
0 0 y 0
que tiene como soluciones los múltiplos del vector e1 ; nada más. Con ese
vector solo no se llega a una base de R2 .
De regeso a nuestra discusión. De nuevo, si Φ es una base que diagonaliza
a T , se debe tener
T αi = λi αi , i = 1, 2, . . . , n
lo que en términos de la matriz A que representa a T en la base canónica se
convierte en
A[αi ] = λi [αi ] ; i = 1, 2, . . . , n
que a su vez puede ser leído en términos de la matriz cambio de base P
de la la nueva base Φ a la canónica. P es la matriz cuyas columnas son
los vectores αi ’s puestos en columna (es decir, P tiene por columnas a los
vectores [αi ]Can ’s.) Entonces, si existe la base que diagonaliza a T ,

P −1 AP = D

Recuerde esto que es importante a la hora de los cálculos.


Hagamos un alto para analizar algunos ejemplos más.

Ejercicio 0.1. Sea T : Rn → Rn el operador lineal representado en la base


canónica por la matriz A n × n. En cada caso, calcule el polinomio carac-
terístico de T , valores propios y vectores propios asociados. Encuentre de
ser posible una base de vectores propios que diagonalice a T . Construya la
matriz cambio de base y verifique si P −1 AP es o no diagonal.
6

1.  
1 −1 −1
A= 0 2 −1 
0 0 3

2.  
3 0 2
A =  −1 1 −1 
−1 0 0

3.  
1 −1 −1
A =  −1 2 −1 
−1 −1 3

4.  
2 1 0
A= 1 2 1 
0 1 2

Ejercicio 0.2. Para los dos últimos casos del problema anterior, verificar que
es posible tomar la matriz P que diagonaliza a T con columnas ortogonales
entre sí y de norma uno. Calcule P −1 y compare con la traspuesta de P .

Ejercicio 0.3. Pruebe que si una matriz P n × n tiene por columnas los
vectores de una base de Rn cuyos vectores son ortogonales entre sí y cada
uno de norma uno, entonces P P T = I. Tales matrices se denominan orto-
gonales. Verifique que si dos matrices son ortogonales su producto también
lo es.

Ejercicio 0.4. Pruebe que toda matriz invertible A tiene todos sus valores
propios no nulos. Más aún, λ0 es un valor propio de A si y sólo si 1/λ0 es
valor propio de A−1 .

Ejercicio 0.5. Sea T : Rn → Rn un operador lineal representado en la


base canónica por una matriz ortogonal. Entonces, con respecto al producto
interno canónico de Rn ,
hT x, T yi = hx, yi
Ayuda: Escriba todo matricialmente; producto interno incluído.
0.2. TRANSFORMACIONES SIMÉTRICAS 7

Ejercicio 0.6. Pruebe que una matriz ortogonal sólo tiene como valores
propios reales a ±1. Ayuda: Use los problemas anteriores y el hecho que el
determinante es invariante por trasposición.1

0.2. Transformaciones Simétricas


De ahora en más se asume que V = Rn . La diferencia radica fundamen-
talmente en que ahora disponemos del producto interno canónico, que nos
permite considerar ortogonalidad entre vectores y subespacios.
Agregamos un nuevo ingrediente al problema de diagonalizar un opera-
dor lineal. Se requiere de la base diagonalizante que consista de vectores
mutuamente ortogonales y de norma unitaria.

Definición 0.2. Una base Φ = {α1 , . . . , αn } de Rn es ortonormal si satis-


face 
1 si i = j
hαi , αj i = δij =
0 si i 6= j

Por el ejercicio0.3, esto es exactamente que la matriz cambio de base P


cuyas columnas consisten de los vectores propios sea una matriz ortogonal.
Recuerde que para una matriz ortogonal P se cumple siempre que P −1 = P T .
Entonces, si existe una base ortonormal Φ que diagonaliza a T , ésta debe ser
ortonormal y consistir de vectores propios de T . Hay algo que se desprende
inmediatamente de esto: Desde

P T [T ]P = D

se sigue tomando traspuesta que

P T [T ]T P = D T = D = P T [T ]P

de donde
[T ]T = [T ]
1
En general, para tener todos los valores propios de una matriz en el cuerpo de escalares
hace falta que éste sea algebraicamente cerrado; es decir, que todo polinomio de grado
n > 0 con coeficientes en el cuerpo tenga todas sus n raíces en el cuerpo. En particular,
en el caso de una matriz ortogonal real, del análogo del ejercicio 0.5 pero en C, se sigue
que los valores propios sólo pueden ser de la forma eiθ = cos θ + i sin θ, con θ ∈ R.
8

En otras palabras, [T ] es simétrica. Este hecho puede decirse en términos del


producto interno canónico así:

hT α, βi = hα, T βi

En ese caso se dice que T es un operador simétrico.

Ejercicio 0.7. Pruebe que para toda matriz cuadrada An×n se cumple

hAα, βi = hα, AT βi

tomando como definición de producto interno canónico

hα, βi = αT β

Aquí estamos pensando los vectores de Rn como matrices n×1; por lo tanto, la
operación de trasponer pone a los vectores en posición horizontal. Siguiendo
esta convención, pruebe que

hAα, βi = hα, Aβi

si y sólo si A = AT . En ese caso, A se denomina simétrica.

De esto se desprende que T es simétrico si y sólo si su matriz en la base


canónica es simétrica.2
En realidad esto es todo lo que se necesita de T : Rn → Rn para que
exista una base ortonormal que lo diagonalice.

Teorema 0.2. Sea T : Rn → Rn un operador lineal simétrico. Entonces todos


sus valores propios son reales y existe una base ortonormal Φ consistente de
vectores propios que diagonaliza a T .
Dicho en términos matriciales, si A es una matriz simétrica, todos los
valores propios de A son reales y existe una matriz ortogonal P tal que
P T AP = D donde D es una matriz diagonal con los valores propios de
A en la diagonal.
Más es cierto: T es simétrico si y sólo si la matriz de T en cualquier otra base ortonor-
2

mal es simétrica. Si la base no es ortonormal, en general la matriz que representa a T no


es necesariamente simétrica. Esto puede generalizarse a opeadores lineales actuando sobre
espacios con producto interno arbitrarios. Véase Hoffman-Kunze, Álgebra Lineal.
0.2. TRANSFORMACIONES SIMÉTRICAS 9

La demostración de este teorema consiste de tres pasos. Primero hay que


probar que todos los valores propios de un operador simétrico son siempre
reales. Esto garantiza la existencia de vectores propios reales. Segundo, se
muestra que por ser T simétrico, vectores propios correspondientes a valo-
res propios distintos son ortogonales entre si; y si W es un subespacio T –
invariante, entonces el complemento ortogonal W ⊥ es tambien T –invariante.
Por último un argumento inductivo muestra que es factible construir una
base ortonormal que consiste de vectores propios de T . Esta base diagonaliza
a T.

Proposición 0.1. Sea T : Rn → Rn un operador lineal simétrico. Entonces


todos sus valores propios son reales y vectores propios de T correspondientes
a valores propios distintos son ortogonales entre sí.

Demostración.

Proposición 0.2. Sea T : Rn → Rn un operador lineal simétrico y W un


subespacio T –invariante, (esto es, T (W ) ⊂ W ) entonces el complemento
ortogonal W ⊥ es T –invariante.

Demostración.

Proposición 0.3. Sea T : Rn → Rn un operador lineal simétrico. Entonces


existe una base ortonormal de Rn que consiste de vectores propios de T , y
que por lo tanto diagonaliza a T .

Demostración.

Ejercicio 0.8. En cada uno de los siguientes casos, encuentre una matriz
ortogonal P que diagonalice A.

1.  
1 0 −1
A= 0 2 0 
−1 0 1

2.  √ 
3/2 √1/2 0
A= 1/2 − 3/2 0 
0 0 2
10

3.  
0 1 1
A= 1 2 1 
1 1 0

4.  
1 2 3
A= 2 3 4 
3 4 5

5.  
cos θ sin θ
A=
sin θ − cos θ

0.3. Formas Cuadráticas


La necesidad de tratar formas cuadráticas reside en el hecho de que natu-
ralmente aparecen como una suerte de derivada segunda de funciones objetivo
en problemas de optimización, con y sin restricciones. Así la naturaleza del
punto crítico, si máximo local o mínimo local, puede en la mayoría de los ca-
sos aplicados a la economía ser determinado del comportamiento de la forma
cuadrática asociada a la función a optimizar.
En las dos secciones que siguen se verán una serie de resultados que
nos servirán para decidir acerca de lo que denominaremos el signo de la
forma cuadrática (geométricamente estaremos decidiendo si la forma tiene
un mínimo o un máximo o ninguno de los dos.) Todos los teoremas que
siguen se apoyan en el álgebra lineal de operadores simétricos.
Recuerde la definición de forma cuadrática

Definición 0.3. Una forma cuadrática real Q sobre Rn es un polinomio


homogéneo de grado dos en n variables; esto es, Q : Rn → R tiene la forma
Q(X) = X T AX para todo X ∈ Rn (pensado como vector columna,) y donde
la matriz An×n es simétrica.

Por ejemplo, Q(x, y, z) = xy + yz + xz es una forma cuadrática sobre R3


cuya matriz simétrica asociada es
 
0 1/2 1/2
A =  1/2 0 1/2 
1/2 1/2 0
0.3. FORMAS CUADRÁTICAS 11

Observe que sobre la diagonal se encuentran los coeficientes de los términos


correspondientes a las potencias cuadráticas de cada variable, mientras que
fuera de la diagonal se encuentran a manera de batalla naval los medios
coeficientes de los términos cruzados.
Veamos que un cambio de coordenadas apropiado puede desnudar la na-
turaleza geométrica de una forma cuadrática. Si Q(X) = X T AX es una
forma sobre Rn con matriz simétrica A, entonces existe una matriz ortogonal
Pn×n tal que P T AP = D es diagonal, con los valores propios de A en la
diagonal principal; inclusive es posible tomar P con det(P ) = 1. Entonces la
substitución X = P U compuesta con la forma cuadrática tiene el efecto de
eliminar todos los términos cruzados, dejando los valores propios de A como
coeficientes de los términos correspondientes a los cuadrados de las variables:

Q(X) = X T AX

Q(P U) = (P U)T A(P U)


Q(P U) = U T (P T AP )U
Q(P U) = U T DU
Que puesto en términos de los valores propios λ1 , . . . , λn de A, toma la forma:

Q = λ1 u21 + · · · + λn u2n

Ahora considere el problema de determinar cuándo una forma cuadrática


tiene un máximo absoluto (o un mínimo absoluto.) Para decir esto con más
precisión, antes una definición.

Definición 0.4. Sea Q una forma cuadrática sobre Rn y sea A la matriz


simétrica asociada a Q.

1. Q es definida positiva si Q(X) > 0 para todo X ∈ Rn no nulo. Si


Q(X) ≥ 0 para todo X ∈ Rn , Q es positiva semidefinida; pero si
Q(X) = 0 para algún X 6= 0, entonces Q es sólo (positiva) semide-
finida.

2. Q es definida negativa si Q(X) < 0 para todo X ∈ Rn no nulo. Si


Q(X) ≤ 0 para todo X ∈ Rn , Q es negativa semidefinida; pero si
Q(X) = 0 para algún X 6= 0, entonces Q es sólo (negativa) semidefi-
nida.
12

3. Q es indefinida si no es ni semidefinida positiva ni semidefinida nega-


tiva. Esto significa que existen X’s donde la forma es positiva y otros
X’s donde la forma es negativa.

La misma terminología se usa sobre la matriz simétrica A. Por ejemplo, A


es definida positiva si X T AX > 0 para todo X ∈ Rn no nulo.

Observe que Q es definida o semidefinida positiva exactamente cuando Q


tiene un mínimo absoluto en el origen (puesto que Q(0) = 0 siempre.) Lo
mismo si Q es definida o semidefinida negativa; ese es el caso si y sólo si Q
tiene un máximo absoluto en el origen.
También es útil notar que Q es definida negativa si y sólo si −Q es definida
positiva. Lo mismo si Q es semidefinida.
Ahora supóngase que Q = λ1 u21 + · · · + λn u2n es definida positiva. En
particular, para U = ei , el i-ésimo elemento de la base canónica, se tiene

λi = Q(ei ) > 0 para i = 1, 2, . . . , n

Ejercicio 0.9. Si Q(X) = X T AX y la notación es como arriba, qué Xi ∈ Rn


tomaría para que Q(Xi ) = λi ?

En otras palabras, si Q es definida positiva, todos los valores propios de


A son positivos. Y al revés, si todos los valores propios de A son positivos,
entonces
Q = λ1 u21 + · · · + λn u2n > 0
para todo U ∈ Rn no nulo.
De la misma manera se ve que Q es semidefinida positiva (negativa) si sólo
si A tiene todos sus valores propios no negativos (no positivos) y al menos
uno nulo. (Recuerde que A tiene al menos un valor propio nulo exactamente
cuando el núcleo de A es no nulo.)
Q es indefinida exactamente cuando existen al menos un valor propio
positivo y otro negativo.

Ejercicio 0.10. En cada uno de los siguientes casos encuentre la matriz


simétrica correspondiente a la forma cuadrática dada y una substitución
ortogonal que la diagonalice. Exprese la forma en las nuevas coordenadas
explícitamente.

1. 3x2 − 6xy + y 2
0.3. FORMAS CUADRÁTICAS 13

2. 8x2 + 9xy − 3y 2

3. x2 − y 2 − 4xy + 3xz − 8yz

4. x2 − 2y 2 + z 2 + 6w 2 − 2xw + 6yw − 8xz

5. 2xy

6. 3x2 + 4xy

7. −6xy + 8y 2

8. x2 + 2xy + y 2

9. 3x2 − 4xy + 3y 2

10. x2 + y 2 + z 2 − 2xy − 2xz − 2yz

11. x2 + 2y 2 − 6xz + z 2 − 4w 2

Ejercicio 0.11. Sea Q(X) = X T AX. Para cada caso encuentre la P orto-
gonal que diagonaliza A y decida si la forma es definida positiva o negativa;
si es semidefinida positiva o negativa; o indefinida.

1.  
0 1/2 1/2
A =  1/2 0 1/2 
1/2 1/2 0

2. Q(x, y) = x2 + 2xy + y 2

3. Q(x, y) = x2 + 2xy

4.  
3/2 0 1/2
A= 0 2 0 
1/2 0 3/2

5.  
−11 −5 3 1
 −5 −11 1 3 
A= 
 3 1 −11 −5 
1 3 −5 −11
14

Ejercicio 0.12. Hallar una condición necesaria y suficiente para que la forma
ax2 + bxy + cy 2 se pueda diagonalizar ortogonalmente a una forma del tipo
ku2 .
Existe una manera de decidir sobre el signo de una forma cuadrática sin
necesidad de diagonalizarla (aunque tal vez no menos laborioso.)
Definición 0.5. Sea An×n una matriz. Una submatriz de orden k es una
matriz k × k que se obtiene de A omitiendo n − k filas y n − k columnas,
posiblemente distintas. Cuando las n − k filas y columnas que se omiten de A
son las mismas, la submatriz que se obtiene se dice submatriz principal.
Cuando las n − k filas y columnas que se omiten de A son las últimas k +
1, k + 2, . . . , n, la submatriz que se obtiene se dice submatriz principal
líder y se denotará A(k) . Los determinantes de las submatrices principales
se denominan menores pricipales de A. Los determinantes de submatrices
principales líderes de orden k se denominan menores principales líderes
de orden k.3
Por ejemplo, si  
1 2 3
A= 4 5 6 
7 8 9
entonces  
4 6
7 9
es la submatriz de A que se obtiene omitiendo la fila primera y la columna
segunda; las submatrices principales líderes de A de orden 1, 2, 3 son respec-
tivamente  
  1 2 3
1 2
[1] , , 4 5 6 
4 5
7 8 9
Los menores principales líderes son sus respectivos determinantes. Son me-
nores principales no líderes de A las matrices
   
5 6 1 3
[5] , [9] , ,
8 9 7 9
Sus determinantes, junto con los menores principales líderes, son todos los
menores principales de A.
Esta definición tortuosa no se ha simplificado en lo que respecta a terminología con el
3

sólo objetivo de respetar el vocabulario folklórico.


0.3. FORMAS CUADRÁTICAS 15

0.3.1. Teorema de la Signatura


Teorema 0.3. Sea Q una forma cuadrática y A su matriz simétrica asociada.
Entonces
1. Q es definida positiva si y sólo si todos los menores principales líderes
de A son positivos.

2. Q es definida negativa si y sólo si los menores principales líderes de A


alternan en signo, comenzando con menos: signo(det(A(k) )) = (−1)k , k =
1, 2, . . . , n.
3. Q es semidefinida positiva si y sólo si toda submatriz principal de A
tiene determinante no negativo.

4. Q es semidefinida negativa si y sólo si para todo k = 1, 2, . . . , n toda


submatriz principal de orden k de A tiene determinante con signo (−1)k
o es nulo4 .

5. Q es indefinida si y sólo si existen dos menores principales de orden


impar con distinto signo o un menor principal de orden par con signo
(estrictamente) negativo.
Ejercicio 0.13. Use el teorema 0.3 para decidir el signo de las formas del
problema 0.10 y 0.11.
Ejercicio 0.14. Pruebe que si una matriz simétrica A tiene todos sus meno-
res principales de orden par no negativos y sus menores principales de orden
impar nulos, entonces A es la matriz nula. Ayuda: Primero mire los menores
principales de orden uno; luego piense en los menores principales de orden
dos.

0.3.2. Demostración del Teorema 0.3


El teorema 0.3 quedará demostrado si se prueban los puntos primero y
tercero. El segundo y cuarto puntos del teorema se deducen fácilmente de
aplicar respectivamente el primer y tercer punto a la forma −Q. El punto
quinto es simplemente el complemeto lógico de los puntos anteriores.
4
Observe que no pueden todos los menores principales de orden impar de A ser nulos
mientras los menores principales de orden par son no negativos a menos que A misma sea
nula, posibilidad ésta excluída por la definición de forma cuadrática.
16

Todos los menores a los que se haga referencia en la demostración son


menores principales líderes.

Primer punto del teorema 0.3


La demostración es por inducción sobre n y se apoya en dos hechos co-
nocidos. Primero, el determinante es invariante por operaciones elementales
del tipo ‘a una fila se le suma un múltiplo de otra fila (distinta.)’ El segundo
hecho se expresa en forma precisa en el siguiente
Lema 0.1. An×n es definida positiva si y sólo si QT AQ es definida positiva,
donde Q es cualquier matriz invertible n × n.
Ejercicio 0.15. Pruebe el lema anterior. Recuerde que debe verificar dos
cosas, que QT AQ es simétrica si y sólo si A es simétrica y que satisface la
desigualdad que define la positividad si y sólo si A la satisface.
Primero establecemos una conexión entre el determinante de A y el menor
principal det(A(n−1) ) de orden n − 1 y la correspondiente relación entre la
forma Qn = X T AX, X ∈ Rn , y la forma Qn−1 = X T A(n−1) X, ahora X ∈
Rn−1 . Esto nos permitirá probar el paso inductivo de n − 1 a n.
Para esto observe que A puede partirse en bloques, el menor principal de
orden n − 1 A(n−1) y an n en la diagonal, y los vectores a, igual a los n − 1
primeros elementos de la última columna de A, y aT fuera de la diagonal.
Entonces, verifique que esta cuenta es cierta: Si A(n−1) es invertible,

A(n−1) a
A=
aT an n
se puede descomponer usando operaciones elementales por filas y por colum-
nas (ambas simultáneamente) así:

I(n−1)×(n−1) 0 A(n−1) 0 I(n−1)×(n−1) [A(n−1) ]−1 a


A= × ×
aT [A(n−1) ]−1 1 0 d 0 1

donde d = an n − aT [A(n−1) ]−1 a. Note que el primer factor de esta descom-


posición es el traspuesto del tercer factor. Si a éste último lo denotamos M,
0.3. FORMAS CUADRÁTICAS 17

entonces M es invertible, tiene determinante uno, y la descomposición de


arriba se lee

A(n−1) 0
A = MT × ×M
0 d
(M es una matriz producto de elementales del tipo antes mencionado pero
que opera por columnas en vez de por filas; M usa el bloque A(n−1) para
hacer a cero. M T es producto de elementales del mismmo tipo arriba men-
cionado que usa el bloque A(n−1) para poner cero en lugar de aT .) De esta
descomposición de A se desprenden las dos relaciones deseadas; primero

det(A) = det(A(n−1) ) × d (1)

y segundo
 
X1
(X1T , xn )(M −1 )T A(M −1 ) = X1T A(n−1) X1 + d x2n (2)
xn

donde X1 ∈ Rn−1 .

Ejercicio 0.16. Calcule M (−1) .(Ayuda: Sólo un menos se necesita.) Verifique


que (M T )(−1) = (M (−1) )T .

Ahora usamos inducción sobre n para probar la tesis.

(⇒) Asuma que Q = Qn es definida positiva. Si n = 1 se tiene Q(x) =


ax2 > 0, para todo x ∈ R no nulo, de donde a > 0; y viceversa.

Ejercicio 0.17. Pruebe el teorema para el caso n = 2. Una forma de


hacer esto es comenzar de la expresión Q(x, y) = ax2 + 2bxy + cy 2 ,
completar cuadrados, y escribir los coeficientes resultantes en términos
de los menores principales.

La hipótesis inductiva es que si una forma de orden n − 1 es positiva


definida, entonces tiene todos sus menores principales positivos. Como
hemos asumido que Q, la forma con matriz A, es positiva definida,

∀X ∈ Rn \ {0} : X T AX > 0
18

poniendo xn = 0 (la última coordenada de X cero,) se tiene que A(n−1)


es positiva definida sobre Rn−1 . Luego por hipótesis inductiva, todos
los menores principales líderes de A(n−1) son positivos. En particular,
A(n−1) tiene determinante positivo. En particular, A(n−1) es invertible
y las cuentas 2 y 1 son posibles. También, por el lema 0.1 anterior, la
forma sobre Rn con matriz (M −1 )T A(M −1 ), es positiva definida:

∀(X1 , xn ) ∈ Rn \ {0} : X1T A(n−1) X1 + d x2n > 0

Luego, poniendo X1 = 0 y xn = 1, se tiene que d > 0. Finalmente, por


1 se tiene que det(A) > 0 (que es el último menor principal de A que
faltaba verificar su positividad.) Listo.

(⇐) Asuma ahora al revés, supongamos que todos los menores principales
de A son positivos. El caso n = 1 es que a > 0 implica Q(x) = ax2 > 0,
para todo x ∈ R no nulo; así Q es positiva definida.
La hipótesis inductiva es ahora que si una matriz simétrica de tamaño
(n − 1) × (n − 1) tiene todos sus menores principales positivos, entonces
la forma cuadrática asociada es positiva definda.
Como A tiene todos sus menores principales positivos, det(A(n−1) ) > 0;
luego A(n−1) es invertible y las cuentas que llevaron a 1 y 2 son posibles.
Por 1, como detA > 0 y det(A(n−1) ) > 0, se tiene d > 0. Ahora,
como A(n−1) tiene todos sus menores principales positivos, por hipótesis
inductiva, Qn−1 es positiva definida. Luego, por 2, la forma sobre Rn con
matriz (M −1 )T A(M −1 ) debe ser positiva definida. Luego Q es positiva
definida por el lema 0.1 anterior. Listo

Esto termina la demostración del primer punto del teorema 0.3

Ejercicio 0.18. Realice con todo detalle los pasos de la demostración del
primer punto del teorema en el caso de n = 3. Use la expresión (2) para n =
3, 2, 1 hasta haber completado todos los cuadrados. Reescriba los coeficientes
en términos de los menores principales y recupere el teorema nuevamente.

Ejercicio 0.19. Hay otra aplicación interesante que se desprende del Lema
0.1. Denote con P una matriz permutación n × n, en otras palabras, P se
obtiene de la identidad haciendo la correspondiente permutación de sus filas.
En particular, las filas de P forman naturalmente una base ortonormal de
Rn ; esto es, P es una matriz ortogonal: P T P = I
0.3. FORMAS CUADRÁTICAS 19

Si A es simétrica n × n, por el lema mencionado, A es positiva definida si


y sólo si P T AP lo es. Verifique a través de ejemplos que esto significa que si
se permutan las variables de una forma, entonces el carácter de ser positiva
definida no cambia.
Vale lo mismo para negativa definida? Para semidefinidas? Indefinidas?
Interprete geométricamente el significado de este hecho.

Tercer punto del teorema 0.3

Este punto también se sigue del primero. Si Q es sólo semidefinida positi-


va, en particular cero es valor propio de A. Entonces el autoespacio del valor
propio cero es no trivial y es exactamente el núcleo de A. Como A es simétri-
ca, preserva complementos ortogonales. El complemento ortogonal del núcleo
de A es la suma directa ortogonal de los autoespacios de A correspondientes
a los valores propios de A no nulos. Llamemos a ese subespacio W 5 . Enton-
ces la restricción de Q a W , QW , es definida positiva. Una adaptación de la
demostración del primer punto muestra que una forma es definida positiva si
y sólo si todos sus menores principales son positivos, no sólo los principales
líderes. Aplicando esto a QW , se obtiene que todos los menores principales de
la matriz asociada a QW , digamos en una base ortonormal de autovectores
de valores propios no nulos de A, son positivos. Esos menores de QW son los
únicos menores principales no nulos de A! Al revés es lo mismo.

El tercer punto pero de otra manera

Esto es lo queremos probar: An×n es positiva semi definida si y sólo si


todos los menores principales (no sólo los líderes) de A son no negativos.
De nuevo la demostración es por inducciôn sobre n. El caso n = 1 es
trivial: Q(x) = ax2 ≥ 0 ⇔ a ≥ 0 ⇔ det(a) = a ≥ 0.
Con un fin preparatorio, veámos tambien el caso con n = 2. Ahora la
forma asociada a  
a b
A=
b c

es Q(x, y) = ax2 + 2bxy + cy 2 . Completemos cuadrados: Si a 6= 0, entonces

5
W es el subfila de A.
20

Q(x, y) = ax2 + 2bxy + cy 2


= a(x2 + 2b/axy + c/ay 2 )
= a (x + b/ay)2 + (ac − b2 )y 2/a2
 

Ahora si Q(x, y) ≥ 0 para todo x, y ∈ R, en particular para y = 0 se tiene


Q(x, y) = ax2 ≥ 0 para todo x ∈ R, con lo cual a > 0; haciendo x = 0, se
tiene igualmente c ≥ 0; además si hacemos x tal que x + b/ay = 0, tenemos
Q(x, y) = a [(ac − b2 )y 2 /a2 ] ≥ 0 para todo y ∈ R. De ahí que ac − b2 ≥ 0.
Y al revés, si a > 0 y ac − b2 ≥ 0, por las cuentas de arriba queda claro
que Q(x, y) ≥ 0 para todo x, y ∈ R.
Si a = 0, entonces c 6= 0; caso contrario Q(x, y) = 2bxy ≥ 0, para todo
x, y ∈ R, que sólo es posible cuando b = 0, osea si A = 0, en cuyo caso el
teorema es cierto trivialmente. En este caso completamos cuadrados como en
el caso anterior:

Q(x, y) = 2bxy + cy 2
= c 2b/cxy + y 2
 

= c (y + b/cx)2 − b2 /c2 x2
 

Ahora si Q(x, y) ≥ 0 para todo x, y ∈ R, en particular para x = 0 se tiene


Q(x, y) = cy 2 ≥ 0 para todo y ∈ R, con lo cual c > 0. Además, si se toma y
tal que y + b/cx = 0, se tiene Q(x, y) = c [0 − b2 /c2 x2 ] ≥ 0 para todo x ∈ R,
que es posible sólo si b = 0. Así
 
0 0
A=
0 c
con c > 0, que tiene todos sus menores principales no negativos.
Y al revés, si a = 0, c > 0 y ac − b2 ≥ 0, entonces debe ser b = 0 y por lo
tanto Q(x, y) = cy 2 ≥ 0. Listo el caso n = 2.
Ejercicio 0.20. Usando los casos n = 1, 2, probar el caso n = 3. Si alguna
parte le resultara compleja, fíjese en la demostración que sigue especializán-
dola al caso n = 3.
Antes de continuar con la demostración, veámos un resultado que esta-
blece la relación entre los menores principales de la forma dada y de la forma
obtenida a partir de la anterior permutando las variables entre sí.
0.3. FORMAS CUADRÁTICAS 21

Lema 0.2. Sea A simétrica y P la matriz ortogonal obtenida de permutar


las columnas de la matriz identidad de acuerdo a la permutación σ de n
letras. Entonces, salvo permutación por σ, los menores principales de A son
los mismos que los de P T AP .
Es importante observar que los menores principales líderes de A pueden
no ser líderes de P T AP .
Demostración del Lema. Para obtener la relación deseada entre los
menores principales de A y P T AP vamos a ver algo más fuerte: veremos que
las submatrices principales quedan permutadas por σ.
Denotemos por A(I) la submatriz principal de A obtenida omitiendo
las mismas filas y columnas de A con índices fuera de I = {i1 , . . . , ik } ⊂
{1, . . . , n}. Denotemos tambien por σ(I) = {σ(i1 ), . . . , σ(ik )}, la imágen en
ese orden del conjunto I por σ.
Una simple cuenta matricial muestra que, si EI es la matriz n × k con
entradas matriciales (EI )r s = δr is (EI es la matriz n × k cuyas columnas
son los vectores ei1 , . . . , eik de la base canónica), entonces multiplicación a
derecha por EI omite las columnas con índices fuera de I; y multiplicación a
izquierda por EIT omite las filas fuera de I.
Entonces
P EI = Eσ(I)
tiene entradas (EI )r s = δr σis y

(P T AP )(I) = EIT P T AP EI = (P EI )T A(P EI ) = EσI


T
AEσI = A(σI)

En particular,
det((P T AP )(I) ) = det(A(σI) )
como queríamos probar. Listo el Lema.
Paso inductivo. Asuma que toda matriz A simétrica de tamaño (n −
1) × (n − 1) o menor es semidefinida positiva si y sólo si todos sus menores
principales son no negativos. Queremos ver que lo mismo vale para toda A
simétrica de tamaño n × n.
Supóngase que An×n es semidefinida positiva. En particular, haciendo
cero la variable xi en X T AX ≥ 0, se tiene que la submatriz principal A(i) de
tamaño (n − 1) × (n − 1) obtenida omitiendo la fila y la columna i-ésima de A
es semidefinida positiva, para cualquier 1 ≤ i ≤ n. Por Hipótesis inductiva,
todo menor principal de A(i) es no negativo, para 1 ≤ i ≤ n. Así todos los
menores principales de orden inferior a n son no negativos. Sólo falta ver que
22

el determinante de A mismo es no negativo. Para ver esto, tome P ortogonal


que diagonalice a A, digamos que λ1 , . . . , λn son los valores propios de A.
Entonces, haciendo el cambio de varialbles X = P U se tiene

0 ≤ X T AX = U T P T AP U = λ1 u21 + · · · + λn u2n

para todo U ∈ Rn si y sólo si cada valor propio de A es no negativo. Luego,

det(A) = det(P T AP ) = λ1 . . . λn ≥ 0

Así A tiene todos sus menores principales no negativos.


Ahora supóngase al revés: supóngase que A es simétrica n×n tal que todos
sus menores principales son no negativos. Se desea ver que A es semidefinida
positiva.
Si todas las entradas de la diagonal de A son cero, como los menores
principales de orden dos son no negativos, se tiene que
 
2 o ai j
−ai j = det ≥0
aij 0

de donde aij = 0, para todo i, j; así, A es nula y es trivialmente semidefinida


positiva.
Entonces podemos asumir que existe aii 6= 0. Sea P la matriz permutación
que permuta 1 con i y fija el resto. Entonces la matriz A′ = P T AP tiene
a′11 = aii 6= 0 y los menores principales de A′ son los de A salvo permutación
por el lema 0.2. Como los menores principales de A son no negativos, en
particular a′11 = aii > 0. Podemos entonces asumir que A tiene a11 > 0.
Ahora hacemos operaciones elementales simultáneamente por fila y columna
sobre A:
1 0 a a 1 −1/a11 a 1 0
× 11 × =
−1/a11 a In−1 aT An−1 0 In−1 0 −1/a11 aT a + An−1

Denotemos por B = −1/a11 aT a + An−1 .


Afirmación: B tiene todos sus menores principales no negativos.
Esto se desprende de dos hechos. Primero, An−1 tiene todos sus menores
principales no negativos por ser sí misma una submatriz principal de A.
Segundo, los menores principales de B están relacionados con los de An−1
así:
a11 det(B (I) ) = det(A(I∪{1}) ) (3)
0.3. FORMAS CUADRÁTICAS 23

Esto último se sigue de las cuentas

a11 0 a11 0
(I) = T
0 B 0 EI BEI

1 0 1 0 a a 1 −1/a11 a 1 0
= T × × 11T × ×
0 EI −1/a11 a In−1 a An−1 0 In−1 0 EI
1 0 a11 a 1 −1/a11 aEI
= T × ×
−1/a11 EIT aT EI T
a An−1 0 EI
1 0 1 0 1 0 1 −1/a11 aEI
= × T ×A× ×
−1/a11 EIT aT Ik×k 0 EI 0 EI 0 Ik×k
1 0 1 −1/a11 aEI
= × A(I∪{1}) ×
−1/a11 EIT aT Ik×k 0 Ik×k
Tomando determinantes y observando que las matrices triangulares de los
extremos en la última identidad no cuentan a los fines del determinante, se
obtiene la identidad 3.
De la identidad 3 y como A tiene todos sus menores principales no ne-
gativos, se sigue que B(n−1)×(n−1) tiene todos sus menores no negativos. Por
hipótesis inductiva, B es semidefinida positiva. Como además a11 > 0, la
matriz
a11 0
= M T AM
0 B
es positiva semidefinida, donde

1 −1/a11 a
M :=
0 In−1

Pero entonces A es psitiva semidefinida. Q.E.D.6


Del teorema de la signatura y el lema 0.2 se siguen los siguientes corolarios

Corolario 0.1. Si a una forma cuadrática se le permutan las variables, su


signatura no cambia.

Corolario 0.2. 1. Una matriz simétrica es positiva definida si y sólo si


todos sus menores principales son positivos.
6
Quod Erat Demostrandum. Lo cual queda demostrado en Latín.
24

2. Una matriz simétrica es negativa definida si y sólo si todos sus menores


principales de orden par son positivos y todos sus menores principales
de orden impar son negativos.
De la demostración del teorema 0.3 se obtiene el siguiente
Corolario 0.3. Sea A simétrica. Entonces
1. A es positiva (negativa) definida si y sólo si existe M triangular supe-
rior con unos en la diagonal tal que M T AM es diagonal con elementos
positivos (negativos) en la diagonal.
2. A es semidefinida positiva (negativa) si y sólo si existe una matriz M
invertible producto de triangulares superiores con unos en la diagonal
y matrices permutación tal que M T AM es diagonal con elementos no
negativos (no positivos) en la diagonal.
Este último corolario es particularmente útil a la hora de hacer cálculos
para determinar la signatura de una forma. Si una matriz es definida, es
posible hacer operaciones elementales simultáneas por fila y columna que
diagonalizan la matriz. La signatura se lee de los signos en la diagonal. Si es
semidefinida, tal vez sean necesarias permutaciones entre las filas y columnas
además de las operaciones elementales triangulares.

0.3.3. Ejemplos de cálculo


1. Considere la matriz simétrica
 
1 1 1
A= 1 2 1 
1 1 3
Si se realiza la operación a la segunda se le resta la primera y a la
tercera se le resta la primera, resulta
   
1 1 1 1 0 0
MAM T =  0 1 0  × M T =  0 1 0 
0 0 2 0 0 2
donde  
1 0 0
M =  −1 1 0 
−1 0 1
0.3. FORMAS CUADRÁTICAS 25

es la matriz producto de las matrices elementales necesarias para rea-


lizar las operaciones especificadas.
Unas palabras de advertencia. Este procedimiento no es diagonaliza-
ción por una base ortonormal, es sólo diagonalización por matrices in-
vertibles. La diagonal no necesariamente contiene los autovalores de la
matriz A. Lo que sí es cierto es que la signatura de la forma puede ser
leída directamente de los signos de los elementos diagonales:

signatura(A) = (+, +, +)

En nuestro ejemplo A es positiva definida.

2. Otro más. Considere la matriz simétrica


 
0 1/2 1/2
B =  1/2 0 1/2 
1/2 1/2 0

Observe que no es posible premultiplicar a izquierda por una matriz M


triangular inferior con unos en la diagonal de manera tal que la primera
columna de MB sea un número distinto de cero en la primera fila y
cero en las restantes. Para lograr un elemento no nulo en la posición
(1, 1), podemos intentar permutar filas y columnas apropiadamente; sin
embargo, permutació de filas, y de columnas por su traspuesta, deja la
matriz B invariante: Por ejemplo, si P1,2 denota la matriz elemental
que permuta la posición uno con la dos, entonces
T
P1,2 BP1,2 =B

Hágase las siguientes operaciones elementales por fila y por columna


por la transpuesta (, y en ese orden): la tercera menos la segunda,
 
0 1/2 0
M1 BM1T =  1/2 0 1/2 
0 1/2 −1

la tercera menos la primera,


 
0 1/2 0
M2 M1 BM1T M2T =  1/2 0 0 
0 0 −1
26

la primera mas la segunda,


 
1 1/2 0
M3 M2 M1 BM1T M2T M3T =  1/2 0 0 
0 0 −1
la segunda menos un medio la primera,
 
1 0 0
M4 M3 M2 M1 BM1T M2T M3T M4T =  0 −1/4 0 
0 0 −1
Se deja como ejercicio calcular explícitamente las matrices Mk y corro-
borar que su producto no es triangular inferior. Estas cuentas muestran
que la signatura de la forma con matriz B tiene signatura
sig(B) = (+, −, −)
Nuevamente los elementos de la diagonal no son los autovalores de B.
(Ejercicio: Calcule los autovalores de B. Intente para esto el cambio de
variables −1/4u + 1/u y resuelva.)
3. Ejercicio: Diagonalice mediante operaciones elementales por fila y co-
lumna la matriz  
1 1 2 4
 1 1 1 3 
A=  2 1 0 3 

4 3 3 10

0.4. Formas Cuadráticas con Restricciones


Ahora la idea es refinar una versión del teorema 0.3, pero para restriccio-
nes de formas cuadráticas a subespacios definidos como conjunto solución de
un sistema homogéneo. Para precisar ideas, considere el problema de deter-
minar la positividad de la forma
Q(X) = X T AX
sujeta a
BX = 0
donde A es simétrica de ordenn y B es una matriz m × n de rango m (caso
contrario, se descartan las filas redundantes de B.)
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 27

Ejercicio 0.21. Estudie la signatura de la forma Q(x, y) = ax2 + 2bxy + cy 2


sujeta a dx + ey = 0, con al menos d o e no nulo.
Veámos un ejemplo que captura toda la generalidad. Considérese la forma
cuadrática

Q(X) = λ1 x21 + · · · + λn x2n


sujeta a

Im×m 0m×(n−m) × X = 0

Las restricciones simplemente dicen que las primeras m variables son cero:
x1 = 0, . . . , xm = 0 y la forma restringida resulta simplemente

Q(0, . . . , 0, xm+1 , . . . , xn ) = λm+1 x2m+1 + · · · + λn x2n

Entonces la forma restringida es positiva definida si y sólo si

λm+1 > 0, . . . , λn > 0

Hay una manera de decir esto en términos de menores. Si H denota la matriz


orlada7 —que significa con guardas— (m + n) × (m + n)

0m×m Im×m 0m×(n−m)


H=
Im×m An×n
0m×(n−m)

donde A es la matriz diagonal con los λ’s en la diagonal y cero fuera. Es fácil
calcular los menores principales de H.

det(H (k) ) = 0, k = 1, 2, . . . , 2m − 1

porque siempre hay una fila cero.

det(H (2m) ) = (−1)m


7
Esta matriz se le ocurre a un ser de este planeta sólo después de pensar en Hessianos,
una suerte de derivada segunda para funciones de varias variables. H es el Hessiano del
Lagrangiano asociado a Q con las restricciones dadas. Más de esto luego.
28

porque

0m×m Im×m
(2m)
det(H ) = det
(m)
Im×m An×n

0m×m Im×m
(2m)
det(H ) = det
Im×m 0m×m

haciendo operaciones elementales por fila del tipo ‘a una fila se le suma un
múltiplo de otra fila’ para hacer cero el bloque de A(k) .
det(H (2m) ) = (−1)m
reordenando m-filas. Y por último, usando la misma propiedad del determi-
nante
det(H (2m+k) ) = (−1)m λm+1 . . . λm+k , k = 1, 2, . . . , (n − m) (4)
Entonces la forma restringida es definida positiva si y sólo si
(−1)m det(H (2m+1) ) > 0, . . . , (−1)m det(H (n) ) > 0
Mire bien esa condición porque vale en general.
De la misma manera, la forma restringida
Q(0, . . . , 0, xm+1 , . . . , xn ) = λm+1 x2m+1 + · · · + λn x2n
es negativa definida si y sólo si
λm+1 < 0, . . . , λn < 0
Esto puede nuevamente expresarse en términos de los últimos n − m menores
principales de H. Por (3), los signos de los λ’s quedan determinados por
sig((−1)m det(H (2m+k) )) = (−1)k , k = 1, 2, . . . , n − m.
Es decir, los signos de los últimos n − m menores deben alternar de ma-
nera que el menor principal más grande, el de orden n, termine con signo
(−1)m (−1)n−m = (−1)n . Esta condición también vale en general deacuerdo
al siguiente teorema.
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 29

Ejercicio 0.22. Revise todas las cuentas del ejemplo anterior en detalle
para el caso de n = 4 y m = 1, 2. Esto lo ayudará a entender porqué los
n − m últimos menores principales de H deciden la signatura de la forma
restringida.

Teorema 0.4. Considérese la forma cuadrática Q(X) = X T AX, donde A


es simétrica, sujeta a la restricción BX = 0, donde Bm×n tiene rango má-
ximo; por coveniencia notacional, asuma que las primeras m columnas de B
son linealmente independientes. Denotemos QW a la forma Q restringida al
subespacio W = {X ∈ Rn | BX = 0} y

0m×m Bm×n
H=
T
Bn×m An×n

Entonces,

1. QW es positiva definida sobre W si y sólo si (−1)m det(H (2m+k) ) > 0


para todo k = 1, 2, . . . , n − m.

2. QW es negativa definida sobre W si y sólo si (−1)m det(H (2m+k) ) tiene


el mismo signo que (−1)k para todo k = 1, 2, . . . , n − m.

3. Si ambas condiciones son violadas por menores principales no nulos,


entonces QW es indefinida.

Notar:

1. El primer punto decide en términos de menores principales cuándo QW


tiene un único 8 mínimo absoluto en el origen.

2. El segundo punto del teorema decide cuándo QW tiene un único máximo


absoluto en el origen sobre todo W 9 .
8
si la forma QW fuese semidefinida positiva, caso que no se estáconsiderando al mo-
mento, entonces existiría la posibilidad de infinitos mínimos absolutos.
9
Aquí es válido el mismo comentario que arriba, es posible que no se cumpla con la
condición del segundo punto del teorema0.4 y sinembargo QW podría resultar semidefinida
negativa, caso en el cual tendría infinitos máximos absolutos sobre W .
30

3. Si en lugar de asumir que las primeras m columnas de B son lineal-


mente independientes, se hubiese asumido B de rango máximo sola-
mente, el enunciado se hubiese complicado porque habría que rastrear
los menores que antes eran principales líderes y ahora son sólo menores
principales; podría haber ocurrido que menores principales líderes son
ahora cero sólo porque B pudiera no tener las primeras m columnas
linealmente independientes.

Ejercicio 0.23. Sea Q(x, y, z) = −x2 + y 2 + z 2 . Pruebe que Q restringida al


subespacio

1. x = 0 es positiva definida.

2. y = 0 es indefinida.

3. y = 0, z = 0 es negativa definida.

Ejercicio 0.24. Considere la misma forma del problema anterior. Decida la


signatura de la forma QW por substitución y usando el teorema 0.4 en el caso
que

1. W = {(x, y, z) ∈ R3 | x + y = 0}
n hxi o
3 1 1 1 0
2. W = (x, y, z) ∈ R | [ 1 2 1 ] × z = [ 0 ]
y

n hxi o
3. W = (x, y, z) ∈ R3 | [ 1 1 1 ] × yz = [ 00 ]

Ahora en cada uno de los casos anteriores encuentre una base ortonormal de
W y obtenga la matriz asociada a QW en esa base.

Ejercicio 0.25. Decida la signatura en cada uno de los siguientes casos


usando el teorema 0.4.

1. Q(x, y) = x2 + 2xy + y 2 sujeta a la restricción x + y = 0

2. Q(x, y) = x2 + 2xy − y 2 sujeta a la restricción x − y = 0

3. Q(x, y) = x2 − 2xy + 4y 2 sujeta a la restricción 2x − 3y = 0

4. Q(x1 , x2 , x3 , x4 ) = x21 −x22 −x23 +x24 +x1 x2 +x3 x4 sujeta a las restricciones
x1 + x2 + x3 = 0 y x1 + x2 + x4 = 0
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 31

5. Q(x1 , x2 , x3 ) = x21 − x22 − x23 + x1 x2 + x1 x3 sujeta a las restricciones


x1 + x2 + x3 = 0 y x1 + x2 − x3 = 0

6. Q(x1 , x2 , x3 ) = −x21 − x22 − x23 + x1 x2 + x1 x3 sujeta a las restricciones


x1 + x2 + x3 = 0 y x1 + x2 − x3 = 0

Demostración del Teorema 0.4


Queremos caracterizar la signatura de la forma

Q(X) = X T AX
(5)
sujeto a BX = 0

La idea es usar las restricciones para calcular explícitamente la forma res-


tringida QW para luego comprobar que los menores principales de la matriz
de la forma restringida se corresponden con menores principales de la ma-
triz H orlada. Usamos técnicas similares a las usadas en la demostración del
teorema 0.3.

1er. Paso
Si cambiamos B por su reducida y escalonada RB el subespacio W no
cambia. Como se asumió que B tiene rango máximo, las m columnas de
RB donde aparecen los pivotes forman por sí solas la matriz identidad m ×
m. Esas columnas de RB pueden no ser las m primeras, pero es posible
reordenar las variables de X mediante multiplicación a izquierda por una
matriz permutación P de manera tal que la matriz RB P tiene la identidad
m × m en sus primeras m columnas. Entonces podemos asumir sin pérdida
de generalidad que la matriz que define al subespacio W tiene la forma

Im×m Cm×(n−m)

No olvide que el teorema ha sido ennunciado asumiendo esta forma para B.

2do. Paso
Con el objeto de calcular QW explícitamente, vamos a despejar las varia-
bles con pivotes en términos de las variables libres para luego substituirlas
32

en la forma Q. Parta X = (X1 , X2 ) ∈ Rm × Rn−m en dos componentes.


Entonces, la restricción sobre X

X1
Im×m Cm×(n−m) × =0
X2

está forzando
X1 = −CX2
10
Ahora substituímos en la forma Q. Para llevar a cabo estas cuentas es
conveniente escribir A en bloques que se correspondan con la partición de X
en (X1 , X2 ). Escribimos

QW (X2 ) = Q(X1 , X2 ) = Q(−CX2 , X2 )

A1 E  
−CX2
= [−X2T C T , X2T ] × × 
X2
E T A2

QW (X2 ) = −X2T C T A1 (−C)X2 − X2T C T EX2 − X2T E T CX2 + X2T A2 X2

Para finalmente obtener la forma restringida

QW (X2 ) = X2T (C T A1 C − C T E − E T C + A2 )X2 (6)


Denote la matriz entre paréntesis AW , la matriz de QW .

3er. Paso
Pregunta:¿Qué relación existe entre cualquier menor principal de AW y
los de H?
10
Todo lo que esto dice es que W está parametrizado por los pares de la forma
(−CX2 , X2 ) para X2 ∈ Rn−m arbitrario.
0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 33

Sean I = (i1 , . . . , ir ) las filas y columnas que se omiten de AW para


formar la submatriz principal AIW de tamaño k×k (k = n−m−r.) Denotemos

CI = matriz C con las columnas I omitidas

EI = matriz E con las columnas I omitidas

Entonces una cuenta simple que dejamos como ejercicio muestra que

AIW = CIT AI1 CI − CIT EI − EIT CI + AI2

Ahora si H I denota la matriz (2m + k) × (2m + k) obtenida a partir


de H omitiendo las filas y columnas correspondientes a los índices (2m +
i1 , . . . , 2m + ir ), entonces

0m×m Im×m (CI )m×k

HI = Im×m A1 (EI )m×k

(CIT )k×m (EIT )k×m A2

Calculamos detH I usando operaciones elementales por fila y columna que


dejan al determinante invariante: (omitimos el término det) multiplicando a
derecha por

I 0 0

0 I −CI ,

0 0 I
34

0 I CI 0 I 0

HI = I A1 EI → I A1 −A1 CI + EI

CIT EIT AI2 CIT EIT −EIT CI + AI2

multiplicando a izquierda por

I 0 0

−A1 I 0 ,

−EIT 0 I

0 I 0

→ I 0 −A1 CI + EI

CIT 0 −EIT CI + AI2


0.4. FORMAS CUADRÁTICAS CON RESTRICCIONES 35

multiplicando a izquierda nuevamente por

I 0 0

0 I 0 ,

0 −CIT I

y multiplicando a derecha por

I 0 A1 CI − EI

0 I 0 ,

0 0 I

se obtiene

0 I

I 0 0

0 0 AIW

Entonces
(−1)m det H I = det AIW
Recuerde esta identidad porque explica la conexión entre los menores de la
forma restringida y los menores de la matriz orlada.
36

4to. Paso
Use el teorema de la signatura para formas y obtenga los enunciados que
queremos probar.Q.E.D.

Corolario 0.4. Con la notación como en la demostración del teorema ante-


rior,

1. La forma restringida QW es positiva semidefinida si y sólo si (−1)m det H I ≥


0 para todo I.

2. La forma restringida es negativa semidefinida si y sólo si (−1)m det H I


tiene signo (−1)k , para todo I = (i1 , . . . , ir )(los índices de las últimas
n − m filas y columnas de H que se omiten), donde k = n − m − r.

También podría gustarte