Está en la página 1de 77

Sección I: Modelos Lineales

1. Introducción
En esta sección se presenta la noción de espacio vectorial que constituye la
estructura básica formal para el estudio del álgebra lineal.

Los resultados obtenidos teóricos y prácticos se deducen con cierta facilidad


de los conceptos de dependencia e independencia lineal.

Se aborda luego el estudio de las transformaciones lineales, su


formalización matricial, estableciendo las “invariantes" que surgen del
desarrollo de las mismas. Los dos problemas fundamentales a tratar
resultan ser la resolución de sistemas de ecuaciones lineales y el análisis
de los denominados autosistemas de la matriz A, que conlleva a problemas
numéricos de más fácil resolución. El análisis de la diagonalizacion es un
recurso extraordinario en la matemática aplicada, en modelos económicos,
análisis de sistemas econométricos y estadísticos, modelos de equilibrio
general, análisis de insumo producto, cadenas de Markov y Teoría de la
Cartera.

Luego de ver los conceptos básicos sobre autovectores, cambio de base y


diagonalización, nos abocamos al estudio de las Formas cuadráticas libres y
restringidas.

Haremos hincapié en el estudio del signo de la forma cuadrática, uno de los


requisitos para el estudio de la optimización libre y condicionada. En
econometría, estadística y finanzas es fundamental el estudio de formas
cuadráticas asociadas a matrices de varianzas-covarianzas.

1.1. Transformaciones lineales


1.1.1. Espacios vectoriales
Se denomina espacio vectorial V sobre un cuerpo K a un conjunto de
elementos, llamados vectores, junto con dos operaciones: adición (ley de
composición interna) y multiplicación por escalares (ley de composición
externa), tales que dos vectores cualesquiera: v1 y v2 determinan
unívocamente un vector suma v1 + v2 y cada vector v de V y cada escalar k
de K determinan un producto por escalar k . v en V, con las siguientes
propiedades:

2
1. (v1 + v2) + v3 = v1 + (v2 + v3) (asociatividad)
2. v1 + v2 = v2 + v1 (conmutatividad)
3. v1 +  = v1 (exist. de elem. neutro:  vector nulo)
4. k . (v1 + v2) = k . v1 + k . v2 (distributividad a la izquierda)
5. (k1 + k2) . v = k1 . v + k2 . v (distributividad a la derecha)
6. (k1 . k2) . v = k1 . (k2 . v) (asociatividad)
7. 1 . v1 = v1 (existencia de elemento neutro
multiplicativo)
Se nota (V, +, K, .)

SUBESPACIO VECTORIAL: un subconjunto no vacío W del espacio


vectorial V es un subespacio de V si para cada par de vectores w 1 y w2 de
W, w1 + w2 y k . w1 (para todos los escalares k) están contenidos en W.
Se puede verificar que todo subespacio de un espacio vectorial V es
también un espacio vectorial.

COMBINACIÓN LINEAL: se dice que un vector v  V es combinación lineal


r
de los vectores v1, v2, ..., vr (vi  V) si v =  ki . vi ki  
i 1
r
El conjunto de todos los vectores de la forma  ki . vi donde las ki son
i 1

números reales arbitrarios, es un espacio vectorial sobre 

DEPENDENCIA LINEAL: se dice que los vectores v1, v2 ..., vr de un espacio


vectorial V son linealmente dependientes si existen números reales k 1, k2,
r
... kr, no todos nulos, tales que  ki . vi =  Si es así, por lo menos uno
i 1
de dichos vectores podrá expresarse como combinación lineal de los otros
vectores dados.
r r
1
Por ej.: si k1  0 k1. v1 =   ki . vi v1 = 
k1
 ki . vi
i2 i2

3
INDEPENDENCIA LINEAL: recíprocamente, los vectores vi son linealmente
r
independientes si la única combinación lineal  ki . vi =  es aquella
i 1
para la cual k1 = k2 = ... = kr = 0

Observación: todo subconjunto de un espacio vectorial que contiene al


vector nulo es linealmente dependiente.

GENERADORES: se dice que un conjunto de vectores v1, v2, ..., vr


engendra o genera un espacio vectorial V si cualquier vector v  V puede
expresarse como combinación lineal de los vectores dados.

BASE: una base de un espacio vectorial V es cualquier subconjunto suyo


linealmente independiente que engendra el espacio entero. La
representación de un vector en un espacio vectorial V como combinación
lineal de los vectores de una base dada, es única.

DIMENSIÓN: la dimensión de un espacio vectorial es igual al número de


vectores de cualquiera de sus bases, o lo que es lo mismo, al mayor número
de vectores L.I. en el espacio. Existen espacios que no son de dimensión
finita: por ej., el espacio de todos los polinomios (de todos los grados
posibles). Tales espacios se dicen de dimensión infinita.

COORDENADAS o COMPONENTES de un vector: si el conjunto


B = v1, v2, ..., vn es una base del espacio vectorial V sobre K, entonces
cada vector de V puede expresarse de modo único como C.L. de esa base,
o sea: si a  V, entonces existen y son únicos los escalares a1, a2, ..., an
n
tales que a =  ai vi. Respecto de la base B, el vector a queda
i 1
caracterizado por los coeficientes de la C.L., o sea por la n-upla de
elementos de K: (a1, a2, ..., an). Los escalares ai se llaman coordenadas o
componentes del vector a  V, respecto de la base B. Si se elige otra base
en el espacio V entonces el mismo vector a admite otras coordenadas o
componentes.

En general, si elegimos p vectores L.I. podemos formar un espacio vectorial


de p dimensiones y los p vectores elegidos constituirán una base de dicho
espacio. Geométricamente, lo que hacemos es seleccionar un sistema de
coordenadas.

4
PRODUCTO INTERIOR o INTERNO: Un producto interior en un espacio
vectorial V es una función que a cada par de vectores v1 y v2 en V asocia un
número real <v1 , v2> de tal modo que se satisfagan las siguientes
propiedades:
P1) <v1, v2> = <v2, v1>
P2) <(v1 + v2) , v3> = <v1, v3> + <v2, v3>
P3) <kv1, v2> = k <v1, v2>
P4) <v1, v1>  0; <v1, v1> = 0  v1 = 

Un espacio vectorial que tiene definido un producto interior se denomina


espacio vectorial con producto interior.

Si v1 y v2 son vectores de un espacio vectorial con producto interior,


entonces <v1, v2>2  <v1, v1> <v2, v2> (desigualdad de Cauchy-Schwarz).

NORMA: Si V es un espacio vectorial con producto interior, entonces la


norma (o longitud) de un vector v  V se define como la raíz cuadrada
positiva del producto interior del vector por sí mismo.
v   v, v  La existencia de esta raíz está asegurada por P4

Propiedades:
N1) v  0, v =0v=
N2) k . v = k v

N3) v  v  v1  v 2
1 2
(desigualdad triangular)
1
N4) v . v
2
  v , v  (desigualdad de Schwarz)
1 2

DISTANCIA: Se denomina distancia entre dos vectores v1 y v2 de un


espacio V con producto interior a la norma de su diferencia:
d(v1, v2) = v1  v2

Propiedades:
D1) d(v1, v2)  0 ; d(v1, v2) = 0  v1 = v2
D2) d(v1, v2) = d(v2, v1)
D3) d(v1, v3)  d(v1, v2) + d(v2, v3) (desigualdad triangular)

ORTOGONALIDAD: dos vectores v1 y v2 de un espacio vectorial V con


producto interior se llaman ortogonales y se nota v1v2 cuando se verifica
que su producto interior es nulo:
5
v1v2  <v1, v2> = 0

Propiedades:
01) v1v2  v2v1
02) v1v2  k1 v1 k2 v2  k1 ,  k2  
03)    ;   v  v V
h
04) si a  v1, a  v2, ..., a  vh  a   ki vi
i 1
(si un vector a es ortogonal a un conjunto de vectores, es también ortogonal
a todos los vectores del subespacio generado por ese conjunto de vectores)

ESPACIO EUCLÍDEO: es un espacio vectorial E sobre  en el cual se ha


definido un producto interior que se denomina euclídeo:
Si a = (a1, a2, ..., an) y b = (b1, b2, ..., bn) son dos vectores de En
(espacio euclídeo de dimensión n), entonces
n
<a , b> = a . bT =  ai bi
i 1
Definido este producto interior, la norma de un vector a será:
n
a =  a, a  = 
i 1
a i2 esta norma euclídea se denomina también

módulo y se nota a .
n
La distancia entre los vectores a y b será: d(a,b) = 
i 1
( ai  bi ) 2

VECTORES UNITARIOS o NORMALES: son aquellos cuyo módulo es 1:


u =1

Para normalizar un vector v (obtener un vector unitario en su misma


dirección y sentido) se dividen sus componentes por su módulo:
v v v v 
u= =  1 , 2 , , n 
v  
v v v 

BASES ORTONORMALES: se denominan a las bases constituidas por


vectores ortogonales y normales (u ortonormales), es decir, vectores a i tales
que:
6
1) ai = 1 i
2) ai  aj si i  j

Los vectores ortogonales y no nulos de un espacio vectorial euclídeo son


L.I.; por lo tanto, un conjunto de vectores ortogonales que engendran E
constituyen una base para E. Si además, dichos vectores son normales o
unitarios, dicha base será ortonormal. Todo espacio euclídeo de dimensión
finita admite una base ortonormal.

ORTONORMALIZACIÓN DE UNA BASE: a partir de una base cualquiera


de E, por ej.: B = v1, v2, ..., vn podemos obtener una base ortonormal de E
(proceso de Gram-Schmidt):

1) hallamos un vector unitario en la dirección de v1 (normalizamos v1):


1
v
u1 = 1
v
2) hallamos un vector ortogonal a u1 de la siguiente forma:

y2 = v2  <v2, u1> u1
2
y
3) lo normalizamos: u2 = 2
y
4) hallamos un vector ortogonal a u1 y a u2 de la siguiente forma:

y3 = v3  <v3, u2> u2  <v3, u1> u1


3
y
5) lo normalizamos: u3 = 3
y
h i
y
en general: yh+1 = vh+1   <vh+1, ui> ui donde ui =
y
i
i 1

VECTORES CANÓNICOS o VERSORES: vectores ortonormales cuyas


componentes son todas nulas salvo una, que es la unidad:
e1 = (1, 0, 0, ..., 0)
e2 = (0, 1, 0, ..., 0)
e3 = (0, 0, 1, ..., 0)
.............................

7
en = (0, 0, 0, ..., 1)

a i  0 si i  h
eh = a1 , a 2 ,  , a n  donde 
 a i  1 si i  h

Base canónica de n = e1, e2, ..., en

Ejemplo: supongamos que B = (1, -2, 0, 2); (0, -1, 2, 2); (-1, 0, 1, 2) es una
base de un subespacio de 4 y queremos obtener una base ortonormal para
dicho subespacio.

Sea v1 = (1, -2, 0, 2) v2 = (0, -1, 2, 2) v3 = (-1, 0, 1, 2)

1°) hallamos un vector unitario en la dirección de v1 (normalizamos v1) y lo


1 2 2
1 4  4 = 3
1
llamamos u1: como v = u1=( , , 0, )
3 3 3
2°) hallamos un vector ortogonal a u1 de la siguiente forma:
1 2 2
y2 = v2  <v2, u1> u1 = (0,-1,2,2)  <(0,-1,2,2) , (
, , 0, )> u1=
3 3 3
1 2 2 2 1 2
= (0,-1,2,2)  2( , , 0, ) = ( , , 2, ) podemos verificar
3 3 3 3 3 3
que y2 es ortogonal a u1 hallando su producto interno (<y2, u1> = 0)
2 2 1 2 2
3°) normalizamos y2: como y = 5 u2=( , , , )
3 5 3 5 5 3 5
4°) hallamos un vector ortogonal a u2 y a u1:

y3 = v3  <v3, u2>u2  <v3, u1>u1 =


2 1 2 2
= (-1,0,1,2)  <(-1,0,1,2) , ( , , , )>u2 –
3 5 3 5 5 3 5
1 2 2
 <(-1,0,1,2) , ( , ,0, )> u1 =
3 3 3
4 2 1 2 2 1 2 2
= (-1,0,1,2)  ( , , , ) ( , ,0, ) =
5 3 5 3 5 5 3 5 3 3 3
8 4 8 8 1 2 2 4 2 3 4
= (-1,0,1,2)  ( , , , )( , ,0, ) = ( , , , )
15 15 5 15 3 3 3 5 5 5 5
8
45 3 5 4 2 3 4
5°) normalizamos y3: como |y3| = = u3 = ( , , , )
25 5 3 5 5 5 5
 1  2 2    2 1 2 2 
La base ortonormal es B’ =  , ,0, ;  , , , ;
 3 3 3   3 5 3 5 5 3 5 
  4 5 2 5  3 5 4 5  
 
 15 , 15 , 15 , 15  
 

Teorema: Si B=u1, u2, ..., un es una base ortonormal para un espacio con
producto interno euclídeo V entonces cualquier vector a de V puede
expresarse como a = <a , u1> u1 + <a , u2> u2 + ... + <a , un> un

Dem.: si B es una base de V el vector a puede expresarse en forma unívoca


como a = k1 u1+ k2 u2+...+ ki ui+...+ kn un (1)
para cada vector ui de B se tiene que
<a , u1> = <(k1 u1+ k2 u2+...+ ki ui+...+ kn un) , ui>
= k1<u1, ui>+ k2<u2, ui>+...+ ki<ui, ui>+...+ kn<un, ui>
=k1 0 + k2 0 +...+ ki 1+...+ kn 0 (por producto interno de
vectores ortonormales)
<a , ui> = ki (2)
reemplazando (2) en (1) a = <a, u1> u1 + <a, u2> u2+...+ <a, un> un (3) que
es lo que se quería demostrar.

De (3) obtenemos <a , un> un = a <a , u1> u1 <a , u2> u2 ... <a , un-1> un-1
que es la fórmula que se usa para hallar cada vector ortogonal a los
anteriores en el proceso de Gram-Schmidt.

1.1.2. Transformaciones lineales

Transformación

Sean V y W espacios vectoriales sobre un mismo cuerpo K. Una aplicación


o función t:VW se llama transformación si se cumple:

1)
2) Si ( (
9
Transformaciones lineales
Sean V y W espacios vectoriales sobre un mismo cuerpo K. Una aplicación
o función t:VW se llama transformación lineal de V en W si y sólo si:

1) la imagen de la suma de dos vectores cualesquiera de V es igual a la


suma de sus imágenes en W: t(v1 + v2) = t(v1) + t(v2) = w1 + w2

2) la imagen del producto de cualquier escalar k de K por cualquier vector v


de V es igual al producto del escalar por la imagen de dicho vector:
t(k v) = k t(v) = k w

Estas dos condiciones se pueden resumir en una sola:


t: VW es una TL  t(k1 v1 + k2 v2) = k1 t(v1) + k2 t(v2) = k1 w1+k2 w2
cualesquiera que sean k1 y k2 en K y v1 y v2 en V.

Se puede demostrar por inducción completa que si t: VW es una TL


n n n

 ki v ) =  ki t(vi) = k w
i i
entonces se verifica: t ( i esto nos permite
i 1 i 1 i 1
afirmar que las transformaciones lineales preservan las combinaciones
lineales.

Ejemplo 1: la función f: 32 definida por f(x1, x2, x3) = (x1x3, x2x3) es
una TL, ya que se verifican las 2 condiciones:
1) f [(a1, a2, a3) + (b1, b2, b3)] = f(a1+b1, a2+b2, a3+b3) =
= (a1+b1a3b3, a2+b2a3b3) (1)
f(a1, a2, a3) + f(b1, b2, b3) = (a1a3, a2a3) + (b1b3, b2b3) =
= (a1a3+b1b3, a2a3+b2b3) (2)
(1) = (2)
2) f [k(a1, a2, a3)] = f(ka1, ka2, ka3) = (ka1ka3, ka2ka3)

Ejemplo 2: la función f: 32 / f(x1, x2, x3) = (x1x3, x2x3+1) no es una TL,
pues:
1) f [(a1, a2, a3) + (b1, b2, b3)] = f(a1+b1, a2+b2, a3+b3) =
= (a1+b1a3b3, a2+b2a3b3+1) (1)
f(a1, a2, a3) + f(b1, b2, b3) = (a1a3, a2a3+1) + (b1b3, b2b3+1) =
= (a1a3+b1b3, a2a3+1+b2b3+1) (2)
(1)  (2)
2) f [k(a1, a2, a3)]  k[f(a1, a2, a3)]

10
Nota: basta que no se cumpla una de las condiciones.

Toda matriz Amxn representa una transformación lineal del espacio euclídeo
de n dimensiones En en el espacio euclídeo de m dimensiones Em, ya que
dado cualquier vector x  En, existe un vector único y  Em tal que y = Ax.
La transformación es lineal, puesto que si x1 En, x2  En, k  K:
A(x1+x2) = Ax1 + Ax2 ; A k x = k A x

IGUALDAD: se dice que dos transformaciones t1 y t2 de V en W son iguales


si para cada vector v  V, t1(v) = t2(v)

SUMA: la suma de dos TL de V en W es también una TL:


(t1+ t2) (v) = t1(v) + t2(v)  v  V

La suma de dos matrices A=[aij] y B=[bij] se puede realizar sólo si ambas son
de la misma dimensión A + B = [aij + bij]

PRODUCTO POR UN ESCALAR: el producto de una TL de V en W por un


escalar es también una TL: (k t) (v) = k t(v) vV

El producto de una matriz Amxn por un escalar k  K es la matriz


Bmxn= k A = [k aij]

COMPOSICIÓN DE TL: Sean f:VU y g:UW dos TL. La función


compuesta (gof):VW es también una TL.

Si el espacio vectorial V es de dimensión n: d(V)=n, d(U)=p y d(W)=m las


transformaciones lineales f y g quedan caracterizadas por las matrices A pxn y
Bmxp. La TL compuesta (gof): V  W está asociada a la matriz producto B.A
de dimensión mxn

Dem:
1) (gof)(v1+v2) = g [f(v1+v2)] = g [f(v1) + f(v2)] por ser f TL
= g [f(v1)] + g [f(v2)] por ser g TL
= (gof)(v1) + (gof)(v2)
2) (gof)(kv) = g f(kv)] = g [k f(v)] por ser f TL
= k g [f(v)] por ser g TL
= k (gof)(v)

TRANSFORMACIONES LINEALES ESPECIALES:

11
Transf. nula: una aplicación z:VW se denomina transformación nula si
para todo vector v  V tenemos z(v) =  donde  es el vector nulo de W. La
matriz asociada a esta transformación es la matriz nula: 

Transf. idéntica: una aplicación i: VW se denomina idéntica si para todo


vector v  V tenemos y(v) = v. La matriz asociada es la matriz identidad: I

Transf. escalar: k: VW es una transformación escalar si para todo vector


v  V tenemos k(v) = kv. La matriz asociada es la matriz escalar: k I

Transf. opuesta: Sea t:VW una transformación lineal. Existe una


transformación lineal  t llamada la opuesta de t, tal que para todo vector
v V tenemos t(v) = t(v). La matriz asociada es la opuesta de la matriz
identidad: I

OPERADOR DERIVACIÓN: Sea V el espacio vectorial de todas las


funciones reales f derivables en un intervalo abierto (a, b). La TL que
aplica cada función f de V en su derivada f  se llama operador
derivación y se designa por D. Entonces D:VW / D( f )= f 

OPERADOR INTEGRACIÓN: Sea V el espacio vectorial de todas las


funciones reales continuas en un intervalo cerrado [a, b]. Si f  V,
b

definamos g ( x )   f (t ) dt si a  x  b Esta TL se llama operador


a
integración.

DOMINIO: de una TL es el conjunto de elementos a los que se aplica la


transformación. En t : VW, V es el dominio.

CODOMINIO: de una TL es el conjunto al cual pertenecen los elementos


transformados: W

RECORRIDO o CONJUNTO IMAGEN: de una TL es el conjunto de


elementos transformados o imágenes de los elementos del dominio:
Rt= w/w  W, w=t(v) para algún v  V Rt  W; Rt es un subespacio de W.

RANGO: de una TL se denomina a la dimensión del espacio recorrido de la


TL: r(t) = d(Rt)

12
NÚCLEO: de una TL se denomina al conjunto de elementos del dominio
cuya imagen o transformado es el vector nulo:
Nt = v/v  V, t(v)= Nt  V; Nt es un subespacio de V.

NULIDAD: de una TL se denomina a la dimensión del núcleo de la


transformación: n(t) = d(Nt). Si t: V  W es una TL  d(V) = r(t) + n(t)

Si t: nm /Ax = b el núcleo de t consta de todos los vectores x que son


solución del sistema homogéneo Ax = ; el recorrido de t consta de todos
los vectores b tales que el sistema Ax = b tiene al menos una solución.

RANGO DE UNA MATRIZ: si la matriz Amxn representa la TL t: EnEm


y = Ax la matriz A puede escribirse como una fila de vectores columna:

 a1 j 
a 
A  (a , a ,  , a ) donde a   
1 2 n j 2j

  
 
 a m j 

y entonces y = A x = x1 a1 + x2 a2 +...+ xn an el subespacio generado por las y


es el subespacio de Em generado por las columnas de A. Por lo tanto la
dimensión de ese subespacio es igual al mayor número de columnas LI de
A. De modo que el rango de la TL es igual al mayor número de columnas LI
de A. Como A tiene sólo n columnas, dicho rango no puede ser mayor que n
(dimensión del dominio de t).

El rango de la matriz A asociada a la TL t es igual al rango de la


transformación (dimensión de su recorrido), es decir, es igual al mayor
número de columnas LI de A. Se demuestra que este número es igual al
mayor número de filas LI de A y se nota r(A). Como sabemos que un
determinante es nulo si y sólo si hay dependencia lineal entre sus líneas
(filas y columnas), basta encontrar el determinante de mayor orden en A que
no se anule. El orden de dicho determinante es igual al rango de A.

El rango de una matriz no se altera si se realizan con sus filas y columnas


algunas operaciones llamadas elementales:

1) intercambio de dos filas (o columnas)


2) multiplicación de una fila (o columna) por un escalar k  0
3) adición a una fila i (o columna j) del resultado de multiplicar otra
13
fila h (h  i) (o columna l  j) por un escalar k  0

Ejemplo: la TL t: 43 / t(x1, x2, x3, x4) = (2x1x4, x2+3x4, 6x14x3) puede
 2 0 0  1
representarse por la matriz: A  0 1 0 3 aplicada a cualquier
 
6 0  4 0 
vector x  4 (dominio de la TL) resulta un vector y  3 (codominio de la
TL): A x = y
 x1 
 2 0 0  1    y1 
A  0 1 0 3      y2 
x2
  x   
6 0  4 0   3   y 3 
 x4 
2 0   0    1  y1 
 0  x  1  x   0  x   3  x   y 
ó
  1   2   3   4  2
6  0    4   0   y 3 

de modo que cualquier vector imagen y puede expresarse como CL de los


vectores columna de la matriz A. El recorrido o conjunto imagen de la TL es
el subespacio de 3 generado por los vectores columna de A. Si estos
vectores son LI constituirán una base del recorrido; si no lo son, podemos
hallar una base escalonando la matriz A:
 2 0 0  1   2  0   0  
0 1 0   
3 una base es: B   0  , 1  ,  0   , otra es
       
F3  3 F1 0 0  4 3    0  0    4  
      
la base canónica de 3, ya que en este caso el recorrido es 3; el rango de
la TL es r = 3, que es también el rango de la matriz A

El núcleo de la TL es el conjunto de vectores del dominio (4) cuya imagen


es el vector nulo del codominio (3), o sea, la solución del sistema
homogéneo A x = :

14
 x1   1
 2 0 0  1   0   x1  2 x 4
0 1 0 
3     0 
x2
  x     x 2  3 x 4
6 0  4 0    0 
3  3
 x3  x 4
 4
x  4
1 3 1 3
Todos los vectores de la forma ( x4, 3x4, x4, x4)T = k( ,3, , 1)T
2 4 2 4
pertenecen al núcleo; para base podemos tomar uno cualquiera de ellos,
por ejemplo: (2, 12, 3, 4)T ; la nulidad es n(t)=1; la suma de la nulidad más
el rango es igual a la dimensión del dominio: 4

Ejemplo económico de TL: Supongamos que los costos directos de


producción de 3 bienes Y1, Y2, Y3, están dados por las ecuaciones:
 a11 p1  a12 p 2  c1

(1) a 21 p1  a 22 p 2  c 2 o sea A p = c donde las pj
a p  a p  c
 31 1 32 2 3
corresponden a los precios de los insumos X j y forman el vector columna
 p1 
p    , las ci corresponden a los costos directos de los bienes Yi ,
 p2 
 c1 
 
formando el vector columna c  c 2 y las aij representan la cantidad del
 
 c 3 
insumo xj necesaria para producir una unidad del bien Yi. Cada vector de
precios de 2 se transforma en un vector de costos de 3; el vector c es la
imagen del vector p; la matriz A es la matriz de la transformación: t(p) = c ó
Ap=c

El sistema lineal (1) también puede expresarse en la forma


 a11   a12   c1 
p1 a 21  p 2  a 22   c 2 
 
donde se ve que es consistente si y
     
 a 31   a 32   c 3 
sólo si c es CL de los vectores columna de la matriz A: la imagen de la TL
(recorrido) es el espacio vectorial generado por los vectores columna de A;

15
si son LI constituyen una base del recorrido de la TL, si no lo son, se puede
escalonar la matriz y elegir el mayor número de columnas LI como base del
recorrido.

Ejemplo:
 p1  p 2  c1 1 1

2 p1  p 2  c 2 donde A   2 1 como los vectores
 
 p  3p  c 1 3
 1 2 3
columna de A son LI forman una base del recorrido de la TL y su dimensión
es por lo tanto 2: r (A) = 2

El núcleo de la TL es el espacio solución del sistema A p = 


En este caso, la única solución posible es la trivial, por lo tanto el núcleo es
el subespacio de 2 cuyo único elemento es el vector nulo, su dimensión
(nulidad de la TL) es 0.

MATRIZ ELEMENTAL: la que se obtiene realizando una sola operación


elemental en la matriz identidad.

MATRICES EQUIVALENTES: se denominan las matrices que representan


la misma TL, para diferentes bases.

Sean A y B dos matrices de dimensión mxn. Se dice que B es equivalente a


A si y sólo si B puede ser obtenida de A por un número finito de operaciones
elementales fila y columna.

O sea, una matriz B es equivalente a una matriz A si y sólo si existen dos


matrices no singulares P y Q tales que B = P A Q donde P representa la
aplicación sucesiva de matrices elementales con operaciones sobre filas y Q
representa la aplicación sucesiva de matrices elementales con operaciones
sobre columnas.

FORMA CANÓNICA: Una matriz Nmxn equivalente a una matriz dada A con
rango r(A) = r se dice que es la forma canónica general bajo equivalencia de
A o también la forma normal de A si posee las siguientes propiedades:
1) los primeros r elementos aij con i = j son iguales a 1.
2) cualquier otro elemento de la matriz es 0.

16
En realidad, dos matrices rectangulares de la misma dimensión son
equivalentes si y sólo si tienen el mismo rango.

TRANSFORMACIÓN INVERSA: una TL t-1 de un subespacio de W en V se


dice que es la inversa de la TL t:VW si y sólo si t t-1 = i: WW y t-1t = i:
VV

La matriz asociada es la matriz inversa A-1 tal que A-1A = A A-1 = I

TRANSFORMACIÓN “NO SINGULAR” o “REGULAR”: se denomina a


toda transformación que admite inversa.

Sea t:VW una TL, con recorrido Rt. Entonces se dice que t es no singular
si y sólo si existe una transformación t-1: RtV tal que t-1t = t t-1 = I donde
t-1t representa la transformación idéntica sobre V y t t -1 la transformación
idéntica sobre W.

El dominio y el recorrido de una transformación no singular tienen la misma


dimensión: d(V) = d(Rt)

Las transformaciones idéntica, escalar y elemental son no singulares o


regulares.

Una matriz cuadrada A se dice que es no singular o regular si y sólo si


existe A-1 tal que A-1A = A A-1 = I.

Si una TL es no singular, tiene una TL inversa t -1 y las filas (y columnas) de


cualquier matriz A que represente a t son LI. Por lo tanto, el determinante
de A no es nulo.

Si t es singular o no regular, no tiene inversa y las filas (y columnas) de


cualquier matriz A asociada con t son LD. Por lo tanto, el determinante de A
es nulo.

Si el producto t1t2 de dos TL es la identidad, entonces ambas son no


singulares y cada una de ellas es la inversa de la otra:
t1t2 = I  t1 = t2-1, t2 = t1-1

COMPOSICIÓN DE TL NO SINGULARES: Si las TL t1:VU y t2:UW son


ambas no singulares entonces la TL compuesta t2 t1: VW es también no
singular y su inversa es igual al producto de la inversa de t 1 por la inversa de
t2: (t2 t1)-1 = t1-1 t2-1: WV

17
Si dos matrices A y B tienen inversa y son conformables para el producto:
(A B)-1 = B-1A-1
1 -1
Si t:VW es una TL no singular (t-1)-1 = t y (k t)-1 = t k0
k
1 -1
Si la matriz A es no singular (A-1)-1 = A y (k A)-1 = A k0
k
MATRIZ TRASPUESTA de la matriz A se denomina a aquella que resulta al
permutar sus filas y columnas: Am = [aij]mxn AT=[aji]nxm

Propiedades:
T1) (A+B)T = AT+ BT
T2) (A B)T = BT AT
T3) (AT)T = A
T4) (k A)T = k AT
T5) Si A es cuadrada: |AT| = |A|

ADJUNTO o COFACTOR del elemento aij de una matriz cuadrada A se


denomina al determinante que resulta de suprimir la fila i y la columna j de
A, precedido del signo de (-1)i+j

MATRIZ ADJUNTA de una matriz cuadrada A es la traspuesta de la matriz


cuyos elementos son los cofactores o adjuntos de los elementos de A.

El producto de una matriz por su adjunta es igual al producto de su


determinante por la matriz identidad: A Adj(A)= Adj(A) A = |A| I
1
Si A es una matriz no singular: A-1= Adj(A)
| A|

TRANSFORMACIONES ORTOGONALES: Una transformación lineal


t:VV se denomina ortogonal si conserva el valor absoluto o módulo de
cualquier vector v, de modo que | t(v) | = | v |

Propiedades:
TO1) |v1  v2| = |t(v1)  t(v2)|
TO2) <v1, v2> = <t(v1) , t(v2)>
TO3) v1 v2  t(v1)  t(v2)
TO4) cos  (v1, v2) = cos  (tv1, tv2)

18
Una TL ortogonal es no singular.
Con relación a cualquier base ortonormal, una matriz A representa una TL
ortogonal si y sólo si, considerando las columnas de A como vectores, cada
columna tiene longitud o módulo unidad y dos columnas cualesquiera son
ortogonales, es decir, si todas sus columnas son vectores ortonormales.

MATRIZ ORTOGONAL: de denomina a una matriz cuadrada si sus


columnas (o sus filas) son un conjunto de vectores ortonormales.

También se define una matriz ortogonal como aquella cuya inversa es igual
a su traspuesta: A-1 = AT  A es ortogonal

Estas definiciones de matriz ortogonal son equivalentes. Si consideramos la


matriz A formada por vectores columna v j:
 v h  v j si h  j (1)
AT A=I  j
 v  1 ( j  1, 2,  , n ) ( 2)
(1) (todos los vectores columna son ortogonales entre sí)
(2) (todos los vectores columna son normales: módulo = 1).

Dem.:
 v1 T 
 2 T
   2 T 1
 
 v1 T v1 v  v
1 T 2
 v  v
1 T 
n


A AI 
T    
v  1 2
v , v , , v  
n
  
v v v  v
2 T 2
 v  v
2 T n

        
 n T  n T 1 
 v     v v   v 
n T
v 2
   T
v n v n 

  v 1 , v 1   v 1 , v 2    v 1 , v n   1 0  0 
 2 1   
  v , v   v 2 , v 2    v 2 , v n   0 1  0 
= 
         
 n 1   
 v , v   v , v    v , v   0 0  1 
n 2 n n

  v h , v j  0 si h  j (1)
igualdad que se da si y sólo si 
 v , v  1 v  1 ( j  1, 2,  , n) ( 2)
j j j

(1) (todos los vectores columna son ortogonales entre sí)


(2) (todos los vectores columna son normales: módulo = 1).

19
Si consideramos la matriz A formada por vectores fila vi se demuestra, de
manera similar, que:
 v i  v k si i  k (1)
A AT =I  i
 v  1 (i  1, 2,  , n ) ( 2)
(1) (todos los vectores fila son ortogonales entre sí)
(2) (todos los vectores fila son normales: módulo = 1).

Propiedad: el determinante de una matriz ortogonal vale 1 ó –1

Dem.:
ATA= I AT A  I  1
A T A  1 como A T  A
2
A  1  A  1
Se denomina matriz ortogonal propia a la que tiene determinante = 1
No toda matriz con determinante de módulo 1 es ortogonal, por ej.:
2 0 
A 
0 1 / 2

MATRICES SIMÉTRICAS: una matriz cuadrada A tal que es igual a su


traspuesta se denomina simétrica: AT = A o sea aij = aji i, j

TRAZA: de una matriz cuadrada nxn se denomina a la suma de todos los


n
elementos de su diagonal principal: tr(A) =  aii
i 1
Propiedades: Si A y B son matrices cuadradas de dimensión nxn:
T1) tr (A) = tr (AT)
T2) tr (k A) = k tr(A)
T3) tr (A+B) = tr(A) + tr(B)
T4) tr (A.B) = tr (B.A)

MATRICES SEMEJANTES: si A y B son dos matrices cuadradas de


dimensión nxn se dice que B es semejante a A si y sólo si existe una matriz
no singular P tal que B = P-1 A P (las propiedades de las matrices
semejantes se enuncian y demuestran después de considerar el tema de
diagonalización).
20
1.2. Diagonalización de matrices
VECTORES y VALORES PROPIOS de una TRANSFORMACIÓN LINEAL:
Sea t:VV una TL en el espacio V sobre K. Entonces un vector no nulo
x  V y un escalar   K son llamados respectivamente, un vector propio
( o vector característico) de t y un valor propio (o valor característico) de t sii
t(x) = x. También reciben el nombre de autovectores y autovalores de t.
El conjunto de todos los valores propios de t se denomina espectro de t.

Ejemplo 1: t: 33 /t(x1, x2, x3) = (2x1, 2x2, 2x3)


cualquier vector no nulo de 3 es un vector propio de esta TL,
correspondiente al valor propio  = 2, ya que t(x1, x2, x3) = 2(x1, x2, x3)

Ejemplo 2: t: : 33 /t(x1, x2, x3) = (x1, 3x2, 3x3)


como t(x1, 0, 0,) = (x1, 0, 0) = 1(x1, 0, 0) cualquier vector de la forma (x1, 0, 0)
donde x1  0, es vector propio correspondiente a  = 1
como t(0, x2, x3) = (0, 3x2, 3x3) = 3(0, x2, x3) cualquier vector de la forma
(0, x2, x3) donde no se anulen simultáneamente x 2 y x3, es vector
característico correspondiente a =3.

VECTORES Y VALORES PROPIOS DE UNA MATRIZ CUADRADA: un


vector no nulo x y un escalar  se denominan respectivamente, un vector
propio (o característico) de A y un valor propio (o característico) de A sii
Ax = x. El conjunto de todos los valores propios de A se denomina espectro
de A. El radio del círculo mínimo que abarca todos los valores propios de A
recibe el nombre de radio espectral de A.

1 0  1 1
  x    1 es vector propio correspondiente
Ejemplo: A  1 2 1
1
   
 2 2 3   0 
a =1 porque Ax1 = x1

21
 2
x 2   1  es vector propio correspondiente a =2 porque A x2 = 2 x2
 
 2 
 1 
x 3    1  es vector propio correspondiente a =3 porque A x3 = 3 x3
 
  2 

ECUACIÓN CARACTERÍSTICA de una matriz: si A x = x


multiplicando m. a m. por In Ax=Ix
(A   I) =  (1)

La ecuación (1) representa un sistema lineal homogéneo que tendrá


solución distinta de la trivial sii | A   I | = 0 (2)

El desarrollo del determinante del primer miembro de (2) será un polinomio


de grado n en , que se denomina polinomio característico de la matriz A:

| A   I | = ()n + 1()n-1 + 2()n-2 +...+ n-1() + n = P().


La ecuación (2), o sea, P() = 0 se denomina ecuación característica de A
y sus raíces o ceros: 1, 2, ..., n son las denominadas raíces
características o valores propios de A, también llamados autovalores o
raíces latentes de A.

Las soluciones distintas de la trivial del sistema (A  i I) x =  (3) serán los


vectores propios asociados al valor propio i. Los vectores propios
asociados a valores propios diferentes son linealmente independientes.

El conjunto solución del sistema (3) se denomina espacio característico de A


correspondiente a ese valor propio i.

1   0 1 
 1 1 
En el ejemplo anterior: A   I  2
 
 2 2 3   

22
|AI| = 3 + 62  11 + 6 es el polinomio característico; si lo igualamos a
0 tenemos la ecuación característica, cuyas soluciones o raíces son los
valores propios de A: 1=1, 2= 2, 3= 3

Para 1=1 tenemos el sistema


0 0  1  x1  0 
1 1 1   x   0   x3  0   x3  0
   2     x  x  x  0  x   x
 2 2 2   x 3  0   1 2 3  1 2

 x 2    1
de modo que cualquier vector de la forma
 x   k  1  con k  0 es un
 2   
 0   0 
vector propio de A correspondiente al valor propio 1=1

Para 2 = 2 tenemos el sistema


  1 0  1  x1  0 
 1 0 1   x   0   x1   x 3   x1   x 3
   2    2 x  2 x  x  0  2 x  x
 2 2 1   x 3  0   1 2 3  2 3

  x3   2
de modo que cualquier vector de la forma
 1
x   k  1  con k  0 es
2 3   
 x 3   2 
un vector propio de A correspondiente al valor propio 2 = 2

Para 3 = 3 tenemos el sistema


  2 0  1  x1  0   1 
 1  1 1   x   0   x 3  2 x1  k   1 
con k  0 es un
   2     x2   x   
 2 2 0   x 3  0     2
 
vector propio de A correspondiente al valor propio 3 = 3

También se puede obtener un vector propio correspondiente a cada i


escribiendo en forma de vector columna los adjuntos de cualquier fila de la
matriz A  iI (siempre que no se anulen todos) por ej., para 1 = 1 no
podemos tomar la 1er. fila, pero sí la 2da. o la 3ra.

23
Teorema: Los vectores propios correspondientes a valores propios
diferentes de una matriz son linealmente independientes.

Demostración: (por inducción sobre k) Sean 1, 2, ..., k valores propios
diferentes de una matriz Anxn y sean v1, v2, ..., vk los vectores propios
correspondientes.

En forma trivial se ve que el teorema se cumple para k=1

Supongamos ahora que se cumple para los k1 primeros vectores (k>1), es
decir que v1, v2, ..., vk son LI.

Consideremos la ecuación c1 v1+ c2 v2 + ... + ck-1 vk-1 + ck vk =  (1)

premultiplicando por A resulta c1 A v1 + c2 A v2 + ... + ck-1 A vk-1 + ck A vk = 

como A vi = i vi tenemos
c1 1 v1 + c2 2 v2 + ... + ck-1 k-1 vk-1 + ck k vk =  (2)

multiplicando (1) por k obtenemos


c1k v1 + c2 k v2 + ... + ck-1 k vk-1 + ck k vk =  (3)

restando (2)  (3) resulta


c1(1  k) v1 + c2(2  k) v2 + ... + ck-1(k-1  k) vk-1 =  (4)

como los vectores v1, v2, ..., vk-1 son LI la ecuación (4) se verifica sólo si
todos los coeficientes son nulos, es decir: ci(i  k) = 0 (i=1,2,...,k1) pero
como i  k (i=1,2,...,k1) entonces debe ser ci = 0 (i=1,2,...,k1) y la
ecuación (1) queda reducida a ck vk =  como vk es vector propio no es el
vector nulo y debe ser ck = 0 de modo que los k vectores propios son LI.

DIAGONALIZACIÓN DE MATRICES: se dice que una matriz Anxn es


diagonalizable sii es semejante a una matriz diagonal  que tiene en su
diagonal principal los valores propios de A, o sea, si existe una matriz P no
singular tal que P-1A P=

La condición necesaria y suficiente para que una matriz A nxn sea


diagonizable es que se puedan extraer n vectores LI del conjunto de sus
vectores propios. La matriz P (o matriz modal) se forma con n vectores
propios LI (uno asociado a cada valor propio) ordenados como vectores
columna.

24
Si la ecuación característica de A admite a raíces o valores propios
diferentes, entonces hay n vectores propios LI y es diagonizable sobre el
cuerpo de los complejos.

Ejemplo 1: En el ejemplo anterior la matriz de paso sería


 1  2 1  0 1  1 / 2
P1 1  1 cuya inversa es P 1 
 1 1 0 
   
 0 2  2   1  1  1 / 2 
1 0 0 
 
podemos verificar que P-1A P = = 0 2 0 el orden en que aparecen
 
0 0 3
los valores propios de  depende del orden en que tomamos los vectores
propios para formar la matriz P.

 3  1  1  2i
Ejemplo 2: A    A   I  2  4  0  
13  3  2  2i
Para 1 = 2i tenemos
3  2i  1   x1   0  1 
  x 2  (3  2i ) x1 v1  
 13
  3  2i   x 2   0 
3  2i 

Para 2 = 2i tenemos


3  2i  1   x1   0  1 
  x 2  (3  2i ) x1 v2  
 13
  3  2i   x 2   0 
3  2i 

La matriz modal puede ser


 1 1   i  3  2i  1
P  P  4i P 1  
3  2i 3  2i  4   3  2i 1 
1
(recordar que  i )
i
Si la ecuación característica admite raíces múltiples, la matriz puede no ser
diagonizable.

25
La condición para que una matriz Anxn sea diagonizable es que a toda raíz i
de orden de multiplicidad m corresponda un sistema (A - iI) x =  de rango
(n-m) que determina m vectores característicos LI, es decir, que la
dimensión del espacio característico correspondiente al valor propio i sea
m.

Ejemplo 3:
1  3 3 
1   2  2
A  3  5 3 A   I  3  12   16  0  
 
6  6 4  3  4
si tomamos para x2 y x3 dos pares de valores no proporcionales obtenemos
dos vectores LI que constituyen la base del espacio solución
correspondiente al valor propio 2 de orden de multiplicidad 2; por ejemplo:
  1 1 
v  0 v  1 
1   2
   
 1  0 
  3  3 3 18  1 

para 3 = 4 A  4 I  3  9 3 v  18  18 1 
 3  
     
 6  6 0  36   2 
 1 3 1   2 2 0 
  1 
La matriz modal puede ser 0 1 1 P  1
1 3 1 
  2  
 1 0 2    1 1  1
 2 0 0
1
podemos verificar que P AP    0
  2 0
 
 0 0 4 

Ejemplo 4:
  3  9  12 
1   2  0
A 1 3 4  A   I   3   2  0 
 
 0 0 1   3  1

26
para 1 = 2 = 0 tenemos (A  0 I) = A; como el rango de esta matriz es 2 y
tiene 3 columnas su nulidad es 1 y por lo tanto sólo podemos obtener un
vector LI como solución del sistema (A  0 I) x = ; efectivamente, todos los
vectores solución serán de la forma (3x2, x2, 0)T y no podemos obtener dos
vectores propios LI correspondientes al valor propio 0 cuyo orden de
multiplicidad es 2. Por lo tanto la matriz A no es diagonizable.

FORMA CANÓNICA DE JORDÁN: cuando el número de vectores propios


linealmente independientes de A es menor que n, la diagonalización es
imposible. Sin embargo, siempre es posible someter A a una transformación
1
semejante J  V A V , donde V es una matriz no singular que reduce la
matriz A a su forma canónica de Jordán.

La forma canónica de Jordán de cualquier matriz cuadrada A es una matriz


cuadrada J de la misma dimensión que A con las siguientes propiedades:

1) los elementos de su diagonal principal son los valores propios de A,


apareciendo los valores propios múltiples en posiciones adyacentes.

2) los elementos de la diagonal arriba de la diagonal principal son cero o la


unidad. Solamente los elementos que están a la derecha de un valor
propio que va a ser repetido pueden ser iguales a la unidad.

3) todos los demás elementos de la matriz son ceros.


1 1 0 0
0  2 0 0 
por ejemplo J   donde 1=2 y 3=4
0 0 3 1 
 
0 0 0 4 
 2 1 0

En el ejemplo 3 la matriz de Jordán es J  0  2 0
 
 0 0 4
0 1 0 

y en el ejemplo 4 J  0 0 0

 
0 0 1 

27
Si todas las raíces son diferentes la matriz de Jordán coincide con la matriz
diagonal .

CÁLCULO DE LOS VECTORES PROPIOS POR ADJUNTOS: para obtener


un vector propio vi correspondiente al valor propio i debemos resolver el
sistema (A  iI) vi =  (1).

Si llamamos Bi a la matriz (A  iI) y Bi* a su adjunta resulta


|Bi| = |(A - iI)| = 0 (2) y Bi . Bi* = |Bi| I = , ya que el producto de una
matriz por su adjunta es la matriz diagonal cuyos elementos diagonales son
iguales al determinante de la matriz. Si i es raíz simple de la ecuación
característica (2) el rango de Bi es (n-1); existe entonces por lo menos un
adjunto no nulo, por lo que el rango de la matriz Bi* será también, por lo
menos, 1.

Pero el rango de esta matriz es, como máximo, el orden de la matriz menos
el rango de Bi: n (n1) = 1 (si el rango de la matriz Amxp es r y si la matriz
Bpxn es tal que A.B = , el rango de B no puede ser mayor que pr).

Por lo tanto, el rango de Bi* es 1; esto significa que toda columna de Bi* es
CL de las restantes (son todas proporcionales entre sí).

Si llamamos ki* a una columna cualquiera k de la matriz Bi* resulta


Bi. ki* =  por lo tanto ki* es solución de la ecuación (1) y es un vector propio
correspondiente al valor propio i, siempre que no sea el vector nulo.

En lugar de construir la matriz adjunta Bi* se puede obtener directamente


una de sus columnas calculando los adjuntos de una fila cualquiera de B
(siempre que no sean todos nulos) y formando con ellos el vector columna vi

Ejemplo 1:
 0 7  6  1  1

A   1 4 0  A   I    3  2  2    2  0  2   1
 
 0 2  2   2
 3
  1 0 
 A  I T 
 7 4 2 
 
  6 0  2   

28
 ( 4   )( 2   )  7 (  2   )  12 6( 4   ) 
B*  Adj ( A  I )   2   (2   ) 6 
 
 2 2   ( 4   )  7 
  9 9 18 
B1* (para 1  1 ) =
  3 3 6  cualquiera de su columnas es un
 
  2 2 4 
vector propio correspondiente a 1 pero también podríamos haberlo
 1  7  6
obtenido directamente de B1   1
 3 0  tomando, por ej., los
 
 0 2  3
 9
 
adjuntos de la 1ª fila: v   3
1
 
  2 
5  4 9 5 4
De manera similar obtenemos v  1 y v  2
2   3   P  3 1 2
     
 2  1   2 2 1 

9 0  6  1  1
 
Ejemplo 2: A  0 1 0  A  I  (1   )( 2  9)  0  2  3
 
12 0  9     3
 3
8 0 6
B1   0 0 0  no podemos tomar los adjuntos de la primera fila ni
 
12 0  10 
los de la tercera, porque se anulan todos, pero sí los de la segunda:
 0  0
v   8 o v  1 
1   1
   
 0   0 

29
6 0 6
B2   0 2 0  tomando los adjuntos de la 1ª fila:
 
12 0  12 
 24  1 
v 2  0 ó 0 
 
   
 24  1 

12 0  6
B3   0 4 0  tomando los adjuntos de la 1ª fila:
 
12 0  6
  24  1 
v  0
3   ó 0 
   
  48   2 

La matriz modal será


0 1 1  0 1 0
P  1 0 0 cuya inversa es P   2 0  1
  1
   
0 1 2    1 0 1 

PROPIEDADES DE LAS MATRICES SEMEJANTES:

S1) A  B y B  C  A  C (transitiva)
Dem.: A  B  A = P-1 B P
si premultiplicamos por P y posmultiplicamos por P-1 resulta
P A P-1 = B (1)
B  C  B = Q-1 C Q (2)
de (1) y (2) P A P-1 = Q-1 C Q
A = P-1 Q-1 C Q P haciendo Q . P = R  R-1 = P-1 . Q-1
A = R-1 C R

Si dos matrices son semejantes:


S2) tienen la misma traza A  B  tr(A) = tr(B)
30
Dem.: A  B  A = P-1 B P
tr(A) = tr(P-1 B P )
= tr[(P-1 B) P] (por propiedad asociativa de producto de matrices)
= tr[P(P-1 B)] (por prop. conmutativa de la traza de producto de matrices)
= tr[(P P-1)B] (por propiedad asociativa de producto de matrices)
= tr(B)

S3) tienen igual determinante A  B  |A| = |B|


Dem.: A  B  A = P-1 B P
|A| = |P-1 B P|
-1
= |P | |B| |P| (por propiedad del determinante de producto de matrices)
= |B| |P-1| |P| (por propiedad conmutativa del producto de números
reales y complejos)
= |B| |P|-1 |P| (porque |P-1| = |P|-1 )
= |B|

S4) tienen el mismo rango: A B  r(A) = r(B)


porque son matrices equivalentes (representan la misma TL)

S5) tienen igual polinomio característico y, por lo tanto, iguales valores y


vectores propios: A  B  |A  I| = |B  I|
Dem.: A  B  A = P-1 B P
A   I = P-1 B P  I
= P-1 B P  P-1 P
= P (B   I) P  (A  I)  (B  I)  |AI| = | B  I| (prop. S3)
-1

S6) si A  B  An = P-1 Bn P
Dem.: A  B  A = P-1 B P
A2 = (P-1 B P) (P-1 B P) = P-1 B P P-1 B P = P-1 B2 P
A3 = (P-1 B2 P) (P-1 B P) = P-1 B2 P P-1 B P = P-1 B3 P
.....................

si Ak = P-1 Bk P Ak+1= (P-1BkP) (P-1 B P) = P-1 Bk+1 P q.q.d.

OBSERVACIONES: sobre las relaciones entre los coeficientes del


polinomio característico, los valores propios y los elementos de la matriz A:

Si P() = |A  I| = ()n + 1 ()n-1 + 2 ()n-2 + ... + n-1 () + n

1) la suma de los valores propios de A es igual al coeficiente 1 y es igual a


la traza de A:

31
n n
1 =  i =
i 1
a
i 1
ii = tr(A)

2) el producto de los valores propios de A es igual al coeficiente n y es


n
igual al determinante de A: n = 
i 1
i = |A|

3) los coeficientes i son iguales a las sumas de todos los menores de


orden i de |A| que contienen en su diagonal principal elementos de la
n
diagonal principal de A. Hay   menores principales de orden i.
i  
También son iguales a la suma de todos los productos posibles de los
n
valores propios de A tomados de i en i. Hay   productos posibles.
i  
La observación 1) corresponde a i = 1 y la 2 a i = n

4) si la matriz A es diagonizable el número de valores propios no nulos de


A es igual al rango de A.

Para probar las primeras tres observaciones con respecto a los valores
propios de A recordamos que si A es diagonizable es semejante a una
1 0 0  0
0  0  0
 2 
matriz diagonal    0 0 3  0  donde i son los valores
 
     
 0 0 0   n 
propios de A.

Como las matrices semejantes tienen igual polinomio característico:


|  I| = |A  I |. Supongamos que  sea de dimensión 3 x 3
 1   0 
0
I   0 2   0   (1   )( 2   )(  3   ) 
 
 0 0  3   
  3  (1   2   3 ) 2  (1 3   2  3  1 2 )(   )  1 2  3
    
 1   i 2  3   i

32
Si  es una matriz 4x4    I  (1   )( 2   )( 3   )( 4   ) 
  4  (1   2   3   4 )(   ) 3 
 
 1   i

 (1 2  13  1 4   2 3   2  4  3  4 )2 


  
2

 1 2 3  1 2  4  13  4   2 3  4 ( )  1 2 3  4


  
3  4  i

De manera similar se procede para una matriz de dimensión nxn.

Si la matriz A no es diagonizable es siempre semejante a una matriz de


Jordán y tienen el mismo polinomio característico. Como la matriz de Jordán
es una matriz triangular, también lo es la matriz (J  I) de modo que
|J  I| = (1) (2) ... (n) = |AI|

Para probar las primeras tres observaciones con respecto a los elementos
de la matriz A, lo haremos considerando una matriz de dimensión 3x3; de
manera similar se procede con una matriz nxn.
a11   a12 a13 a11 a12 a13
A I  a 21 a 22   a 23  a 21 a 22   a 23 
a 31 a 32 a 33   a 31 a 32 a 33  
 a12 a13 a11 a12 a13 a11 0 a13
 0 a 22   a 23  a 21 a 22 a 23  a 21  a 23 
0 a 32 a 33   a 31 a 32 a 33   a 31 0 a 33  

33
 a12 a13  0 a13
 0 a 22 a 23  0  a 23 
0 a 32 a 33   0 0 a 33  
a11 a12 a13 a11 a12 0 a11 0 a13 a11 0 0
 a 21 a 22 a 23  a 21 a 22 0  a 21  a 23  a 21  0 
a 31 a 32 a 33 a 31 a 32  a 31 0 a 33 a 31 0 

 a12 a13  a12 0  0 a13  0 0


 0 a 22 a 23  0 a 22 0  0  a 23  0  0 
0 a 32 a 33 0 a 32  0 0 a 33 0 0 

a11 a12 a11 a13 a 22 a 23


 A ( )  (   )  a11 (   ) 2  ( ) 
a 21 a 22 a 31 a 33 a 32 a 33
 a22 ( ) 2  a33 ( ) 2  ( ) 3  (  ) 3  (a11  a 22  a33 )(  ) 2 

1  tr ( A )

 a11 a12 a11 a13 a 22 a 23 


   (   )  
A
a a a

21 22 31 a 33 a 32 a 33
3
2

Con respecto a la cuarta observación, si A es diagonizable es semejante a


la matriz  y por lo tanto tienen el mismo rango. El rango de una matriz
diagonal está dado por el número de elementos no nulos de su diagonal
principal.

 1 1 1   1  0
  
Ejemplo 1: A  0 1 1 A   I     2  3  0  2  1
3 2
 
 0 2 2  3
 3
1 = 2 2 = -3 3 = 0

1) Con valores propios: 1 = i = 0 -1+3 = 2 2 = 12+13+23

34
= 0(-1) + 0.3 + (-1)3 = -3
3 = i = 0 (-1) 3 = 0

2) Con elementos de la matriz: 1= tr(A) = -1+1+2 = 2


1 1 1 1 1 1
2     1  0  2  3 3 = |A| = 0
0 1 2 2 0 2

Ejemplo 2:

1  4 0   1  1

A  1  2 0  A   I     2  3  2  0 
3 2
1 7
 
0 2  1  2 ,3  2  2 i

1 7 1 7
1 = i = 1  + i - i = 2 = tr(A)
2 2 2 2
1 7 1 7 1 7 1 7
2 = (1) ( + i) + (1) (  i) + ( + i) (  i) =
2 2 2 2 2 2 2 2
1 7 1 7 1 7 2
=  i+ + i+  i =3
2 2 2 2 4 4
1 4 2 0 1 0
2     2  2 1  3
1 2 2 1 0 1

1 7 1 7 1 7
3 = i = 1( + i) (  i) =  ( + ) = 2 = |A|
2 2 2 2 4 4

 1 0 0 2
1 3 0 1
Ejemplo 3: A   
 0 2 1 0
 
 2 0 0  1

35
 1  1

A   I    4  6  12   9  0   2  3
4 3 2

   3
 3, 4

1 = i = 4 + 3i  3 i = 4 = tr (A) 4 = i = 3. 3 i ( 3 i) = 9=|A|

2 = 1.3 + 1. 3 i  1. 3 i + 3. 3 i  3. 3 i  3i 3i= 6

1 0 1 0 1 2 3 0 3 1 1 0
2       6
1 3 0 1  2 1 2 1 0 1 0 1

3 = 1.33 i + 1.3 ( 3 i) + 3. 3 i ( 3 i) + 1. 3 i ( 3 i) = 12
1 0 0 1 0 2 1 0 2 3 0 1
3  1 3 0  1 3 1  0 1 0 2 1 0  12
0 2 1  2 0 1  2 0 1 0 0 1

Teorema: Ninguna raíz característica de la matriz cuadrada A puede tener


módulo mayor que la máxima suma de los módulos de los elementos de
cada fila ni que la máxima suma de los módulos de los elementos de cada
columna, o sea ||  min F, Cdonde  denota cualquier raíz característica
n

de la matriz A, F  max F i
i
Fi   a ij
j 1
n
C  max C j C j   a ij
j
i 1
Dem.: Si  es raíz característica de A, entonces existe un vector no nulo
 x1   x1  a11 x1  a12 x 2    a1n x n
x   x  a x  a x    a x
 2  2
x
21 1 22 2 2n n
tal que x=Ax o sea  (1)
  
  x n  a n11 x1  a n 2 x 2    a nn x n
 xn 
tomando módulos m. a m. la 1ª ecuación resulta:
36
|x1|  |a11x1| + |a12x2| + ... + |a1nxn| por desigualdad triangular

|| |x1|  |a11| |x1| + |a12| |x2| + ... + |a1n| |xn| por módulo de producto

operando de modo similar con las demás ecuaciones, el sistema (1) resulta

  x1  a11 x1  a12 x 2    a1n x n



  x 2  a 21 x1  a 22 x 2    a 2 n x n

    
  x n  a n1 x1  a n 2 x 2    a nn x n

sumando m. a m. estas desigualdades y sacando factor común || en el 1er.


miembro y |xi| en cada columna del 2do. miembro obtenemos:

  x1  x 2    x n    a11  a 21    a n1  x1 

C1

  a12  a 22    a n 2  x 2     a1n  a 2 n    a nn   x n
   
C2 Cn

como Cj  C resulta || (|x1| + |x2| + ... + |xn|)  C (|x1| + |x2| + ... + |xn|) como
x es un vector propio sus componentes no pueden ser todas nulas, de modo
que la suma de sus módulos será positiva; dividiendo m. a m. por dicha
suma ||  C
Como una matriz cuadrada A y su traspuesta AT tienen el mismo polinomio
característico, y por lo tanto, iguales raíces, partiendo de la ecuación
x = Atx se demuestra que ||  F
si   C 
   min {F, C} que es lo que se quería demostrar.
y   F

MATRIZ IDEMPOTENTE: una matriz cuadrada es idempotente sii es igual a


1 / 2 1 / 2
su cuadrado: A = A2 por ejemplo: A   
1 / 2 1 / 2
Todas sus raíces características son iguales a 0 ó a 1

37
MATRIZ INVOLUTIVA: una matriz cuadrada es involutiva sii su cuadrado es
1 0 
la matriz identidad: A2 = I por ejemplo: A   
0  1
Todas sus raíces son iguales a 1 ó a 1

MATRIZ NILPOTENTE: una matriz cuadrada es nilpotente sii cierta


0 0
potencia suya es la matriz nula: Ak=  (k  1) por ejemplo: A   
2 0
El menor exponente para el cual la potencia de A es nula se denomina
índice de nilpotencia (en el ejemplo, el índice es 2)
Todas sus raíces son nulas.

1.2.1. Diagonalización de matrices simétricas:


Los valores propios de una matriz simétrica real son todos reales. Los
vectores propios asociados a diferentes valores propios de una matriz
simétrica son ortogonales. A cada valor propio de una matriz simétrica
corresponden tantos vectores propios LI como el orden de multiplicidad del
valor propio. Por lo tanto, toda matriz simétrica real es diagonizable sobre el
campo de los reales con una matriz de paso (o modal) ortogonal.

Ejemplo 1:
 7 2 0   1  3

A    2 6  2  A   I  3  18 2  99   162  0  2  6
 
 0  2 5    9
 3

 4 2 0  2 1 
A  3I   2 3  2 v  4  2 2
  1  
     
 0  2 2   4   2 

 v1  v 2   0  v1  v 2

38
 1 2 0   4  2 
A  6 I   2 0  2 v 2   2  2  1 
 
     
 0  2  1   4    2 

 v2  v3   0  v2  v3
 2  2 0  8   2 
A  9 I   2  3  2 v   8  4  2
3  
     
 0  2  4   4   1 

 v1  v 3   0  v1  v 3

como los vectores propios son ortogonales entre sí, basta normalizarlos:
u1= 1/3 v1, u2= 1/3 v2, u3= 1/3 v3 entonces podemos diagonalizar la matriz
simétrica A mediante la matriz ortogonal P

1 2 2  3 0 0
P  2 1  2  de modo que   P T AP  0 6 0
1
3   
 2  2 1  0 0 9 

 7 2 1 

Ejemplo 2: A   2 10  2

 
 1  2 7 
1   2  6

A   I   3  24  2  180   432  0 
   12
 3
 1 2 1 
A  6I    2 4  2  las soluciones del sistema A - 6I =  son de
 
 1  2 1 
la forma x1  2 x 2  x3 . Si x2 = x3 =1 tenemos el vector propio

39
v1  1, 1, 1 . Para cada par de valores no proporcionales a los ya dados
T

tendremos un vector propio LI de v1. Como nos interesa que sean


ortogonales pedimos que su producto interno sea 0  1.x1 + 1.x2 + 1.x3 = 0;
como también debe ser vector propio para =6 debe ser x12 x2 + x3 = 0.
 x1   x 3
La solución de este sistema implica  entonces puede ser
 x2  0
v 2   1, 0, 1
T

 5  2 1   6   1 
A  12 I    2  2  2  v   12  6   2 
3  
     
 1  2  5   46   1 
podemos comprobar que v3 es ortogonal a v1 y a v2; para obtener una
matriz de paso ortogonal debemos normalizarlos:
 1 1 1 
 
 3 2 6
1  2
como |v1| = 3 ; |v2| = 2 ; |v3| = 6 P 0
 3 6
 1 1 1 
 
 3 2 6

1 0 i 
  1   2  0
Ejemplo 3: A  0 2 0 A   I   3  2 2  0 
 
 i 0  1  3  2
A  0I = A es una matriz de rango 2 de modo que no pueden obtenerse 2
vectores propios LI (la nulidad es 1) y la matriz A no es diagonizable.

Ejemplo 4:
 1 2  4
1   2  3
A  2  2  2
 A   I   3  27   54  0 
 
  4  2 1   3  6

40
 4 2  4 0 
A  3I  2 1  2  x 2  2 x 3  2 x1 v 1   2  para obtener v2

   
  4  2 4  1 
0  x1  2  x 2  1  x 3  0
ortogonal a v1 resolvemos el sistema 
 x 2  2 x 3  2 x1
  5
una solución es v  2
2  
 
  4 

  5 2  4  2 
A  6 I  2  8  2 v   1  podemos comprobar que los tres
  3
   
  4  2  5    2 
vectores propios son ortogonales entre sí, los normalizamos para obtener la
matriz de paso ortogonal:
 5 2 
 0
3 5 3  0  5 2 5 
 
2 2 1  1  
P  6 2 5 
 5 3 5 3  3 5
 3  4  2 5 
1 4  2  
 
 5 3 5 3 
  3 0 0
P AP   0  3 0  
T
 
 0 0 6

Teorema: Los autovalores (o valores propios) de una matriz simétrica real


son todos reales.

Dem.: sea A una matriz simétrica real y P()= |AI| su polinomio


característico (con coeficientes reales por ser A una matriz real).

41
Si existiera una raíz compleja 1=  + i existiría su conjugada 2 =   i.
Formamos la matriz B = (A1I) (A2I) = [A  (+i) I] [A (iI)]
= A2  A +Ai I  A i A + (2+2) I2
= A2  2A + 2 I2 + 2 I2 = (A I)2 + 2 I teniendo en cuenta que A es
simétrica se puede expresar B = (A I)T (A I) + 2 I Como B es una
matriz singular (producto de dos matrices singulares de la forma A  iI)
existe un vector x / Bx=

Si premultiplicamos esta última igualdad m.a m. por xT x TB x = x T  = 0


reemplazando: x B x = x (A  I) (A  I) x + x  I x = 0
T T T T 2

= [(A  I) x]T [(A  I) x] + 2 I x = 0


= <[(A  I) x] . [(A  I) x]> + 2 <x . x> = 0
como el primer término del 2do. m. es el cuadrado de la norma de (A  I)x
es no negativo y en el segundo término <x . x> es el cuadrado de la norma
de x que debe ser positiva por ser x un vector propio, de modo que para que
se verifique la igualdad deben ser ambos términos nulos. El segundo
término sólo puede anularse si  = 0, lo que implica que no puede haber
raíces complejas, en ese caso  =  y el producto (A  I) x . (A  I) x es
el vector nulo, cuya norma es cero, de modo que el primer término también
se anula.

Teorema: Los autovectores (o vectores propios) de una matriz simétrica


asociados a autovalores distintos son ortogonales.

Dem.: sea la matriz simétrica A y 12 autovalores de A; sean x1 y x2


autovectores asociados a 1 y 2, respectivamente.

Se tiene que A x1 = 1 x1 y A x2 = 2 x2 (1)


por definición de producto interior euclídeo: <Ax1. x2> = (A x1)T x2
= (x1)T AT x2 = (x1)T Ax2 = <x1.Ax2>
resulta entonces <Ax1.x2> = <x1.Ax2>
por (1) <1x1.x2> = <x1. 2x2>
1<x1.x2> = 2<x1.x2>
(1  2) <x1. x2> = 0
como 1  2 debe ser <x1.x2> = 0 entonces x1 y x2 son ortogonales
1.2.2. Teorema de Cayley-Hamilton:
Toda matriz cuadrada satisface a su propia ecuación característica, es decir,
si Anxn tiene por ecuación característica |A  I| = 0, siendo |A  I| un
polinomio de grado n en : P() = c0 + c1 + c22 + ... + cn-1 n-1 + cnn (1)
se verifica P(A) =  o sea c0 I + c1 A + c2 A2 + ... + cn-1 An-1 + cn An =  (2)
42
Dem.: llamemos M a la matriz (A  I) y M’ a su adjunta
1 1
como M-1 = Adj(M) = M’ será M’ = |M| M-1
| M| | M|
premultiplicando por M
M M’ = |M| I
M M’ = P() I (3)
pero la matriz M’ es una matriz cuyos elementos son polinomios de grado a
lo sumo (n1) en  (los determinantes adjuntos de cada elemento de la
matriz traspuesta de M) y por lo tanto puede escribirse como un polinomio
matricial de grado (n1) en , o sea:

M’ = M0 + M1  + M2 2 + ... + Mn-2 n-2 + Mn-1 n-1 (4) donde las Mi son


matrices

Por otro lado M M’ = (A  I) M’


M M’ = A M’  M’ (5)
igualando (3) y (5) resulta A M’   M’ = P() I
reemplazando M’ por (4) y P() por (1):
A (M0 + M1 + M22 + ... + Mn-2 n-2 + Mn-1 n-1)   (M0 + M1 + M22 + ... +
+Mn-2 n-2 + Mn-1 n-1) = (c0 + c1  + c2 2 + ... + cn-1 n-1 + cn n) I
efectuando las operaciones indicadas:
A M0 + (A M1  M0)  + (A M2  M1) 2 + ... + (A Mn-2  Mn-3) n-2 +
+ (A Mn-1  Mn-2) n-1 – Mn-1n =
=c0 I + c1 I  + c2 I 2 + ... + cn-2 I n-2 + cn-1 I n-1 + cn I n (6)

Igualando coeficientes premultiplicados resulta


homólogos en (6) por
A M0 = c0 I I A M0 =c0 I
A M1 - M0 = c1 I A A2 M1 - A M0 = c1 A
A M2 - M1 = c2 I A 2 A3 M2 - A2M1 = c2 A2
..................................... .......................... .............................................
A Mn-2 - Mn-3 = cn-2 I An-2 An-1 Mn-2 - An-2 Mn-3 = cn-2 An-2
A Mn-1 - Mn-2 = cn-1 I A n-1 An Mn-1 - An-1 Mn-2 = cn-1 An-1
-Mn-1 = cn I An -An Mn-1 = cn An
sumando m. a m. las igualdades de la última columna obtenemos (2) q.q.d.

Otro método para calcular A-1: si A es una matriz no singular no hay


valores propios nulos y por lo tanto c0  0. Si multiplicamos m. a m. (2) por
1
A-1 y despejamos: A-1 = (c1I + c2 A + c3 A2 + ... + cn-1 An-2 + cn An-1)
c0
43
1 0 2 
Ejemplo 1: A  1 2 0  A   I   3  4 2    6
 
 2 0 1 
  5 0 4  4 0 8
A 1 1

2

1 
  A  4 A  I    3  4  2   4 8 0 
6 6    
 
  4 0  5 
 
 8 0 4 

 1 0 0   2 0 4 
   1
 0 1 0   1 3  2
  6  
 0 0  1   4 0  2 

Ejemplo2:
1  3 0 0 
0 2 1  2
A   A   I   4  33  3 2  12   5
0 0  1 3 
 
2 1 0 1 

   13 15 6  15   3  27 9 18 

 10  13  1 4    12  9
A 1
1
 
  A 3  3 A 2  3 A  12 I    
6 3

5    6 12  2 3   18 9 3 0 
   2 19 4
 
 8   12 9 3

 3

 3 9 0 0  12 0 0 0   1  3  3 3 
 0  6  3 6   0 12 0 0    2  1  1 1 
     1  
 0 0 3  9   0 0 12 0   5  12 21 16  6 
     
  6  3 0  3  0 0 0 12    4 7 7  2

44
1.3. Formas cuadráticas
Una forma cuadrática es una función de n variables. Las formas cuadráticas
tienen mucha importancia, entre otros temas, para:

 La obtención de condiciones suficientes para determinar extremos


de funciones de varias variables.
 La programación cuadrática.
 La aproximación de funciones de n variables en la vecindad de
algún punto (por ej. en Estadística).

Nos ocuparemos sólo de las formas cuadráticas reales, aquellas que tienen
todos sus coeficientes reales y su dominio es un espacio real, es decir:
aij   i, j y x  n

1.3.1. Formas cuadráticas simples


Se denomina forma a una expresión polinómica homogénea (que tiene
todos sus términos del mismo grado).

Ejemplos de formas lineales:

F= ax + by es una forma lineal de dos variables.


n
F= a1x1 +a2x2 + ... + anxn=  aixi es una forma lineal de n variables, que
i 1
puede expresarse en forma matricial como F= a.x donde a =(a1, a2, ..., an)
y x=(x1,x2,...,xn)T

Ejemplos de formas cuadráticas:

F= a x2 + b y2 + c z2 + d x z es una forma cuadrática de tres variables.


n n
F=   aij xi xj es una forma cuadrática de n variables que puede
i 1 j 1

expresarse en forma matricial como F = xT A x donde A = [aij]nxn se


denomina matriz asociada a la forma; siempre se puede construir de modo
que sea simétrica, es decir, que aij = aji i, j. El determinante de la matriz
simétrica A se denomina discriminante de la forma.

45
 3 2 3  x1 
  x   x2 
2 2 2
F= 3 x1 + 4 x 1 x2 – 6 x1 x3 + x2 –5 x3 A= 2 1 0
   
 3 0 5  x 3 

SIGNO DE UNA FORMA CUADRÁTICA: Si F sólo puede tomar valores


positivos, (salvo para el vector nulo, para el cual se anula cualquier forma
cuadrática, ya que no contiene ningún término independiente), se dice que
la forma es definida positiva y se nota F > 0, por ejemplo: F= 3 x2 + 5 y2

Si F sólo puede tomar valores negativos (excluído el vector nulo) se dice


que es definida negativa y se nota F < 0, por ejemplo: F= – x2 – 4 y2

Si una forma cuadrática xTA x es definida positiva, entonces x T(–A) x es


definida negativa.

Si una forma cuadrática F nunca toma valores negativos y se anula para


algún vector distinto del vector nulo, se dice que es semidefinida positiva y
se nota F  0, por ejemplo: F = 4 x2 + y2 – 4 x y + 3 z2 = (2 x – y)2 + 3 z2
F nunca puede tomar valores negativos y se anula, por ejemplo, para el
vector x = (1, 2, 0)T

De manera similar, si una forma cuadrática F nunca toma valores positivos y


se anula para algún vector distinto del vector nulo, se dice que es
semidefinida negativa y se nota F  0
Por ejemplo: F= – 5 x2 – y2 + 6 y z – 9 z2 = – 5 x2 – (y – 3 z)2 no puede tomar
valores positivos y se anula, entre otros, para el vector x = (0, 3, 1) T.

Si una forma xT A x es semidefinida positiva, xT (–A) x es semidefinida


negativa.

Se dice que una forma es indefinida si es positiva para algunos vectores y


negativa para otros, por ejemplo: F= 3 x2 – y2

La matriz simétrica A asociada a la forma F tiene el mismo signo que F.

INVARIANZA DEL SIGNO: Una forma cuadrática no cambia su signo si se


expresa en términos de un nuevo conjunto de variables, siempre que la
transformación de variables sea no singular.

Si xTA x > 0 y R es no singular, hacemos x = R y  xT = yT RT


reemplazando: yT RT A R y = yTB y > 0, donde B = RTA R
46
El algoritmo de “completar cuadrados”, técnica que permite transformar el
polinomio haciendo desaparecer los términos rectangulares, nos permite
conocer el signo de la forma cuadrática.
4 2
Ejemplo 1: F= 3x2 + 4xy + 2y2 = 3(x2 + xy + y2) =
3 3
2 2 4 2 2 2 2 2 2 2
= 3[(x + y)  y + y ] = 3(x+ y) + y
3 9 3 3 3
 x
cualquiera sea el vector     F > 0 En realidad efectuamos una TL
 y
2   2
zx y 2 2 x  z  w
3  F  3z  w
2
como  3
w  y  3  y  w
 x  1 32   z 
resulta      
 y  0 1   w
 1 0 3 2   2 z
3 2  x   
F  x , y       2   1 3    
2 2
z , w
2 2  y   3 1   0 1   w
  
RT A R
3 2   z 
 z , w   2  
0 3   w

B  RT A R
1 2 2 2
Ejemplo 2: F= 2 x2 + 2 2 xy + y2 = 2(x2 + 2 xy + y ) = 2(x + y)
2 2
 2
z  x  y y resulta F= 2 z2 + 0 w2 semidefinida positiva
hacemos  2
 w  0y

DIAGONALIZACIÓN: Dada una forma cuadrática F= xT A x, si hacemos la


transformación de variables x  Q y donde Q es un conjunto de vectores
propios ortonormales de A dispuestos en forma de columnas:
47
n
F= yT QT A Q y = yT Q-1 A Q y = yT  y = 
i 1
i y i2

 1 0 0  0
0 2 0  0
 
 = 0 0 3  0  Se dice que F está en forma canónica o
 
    
 0 0 0   n 
diagonal; los coeficientes  2i son los valores propios de la matriz A.

Escrita la forma cuadrática de esta manera se ve claramente que si todos


los valores propios de A son positivos, el único vector y para el cual se
anula F es y = , de modo que la forma es definida positiva.

De manera similar, si todos los valores propios de A son negativos, F< 0. Si


algún valor propio es nulo y los que no se anulan son positivos, la forma es
semidefinida positiva. Si algún valor propio es nulo y los que no se anulan
son negativos, la forma es semidefinida negativa.

Si hay valores propios positivos y otros negativos, la forma es indefinida.

 3 0 1  3  0 
Ejemplo 1: F= 3 x2 + 5 y2 A=    definida positiva
 0 5  2  5  0
 3 2 
Ejemplo 2: F=  3 x2 + 4 x y  5y2 A=   |A-I| =  + 8  + 11 = 0
2

 2  5 
    4  2  0

1 definida negativa
 2   4  2  0

 1 0 1
Ejemplo 3: F= x2 –2 x z + z2 + 3 y2

A= 0 3 0
  = 0,  = 2,  = 3
  1 2 3

 1 0 1 
semidefinida positiva
 4 2 
Ejemplo 4: F= 4x2 – 4 x y – 2 y2 A=   1= 4, 2=  2 indefinida
 2 2 
48
CONDICIONES NECESARIAS Y SUFICIENTES PARA QUE UNA FORMA
CUADRÁTICA SEA DEFINIDA:

Consideremos la forma cuadrática en 2 variables: F= a x 2 + b y2 + 2h xy


completando cuadrados resulta:
  h 
2
h2 2 b 2   h 
2
ab  h 2 2
F  a x  y   2 y  y   a x  y   y
  a  a a   a  a

para que sea positiva cualesquiera sean los valores de x e y deben ser
a h
h b a h
a > 0, >0; o sea a > 0, >0
a h b

para que sea negativa cualesquiera sean los valores de x e y deben ser
a h
h b a h
a < 0, <0; o sea a < 0, >0
a h b
 3 5 
3 2 5 11 2  4 
x  xy  A=  4
11 
Ejemplo 1: F= y
4 2 4 5
 
4 4 
3 
a  0
4
1  definida negativa.
A  0 
2 
7 41 7 41
si hallamos las raíces de A: 1 = + <0 2 =  <0
4 4 4 4

De manera similar, si consideramos la forma cuadrática en 3 variables:


F= a x2 + b y2 + c z2 + + 2f y z + 2g z x + 2h x y
completando cuadrados resulta:
2 2
 h g  ab  h 2  af  gh 
F  a x  y  z   y z 
 a a  a  ab  h 2 
49
abc  2 fgh  af 2  bg 2  ch 2
 ( z) 2
ab  h 2

como las variables aparecen sólo entre paréntesis y cada uno de éstos está
elevado al cuadrado, resulta que la expresión original es positiva para todos
los valores reales de las variables si los coeficientes de todos los paréntesis
son positivos y negativa si todos los coeficientes son negativos. Estos
coeficientes son cocientes entre los determinantes
a h g
a h
a, , h b f por lo tanto, F>0 si los 3 determinantes son
h b
g f c
a h g
a h
positivos y F< 0 si a < 0, >0 y h b f <0
h b
g f c

Se puede obtener una proposición similar para un número cualquiera


variables:

Si se forman los menores principales (dominantes) de la matriz A:


a11 a12 a13
a11 a12
|A1| = a 11 , |A2| = , |A3| = a 21 a 22 a 23 , ... , |An| = |A|
a 21 a 22
a 31 a 32 a 33
la forma xT A x será definida positiva, si y sólo si todos ellos son positivos.

Como |A| = (1)n |A|, una condición necesaria y suficiente para que x T(A)x
sea definida positiva, y por lo tanto, xT A x sea definida negativa será que
|A1| < 0, |A2| > 0, |A3| < 0, ..., (1)n |An| > 0

Ejemplo 2: F = 3 x2 + 4 y2 + 6 z2 + 2 y z + 4 x z + 2 x y

 3 1 2

A= 1 4 1
 |A1| = 3 > 0 ; |A2| = 11 > 0 ; |A3| = 51 > 0  F> 0
 
2 1 6

50
Ejemplo 3:
 2 1 2 
F =  2 x2 + 2 x y – 4 x z  5 y2 + 6 y z  3 z2

A = 1 5 3

 
 2 3 3

|A1| = 2 < 0 ; |A2| = 9 > 0 ; |A3| = 1 < 0  F < 0

Ejemplo 4: F =  6 x2 – 12 x y  18 y2 + 4 x z  2 z2 + 6 z w  10 w2
 6 6 2 0 
 6 18 0 0 
A=  
2 0 2 3 
 
0 0 3 10

|A1| =  6 < 0 ; |A2| = 72 > 0 ; |A3| =  72 < 0 ; |A4| = 72 > 0  F < 0

Demostración de la condición necesaria y suficiente para que una


forma cuadrática real sea definida positiva:

a) Condición necesaria: si F = xt A x es definida positiva entonces todos los


menores principales (dominantes) de A son positivos:
|Ai| > 0 (i =1, 2, ..., n)
n
Dem.: si F > 0 todas sus raíces son positivas; como |A| = 
i 1
i
debe

ser |A| > 0; además F(x) > 0  x  . Eligiendo x en el subespacio


vectorial Si = {(x1, x2, x3, ..., xi, 0,..., 0)} ocurre que F(x) > 0  x  Si pero
F(x) para x  Si es la forma cuadrática asociada a la matriz Ai y al ser
definida positiva debe ser |Ai| > 0 cualquiera que sea la i, es decir: |A1|>0,
|A2|>0, |A3|>0,..., |Ai|>0, ..., |An|>0.

b) Condición suficiente: si |Ai| > 0 (i =1, 2, ..., n) entonces F = xt A x es


definida positiva.

Dem.: Se demuestra por inducción: resulta inmediato que el teorema se


cumple para n=1: si |A1| = a11 > 0; F1(x) = a11x2 es definida positiva.

Suponemos que sea cierto para n = k1 (k>1), o sea:

51
si |A1|>0, |A2|>0, ..., |AK-1|>0  Fk-1(x) es definida positiva; veamos que
también es cierto para n=k:
si |Ak|>0 Fk (x) no tiene raíces nulas y si tuviera raíces negativas tendría
al menos dos: i y j . En el subespacio de dimensión 2 generado por los
vectores propios vi y vj asociados a i y j, respectivamente, todo vector
es de la forma (0, ..., 0, x´i, 0. ---. 0, x´j, 0, ..., 0), por lo que la forma
cuadrática Fk(x) puede reducirse a i x´i2 + j x´j2 definida negativa si i
y j son negativas.

Por otra parte, en el subespacio de dimensión k1 Vk-1= {x  Vk /xk=0}


por la hipótesis de inducción es F(x) definida positiva, ya que tiene por
matriz Ak-1. Al ser la intersección de Vk-1 con el subespacio generado por
los vectores vi y vj no vacía se llega a la contradicción de que para un
vector de esa intersección F(x) es a la vez definida positiva y definida
negativa; entonces Ak tiene sus raíces todas positivas y por lo tanto F(x)
es definida positiva.

Condición necesaria para que una forma cuadrática sea semidefinida:


como el determinante de la matriz asociada a la forma cuadrática es igual al
producto de todas sus raíces, si hay alguna raíz nula |A| = 0

Condición suficiente: si |Ai| > 0 (i =1,2,...,n-1) y |An| = |A| = 0 la forma


cuadrática asociada a A es semidefinida positiva.

Condición suficiente: si sg.|Ai| = sg. (1)i (i =1,2,...,n-1) y |An| = |A| = 0 la


forma cuadrática asociada a A es semidefinida negativa.

 5 10 2 
Ejemplo 1: F= 5x2  20 x y + 25 y2  4 x z + 4 z2

A = 10 25 0
 
 2 0 4 
|A1| = 5 > 0; |A2| = 25 > 0; |A3| = 0  F0 (semidefinida positiva)

Ejemplo 2: F= x2 + 4 x y – 6 y2  12 z2 + 8 y z + 10 z w + 9 w2
 1 2 3 0
 2 6 4 4 
A=   |A1| = 1< 0; |A2| = 2 > 0; |A3| = 2 < 0;
 3 4 12 5
 
 0 4 5 9 
|A4| = 0  F0 (semidefinida negativa)
52
 1 2 3 
Ejemplo 3: F= x2 – 4 x y + 6 y2 – 18 y z + 4 z2

A= 2 6 9

 
 3 9 4 
|A1| = 1>0; |A2| = 2 > 0; |A3| = 19 < 0 F es indefinida

1 0 1 0
0 1 2 0
Ejemplo 4: F= x2 + y2 + 5 z2 + 2 x z – 4 y z + 6 w2 A=  
 1 2 5 0
 
0 0 0 6
|A1| = 1> 0; |A2| = 1 > 0; |A3| = 0; |A4| = 0

No se cumple la condición suficiente, ya que |A3| no es positivo, pero sí se


cumple para la forma cuadrática que resulta de suprimir el último término:
F´= x2 + y2 + 5z2 + 3xz  4yz; si esta forma es semidefinida positiva, la que
resulta al agregar un término cuadrático con coeficiente positivo es también
semidefinida positiva.
En cambio, la forma F´´= x2 + y2 + 5z2 + 2xz  4yz  6 w2 es indefinida y sus
menores principales dominantes tienen los signos iguales a los de F.

Condición necesaria y suficiente para que una forma cuadrática sea


~
semidefinida positiva: que todos los determinantes Ak (k=1,2,...,n-1)
~
sean no negativos y |A| = 0 donde Ak es el determinante de orden k que
puede obtenerse permutando filas y columnas de cada uno de los menores
principales de orden k de la matriz A
~ ~ ~
Por ej.: si A es una matriz 3x3 A11  a11 A12  a 22 A13  a 33

~ a11 a12 ~ a 22 a 21 ~ a11 a13


A21  A22  A23 
a 21 a 22 a12 a11 a 31 a 33
~ a 33 a 31 ~ a 22 a 23 ~ a 33 a 32 ~
A24  A25  A26  A3  A
a13 a11 a 32 a 33 a 23 a 22

~ ~ ~ ~ ~ ~
Observ.: A21  A22 ; A23  A24 ; A25  A26 ya que se intercambian
tanto filas como columnas.
53
Condición necesaria y suficiente para que una forma cuadrática sea
~
semidefinida negativa: que todos los determinantes Ak (k=1,2,...,n-1)
~
cumplan la condición Ak (1)k  0 y |A| = 0

1 0 1 1
0 1 2 0 
Ejemplo 1: A=   |A1| = 1> 0; |A2| = 1 > 0; |A3| = 0; |A4| = 0
1 2 5 1
 
1 0 1 2
Como no se cumple la condición suficiente calculamos todos los menores
~ ~ ~ ~
principales: A11  1  0 A12  1  0 A13  5  0 A14  2  0
~ 1 0 ~ 1 1 ~ 1 1
A21  1 0 A22  40 A23  1 0
0 1 1 5 1 2
~ 1 2 ~ 1 0 ~ 5 1
A24  1 0 A25  20 A26  90
2 5 0 2 1 2
No vale la pena calcular los que se obtienen de estos por permutación
porque tendrán valores iguales.
1 0 1 1 0 1
~1 ~2
A3  0 1 2 0 A3  0 1 0  1  0
1 2 5 1 0 2

1 1 1 1 2 0
~3 ~4
A3  1 5 1  4  0 A3  2 5 1  1  0
1 1 2 0 1 2
Los que se obtengan por permutación tendrán signos y valores iguales.
Como el determinante de la matriz es 0 la forma cuadrática (y la matriz
asociada) es semidefinida positiva.

54
1.3.2. Formas cuadráticas condicionadas
Supongamos que deseamos conocer el signo de una forma cuadrática en 2
variables, sujeta a una restricción lineal: F= a x2 + h x y + b y2 sujeta a la
condición  x +  y = 0

como la restricción implica y  x podemos expresar F como función

2
     
de una sola variable: F= a x2 + 2h x  x  + b  x 
     
 2 2 2 x2
= a x2  2h x +b x podemos sacar factor común
 2 2
x2
= (a 2  2h   + b 2)
2
F será definida positiva sii la expresión entre paréntesis es positiva y F será
definida negativa sii la expresión entre paréntesis es negativa.
Dicha expresión no es otra cosa que el opuesto del determinante
0  
 a h = 2   h – a 2 – b 2
 h b

Este determinante está compuesto por el discriminante de la forma


cuadrática F bordeado por los coeficientes de la ecuación de restricción,
además de un cero en el ángulo superior izquierdo. Lo notamos A . Para
los valores de x e y no simultáneamente nulos que satisfagan la ecuación de
condición, la forma cuadrática F será definida positiva sii A < 0 y definida
negativa sii A >0

Si la forma cuadrática F es una función de n variables


n n n
F=   aij xi xj sujeta a la condición lineal  bi xi = 0
i 1 j 1 i 1

formamos la matriz orlada simétrica

55
0 b1 b2 b3  bn 
b a11 a12 a13  a1n 
 1 
 b2 a 21 a 22 a 23  a2n 
A 
 b3 a 31 a 32 a 33  a3n 
     
 
bn a n1 an2 a n3  a nn 
La forma condicionada será definida positiva sii todos los menores
principales (dominantes) de A a partir de A2 son negativos, donde

0 b1 b2 b3
0 b1 b2
b1 a11 a12 a13
A2  b1 a11 a12 , A3  ,..., An  A
b2 a 21 a 22 a 23
b2 a 21 a 22
b3 a 31 a 32 a 33

La forma condicionada será definida negativa sii los menores principales


(dominantes) de A tienen signos alternados a partir de A2 positivo:
A2  0 , A3  0 , . . . , An ( 1) n  0

Ejemplo 1:

F= 2 x2 + 4 y2 + z2 – 6 x y – 2 y z – 4 x z sujeta a x + 2 y + 3 z = 0

0 1 2 3
 1 2 3 2  0 1 2
A =  A2 = 1 2 3 = 24 < 0 A3 = A = 168 < 0
2 3 4 1
  2 3 4
 3 2 1 1 

La forma condicionada es definida positiva.

56
n n
En general, si la forma cuadrática F=   aij xi xj
i 1 j 1

 n
  bi xi  0
 i n1
 c x  0
está sujeta a m restricciones lineales (m<n)   i i
i 1
 
 n
 mi xi  0
 i 1
0 0  0 b1 b2 b3  bn 
0 0  0 c1 c2 c3  cn 
 
        
 
 0 0  0 m1 m 2 m3  mn 
la matriz orlada es A   b1 c1  m1 a11 a12 a13  a1n 
 
b2 c 2  m 2 a 21 a 22 a 23  a2n 
b c  m a a 32 a 33  a3n 
 3 3 3 31

        
b c  m a  a nn 
 n n n n1 a n 2 a n3

La forma condicionada es definida positiva sii los últimos (n-m) menores


principales dominantes de A tienen todos el mismo signo que (1)m

La forma condicionada es definida negativa sii los últimos (n-m) menores


principales dominantes de A alternan su signo, siendo el signo de Am 1
igual al de (1)m+1
|Sepuede comprobar que estas condiciones necesarias y suficientes rigen
también para el caso en que no haya condición (m = 0) y para el caso en
que haya sólo una condición (m = 1).

57
Si denominamos Ah al menor principal dominante que contiene hasta el

elemento ahh comenzamos a calcular desde el Am 1

Ejemplo 2: F= 4 x2 – 2 x y + 2 x w + y2 + 4 y z + 3 z2 + 2 z w + w2
x  y  2 w  0
sujeta a
 y 2z  0
0 0 1 1 0 2
0 0 0 1 2 0
 
1 0 4 1 0 1
A =  Como n = 4 y m = 2 calculamos los
 1 1  1 1 2 0
 0 2 0 2 3 1
 
 2 0 1 0 1 1 
últimos 2 determinantes:
0 0 1 1 0
0 0 0 1 2
A3  1 0 4 1 0  23  0 A4  A = 218 > 0
1 1 1 1 2
0 2 0 2 3

Como los 2 determinantes tienen el mismo signo que (–1)2 la forma


condicionada es definida positiva.

1.4. Matrices No Negativas


1.4.1. Matrices descomponibles.
PARTICIÓN DE MATRICES: si suprimimos todas las filas y columnas,
menos k filas y s columnas de una matriz A mxn , la matriz que resulta, de
dimensión k x s, se denomina submatriz de A .

58
Se puede particionar una matriz A en submatrices, es decir, expresarla
como un conjunto de submatrices disjuntas, cuya unión sea igual a la matriz
A . Por ejemplo: A   a ij  3 x 4 la podríamos particionar de la siguiente
forma:

 a 11 a 12 a 13 a 14 
   A 11 A 12 
A   a 21 a 22 a 23 a 24    
   A 21 A 22 
 a 31 a 32 a 33 a 34 
donde A 11 y A 12 son submatrices de dimensión 2 x 2 y A 21 y A 22 son
submatrices de dimensión 1x 2 ; pero también podríamos particionar A de
modo que, por ej., A 11 fuera de dimensión 2 x1 , A 12 de dimensión 2 x3 ,
A 21 de dimensión 1x1 y A 22 de dimensión 1x3 , etc.

La partición de matrices puede simplificar la escritura, mostrar alguna


estructura particular que interese, simplificar el cálculo; por ej.:
1 0 2 
   I 11 A 12 
A   0 1  1    donde I 11 es una submatriz identidad y 
    A 22 
 0 0 3 
es una submatriz nula.

Cuando las matrices se particionan de manera apropiada para la adición o


para la multiplicación, las submatrices se comportan como si fueran
elementos ordinarios de la matriz;
 A 11 A 12   B 11 B 12 
Por ej.: A    y B  
 A 21 A 22   B 21 B 22 
 A 11  B 11 A 12  B 12 
A B   
 A 21  B 21 A 22  B 22 
siempre que para cada A ij la correspondiente B ij tenga la misma
dimensión.

59
 A11  B11  A12  B21 A11  B12  A12  B 22 
A B    siempre que las
 A21  B11  A22  B 21 A21  B12  A22  B22 
submatrices A ik y B kj sean conformables para el producto, es decir, que
el número de columnas de A ik sea igual al número de filas de B kj .

INVERSIÓN DE MATRICES PARTICIONADAS: si A es una matriz


cuadrada no singular, podemos particionarla para calcular su inversa (en
caso de matrices de dimensión considerable, esto simplifica los cálculos).

 A 11 A 12 
Si A    donde A 11 es de dimensión p x p, A 12 es de
 A 21 A 22 
dimensión p x (n  p), A 21 es de dimensión (n  p) x p y A 22 es de
dimensión (n  p) x (n  p) y X es la inversa de la matriz A : A . X  I ;
particionando las matrices X e I igual que A tenemos:
 A11 A12   X 11 X 12   I 11  12 
A    efectuando las operaciones
 21 A22   X 21 X 22   21 I 22 
indicadas obtenemos el sistema:
 A11  X 11  A12  X 21  I 11
 A  X  A  X    prem. m.a m. por A 1 X   A 1  A  X
 11 12 12 22 12 11 12 11 12 22

 A21  X 11  A22  X 21   21  prem. m.a m. por A22 X 21   A22  A21  X 11
1 1

 A21  X 12  A22  X 22  I 22
a
reemplazando X 21 en la 1 ecuación del sistema y sacando luego factor

común X 11 resulta  1
X 11  A11  A12  A22  A21  1
reemplazando este

resultado en X 21
1

resulta X 21   A22  A21  A11  A12  A22  A21
1

1
de
modo que

A 1  
 1
A11  A12  A22  A21
1
 
 A111  A12   A21  A111  A12  A22 
1


1
 1
  A22  A21  A11  A12  A22  A21 
1
 A 21  A111  A12  A22 
1


60
 2 2 1
  1 1  2  1
Ejemplo 1: A   1 3 1  A111  1
A22   
  2 4  2 3 
 1 2 2 
1 1 1
 1  2  1 1   1 1  5 4
X 11   2   2 1        2   2 1      
 4  2 3  1   4 1  4 5
1
1  1
 3 1  1  2 2
X 12  
1
2 1  1 1 2 1    

  1   
3

2  1  2 2 2   2  1 
 2
 1  1  3  1  2 1
  1        
 2  5  2 4   5 5

1 1
1  2  1 1  1  2  1  1 1  3 1 1
21        2   2 1    1  2  4    5 1
4  2 3  
X
4  2 3  1  4     

1
1
 1 
  1 1  3 1   2  1  3 1 
     2 1  
2
     
2   5   2 4 
X
  1 2
22
2 1 3 
 2 

 4 2 1
 5   
5 5
 
1
 1 3 1
de modo que A     
 5 5 5
 1 2 4
   
 5 5 5 

61
Si la matriz A es no singular (cuadrada con determinante no nulo) siempre
es posible hacer una partición de modo que A 11 y A 22 sean también
submatrices no singulares.

 2 2 1
Por ejemplo: para la matriz A   1 3 3  no podríamos hacer la
 
 1 2 2 
 2 2 1
 
partición A   1 3 1  porque A 22 no tiene inversa, pero sí podemos
 

1 2 2

2 2 1
  1 1 
3  2
A  1 3 3   
4   1 2 
hacer la partición A 11
 
1 2 2 

MATRICES DESCOMPONIBLES: Se dice que una matriz cuadrada A es


reducible o descomponible si es posible, mediante el intercambio de algunas
filas y las columnas correspondientes, reducirla a la forma:

 A 11 A 12 
A´   donde A 11 y A 22 son submatrices cuadradas y  es
 A 22 
una submatriz nula. Si esto no es posible, se dice que la matriz es
irreducible o no decomponible.

Para intercambiar dos filas y dos columnas correspondientes, lo que se


hace en realidad, es premultiplicar por una matriz de permutación y
postmultiplicar por su traspuesta. Como la matriz de permutación es
ortogonal, lo que se obtiene es una matriz semejante a la dada.

Otra forma de definir las matrices descomponibles (muy útil para reconocer
si una matriz es decomponible o no) es la siguiente.

62
Una matriz A   a ij  nxn es descomponible si el conjunto formado por los

números enteros de 1 a n, o sea N   1, 2, ....., n puede separarse en dos


subconjuntos no vacíos I y J tales que:

1) N  I  J ; I  J   (o sea hacer una partición de N)


2) a ij  0 p a r a i  I ; i  J

2 0 1 1
 0 6 0 5
Por ejemplo, en la matriz A    los elementos nulos son
3 1 4 0
 
0 7 0 8
a 12 ; a 21 ; a 23 ; a 34 ; a 41 y a 43 .

Podemos particionar el conjunto N  1, 2,3, 4 en los subconjuntos


I  2, 4 , J 1,3 de modo que a 21 ; a 23 ; a 41 y a 43 son nulos.
Efectivamente, si intercambiamos las filas 2 y 3 y luego las columnas 2 y 3
obtenemos la matriz

2 1 0 1
3 4 1 0
   11
A A 12 
A´    
 0 0 6 5   A 22 
 
0 0 7 8

Consideramos el sistema A x  c donde A es descomponible; podemos


escribirlo:
 A 11
A 12   x 1   c 1 
       donde x 1 contiene las primeras k
 A 22   x 2   c 2 
componentes de x y x 2 las restantes  n  k  componentes; de la misma
forma separamos las componentes del vector c.

63
 A 11 x 1  A12 x 2  c 1
Resulta entonces el sistema 
 A 22 x 2  c2

De modo que podemos resolver el subsistema A22 x 2  c 2 de forma


completamente independiente del resto del sistema; una vez obtenido x 2
se reemplaza en la primera ecuación del sistema y se obtiene x 1 .

MATRICES TOTALMENTE DESCOMPONIBLES: si es posible, mediante el


intercambio de algunas filas y las columnas correspondientes, llevar la
 A 11  
matriz a la forma A´   se dice que la matriz es totalmente
 A 22 
descomponible.

 0 0 3

Ejemplo: A  0 2 0 intercambiando filas 1 y 2 las columnas 1 y 2
 
  2 0 1 
 2 0 0
 
resulta A´   0 0 3 
 
 0  2 1 

En este caso el sistema Axc podemos escribirlo


 A 11    x 1  c 1   A 11 x 1  c 1
      y resulta 
 A 22   x 2   c 2   A 22 x 2  c 2

De modo que se puede resolver en forma totalmente independiente cada


uno de los subsistemas. Para que una matriz sea totalmente descomponible
se debe poder hacer una partición de N   1, 2, ....., n en los subconjuntos
I y J de modo que si i  I ; i  J entonces a ij  0 y también a ji 0 .

64
INVERSIÓN DE MATRICES DESCOMPONIBLES: si la matriz A es una
matriz no singular descomponible se puede calcular su inversa más
 A 11 A 12 
fácilmente particionándola: A   donde A 11 y A 22 son
 A 22 
 X 11 X 12 
submatrices cuadradas y X    es su inversa, particionada
 X 21 X 22 
de la misma forma que A
 A 11 X 11  A 12 X 21  I 11

 A 11 X 12  A 12 X 22 

 A 22 X 21    X 21   (1)
A   X  1
 22 X 22 I 22 22 A 22 (2)

1
reemplazando (1) en la primera ecuación del sistema resulta X 11  A 11
reemplazando (2) en la segunda ecuación del sistema resulta
1 1
X 12  A 11 A 12 A 22

1
 A 11
1 1
 A 11 1
A 12  A 22 
entonces A  
  A 221 

si la matriz A fuera totalmente descomponible A 12  resulta


 A 11
1
 
A 1   
 A 221 

 0 5 0 0
1 2 0 0 
Ejemplo : A    se puede descomponer intercambiando fila
4 1 5 0
 
5 4 2 1 
1 con 4, columna 1 con 4, fila 2 con 3, columna 2 con 3 y resulta la matriz D

65
1 2 4 5
 
0 5 1 4
   1 2 1  1  0, 4 
D  0 0 2 1 donde D 11  0  D 11 
5  
X 11
0 0 5   0 0, 2 
0
 
 
 
 2 1 1  0 0, 2 
D 22    D 22 
0  
X
 1  0, 4 
22
 5

Calculamos
  1 0,4   4 5  0 0,2    3,4 0,64 
X 12   D111 D12 D22
1
     
 0  0,2 1 4 1  0,4   0,8 0,28

1 0, 4  3, 4 0, 64 
 
0 0, 2  0,8 0, 28 
 
Entonces D   0 0 0 0, 2  para obtener la inversa de A
0 0 1  0, 4 
 
 
 
debemos intercambiar nuevamente filas 1 con 4 y 2 con 3 y las columnas
  0, 4 1 0 0
 0, 2 0 0 0
correspondientes resultando A   
1

 0, 28  0,8 0, 2 0 
 
 0, 64  3, 4  0, 4 1 

1.4.2. Matrices No Negativas.

Se dice que una matriz A   a ij  es no negativa si todos sus elementos

son no negativos: A  0  a ij  0  i ,  j .

66
La notación A  B es equivalente a A  B  0 .

Un vector v se denomina no negativo si todas sus componentes son no


negativas: v  0  v i  0  i ; v  u equivale a v  u  0 .

MATRICES POSITIVAS: se dice que una matriz A es positiva si todos sus


elementos son positivos: A  0  a ij  0  i ,  j . La notación A  B es
equivalente a A  B  0 .

Un vector v se denomina positivo si todas sus componentes son positivas:


v  0  v i  0  i ; v  u equivale a v  u  0 .

PROPIEDADES DE LAS MATRICES NO NEGATIVAS

1. TEOREMA DE PERRON: Una matriz positiva A siempre tiene un valor


característico real y positivo r, que es una raíz simple de la ecuación
característica y excede el módulo de todos los demás valores
característicos. A este valor o raíz “maximal” r corresponde un vector
característico positivo.

Para todo número real s > r la matriz (s I – A) es no singular y su inversa


( s I  A ) 1 es positiva.

2. 1er TEOREMA DE FROBENIUS: Una matriz no negativa no


descomponible A tiene siempre un valor característico real y positivo r, que
es una raíz simple de la ecuación característica; los módulos de los otros
valores característicos no exceden a r. Al valor característico r corresponde
un vector característico positivo.

Para todo número real s > r la matriz (s I – A) es no singular y su inversa


( s I  A ) 1 es positiva.

3. 2do TEOREMA DE FROBENIUS: Una matriz no negativa A tiene


siempre un valor característico r tal que los módulos de todos los valores
característicos de A no exceden a r. Al valor característico r corresponde un
vector característico no negativo.

67
Para todo número real s > r la matriz (s I – A) es no singular y su inversa
( s I  A ) 1 es no negativa.

 2 2 1
 
Ejemplo 1: A  1 3 1 esta matriz es positiva, se aplica el Teorema de
 
 1 2 2 
Perron:
A   I    3  7  2  11   5  0 . Las raíces son  1  5;  2   3 1

La raíz “maximal” r es 5, positiva, simple, mayor que el módulo de las


demás. A esta raíz r corresponde un vector propio  1, 1, 1 T que es un
vector positivo.
 4  2  1
Si elegimos s = 6 > 5 vemos que la matriz (6 I – A)   1
 3  1  es no
 
  1  2 4 
10 10 5 
1 
singular y su inversa es positiva: (6 I  A )
1
 5 15 5 
25  
 5 10 10 
 4 6 0

Ejemplo 2: A  0 2 1
 matriz no negativa, no descomponible,
 
 1 0 3 
podemos aplicar el primer Teorema de Frobenius:

 1  5  r

A   I    3  9  2  26   30  0  2  2  2 i 
    6 5
 3  2  2 i 

a r = 5 corresponde el vector característico  6 , 1, 3 T positivo.

68
 2 6 0 
Si elegimos s = 6 > 5

(6 I – A)  0 4  1
 
  1 0 3 
12 18 6 
(6 I  A ) 1   1 2  positiva.
1
6
18 
 4 6 8 
2 1 0
Ejemplo 3: A  1
 3 2  matriz no negativa, no descomponible,
 
 0 1 3 
podemos también aplicar el 1er Teorema de Frobenius:

 1  1

A   I    3  8  2  18   11  0
 1
 
 2  7  5  r s i m p l e
2

 1

 3  2 7  5 
a la raíz maximal r le corresponde un vector propio positivo:
 1  5 1  5  T
 , , 1

 2 2 
 3 1 0  2 2 2
para s = 5 >r (5 I–A)
 
  1 2  2 (5 I  A )  1 1
2 6 6  0
  4 
 0  1 2   1 3 5 
1 0 2

Ejemplo 4: A  1 2 0 matriz no negativa, descomponible, se aplica
 
 2 0 1
el 2do Teorema de Frobenius:

69
 1  3  r

A I  3  4 2  60  2  2 al valor propio r no
   1
 3
negativo corresponde un vector propio no negativo  2 , 2 , 2 T
 3 2  2 0, 6 0 0 , 4

para s=4 >r (4I–A)   1 2 0 ( 4I  A )1   0 , 3 0 , 5 0, 2
   
  2 0 3   0 , 4 0 0 , 6
matriz no negativa.

9 4 4

Ejemplo 5: A  0 3 6
 matriz no negativa, descomponible, se aplica
 
 0 7 2 
el 2do Teorema de Frobenius: A   I  (9   )   2  5   36   0
 1   2  9  r ( no simple )

 3   4
al valor propio r corresponde un vector propio no negativo  1, 0 , 0  T
para s=10>r
1 4  4  14 60 52 

(10 I – A)  0 7  6 (10 I  A ) 1

1 
0 8 6
  14  
 0 7 8   0 7 7 
matriz no negativa.

Teorema: La raíz maximal de una matriz no negativa A no puede ser mayor


que la máxima suma de cada columna ni menor que la mínima suma de
cada columna de A.

Dem: por el 2do. Teorema de Frobenius, si A  0 existe una raíz


característica maximal r  0 tal que r x = A x donde x  0 , es decir:

70
 r x 1  a 11 x 1  a 12 x 2  .......  a 1n x n

 r x 2  a 21 x 1  a 22 x 2  .......  a 2 n x n

........ ................... ...... .........
 r x n  a n1 x 1  a n 2 x 2  .......  a nn x n

r  x1  x 2    x n   a11  a 21    a n1 x1  a12  a 22    a n 2 x 2 


 
C1 C2

   a1n  a 2 n    a nn x n

Cn

Si denominamos C  max  C 1 , C 2 , ...., C n  y C   min C1 , C 2 ,, C n 


n
r  x1  x 2    x n   C  x1  x 2    x n  como x i  0 por ser x un
i 1

vector propio no negativo, resulta r  C (1) de manera similar:


r ( x 1  x 2  ...  x n )  C´( x 1  x 2  ...  x n ) y r  C ´ (2)
de (1) y (2) C ´  r  C

Como A y A tienen las mismas raíces F ´  r  F donde F´ es la mínima


T

suma de cada fila y F la máxima suma de cada fila de A.

CONDICIÓN DE HAWKINS–SIMONS: si en un modelo económico se


plantea el sistema lineal (I-A) x = c donde A es una matriz no negativa y c
es un vector no negativo, interesa determinar si siempre habrá una solución
no negativa para x.

Por ej.:
 0, 5 0, 4   20    700 
si A    y c  x  es un vector negativo;
 0, 6 0, 6   50    925 

71
 0, 5 0, 4 
en cambio, si A  
0, 5 
para el mismo vector c la solución es
 0, 6
 3000 
positiva: x   
 3700 

En general, si s es un número real positivo, I la matriz identidad de orden n,


A una matriz no negativa nxn y c un vector no negativo, la condición
necesaria y suficiente para que el sistema (s I A)x = c tenga solución no
negativa es que la matriz (s I A) tenga todos sus menores principales
(dominantes) positivos. Esta es la condición de Hawkins-Simons.

También hay dos condiciones suficientes que son más sencillas de


n n
comprobar: sea F i  a
j 1
ij y C j a
i 1
ij

a) si s  F i ( i  1, 2,..., n) el sistema verifica la condición de H-S


b) si s  C j ( j 1, 2,..., n) el sistema verifica la condición de H-S

1.4.3. Matrices estocásticas.


MATRICES DE MINKOWSKI: se denominan las matrices cuadradas no
negativas tales que la suma de los elementos de cada columna (o de cada
fila) no superen la unidad; es decir, las matrices A   a ij  nxn tales que

 A0  A0
 n 
 ó  n
  a ij  1 ( j  1, 2,..., n)   a ij  1 (i  1, 2,..., n)
 i 1  j 1

por ejemplo: la matriz de coeficientes técnicos en el modelo abierto de


Leontief.

VECTOR DE PROBABILIDAD o VECTOR ESTOCÁSTICO: se denomina a


un vector fila p   p 1, p 2,.... p n  cuyas componentes son todas no

72
p j 0

negativas y su suma es igual a 1, o sea  n también se puede
 p j 1
 j 1
definir como vector columna.

MATRIZ ESTOCÁSTICA o MATRIZ DE PROBABILIDAD: se denomina a


una matriz cuadrada P   p ij  nxn si cada una de sus filas es un vector de
probabilidad. (se puede dar una definición equivalente en términos de
columna). Es un caso particular de las matrices de Minkowski.

Propiedades:
1) Si A y B son matrices estocásticas, su producto A  B es también
unamatriz estocástica.
2) Todas las potencias no negativas de una matriz estocástica A k

son matrices estocásticas.


3) Toda matriz estocástica tiene una raíz característica igual a 1 y
todas sus raíces tienen módulo menor o igual a 1.
 1, 1, .....,1
T
4) Toda matriz estocástica multiplicada por el vector

1 1
1 1
resulta igual a ese vector, es decir: P      de modo que toda
   
   
1 1
 1, 1, .....,1
T
matriz estocástica tiene el vector propio
correspondiente al valor propio  1

Como los vectores de probabilidad son vectores fila vamos a considerar los
vectores propios de una matriz estocástica como vectores fila; entonces
x P =  x de donde x  P   I    los vectores x distintos del vector nulo
que satisfagan este sistema para cada valor propio  i serán los vectores
propios correspondientes a ese autovalor  i.

73
Teorema: Toda matriz estocástica tiene una raíz característica igual a 1 y
todas sus raíces tienen módulo menor o igual a 1.

Dem: Como P  0 hay una raíz dominante r  0 tal que r   i y esa raíz
corresponde a un vector característico no negativo k, según el 2do. teorema
de Frobenius; si k es un vector fila: r k = k P
 r k 1  p 11 k 1  p 21 k 2  .......  p n1 k n

 r k 2  p 12 k 1  p 22 k 2  .......  p n 2 k n
o sea: 
........ ................... ...... .........
 r k n  p 1n k 1  p 2 n k 2  .......  p nn k n

r ( k1  k 2    k n )  ( p11  p12    p1n ) k1  ( p 21  p 22    p 2 n ) k 2 


 
1 1

   ( p n1  p n 2    p nn ) k n

1
los paréntesis del segundo miembro de la igualdad son la suma de cada una
de las filas de la matriz P de modo que valen 1, por lo que resulta
n
r  k 1  k 2  ...  k n   k 1  k 2  ....  k n (1) Si k
i 1
i  0 podemos dividir

la igualdad (1) miembro a miembro por esta suma y entonces r = 1.


Efectivamente, k es un vector no negativo distinto del vector nulo (por ser
vector propio) de modo que la suma de sus componentes es positiva. Como
r es la raíz maximal todas las demás raíces tienen módulo menor o igual a
1, resultado que por otro lado surge del teorema relativo a la relación entre
los módulos de las raíces características de una matriz y las sumas de sus
filas y columnas.

Además, si la matriz P es no descomponible o irreducible, esta raíz r = 1 es


simple por el 1er. teorema de Frobenius.

Por otra parte, si en lugar de considerar la raíz maximal r tomamos una raíz
cualquiera  i también se verifica  i k = k P y desarrollando esta expresión
llegamos a que  i  k 1  k 2  ...  k n   k 1  k 2  ...  k n pero aquí el
vector k puede no ser no negativo (porque no corresponde al valor maximal)
en cuyo caso la suma de sus componentes podría ser 0; sólo en este caso

74
 i  1 de modo que si los vectores propios corresponden a raíces distintas
de 1 deben ser tales que la suma de sus componentes sea 0.

VECTOR DE PROBABILIDAD FIJO o PUNTO FIJO: se denomina a un


vector de probabilidad t tal que t P = t (o sea que corresponde al valor propio
r = 1)
 0 1 
Por ej.: si P    buscamos un vector de probabilidad
1/ 2 1/ 2 
 0 1 
t = (x, 1-x), 0  x  1 tal que t P = t  x,1  x      x,1  x 
1/ 2 1/ 2 
1/ 2  1/ 2  x 
o sea:   x=1/3 1-x=2/3 t  1/ 3, 2 / 3
 x  1/ 2  1/ 2 x  1  x 

también se puede buscar un vector propio de la matriz P correspondiente a


r = 1 y luego dividir sus componentes por sus suma para que resulte un
vector de probabilidad; como es un vector fila debemos formar la matriz (P-I)
y lo podemos obtener de los adjuntos de una columna cualquiera:

 1 1 
PI   v  ( 1 / 2,  1) v i  3 / 2
1 / 2 1 / 2
t  2 / 3 (1 / 2,  1)  (1 / 3, 2 / 3)

 0 1 0  1 1 0
Ejemplo 1: P  0
 0 
1 PI  0  1 1 
   
1 / 2 1 / 2 0  1 / 2 1 / 2  1
v  (1 / 2, 1, 1)  vi  5 / 2 t  (1 / 5, 2 / 5, 2 / 5)

 0 1 0   1 1 0 
   
Ejemplo 2: P  1 / 2 0 1 / 2 P  I  1 / 2  1 1 / 2
   
 0 1 0   0 1  1 
v  (1 / 2, 1, 1 / 2)  vi  2 t  (1 / 4, 1 / 2, 1 / 4)

75
Ejemplo 3:
1 / 2 0 1 / 2 0   1 / 2 0 1/ 2 0 
 0 1 / 3 1 / 3 1 / 3  0  2 / 3 1 / 3 1 / 3
P   PI   
1 / 4 0 1 / 4 1 / 2   1/ 4 0  3 / 4 1 / 2
   
 0 0 0 1   0 0 0 0 

v  (0, 0, 0,  1 / 6) t  (0, 0, 0, 1)

Observación: en los ej. 1 y 2 la matriz P es no descomponible y el vector


propio correspondiente a la raíz maximal 1 es positivo (1er. teorema de
Frobenius); en el ej. 3 la matriz P es descomponible y el vector propio
correspondiente a la raíz maximal es no negativo (2do. teorema de
Frobenius).

MATRICES ESTOCÁSTICAS REGULARES o PRIMITIVAS: si todos los


 
elementos de una potencia de P son positivos si P  0 se dice que P es
h

una matriz estocástica regular o primitiva

 0 1  1/ 2 1/ 2 
Ejemplo: P   es regular porque P   0
2
 3 / 4 
1/ 2 1/ 2  1/ 4

1 0 
En cambio A    no es regular porque
1/ 2 1/ 2 
 1 0   1 0 
A2   A3   y en todas las potencias
3 / 4 1/ 4   7 / 8 1/ 8 
sucesivas se mantiene el 0 en el ángulo superior derecho.

Propiedades: si P es una matriz estocástica regular o primitiva:

1) P tiene un vector de probabilidad fijo t cuyas componentes son todas


positivas (t > 0).
 2 3 m

2) La sucesión de potencias de P P , P , P ,..., P ,... se aproxima a la
matriz T cada una de cuyas filas es el vector fijo t:
lim P m  T   t , t ,..., t 
T

m 

76
1/ 2 1/ 2  0,31 0, 69  0,3307 0, 663 
P 2   ...P 5    ...P 10  
1/ 4 3 / 4 0,34 0, 66  0,3298 0, 6702 
1/ 3 1/ 3
lim P m  T  
m 
1/ 3 1/ 3

3) Si p es un vector de probabilidad, entonces la sucesión de vectores


 p P , p P 2, p P 3,..., p P m,... se aproxima al punto fijo t:
lim p P m  t
m 

Si una matriz P es primitiva o regular, entonces es irreducible o no


descomponible, porque cualquier potencia de una matriz descomponible es
también descomponible. Pero puede ser que una matriz irreducible no sea
 0 1 0 

primitiva o regular, por ej.: P  1/ 2 0 1/ 2 
 
 0 1 0 
Observación: Una matriz estocástica no descomponible es primitiva sii todas
sus raíces características distintas de la maximal tienen módulo menor
que 1.

77

También podría gustarte