Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Matrices y Ecuaciones Lineales
Matrices y Ecuaciones Lineales
3.1Definición de matriz
Igualdad de matrices: Dos matrices A= aij m ,n y B= bij m , n del mismo orden (es
decir con igual número de filas y columnas) son iguales, A=B, si y sólo si aij = bij
para todo i y j.
1
2
21 22 21 22
a11b11 a12b21 a11b12 a12b22 a11b11 a21b12 a12b11 a22b12
AB=
a b a b a b a b BA=
a b a b a b a b
21 11 22 21 21 12 22 22 11 21 21 22 12 21 22 22
Ejemplo 2:
1 0 4
1 0 1 2 1 4 i
B= 2 i 0
A=
2 i 3 ,
, AB=
11 2i 2 8 3i
3 1 i
Debemos hacer notar que la multiplicación AB está definida si y sólo si el número de
columnas de A es igual al número de filas de B. En este caso se dice que ambas
matrices son conformables en el orden indicado (AB). En general el producto entre
matrices no es conmutativo (ver Ejemplo 1), es decir: AB BA. Si A= a ij m ,n y B=
bij n, p , entonces AB está definido, pero BA no lo está a menos que m=p. Sin embargo,
si m=p, AB y BA son de distinto orden, a menos que m=n. Si A y B son matrices
cuadradas (igual número de filas que de columnas) y del mismo orden, entonces el
producto conmuta, AB=BA.
2
3
1 2 3 2
Ejemplo 3: A=
3 4 y B=
3 0 , entonces AB=BA
Resulta consistente con las definiciones anteriores, el dividir una matriz en submatrices
menores. Este proceso es conocido como partición de una matriz y resulta muy útil en
programación, especialmente cuando se trabaja con matrices de grandes dimensiones.
Por ejemplo, si partimos simétricamente una matriz cuadrada A de orden tres de la
forma
B21 B22
a31 a32 a33
Donde los elementos de la partición son las submatrices
a 21 a 2 a23
Si hacemos una partición similar para una matriz cuadrada C de orden tres
3
4
21 21 22 22 21 21 22 22
En general se puede afirmar que, si partimos dos matrices conformables en un
producto, serán condiciones necesarias y suficientes para aplicar la definición siguiente:
(‘la adición, sustracción y producto de dos matrices puede ser obtenida a partir de la
adición, sustracción y producto de sus correspondientes submatrices’ ) que a cada
línea vertical de partición que separe las columnas k y k+1 del primer factor,
corresponda una línea de partición horizontal que separe las filas k y k+1 del segundo
factor, y que en el segundo factor no haya líneas de partición horizontal adicionales.
21 22 21 22
a11d11 a12d21 a11d12 a12d22
AD=F=
a d a d a d a d
21 11 22 21 21 12 22 22
Si partimos en columnas las matrices D y F
4
5
d11 d12
D=
d d
= DI DII y
21 22
a11d11 a12d21 a11d12 a12d22
F=
a d a d a d a d = FI FII
21 11 22 21 21 12 22 22
tendremos un hecho ya conocido de que cada columna de F puede ser obtenida
premultiplicando la columna correspondiente de D por la matriz A. Es decir
FI =A DI y FI =A DII
De una manera similar, si partimos en filas las matrices A y F veremos que cada fila de
F es el resultado de postmultiplicar las filas correspondientes de A por la matriz D .
3.2 Definiciones
5
6
Traza de una matriz: Sea una matriz cuadrada A= aij m , m , entonces la diagonal
principal de A esta formada por los elementos a ij tales que i=j. Se define como traza
m
de la matriz A la suma de los elementos de la diagonal principal ( trA= a ii ).
i 1
Matriz triangular superior: A es una matriz triangular superior si aij =0 para i<j y
estrictamente triangular superior si a ij =0 para i j.
Matriz triangular inferior: A es una matriz triangular inferior si aij =0 para j>i y
estrictamente triangular inferior si aij =0 para j i.
0 cuando i j
ij (2.4)
1 cuando i j
Utilizando esta notación, podemos escribir la matriz identidad en la forma
I= ij (2.5)
Matriz normal: Se dice que A es una matriz normal si A A*= A*A.
Matriz unitaria: Se dice que una matriz A es unitaria si satisface que A A*= A*A=I.
Matriz nilpotente: Si r>0 es el menor entero que satisface que Ar=0, donde
Ar=AA ….. A (r veces), entonces A es nilpotente con índice r.
- Para cualquier matriz A, las matrices definidas como A A* y A*A son herméticas y
tr(A A*)=tr(A*A)= aij , donde
2
2
aij aij a ij .
i j
6
7
- Cualquier matriz cuadrada A puede ser expresada como la suma de una matriz
simétrica 1/2 (A+ AT) y una asimétrica 1/2 (A- AT).
- Cualquier matriz cuadrada A puede ser expresada como la suma de una matriz
hermética 1/2 (A+ A*) y una antihermítica 1/2 (A- A*).
- Sea una matriz cuadrada A=(1/m) aij m , m , donde aij =1 para todo i,j, entonces A es
indempotente.
3.4 Determinantes
7
8
a11 a12 a13............ a1n
det (A)= A A a21 a22 a23 ... ... a2n entonces
............... ...........................
an1 an 2 an3........... ann
a11 a13 a1n
a21 a23 a2 n
M22=
an1 an 3 anm
Cofactor: Si multiplicamos el menor Mij por (-1)i+j, el resultado se denomina cofactor de
a ij y la designaremos como Aij.
Ejemplo 4:
5 2 0 2 0
3 1 2 4 2
A=
entonces A21=(-1)2+1
= -M21
1 4 2
8
9
T
A11 A12 ...... A1n A11 A21 ...... An1
A A ...... A A A ....... A
=
n2
Adj(A)=
21 22 2n 12 22
......................... .......................
An1 An2 ...... Ann A1n A2n ......... Ann
Determinante. El valor del determinante de una matriz cuadrada A de orden n, se define
como la suma de los productos de los elementos de una fila fila (o columna) cualquiera
de dicha matriz por sus correspondientes cofactores. Esto nos conduce a las
denominadas fórmulas de desarrollo de Laplace.
n n
det(A)= a ik Aik o det(A)= a kj Akj (2.7
k 1 k 1
a,b)
para cualquier valor de i o j.
1.- Si todos los elementos de una fila (o columna) son iguales a cero, el determinante
es nulo.
3.- det(I)=1
4.- Sea un escalar y A una matriz cuadrada de orden n, entonces det( A)= n
det(A)
det(AB)=det(A) det(B)
9
10
j 1 j 1
(2.8a)
Similarmente si desarrollamos por la j-ésima columna
n n
det(A)= jk (1) a ik M ik jk a ik Aik
ik
i 1 i 1
(2.8b)
i) Las columnas que se permutan son consecutivas (la k-ésima con la (k+1)-
ésima) columna
j= 1 2 … k k+1 … n j= 1 2 … k k+1… n
a11 a12 ... a1k a1( k 1) ....a1n a11 a12 ... a1( k 1) a1k ....a1n
a21 a22 ...a2k a2( k 1) ....a2n a21 a22 ...a2( k 1) a2k ....a2n
Sea A= y A’=
...................................... ......................................
an1 an 2 ...ank an( k 1) .....ann an1 an 2 ...an( k 1) ank .....ann
(2.9)
i 1 i 1 i 1
(2.10)
Desarrollando A’ por la (k+1)-ésima columna
n n
det(A’)= j ( k 1) ( 1) a ij M ' i ( k 1) a i ( k 1) A'i ( k 1)
i k 1
i 1 i 1
(2.11)
para cualquier valor de i, cada k en las sumatorias (2.10) y (2.11) verifica que:
( 1) i k a ik M ik ( 1)(1) i k a i ( k 1) M ' i ( k 1)
Dado que los a ik a i ( k 1) y M ik M ' i ( k 1) para cada i,k
10
11
ii) Suponemos válida la propiedad para permutaciones entre las columnas k-ésima y
(k+h)-ésima (columnas separadas h lugares), es decir que se verifica que det(A)= -
det(A’).
a11 a12 ... a1k a1(k 1) ... a1(k h) a1(k h1) .... a1n
a21 a22 ...a2k a2(k 1) ... a2(k h) a2(k h1) .... a2n
det =
................................................................
an1 an 2 ...ank .... an(k 1) ... an(k h) an(k h1) ..... ann
a11 a12 ... a1(k 1) a1k ... a1(k h) a1(k h1) .... a1n
a21 a22 ...a2(k 1) a2k ... a2(k h) a2(k h1) .... a2n
= (-1) det =
................................................................
an1 an 2 ...an(k 1) .... ank ... an(k h) an(k h1) ..... ann
Por ( i) (se permutaron dos columnas consecutivas, indicadas con )
11
12
a11 a12 ... a1(k 1) a1(k h1) ... a1(k h) a1k .... a1n
a21 a22 ...a2(k 1) a2(k h1) ... a2(k h) a2k .... a2n
= det =
................................................................
an1 an2 ... an(k 1) .... an(k h1) ... an(k h) ank ..... ann
por (ii) (se permutaron dos columnas separadas por h posiciones, indicadas con )
a11 a12 ... a1(k h1) a1(k 1) ... a1(k h) a1k .... a1n
a a ...a
21 22 2(k h1) 2(k 1) a ... a a
2( k h) 2k .... a 2n
= (-1) det
................................................................
an1 an2 ... an(k h1) .... an(k 1) ... an(k h) ank ..... ann
Por (i) (se permutaron dos columnas consecutivas, indicadas con ), quedando
demostrado iii).
a
k 1
rk Aik 0 ( r i ) , a
k 1
ks Akj 0 (s j) (2.12
a,b)
Definiremos en primer lugar Demostraremos que una matriz cuadrada tiene inversa si y
sólo si su determinante es distinto de cero.
Sea A una matriz cuadrada de orden n la que suponemos que posee inversa. Entonces
existe una cierta matriz B, tal que
12
13
AB=BA=I (2.13)
Entonces
det( AB)= det(BA) =det( I )
En consecuencia det(A) 0, pues en caso contrario su producto con det(B) sería nulo y
no igual a 1.
n
n n
anj A1 j j1 anj A2 j j1 anj Anj
j 1
diagonal principal son nulos en virtud de(1.8 a)
13
14
A 0 0
0 A 0
=
por la propiedad 8
0 0 A
1 0 0
0 1 0
= A = det(A) I
0 0 1
En forma análoga se comprueba que
Adj(A) A=det(A) I.
A Adj(A)(det(A))-1=Adj(A) A (det(A))-1=I
Si una matriz no tiene inversa se dice que es una matriz singular. Una matriz A tiene
inversa, si y sólo si det(A) 0. En forma equivalente, una matriz A es no-singular, si y
sólo si det(A) 0.
En particular si A y B son dos matrices no singulares se verifica que su producto es
también no singular.
14
15
Definimos el rango de una matriz A (nxs), como el orden de la submatriz cuadrada más
grande al particionar A cuyo determinante no se anula. Es decir
Una matriz real A (es decir que todos sus elementos son reales, aij R ) es una matriz
ortogonal si su traspuesta (AT ) es igual a su inversa (A -1). Es decir:
Tal como en el caso de las matrices podemos restringir el resultado (2.19) al caso de los
denominados vectores numéricos. En el análisis vectorial convencional dos vectores
A ( a1 , a 2 , a 3 ) y B (b1 , b2 , b3 ) , se consideran perpendiculares si su producto
escala es nulo ( a1b1 a 2 b2 a3 b3 ) 0 ). Desde el punto de vista matricial podemos
considerar a los vectores como matrices columnas
15
16
a1 b1
A= a
B= b
2 2
y (2.20)
a3 b3
Frecuentemente se denominan a las matrices columnas como vectores numéricos para
distinguirlos de los vectores geométricos o físicos, tal como una fuerza o una
aceleración). Entonces, definimos el producto escalar (o interno) de dos vectores reales
A y B R3 como ATB
ATB= a1b1 a 2 b2 a 3b3 (2.21)
y decimos que son ortogonales si ATB=0. Podemos ver que el producto escalar (ATB)
es equivalente, en notación matricial, al producto escalar A B del análisis vectorial.
Es convenirte generalizar este resultado de la ortogonalidad al caso de vectores cuyos
elementos son complejos, en tal caso en lugar de utilizar la traspuesta empleamos la
traspuesta conjugada. Es decir, dos vectores A y B son ortogonalesen el sentido
hermético si su producto interno, definido como ĀTB, es nulo.
En particular un vector cero es ortogonal a todos los vectores de la misma dimensión.
Sea un vector de dimensión n
a1
a
A=
2
a n
(2.22)
Definimos el cuadrado de la longitud de A como el producto escalar ATA. Es decir
( AT B ) ( AT A)1 / 2 ( B T B )1 / 2
(2.24)
16
17
long2H(A)=Ā TA= a1 a1 a 2 a 2 a n a n
17
18
0
0
0=
0
2.- Para cada escalar y A R n, existe otro vector A R n
a1 a1
a a
A= 2= 2
a n an
Además
a) ( A)=( )A b) 1 A= A
c) (A+B)= A+ B d) ( )A= A+ A
Ejercicios:
1
1.a) Calcular la matriz A B , sabiendo que
3
3 0 3 1 1 0
A y B
6 0 1 2 0 2
18
19
1 1 1 1 1
C 0 1 0 y D 0 0
3 1 2 2 2
Calcular: c.1) C 2
c.2) CD
c.3) C T D T
c.3) (C T I )(C I )
1.d) Resolver la ecuación E 2 X 2 I , donde todas son matrices de dimensiones 2x2 y
i 1
E
1 i
1.e) Demostrar que si A y B son matrices diagonales en R nxn, entonces AB es diagonal
y AB=BA.
0 i
1.f) Demostrar que la matriz A es hermética
i 0
1.g) Demostra que si A R nxn
e I es la matriz identidad de orden n, entonces
IA=AI=I
1.h) Sabiendo que en R nxn se verifica que XA=I y AY=I, demostrar que X=Y.
19
20
1.i) Utilizar la definición del desarrollo de un determinante por filas o columnas (2.8
a,b) para evaluar el determinante de
3 2 2
a1 a12
A y B 1 2 3
a 21 a 2 4 1 2
1,j) Resolver la siguiente ecuación
1 0 2
det 0 0 =0
2 0 4
1,k) Sea la matriz
0 3 4
A 2 0 3
2 1 0
Resolver la ecuación det(A- I)=0
1 0 a 0
A y B con a 0 y b 0
a 1 0 b
1,n) Sean las matrices
20
21
3 2 4 1
A 2 1 1 y B 0
1 2 3 3
Hallar X sabiendo que AX=B
1 1 1
det x y z (x y)( y z)(z x)
yz xz xy
cos sen
1.p) Verificar que A es una matriz ortogonal
sen cos
1,q) Determinar el ángulo entre los vectores
1 1
1 0
A= y B=
1 0
1 1
21
22
x1 c1
a a ....... a
a a ....... a x c
11 12 1n
21 22 2 2 2n
(2.28)
a a ....... a
m1 m2
mn
x n c n
O en una forma matricial
A X=C (2.29)
a
k 1
ik x k ci (i 1, 2, , m) (2.30 a)
n
aik x k ci (2.30
k 1
b)
22
23
Paso1. Supongamos que a11 0 (en caso contrario será necesario reordenar las
ecuaciones o variables para que esto ocurra). Dividimos ambos miembros de la primera
ecuación de (2.27) por a11 , para obtener una ecuación equivalente
x1 a12
'
x 2 a1' n x n c1' (2.31)
a12 a c
dnde a12 , , a1' n 1n y c1' 1
'
(2.32)
a x ( a ' a ) x ( a ' a ) x c ' a
m1 1 12 m1 2 1n m1 n 1 m1
(2.33)
a ' x a ' x c '
m2 2 mn n m
donde ahora
'
a 22 ( a 22 a12
'
a 21 ) , , a 2' n ( a 2 n a1' n a 21 ), c 2' c 2 a 21 c1'
a m' 2 (a m 2 a12
' '
a m1 ) , , a mn ( a mn a1' n a m1 ), c m' c m a m1c1'
23
24
donde
' '
a 23 a2
"
a 23 '
, , "
a2 n '
a 22 a2
y
'
c2
c "
2 '
a 22
La ecuación (2.34) quedará como segunda ecuación del nuevo sistema, pero la
utilizamos como en el Paso 1, para eliminar el coeficiente de x 2 en todas las otras
ecuaciones del sistema (2.33), multiplicando sucesivamente la (2.34) por
' ' '
a12 , a 32 , a 42 , , a m' 2 y restamos las ecuaciones resultantes respectivamente de la
primera, tercera, cuarta, ….. , m-ésima ecuaciones de (2.33). El sistema (2.33) se
convierte en
x1 "
a13 x3
x 2 a "
23 x3
"
a 33 x3
a "
x3
m 3
(2.35)
Pasos restantes. Repetimos el proceso k veces hasta terminar, es decir hasta que k=m o
hasta que los coeficientes de todas las variables x1 , x 2 , , x n sean iguales a cero en
todas las ecuaciones siguientes a la k-ésima ecuación. Llamaremos a estas m-k
ecuaciones remanentes, cuando m>k, con el nombre de ecuaciones residuales.
Sin embargo existen dos alternativas con los resultados. En primer lugar puede ocurrir
que, siendo m>k, el miembro de la derecha de una o más de las ecuaciones residuales
sea distinto de cero y la ecuación (o ecuaciones) sea por consiguiente del tipo 0 c r( k ) ,
con r>k (pero en realidad c r( k ) 0 ). En este caso la suposición previa que existe
solución del sistema (2.27) es contradictoria y, por consiguiente no existe solución. Se
dice que en este caso el sistema (2.27) es incompatible.
En el caso contrario, es decir que los términos independientes de las ecuaciones
residuales sean nulos, no existe contradicción alguna y el sistema (2.27) se reduce de m
ecuaciones a un sistema de k ecuaciones que, después de efectuar alguna transposición,
se puede escribir en la forma
24
25
x1 1 11 xk 1 1( nk ) x n
x2 2 21 xk 1 2( n k ) x n
(2.36)
x x
k k k1 k 1 k ( nk ) xn
donde las y las son constantes relacionadas con los coeficientes de (2.27). Como
cada unos de los pasos utilizados para reducir el sistema (2.27) al (2.36) es reversible,
se concluye que ambos sistemas son equivalentes, en el sentido que cada uno de ellos
implica al otro. En consecuencia, en este caso la solución más general de (2.27) expresa
cada una de las k variables x1 , x 2 , , x k como una constante más una combinación
lineal específica de las restantes n-k variables, cada una de las cuales pueden tener
valores arbitrarios.
En particular, cuando k=n se obtiene una solución única. En caso contrario decimos que
existe una familia de n-k parámetros como soluciones. Al número de ecuaciones
residuales (n-k) se lo denomina defecto del sistema (2.27). Obsérvese que si el sistema
(2.27) es compatible y k <m, se pueden omitir m-k ecuaciones (aquellas que
corresponden a las ecuaciones residuales), las cuales deben estar implícitas en la
restantes k ecuaciones.
Ejemplo:
Ilustraremos la reducción de Gauss-Jordan considerando el sistema de cuatro ecuaciones
simultáneas siguiente:
x1 2 x 2 x3 2 x4 1 ecuación.1
2 x x x x 4 ecuación.2
1 2 3 4
(2.37)
x1 x2 2 x3 x4 5 ecuación.3
x1 3x2 2 x3 3x4 3 ecuación 4
Luego de dos pasos de reducción se obtiene el siguiente sistema equivalente:
x1 x3 3
x x x 2
2 3 4
(2.38)
0 0
0 0
Por consiguiente el sistema tiene un defecto de dos. Si escribimos x3 C1 y x 4 C 2 ,
se podrá expresar la solución general del sistema en la forma
x1 3 C1 , x 2 2 C1 C 2 , x3 C1 , x 4 C 2 (2.39 a)
donde C1 y C 2 son constantes arbitrarias. Matricialmente podemos escribir esta
familia de soluciones biparamétrica en la forma
25
26
x 4 0 0 1
Se deduce que las ecuaciones tercera y cuarta de (2.36) no son independientes. En
5
efecto la ecuación 3=ecuación 2 –ecuación 1; mientras que ecuación 4=
3
1
(ecuación1)- (ecuación 1).
3
“Si A es una matriz real y cuadrada de orden n que además es no-singular, entonces el
sistema AX=C (2.29) admite una única solución, y el valor de cada variable
x1 , x 2 , , x n estará dado por el cociente entre el determinante que se obtiene al
sustituir, en el determinante del sistema, la columna de coeficientes de la variable por la
columna de los términos independientes, y el determinante del sistema”.
26
27
a1k
a
donde cada A
2k
A=( A1 A2 An ) con k=1,…, n son vectores
k
ank
columnas de R n
Por consiguiente cualquiera que sea el vector C R n (o C
R n), existen escalares
x1 , x 2 , , x n , únicos, tales que
n
C= xi Ai con xi R n
i 1
entonces
det A1 A 2 C An
xj donde C ocupa el lugar de la
det( A)
columna j.
En efecto:
n
det( A1 A2 C An )=det( A1 A2 xi Ai An )=
i 1
= x1 det( A1 A2 A1 An )+ x 2 det( A1 A2 A2 An )+ …
+ x j det( A1 A2 A j An )+…+ x n det( A1 A2 An An )= x j det(A)
Por la propiedad 5 el único término distinto de cero es el correspondiente a x j .
Luego
det A1 A 2 C An
xj
det( A)
27
28
x1 c1
a a ....... a
a a ....... a x c
11 12 1n
21 22 2 2
2n
(2.28)
a a ....... a
m1 m2
mn
x n c n
28
29
AE1= E1 (2.41 a)
donde es un escalar
tenga soluciones no trivales. Los valores de para los cuales el sistema (2.32 a o b)
tiene soluciones no triviales se denominan autovalores o valores característicos de la
matriz A. En muchos de ls casos que se presentan en la práctica, la matriz A es real y
simétrica, de manera tal que
a ij a ji (2.42)
O en una forma más general, cuando los coeficientes de A son complejos los casos más
importantes son aquellos en que los elementos simétricos, respecto a la diagonal
principal, son complejos conjugados. Es decir que A es una matriz hermítica
a ij a ji (2.43)
Nos limitaremos al estudio del caso de matrices reales.
La ecuación (2.41 b) tendrá soluciones no triviales si y sólo si
29
30
Como en el caso de una matriz simétrica AT=A, el resultado de restar (2.47) de (2.48)
es:
( 2 1 ) (E1)T E2=0 (2.49)
30
31
Un segundo resultado muy importante es que los autovalores de una matriz real y
simétrica son siempre reales. Para demostrarlo supondremos que 1 i (con
y R ) es una raíz de (2.44). Si E1 es el autovector característico, tendremos
A E1= 1 E1
y, por consiguiente el conjugado de dicha ecuación es:
A E 1 1 E 1
Pues A es real y el conjugado del producto es el producto de los conjugados. Si
premultiplicamos la primera ecuación por ( E 1 ) T y postmultiplicamos la traspuesta de
la segunda ecuación por X1, obtendremos
( 1 1 ) ( E 1 ) T E1 = ( E 1 ) T A E1 -(A E 1 ) T E1 =0
(2.50)
Dado que el producto ( E 1 ) T E1 es una cantidad positiva ( long 2 (E1)), se deduce que (
1 1 )= 2i debe ser nulo, en consecuencia 0 . Es decir que 1 R. Todos los
autovalores de una matriz simétrica y real son reales. Es sencillo comprobar a partir de
este resultado que todos los autovectores de una matriz real y simétrica también son
reales.
(2.51)
ZX=Y (2.53)
31
32
Z XTY
(2.55)
Z XT Z X (2.56)
Z’=QT Z Q (2.60)
32
33
normalizados de forma tal que long 2 (E1)=1). Entonces podemos escribir las siguientes
relaciones
A E1= 1 E1 , A E2= 2 E2 , …… , A En = n En
(2.61)
Formamos una matriz Q donde los autovectores representan columnas de dicha matriz
E1 E 2 E n
e n1 en2 enn
Entonces utilizando las relaciones (2.61), vemos fácilmente que
1 0 0
AQ=Q . 0 0
2
(2.64)
n
Esta última relación se deduce en forma directa con sólo observar que el producto de A
por la k-ésima columna de Q es la k-ésima columna del miembro de la derecha de
(2.63). Como los vectores E1 E2 …. En son linealmente independientes, es evidente que
det(Q) 0 . Por consiguiente existirá inversa, Q-1, y premultiplicando ambos miembros
en (2.64) por Q-1 obtendremos
33
34
1 0 0
Q A Q= 0 0 = (i 1, 2 , , n)
2
-1
i ij (2.65)
n
De esta forma se ha diagonalizado la matriz A mediante las operaciones indicadas,
siendo los elementos diagonales los correspondientes autovalores.
Sin embargo existen ciertas propiedades de la matriz Q que es necesario destacar por su
utilidad.
En primer lugar
QT=Q-1 o QTQ=I (2.66)
e1 j
e2 j
E=
j
enj
y, como los E1 E2 …. En son ortogonales las sumatorias en (2.67) se anulan excepto
cuando i j , en cuyo caso son iguales a la unidad pues los autovectores son unitarios.
Entonces deducimos que pij ij es decir que QTQ=I.
Además, puesto que det(Q)=det(QT), la (1.65) nos permite obtener un resultado muy
útil
(det(Q))2=1 lo que implica que det(Q)= 1
(2.68)
En resumen, dedujimos que la matriz Q definida por (2.61) tiene la propiedad de que la
forma cuadrática:
A=XTA X (2.69)
X=Q X’ (2.70)
a la forma:
A=(X’)TA’ X’ donde A’= i ij
34
35
es decir, a la forma:
A= 1 ( x1' ) 2 2 ( x 2' ) 2 n ( x n' ) 2 (2.71)
donde los números i son los autovalores de la matriz A.
Kernel(A) or Null(A) = x R : A x 0
n
(2.72)
donde 0 representa el vector nulo con m componentes (que por simplicidad notaremos
como “0” ). El espacio nulo será un subespacio lineal y Euclideo de dimensiones n-1.
La ecuación matricial A x =0 es equivalente al sistema de ecuaciones lineales
homogéneo
235
Consideremos la matriz A=
4 2 3 . El espacio nulo de esta matriz consistirá del
conjunto de vectores ( x, y , z ) R 3 para los cuales se satisface
35
36
x 0
2 35
y 0
4 2 3
z 0
Lo anterior puede ser escrito como un sistema homogéneo de ecuaciones lineales que
involucran a x, y y z.
2 x 3 y 5z 0
4 x 2 y 3z 0
Fácilmente obtenemos como soluciones
x 0.0625 z
y 1.625 z
Ahora podemos escribir el espacio nulo (soluciones de A x =0) en términos de z (que es
nuestra variable libre), como
0.625
1.625 donde es un escalar
1
El espacio nulo de A es precisamente una recta que pasa por el origen en R3.
36
37
Esto se prueba muy fácilmente porque A 0 0 0 Null ( A)
2. Si x e y Null ( A) x y Null ( A)
Sencillamente si x Null ( A) e y Null ( A) A x 0 y A y = 0 . En
consecuencia A ( x y ) A x A y 0 0 0
3. Si A x 0 y b es un escalar, entonces b x Null ( A)
A(b x ) b A x b 0 0
a11 x1 a12 x2 a1 n xn c1
a21 x2 a22 x2 a 2 n xn c2
Ax c ó (2.74)
a x a x a a c
m1 1 m2 2 mn n m
Si u y v son dos posibles soluciones de (2.74), entonces
A (u v ) A u A v c c 0 (2.75)
Entonces, la diferencia de dos soluciones de la ecuación A x c , es un elemento de
Null(A). En base a lo anterior, vemos que cualquier solución de la ecuación A x c
puede ser expresad como la suma de una solución particular de (2.75), digamos v , y un
elemento cualquiera del espacio Null(A). Formalmente decimos que el conjunto de
soluciones de la ecuación A x c es
v x : x Null ( A) , donde
v es una solución
particular de (2.75). Geométricamente se puede interpretar como que el conjunto de
soluciones de A x c consiste en la traslación del espacio Null(A) por un vector v .
De una forma simular podemos definir el espacio nulo de una transformación. Si V y W
son espacios vectoriales, el espacio nulo (o kernel) de una transformación lineal T:V
W es el conjunto de todos los vectores en V que cuya transformación es cero. Es decir:
kernel(T)= v V : T ( v ) 0 (2.76)
Si representamos la transformación lineal por una matriz, entonces el kernel de la
transformación es precisamente el espacio nulo de la matriz.
Ejercicios:
37
38
3x1 2 x2 2 x3 10
x1 2 x2 3x3 1
4 x x 2 x 3
1 2 3
5 7 5
A= 0 4 1
2 8 3
1.v) a) Encontrar los autovectores que correspondan a los autovalores de la matriz A del
problema (1.u)
b) Determinar un conjunto de autovectores unitarios.
cos sen
A=
sen cos
Bibliografía recomendada
38
39
Arfken G.: Mathematical methods for physicists, Academia Press, New Cork, 1970, 815
pp.
Pearson C.E.: Handbook of applied mathematiccs, Van Nostrand Rinhold Co., New
York, 1974, 1265 pp.
Rojo A.O.: Algebra II, El Ateneo, Buenos Aires, 1973, 395 pág..
39