Está en la página 1de 62

Versin impresa ISSN: 0716-7334

Versin electrnica ISSN: 0717-7593

PONTIFICIA UNIVERSIDAD CATLICA DE CHILE


INSTITUTO DE ECONOMA
Oficina de Publicaciones
Casilla 76, Correo 17, Santiago
www.economia.puc.cl

LGEBRA MATRICIAL
lvaro G. Parra*
Trabajo Docente N 75

Santiago, Agosto 2009

* agparra@northwestern.edu

lgebra Matricial

lvaro Parra
Pontificia Universidad Catlica de Chile
Instituto de Economa

ndice

Introduccin

Agradecimientos
Sobre el Autor

1
1

Operaciones Bsicas

Algunas Definiciones
Matriz

Matrices Cuadradas

Igualdad de Matrices
Vectores

Suma de Matrices y Multiplicacin por un Escalar


Suma y Resta de Matrices

Multiplicacin de una Matriz por un Escalar


Multiplicacin de Vectores y Matrices
Multiplicacin de Vectores

Multiplicacin de Matrices

Ms Definiciones

Matriz Transpuesta

Matriz Identidad

Matrices Idempotentes
La Inversa de una Matriz
La Traza

Matrices Particionadas
Definicin

Suma de Matrices Particionadas

10

4
5

VI

ndice
Multiplicacin de Matrices Particionadas
Ejercicios Propuestos

11

12

Determinantes de Matrices Cuadradas


Permutaciones e Inversiones
Permutaciones

15

15

15

El Nmero Epsilon

16

El Determinante de una Matriz Cuadrada


Los Trminos del Determinante

16

El Determinante de una Matriz Cuadrada


Menores y Cofactores

16
17

18

La Expansin de Laplace

20

La Adjunta de una Matriz Cuadrada


La Inversa de una Matriz

20

21

Determinantes e Inversas de Matrices Particionadas


Determinantes de Matrices Particionadas
Inversas de Matrices Particionadas
Rango de una Matriz

22

23

25

Ejercicios Propuestos

26

Espacios Vectoriales y Dependencia Lineal

29

Sumas de Vectores y Multiplicacin por un Escalar


Suma de Vectores

29

Multiplicacin de un Vector por un Escalar


Relaciones y Medidas de Vectores
Multiplicacin de Vectores
La Norma de un Vector

30

31

31
32

Dependencia e Independencia lineal


Sistemas Homogneos

22

33

32

29

ndice
Ejercicios Propuestos

34

Espacios, Subespacios y Bases Vectoriales


Sistemas no Homogneos 35
Ejercicios Propuestos

36

La Ecuacin Caracterstica de una Matriz


El Problema de los Valores Caractersticos
Vectores y Valores Propios
La Matriz Modal

35

39
39

39

42

Aplicaciones de la Descomposicin Espectral


El Rango de una Matriz 43
La Traza de una Matriz
44
El Determinante de una Matriz
44
Potencias de una Matriz 45
Matrices Idempotentes 46
Ejercicios Propuestos

43

47

Formas Lineales, Cuadrticas y Clculo Matricial


Formas Lineales

49

Formas Cuadrticas

49

Matrices Definidas y Semidefinidas


Clculo Matricial
51
Funciones Reales
51
Derivadas de Funciones Reales
51
Aproximacin a una Funcin 53
Ejercicios Propuestos

Bibliografa

57

55

50

49

VII

Introduccin

Este documento fue pensado para complementar el estudio los alumnos de Ingeniera
Comercial UC durante gran parte de su carrera. Sin estar enmarcado en un curso especfico, el contenido del manuscrito es un compilado de las herramientas introducidas en
cursos como Algebra Lineal y Mtodos de Optimizacin, y posteriormente usadas en
cursos como Econometra, Marketing II, Finanzas II, Teora Economtrica (I, II y III) y
diversos ramos de Teora Econmica.
El enfoque de este trabajo es el de repasar los conceptos a travs de una estrategia teora
explicacinejemplo, presentando cada uno los tpicos de manera formal, seguida de
una explicacin y, por ltimo, aplicando el concepto en un ejemplo.

Agradecimientos
Quisiera agradecer a Gonzalo Edwards por la confianza depositada en m, adems de
su constante apoyo y paciencia durante el desarrollo de este apunte. A Raimundo Soto
por leer los borradores y darme excelentes comentarios. Por ltimo, a todas las personas
que ocuparon versiones previas de este trabajo y se dieron el tiempo de entregarme sus
comentarios.

Sobre el Autor
lvaro Parra es Ingeniero Comercial y Magster en Economa Financiera, ambos grados
obtenidos en la Pontificia Universidad Catlica de Chile. Desde el 2007, se encuentra realizando estudios de Doctorado en Economa en Northwestern University, Estados
Unidos. Para cualquier comentario, el autor puede ser contactado a su e-mail: agparra@northwestern.edu o visitar su pgina web: www.agparra.com.

Operaciones Bsicas

Algunas Definiciones

Matriz
Una matriz es un arreglo rectangular de objetos, por lo general nmeros, encerrados por
un par de corchetes. Se pueden representar en una matriz datos agrupados por columnas,
los pagos de un conjunto de activos en cada estado de la naturaleza, los coeficientes de
un sistema de ecuaciones, etc. Por convencin, las matrices se representan con letras en
maysculas.
I Ejemplo 1.1
Algunos ejemplos de matrices son:
1 2
2 3 7
A=
; B=
3 4
1
1 5
donde la matriz B puede representar los coeficientes del siguiente sistema de ecuaciones:
2x + 3y + 7z = 0
:
x y + 5z = 0
Formalmente, se dice que la matriz
2
a11
6 a21
6
6 ..
4 .

a12
a22
..
.

:::
:::
..
.

a1n
a2n
..
.

3
7
7
7
5

(1)

am1 am2 : : : amn


es de orden m x n (m por n) ya que tiene m filas y n columnas. En el ejemplo 1.1, A
es de orden 2 x 2 y B es de 2 x 3. Cada elemento aij puede representar un nmero (real
o complejo), una funcin, un conjunto o incluso otra matriz. En lo que sigue slo nos
enfocaremos en elementos reales (i.e. aij 2 R).

Matrices Cuadradas
Se dice que una matriz es cuadrada cuando tiene la misma cantidad de filas que de
columnas. Por ejemplo, (1) es una matriz cuadrada de orden n cuando n = m. Si una

Captulo 1 Operaciones Bsicas


matriz es cuadrada de orden 1 la llamamos escalar.1 En el ejemplo 1.1, A es una matriz
cuadrada.

Igualdad de Matrices
Las matrices A y B son iguales si y slo si tienen el mismo orden y cada elemento de A
es igual al elemento correspondiente de B, formalmente:
A = B () aij = bij para todo i y j

Vectores
Un vector es una matriz de una fila o de una columna. Denominamos vector columna a
una matriz de orden m x 1 y vector fila a una matriz de orden 1 x n.

Suma de Matrices y Multiplicacin por un Escalar

Suma y Resta de Matrices


Sean A y B son dos matrices de orden m x n, su suma (o resta) es una matriz C de orden
m x n donde cada elemento de C es la suma (o resta) de los elementos correspondientes
en A y B; es decir:
A B = C () cij = aij bij para todo i y j
I Ejemplo 1.2
Si A=

1
0

2
1

3
4

A+B

2 3 0
entonces:
1 2 5
1+2
2+3 3+0
=
0 + ( 1) 1 + 2 4 + 5

yB =

1
0

2
( 1)

2
1

3 3
2 4

0
5

3
1

1
1

5 3
3 9
1
1

3
1

Cuando dos matrices tienen el mismo orden se les llama conformables para la suma.

Multiplicacin de una Matriz por un Escalar


Sea A una matriz y k 2 R un escalar, su multiplicacin es la multiplicacin de cada
elemento de A con k. Formalmente:
B = kA = Ak () bij = kaij = aij k para todo i y j
1

Generalmente, los corchetes son omitidos en escalares.

Multiplicacin de Vectores y Matrices

I Ejemplo 1.3.
1
3

Sea A =

2
4

, entonces:

B =A+A+A=

1
3

2
4

1
3

2
4

1
3

2
4

3
9

6
12

= 3A = A3

Teorema 1.1 Sean A; B; C matrices de un mismo orden y k un escalar, entonces


se cumplen las siguientes propiedades:
A+B = B+A
A + (B + C) = (A + B) + C
k(A + B) = kA + kB = (A + B)k

Multiplicacin de Vectores y Matrices

Multiplicacin de Vectores

Sea A =

a1

a2

::: am

6
6
un vector de orden 1 x m y B = 6
4

b1
b2
..
.

7
7
7un vector m
5

bm
x 1, entonces la multiplicacin C = AB (en ese orden) est definida como la suma de
las multiplicaciones de los elementos i de la matriz A con los elementos i de la matriz
B, esto es:
2
3
b1
m
6 b2 7
X
6
7
AB = a1 a2 ::: am 6 . 7 = [a1 b1 + a2 b2 + ::: + am bm ] =
ai bi
4 .. 5
i=1

bm

I Ejemplo 1.4

(a)

(b)

3
1
2 3 4 4 1 5 = [2(1) + 3( 1) + 4(2)] = [7]
2
2
3
2
3
1 4 4 6 5 = [ 6 6 + 12] = [0]
3

Ntese que lo que se hizo fue, simplemente, multiplicar una fila por una columna.

Captulo 1 Operaciones Bsicas

Multiplicacin de Matrices
Sea A una matriz de orden m x p y B una matriz de orden p x n (i.e. la cantidad de
columnas de A es igual a la cantidad de filas de B). Entonces, cada elemento cij de la
matriz C = AB (en ese orden) se obtiene multiplicando la fila i de la matriz A con la
columna j de la matriz B:
3
3 2
2
32
c11 c12 : : : c1n
b11 b12 : : : b1n
a11 a12 : : : a1p
6 a21 a22 : : : a2p 7 6 b21 b22 : : : b2n 7 6 c21 c22 : : : c2n 7
7
7 6
6
76
6 ..
..
.. 7
..
.. 7 = 6 ..
..
.. 7 6 ..
..
..
..
4
4
5
4 .
5
.
.
.
.
.
. 5
.
.
.
.
.
cm1 cm2 : : : cmn
bp1 bp2 : : : bpn
am1 am2 : : : amp
donde
p
X
cij = ai1 b1j + ai2 b2j + ::: + aip bpj =
aik bjk
k=1

I Ejemplo 1.5
2

3
a12
b11 b12
a22 5 y B =
, entonces AB es igual a:
b21 b22
a32
3
2
a11 b11 + a12 b21 a11 b12 + a12 b22
AB = 4 a21 b11 + a22 b21 a21 b12 + a22 b22 5
a31 b11 + a32 b21 a31 b12 + a32 b22
3
2
3
4
1 2 1
5 5, entonces CD es igual a:
yD=4 1
4 0 2
2 2

a11
(a) si A = 4 a21
a31

(b) si C =
CD =

1(3) + 2(1) + 1( 2) 1( 4) + 2(5) + 1(2)


4(3) + 0(1) + 2( 2) 4( 4) + 0(5) + 2(2)

3
8

8
12

Teorema 1.2 Sean las matrices A, B y C compatibles2 para la multiplicacin y k


un escalar, entonces se cumple que:
A(BC) = (AB)C
A(B + C) = AB + AC
(A + B)C = AC + BC
k(AB) = (kA)B = A(kB) = (AB)k
Sin embargo, hay que tener en cuenta que:
(a) generalmente AB 6= BA:
(b) si AB = 0 no necesariamente implica que A = 0 o B = 0:
(c) si AB = AC no necesariamente implica que B = C:
Dado que AB 6= BA, se pueden identificar dos tipos de multiplicaciones. Por ejemplo,
2
Cuando dos matrices son compatibles para la multiplicacin tambin se les llama conformables
para la multiplicacin.

Ms Definiciones

si se tiene AB se puede decir que A est premultiplicando a B. Analogamente, se


puede decir que B est postmultiplicando a A.
Una vez que ya aprendimos a sumar, restar y multiplicar matrices podemos pasar a
definir matrices con caractersticas especiales.

Ms Definiciones
Matriz Transpuesta
La transpuesta de una matriz A se obtiene intercambiando sus filas por sus columnas y
se denota A0 . Si se escribe B = A0 entonces se puede definir la transpuesta de A como:
B = A0 () bij = aji para todo i y j
I Ejemplo 1.6
Las transpuestas de las matrices A y B del ejemplo 1.1, es decir A0 y B 0 , son respectivamente:
3
2
2 1
1 3
1 5
A0 =
; B0 = 4 3
2 4
7 5
Teorema 1.3 Si A0 y B 0 son las traspuestas de A y B respectivamente, y si k es
un escalar cualquiera, entonces:
(A0 )0
(A + B)0
(kA)0
(AB)0

=
=
=
=

A
A0 + B 0
kA0
B 0 A0

Se define matriz simtrica como aquella matriz que cumple con A = A0 .

Matriz Identidad
La matriz identidad es una matriz diagonal de unos, es decir, una matriz cuadrada
donde todos los elementos fuera de la diagonal principal son ceros y los elementos dentro
de la diagonal son unos.
I Ejemplo 1.7
2

1 0
Una matriz identidad de orden 3: I3 = 4 0 1
0 0

3
0
0 5 y una de orden 2: I2 =
1

1
0

0
1

Captulo 1 Operaciones Bsicas


Una de las propiedades de la matriz identidad es que AI = IA = A:

Matrices Idempotentes
Son aquellas matrices que multiplicadas por s mismas son ellas mismas, es decir
An = A para todo n 2 N.
Por ejemplo, si A2 = AA = A entonces A sera una matriz idempotente. Adems, si
la matriz es idempotente y simtrica se cumple que A0 A = A: Por ejemplo, la matriz
identidad es idempotente y simtrica.
I Ejemplo 1.8
2

2
La siguiente matriz es idempotente A = 4 1
1
32
2
2
2
2
2
4
4 54 1 3
A2 = 4 1 3
1
2
1
2
3

3
2
4
3
4 5 ya que:
2
3
3 2
4
2
2
4 5=4 1 3
3
1
2

3
4
4 5
3

La Inversa de una Matriz


Si A y B son dos matrices cuadradas tales que AB = BA = I, entonces se dice que B
es la inversa de A y la denotamos B = A 1 . Tambin se puede decir que A es la inversa
de B.
I Ejemplo 1.9
3
3
2
6
2
3
1 2 3
0 5 donde una es la inversa de la otra
Sea A = 4 1 3 3 5 y B = 4 1 1
1 0
1
1 2 4
ya que:
2
32
3
2
32
3
1 2 3
6
2
3
6
2
3
1 2 3
4 1 3 3 54 1 1
0 5 = 4 1 1
0 54 1 3 3 5
1 2 4
1 0
1
1 0
1
1 2 4
2
3
1 0 0
= 4 0 1 0 5
0 0 1
2

Si una matriz no tiene inversa se le llama matriz singular. Anlogamente, si la matriz


tiene inversa se le llama matriz no singular.

Matrices Particionadas

La Traza
La traza de una matriz cuadrada es la suma de los elementos de la diagonal principal
de una matriz
Py se denota con tr ( ). En el caso de la matriz (1) su traza es a11 + a22 +
::: + ann = aii :

I Ejemplo 1.10

Sean A y B las matrices del ejemplo 1.9, entonces:


(a) tr(A) = 1 + 3 + 4 = 8
(b) tr(B) = 6 + 1 + 1 = 8
Teorema 1.4 Sean A, B, C y D matrices cuadradas del mismo orden y k un
escalar, entonces se cumple que:
tr(kA) = ktr(A)
tr(A) = tr(A0 )
tr(A + B) = tr(A) + tr(B)
tr(In ) = n
tr(ABCD) = tr(BCDA) = tr(CDAB) = tr(DABC)
Nota: Esta ltima propiedad es muy importante y se le llama "propiedad circular de la
traza."

Matrices Particionadas

Definicin
Una matriz particionada es una matriz de matrices, sta puede representar divisiones
reales o imaginarias dentro de una matriz.
I Ejemplo 1.11
Podemos particionar la matriz B =
2
1

2 3
1
1
3 7
1 5

7 0
5 0
0
0

de la siguiente forma:

10

Captulo 1 Operaciones Bsicas


o de la siguiente
2 3 7 0
1
1 5 0
para ser una mejor representacin del sistema de ecuaciones:
2x + 3y + 7z = 0
:
x y + 5z = 0
Formalmente, si se toma la matriz (1)
2
a11 a12
6 a21 a22
6
6 ..
..
4 .
.
am1 am2

:::
:::
..
.

a1n
a2n
..
.

:::

amn

3
7
7
7
5

y se particiona tomando s grupos de filas (m1 ; m2 ; :::; ms ) y t grupos de columnas


(n1 ; n2 ; :::; nt ), entonces se podr escribir (1) de la siguiente forma:
2
3
A11 A12 : : : A1t
6 A21 A22 : : : A2t 7
6
7
A=6 .
..
.. 7
..
4 ..
.
.
. 5
As1

As2

:::

Ast

donde cada elemento Aij de A es una submatriz de orden jmi j x jnj j.3
I Ejemplo 1.12

3
1 4 5
Sea la matriz particionada A = 4 2 9 3 5, entonces se puede representar de la
8 9 6
A11 A12
1 4
5
siguiente forma
donde A11 =
; A12 =
; A21 = 8 9 y
A21 A22
2 9
3
A22 = 6 .
2

Un caso especial es el de la matriz diagonal por bloques:


A11
0
.
0
A22
Esta matriz es de suma importancia en econometra y por eso la estudiaremos con especial atencin en ste y otros captulos.

Suma de Matrices Particionadas


Sean A y B matrices de igual orden y particionadas de la misma forma, entonces la suma
3
El operador jM j representa la cardinalidad del conjunto M . Por ejemplo, si M tiene 3 elementos,
jM j = 3.

Matrices Particionadas
de estas matrices es de la forma:

A11 + B11
6
..
C =A+B =4
.

:::
..
.

11

3
A1t + B1t
7
..
5
.

As1 + B s1 ::: Ast + Bst


y la suma de submatrices se realiza igual que la suma de matrices.
I Ejemplo 1.13
2

Sea A = 4
2

1
4 2
8

1
2
8
4
9
9

4
9
9
5
3
6

3
5
3 5yB
6
3 2
4
5+4 2
6

3
4 3 3
= 4 2 0 2 5, entonces A + B es igual a:
6 8 7
3
2
3
3 3
1 4
4 3
5
3
+
+
0 2 5 = 4 2 9
2 0
3
2 5
8 9 + 6 8
6 + 7
8 7
3
2
1+4 4+3 5+3
= 4 2+2 9+0 3+2 5
8+6 9+8 6+7
3
2
5
7 8
9 5 5
= 4 4
14 17 13

Multiplicacin de Matrices Particionadas


El estudio de matrices particionadas naci a partir
2 del estudio
3 de la multiplicacin de
a11 a12
b11 b12
,
matrices, recordemos el ejemplo 1.5. Si A = 4 a21 a22 5 y B =
b21 b22
a
a
31
32
2
3
a11 b11 + a12 b21 a11 b12 + a12 b22
entonces AB es igual a AB = 4 a21 b11 + a22 b21 a21 b12 + a22 b22 5 :
a31 b11 + a32 b21 a31 b12 + a32 b22

La pregunta que surgi fue: Qu pasa si cada uno de los elementos de las matrices A
y B son, a su vez, una matriz? La respuesta es que habra que multiplicar cada uno de
estos elementos nuevamente usando la multiplicacin de matrices. Pero para que esta
operacin est bien definida cada una de las submatrices de la columna i de la matriz A
tienen que ser conformables para la multiplicacin con cada una de la submatrices de la
fila i de la matriz B.

I Ejemplo 1.14

12

Captulo 1 Operaciones Bsicas


3
3
2
2
3 1 0
1 1 1 0
A12
B
B
11
12
= 4 3 2 0 5yB =
= 4 2 1 1 0 5,
A22
B21 B22
1 0 1
3 2 1 2
es igual a:
A11 B11 + A12 B21 A11 B12 + A12 B22
A21 B11 + A22 B21 A21 B12 + A22 B22
2
3
2 1 1 1 1
0
2 1 0
0
2
3
1
2
+
+
6 3 2 2 1 1
7
0
3 2 0
0
6
7
4
5
1 1 1
0
1 0
1 0
+ 1 2 3 1
+ 1 2
2 1 1
0
2
3
4 3 3
0 0 0
0
0
+
4 7 5 5 + 0 0 0
0
0 5
1 1 1 + 2 3 1
0 + 2
2
3
0
4 3 3
4 7 5 5
0 5:
3 4 2
2

A11
(a) Sea A =
A21
entonces AB
AB

(b) Sea A =

A11
0

0
donde A11 y A22 son matrices cuadradas. Entonces, A0 A
A22

es igual a:
A0 A =
=

A11
0

0
A22

A011 A11
0

A11
0

0
A22

0
:
A022 A22

Ejercicios Propuestos
1. De las siguientes matrices, Cules son conformables para la suma? Calcule la suma
de aquellas que cumplen con la propiedad anterior.
3
2
3
2
1 7 2
2 7
8 7
2 35
B = 44
A = 4 4 5 6 15 :
1 5 6
3 5 9 0
2
3
2
3
0
1 3
8
4
8 6
63
6 7
0 9 47
2 37
7
7
C = 6
D=6
4 2 0 4
5
4
7
1
3 25
4
2 9 0
6
5 1
2
3
2
3
5 3
6
3 3 6
E = 46 2 15
F = 4 5 1 85
9 0 7
9 7 2
2
3
2
3
6 3 2
1 2 5
61 4 17
7
25
G = 44 3
H=6
40
2 05
3 4 5
5 0 7

Ejercicios Propuestos
2
3
2
3
2
3
1 2
3
3
1 2
4 1 2
2 5, B = 44 2 55 y C = 40 3 25 :
2. Dado A = 45 0
1
1 1
3 0 3
1
2 3
a. Calcule:
I A + B:
II A
C:
III 2A:
b. Verifique: A + (B C) = (A + B) C:
c. Encuentre la matriz D tal que A + D = B:
3. Calcule los siguientes productos:
8
5
a. 3
:
2
2 0 21
0
b.
0 1 0
2
2 3
5
6 47
7
7
6 6
c. 9 8
4 3 5:
2
:
1
2 0
0
:
d. 2
0
2 0 1
3
32
2
2 1 4
1
1 2
2
15 40 1 2 5 :
e. 4 0
0 0
1
0
0
3
2 3
3
6
8 :
f. 4 45 4
5
3
2
3
2
2
2
1 3
5
2
3
5
3
55 y C = 4 1
5 5, B = 4 1
4. Sea A = 4 1 4
1
1 3
5
1
3
4
a. Muestre que AB = BA = 0; AC = A; CA = C:
b. Con los resultados de (a) muestre que:
I ACB = CBA:
II A2
B 2 = (A B)(A + B):
III (A
B)2 = A2 + B 2 :
5. Demuestre:
a. tr(A + B) = tr(A) + tr(B):
b. tr(kA) = ktr(A):
6. Calcule AB en cada uno de los siguientes casos:

2
3
2

3
4
4 5:
3

13

14

Captulo 1 Operaciones Bsicas


2
3
2
3
1 0 1
1 0 0
a. A = 4 0 1 1 5 y B = 4 0 1 0 5 :
0 0 1
1 1 0
2
2
3
0 0 0
1 2 0 0
6 0 0 2
6 0 1 0 0 7
6
7
b. A = 6
4 0 0 0 1 5yB =4 1 0 0
0 0 2 2
0 1 0
2
2
3
1
1 0 0 0 0 0
6 0
6 0 2 0 0 0 0 7
6
6
7
6 0
6 0 0 3 0 0 0 7
6
6
7
c. A = 6
7yB =6 0
0
4
0
0
0
0
6
6
7
4 0
4 0 0 0 0 5 0 5
0 0 0 0 0 6
0

1
0
0
0
0
1
0
0
0
0

7
7:
5
0
0
1
0
0
0

0
0
0
3
0
0

0
0
0
0
2
0

0
0
0
0
0
3

7
7
7
7:
7
7
5

Determinantes de Matrices
Cuadradas

Permutaciones e Inversiones

Permutaciones
Una permutacin es la respuesta a la pregunta De cuntas formas distintas se pueden
ordenar n nmeros naturales distintos? La respuesta es de n! formas distintas ya que
para el primer puesto se tienen n posibilidades. Para el segundo, se tienen n 1 posibilidades ya que se ocup un nmero en el primer puesto. Para el tercero, se tienen n 2
posibilidades ya que se puso un nmero en el primer puesto y otro en el segundo, y as
sucesivamente.
I Ejemplo 2.1
De cuntas formas se pueden ordenar los nmeros naturales 1; 2 y 3? De 3! = 6
formas distintas:
123 132 213
231 312 321

Inversiones
En una permutacin de nmeros naturales del 1 a n, si un nmero precede a otro que
es menor, decimos que estos nmero estn invertidos y que la permutacin contiene
una inversin. Luego, el nmero total de inversiones que posee una permutacin, por
definicin, es cuntos nmeros menores prosiguen despus de nmeros mayores.
I Ejemplo 2.2
Sea 614325 una permutacin de nmeros del 1 al 6, sta posee 8 inversiones ya que 6
es mayor que 1,4, 3, 2 y 5, adems 4 es mayor que 3 y 2, por ltimo 3 es mayor que 2.
Si el nmero de inversiones en una permutacin es par (impar), la llamamos permutacin
par (impar).

16

Captulo 2 Determinantes de Matrices Cuadradas

El Nmero Epsilon
Para cada permutacin de nmeros naturales del 1 al n, se define el nmero epsilon de
la siguiente manera:
j1 j2 :::jn

=f

1 si j1 j2 :::jn es una permutacin par


1 si j1 j2 :::jn es una permutacin impar

Otra forma de definirlo es


j1 j2 :::jn

= ( 1)k

donde k el nmero de inversiones.


I Ejemplo 2.3
El nmero epsilon de la permutacin 321 es
la permutacin 312 es 312 = ( 1)2 = 1:

321

= ( 1)3 =

1. Por otro lado el de

El Determinante de una Matriz Cuadrada


Los Trminos del Determinante
Sea A una matriz cuadrada de orden n. Al hacer el ejercicio de tomar un elemento de la
primera fila de A, anotar a cul columna pertenece, escojer un elemento de la segunda
fila sin repertir la columna y as susecivamente, se obtendran n elementos (uno por cada
fila y todos de columnas distintas). Un trmino del determinante de A corresponde a
la multiplicacin
j1 j2 :::jn a1j1 a2j2 :::anjn
de los n trminos y el nmero epsilon j1 j2 :::jn generado por la permutacin de las
columnas, es decir, j1 representa la columna del elemento de la fila uno, j2 la columna
del elemento de la fila 2 y as sucesivamente.
I Ejemplo 2.4
2

a11
Sea la matriz A = 4 a21
a31
de A son:

a12
a22
a32

3
a13
a23 5, entonces todos los trminos del determinante
a33

123 a11 a22 a33


132 a11 a23 a32
213 a12 a21 a33
231 a12 a23 a31
312 a13 a21 a32
321 a13 a22 a31

=
=
=
=
=
=

(1)a11 a22 a33


( 1)a11 a23 a32
( 1)a12 a21 a33
(1)a12 a23 a31
(1)a13 a21 a32
( 1)a13 a22 a31

El Determinante de una Matriz Cuadrada

17

El Determinante de una Matriz Cuadrada


Sea A una matriz de orden n, se define el determinante de A como la suma de todos
sus trminos del determinante, y se denota det A, o bien, jAj:
X
det A = jAj =
j1 j2 :::jn a1j1 a2j2 :::anjn

I Ejemplo 2.5

(a)

(b)

a11
a21

a12
=
a22

a11
a21
a31

a12
a22
a32

12 a11 a22

a13
a23
a33

123 a11 a22 a33

1
3

2
= 1(4)
4

(d)

2
1
2

3
0
1

a12 a21

132 a11 a23 a32

231 a12 a23 a31

312 a13 a21 a32

213 a12 a21 a33

a11 (a22 a33 a23 a32 )


+a13 (a21 a32

1
0

a22
a32

a23
a33

a12

a21
a31

a12 (a21 a33


a22 a31 )

+ :::

321 a13 a22 a31

a11 a22 a33 a11 a23 a32 a12 a21 a33 + :::
+a12 a23 a31 + a13 a21 a32 a13 a22 a31

2(3) =

5
0
1 =2
1
0

= a11 a22

= a11
(c)

21 a12 a21

a23 a31 ) + :::

a23
a
+ a13 21
a33
a31

a22
a32

1
2

1
1
+5
2
0

0
1

= 2(0(0)

1(1))

3(1(0)

= 2( 1)

3( 2) + 5(1) = 9

1(2)) + 5(1(1)

0(2))

Teorema 2.1 Sea A una matriz cuadrada y k un escalar, entonces se cumple lo


siguiente:
(a) det A = det A0
(b) Si todos los elementos de una fila o una columna son ceros, entonces
det A = 0
(c) Si dos filas o columnas son iguales, entonces det A = 0
(d) Si B es igual a A excepto por que una fila o una columna es k veces la
de A, entonces se cumple que det B = k det A
(e) Si sumamos o restamos k veces una fila (o columna) a otra fila (o columna,) entonces el determinante no cambia
(f) Si intercambiamos 2 filas (o columnas) de A, entonces el determinante
de la nueva matriz ser det A

18

Captulo 2 Determinantes de Matrices Cuadradas


(g) Si B es una matriz del mismo orden de A, entonces det(AB) = (det A)(det B)
I Ejemplo 2.6
Se computan los determinantes de las matrices A y B usando el Teorema 2.1:
2
3
2
3
0;87632 0;31141 0;11232
18 11 13
A = 40;31141 0;24418 0;10214 5 ; B = 427 23 265
0;11232 0;10214 0;014971
45 87 92

Comenzando por la matriz A. Ocupando (d) se factoriza la primera columna por


0.87632 y se obtiene:
1
0;31141 0;11232
0;87632 0;35536 0;24418 0;10214
0;12817 0;10214 0;014971
por (e) se resta 0.31141 veces la primera columna a la segunda y 0.11232 veces la
primera a la tercera:
1
0
0
0;87632 0;35536 0;13352 0;06223
0;12817 0;06223 0;00058
factorizando la segunda columna por 0.13352:
1
0
0
1
0;06223
(0;87632)(0;13352) 0;35536
0;12817 0;4611 0;00058
substrayendo 0.06223 veces la segunda columna a la primera se tiene que:
1
0
0
1
0
(0;87632)(0;13352) 0;35536
=
0;12817 0;4611
0;02843
= (0;87632)(0;13352)( 0;02843) = 0;003326:
Para la matriz B, se resta la segunda columna a la tercera:
18 11 2
27 23 3
45 87 5
se factoriza por 9 la primera columna y por (c) se tiene que:
2 11 2
9 3 23 3 = 0.
5 87 5

Menores y Cofactores
Sea A una matriz cuadrada de orden n cuyo determinante existe. Entonces el determinante de la matriz que se obtiene al eliminar la fila i y la columna j de A es un primer
menor de A, es denotado por jMij j y es llamado el menor de aij : De la misma forma,
el cofactor de aij est definido como ( 1)i+j jMij j y se denota por ij .

Menores y Cofactores

19

I Ejemplo 2.7
2

a11
Si A = 4 a21
a31
da fila son:

a12
a22
a32

jM21 j =

3
a13
a23 5, entonces los primeros menores y cofactores de la seguna33
a12
a32

a
a13
; jM22 j = 11
a31
a33

a
a13
; jM23 j = 11
a31
a33

a12
a32

y
21

= ( 1)2+1 jM21 j = jM21 j ; 22 = ( 1)2+2 jM22 j = jM22 j ;


2+3
jM23 j = jM23 j
23 = ( 1)

As como se definieron primeros menores como los determinantes de las matrices que
resultan al eliminar una fila y una columna de una matriz dada, se puede definir segundos
menores como los determinantes de las matrices que resultan al eliminar dos filas y dos
columnas y as sucesivamente.
I Ejemplo 2.8

Imagine una matriz cuadrada de orden 5, entonces un segundo y tercer menor son:
a11 a13 a15
a
a24
jM23;24 j = a41 a43 a45 ; jM145;135 j = 22
a32 a34
a51 a53 a55

Se dice que dos menores son complementarios si uno est conformado por las filas y
columnas que elimin el otro menor. Por ejemplo, los dos menores del ejemplo 2.8 son
complementarios. Asimismo, se puede ampliar la definicin de cofactor. El cofactor del
menor M(i)(j) est definido como:

donde M(i)(j)

A(k)(p) = ( 1)( k+ p) M(k)(p)


y M(k)(p) son menores complementarios.

I Ejemplo 2.9

Consideremos la siguiente matriz cuadrada de orden 4:


2
3
1 0 2 0
62 0 1 07
6
7
40 4 0 35
0 3 0 4

20

Captulo 2 Determinantes de Matrices Cuadradas


Entonces el cofactor del menorjM34;34 j =

1
2

0
, es:
0

A12;12 = ( 1)1+2+1+2 jM12;12 j =

0
0

3
4

La Expansin de Laplace
Laplace demostr que el determinante de una matriz A puede ser calculado seleccionando r filas (o columnas) de A, formando todos los menores posibles de esas r filas (o
columnas), multiplicando todos los menores con su cofactor y sumando los resultados.
I Ejemplo 2.10

Se calcula el determinante de la matriz del ejemplo 2.9 seleccionando las dos primeras
filas. Observe que tendremos 42 = 6 menores ya que se tienen las si- guientes combinaciones de columnas: la columna 1 con la 2, la 1 con la 3, la 1 con la 4, 2 con la 3,
la 2 con la 4, la 3 con la 4.
1 0 2 0
4 3
1 2
0 3
1 0
2 0 1 0
( 1)1+2+1+3
+
( 1)1+2+1+2
=
3 4
2 1
0 4
2 0
0 4 0 3
0 3 0 4

1
2

4
0
( 1)1+2+1+4
3
0

0
0
+
0
0

0
2
( 1)1+2+2+3
0
1

3
4

0
0

0
0
( 1)1+2+2+4
0
0

2
0
+
1
0

0
0
( 1)1+2+3+4
0
0

4
3

21

Corolario: Sea A una matriz cuadrada de orden 3, entonces su determinante


puede ser calculado de las siguientes formas:
X
jAj =
aij ij para cualquier i, o bien
j

jAj =

aij

ij

para cualquier j.

El corolario anterior es sumamente til al momento de invertir matrices cuadradas


de orden 3.

La Adjunta de una Matriz Cuadrada


Sea A una matriz cuadrada de orden n y
matriz adjunta est definida como:

ij

el cofactor del elemento aij , entonces la

La Inversa de una Matriz


2

6
6
adjunta A = adj A = 6
4

I Ejemplo 2.11

2
1 2
Para la matriz A = 42 3
3 3
11 = 6;
23

21

22

..
.

..
.

:::
:::
..
.

n1

n2

:::

11

12

1n
2n

..
.
nn

3
3
25, sus cofactores son:
4
2; 13 = 3; 21 = 1; 22 =
12 =
= 3; 31 = 5; 32 = 4; 33 = 1

y su adjunta es:

6
adj A = 4 1
5

2
5
4

21

3
7
7
7
5

5;

3
3
35
1

Teorema 2.2 Sea A una matriz cuadrada de orden n. Entonces se cumple que:
A(adj A)0 = (adj A)0 A = jAj I
I Ejemplo 2.12

Sea A la matriz del ejemplo 2.11, entonces:


32
2
6
1
1 2 3
5
A(adj A)0 = 42 3 25 4 2
3 3
3 3 4

3 2
7
5
4 5=4 0
0
1

0
7
0

3
0
0 5=
7

7I

La Inversa de una Matriz


Del Teorema 2.2 se desprende una forma de calcular la matriz inversa (ver seccin 1.4.4).
Al manipular la conclusin del Teorema 2.2 se encuentra:

I Ejemplo 2.13

0
6
(adj A)
6
=6
jAj
4

11 = jAj

12 = jAj

..
.
=
n1 jAj

..
.
=
n2 jAj : : :

21 = jAj

22 = jAj

:::
:::
..
.

1n = jAj

7
7
7
..
5
.
=
jAj
nn
2n = jAj

22

Captulo 2 Determinantes de Matrices Cuadradas


La inversa de la matriz del ejemplo 2.12 es:
2
3 2
6
1
5
0;8571
adj
A
1
4 2
5 4 5 = 4 0;2857
A 1=
=
jAj
7
3 3
1
0;4286

0;1429
0;7143
0;4286

3
0;7143
0;57145
0;1429

Teorema 2.3 Sean A, B y C matrices compatibles para la multiplicacin, entonces se cumple que:
1
A 1 =
jAj
(A 1 ) 1
(A 1 )0

= A
= (A0 )

Si A es simtrica, A 1 es simtrica.
(AB) 1 = B 1 A 1
(ABC) 1 = C 1 (AB) 1 = C 1 B 1 A

Determinantes e Inversas de Matrices Particionadas

Determinantes de Matrices Particionadas


El determinante de una matriz particionada se calcula igual al de una matriz comn y
corriente. Sin embargo, como las submatrices son de menor orden que la matriz original,
puede que sea conveniente para simplificar los cmputos calcular el determinante en
funcin de las submatrices. Ac se presentan algunos resultados importantes:
El Determinante de la Matriz Diagonal por Bloques
A11
0
una matriz particionada diagonal por bloques, entonces su de0
A22
terminante est definido por:

Sea A =

jAj =

A11
0

0
= jA11 j jA12 j
A22

I Ejemplo 2.14
2

1
6 3
Sea A = 6
4 0
0

2
0
0
0

0
0
5
9

3
0
0 7
7, entonces su determinante es:
6 5
8

Determinantes e Inversas de Matrices Particionadas


2 5
0 9

1
3

jAj =

= (1(0)
= 84

23

6
8

(2)(3))((5)(8)

(6)(9)) =

Como ejercicio puede tratar de demostrar el mtodo expandiendo por Laplace.


El Determinante de una Matriz Particionada 2 x 2
A11 A12
Sea A =
una matriz particionada, entonces su determinante est definido
A21 A22
por:
A11
A21

A12
A22

= jA11 j A22

A21 A111 A12

= jA22 j A11

A12 A221 A21

I Ejemplo 2.15
2

1
6 3
Sea A = 6
4 3
9
1
3

2
0

2
5

3
7

2
0
8
7

5
9
2
5

3
6
8 7
7, entonces su determinante es:
3 5
7

3
9

8
7

1
3

2
0

5
9

6
8

2
5

3
7

3
9

2
5

3
7

17
34

15
29

8
7

0
0;5

0;333
0;1667

5
9

6
8

21;333
35;667

18;333
28;667

= 610

Inversas de Matrices Particionadas


Al igual que el determinante, su clculo puede hacerse con la matriz no particionada
pero el estudio de este tipo de matrices es esencial en econometra.
La Inversa de la Matriz Diagonal por Bloques
A11
0
Sea A =
una matriz particionada diagonal por bloques, entonces su in0
A22
versa est definida por:

24

Captulo 2 Determinantes de Matrices Cuadradas

A11
0

0
A22

A111
0

0
A221

I Ejemplo 2.16
2

1
6 3
Sea A = 6
4 0
0

2
0
0
0

0
0
5
9
1

3
0
0 7
7, entonces su inversa es:
6 5
8
3
2
1
1 2
0 0
6 3 0
0 0 7
7
= 6
15
4 0 0
5 6
0

0
6 0;5
= 6
4
0
0
2
0
6 0;5
= 6
4 0
0

0;333
0;1667
0
0

0;333
0;1667
0
0

3
0 0
7
0 0
7
0;5714 0;4286 5
0;6429
0;3571
3
0
0
7
0
0
7
0;5714 0;42866 5
0;6429
0;3571

La Inversa de una Matriz Particionada 2 x 2


Sea A =

A11
A21

A12
una matriz particionada, entonces su inversa est definida por:
A22

A11
A21

A12
A22

donde

A111 (I + A12 1 A21 A111 )


A111 A12 1

= A22

I Ejemplo 2.17
2

1
6 3
Sea A = 6
4 3
9

2
0
8
7

5
9
2
5

3
6
8 7
7. Luego:
3 5
7

A21 (A111 A12 )

A21 A111
1

Rango de una Matriz


A111 =

1
3

2
0

=
1

0
0;5
=

Entonces, su inversa est dada por


2
0;1754
6
0;0443
A 1=6
4 0;4967
0;6246

0;333
15
; =
0;1667
29
0;2820
0;1803
.
0;2852 0;1475
0;0344
0;0180
0;4246
0;3656

0;0852
0;1934
0;2820
0;2852

25

18;333
;
28;667

3
0;1475
0;06567
7
0;18035
0;1475

Rango de una Matriz


Antes de definir el rango de una matriz se introducir el concepto de submatriz cuadrada. Una submatriz cuadrada es cualquier matriz que se obtenga eliminando filas y
columnas de A, y que forme una matriz cuadrada.
I Ejemplo 2.18

Sea A =

2
0

1
3

1
. Luego, todas las submatrices cuadradas de A son:
2
2 1
2
1
1
1
;
;
; 2 ; 1 ;
0 3
0
2
3
2
1 ; 0 ; 3 ;

El rango de una matriz es el orden de la submatriz cuadrada de mayor orden con determinante no nulo. En el ejemplo anterior el rango es 2 ya que todas las submatrices
cuadradas de orden 2 tienen determinante no nulo, es decir, son no singulares.
Corolario Sea A es una matriz cuadrada de orden n y con rango r < n, entonces
A no tiene inversa definida.
0

A)
La demostracin del corolario anterior es simple. Basta con observar que A 1 = (adj
jAj ;
entonces, si r < n significa que jAj = 0 y la inversa no est definida. Se desprende de
lo anterior que todas las matrices cuadradas invertibles tienen rango igual a su orden
(r = n) y por eso son llamadas matrices de rango completo.
A continuacin se presentan 3 propiedades tiles del rango de una matriz:
(a) rango (A) = rango (A0 )
(b) rango (AB) m n(rango (A); rango (B))
(c) rango (A) = rango (A0 A) = rango (AA0 )
Si A es de orden M x n con n M y B es una matriz cuadrada de rango n, entonces:
(d) rango (AB) = rango (A)
Piense en la diferencia entre (b) y (d).

26

Captulo 2 Determinantes de Matrices Cuadradas

Ejercicios Propuestos
1. Ocupando los trminos del determinante calcule el determinante de las siguientes
matrices:
3 2
a. A =
.
4 6
4 6
b. B =
.
8 1
2 1
c. C =
.
2 0
2
3
2 1 2
d. D = 44 6 45.
0 1 0
2
3
1 3
2
2 1 5.
e. E = 4 3
2
1
3
2. Usando las propiedades de los determinantes (teorema 2.1) calcule el determinante
de las siguientes matrices (tal como se hizo en el ejemplo 2.5):
2
1
A = 42
3

2
2
2

3
2
3
0;6510 0;2234 0;1476
3
25 , B = 40;2234 0;5945 0;11625 .
0;1476 0;1162 0;7129
3

3. Calcule todos los menores y cofactores de las siguientes matrices:


3 8
a. A =
.
1 9
3
2
4 5 7
b. B = 49 8 65.
2 2 2
3
2
5
4 2
3 15.
c. C = 4 0
8
7 6

4. Calcule todos los segundos menores, con sus respectivos complementarios, de la


siguiente matriz. Luego calcule su determinante expandiendo por Laplace.
2
4
63
6
40
0

0
0
5
7

3
4
0
0

3
0
07
7.
75
5

5. Calcule la adjunta y la inversa de todas las matrices del ejercicio 1.


6. Calcule el determinante y la inversa de las siguientes matrices particionadas:

Ejercicios Propuestos
2

6 3
6 5 6
a. A = 6
4 0 0
0 0
2
1 2
6 5 7
b. B = 6
4 3 7
5 5

0
0
2
0
8
9
3
4

0
0
4
1
0
1
2
4

27

7
7.
5
3

7
7.
5

7. Calcule el rango de las siguientes matrices e identifique aquellas que son de rango
completo.
1 7
a. A =
.
8 5
2
4
b. B =
.
3 6
1 2 3
c. C =
.
3 5 6
2
3
4 7
d. D = 49 85.
0 1
2
3
1 2 3
e. E = 44 5 65.
7 8 0
3
2
1 3
2
5 1 5.
f. F = 4 4
3
2
1

Espacios Vectoriales y Dependencia Lineal

Sumas de Vectores y Multiplicacin por un Escalar


Se puede entender un vector de orden n x 1 como una representacin de un punto ndimensional en un espacio vectorial de n dimensiones (Rn ). Para entender ms en profundidad esta idea se trabajar con vectores de 2 dimensiones, es decir, aquellos que
pertenecen a R2 .
I Ejemplo 3.1
El vector x1 = [4 2], representa al punto (4,2) en un espacio vectorial R2 , Grficamente:
y
8
7
6
5
4
3
2
1

x1 = (4; 2)

-x
1 2 3 4 5 6 7 8 9 10

Figura 3.1: El par ordenado (4,2) en un espacio vectorial de 2 dimensiones.

Suma de Vectores
Al igual que la suma de matrices, la suma de vectores slo est definida en vectores del
mismo orden y es simplemente la suma elemento a elemento.
I Ejemplo 3.2

30

Captulo 3 Espacios Vectoriales y Dependencia Lineal


La suma de los vectores x1 = [4 1]; x2 = [2 3] es igual a x3 = [(4 + 2) (1 + 3)] = [6
4]. Grficamente:
y
8
7
6
5
4
3
2
1

x1
x2

:
3

x3

x2

:
x1
-x
1 2 3 4 5 6 7 8 9 10

Figura 3.2: Suma de vectores

Multiplicacin de un Vector por un Escalar


La multiplicacin de un vector por un escalar, al igual que la multiplicacin de una
matriz por un escalar, es sumar k veces el mismo vector. Grficamente, corresponde a
aumentar en k veces la distancia del vector respecto a su origen.
I Ejemplo 3.3
Sea x1 = [3 1] un vector de 2 dimensiones, entonces si se multiplica por un escalar
k = 2, el nuevo vector ser x01 = [6 2]. Grficamente:
y
8
7
6
5
4
3
2
1
0

x01 = (6; 2)

x1 = (3; 1)
-x
1 2 3 4 5 6 7 8 9 10

Figura 3.3: Multiplicacin de un vector por un escalar.

Relaciones y Medidas de Vectores

31

Relaciones y Medidas de Vectores

Multiplicacin de Vectores

a1

Sea A =

a2

::: am

6
6
un vector de orden 1 x m y B = 6
4

b1
b2
..
.

7
7
7un vector m
5

bm
x 1. Su multiplicacin C = AB (en ese orden) est definida como la sumatoria de la
multiplicacin del elemento i de la matriz A con el elemento i de la matriz B, esto es:
2
3
b1
m
6 b2 7
X
6
7
AB = a1 a2 ::: am 6 . 7 = [a1 b1 + a2 b2 + ::: + am bm ] =
ai bi
4 .. 5
i=1

bm
A esta operacin tambin se conoce como producto punto.

I Ejemplo 3.4

(a)

(b)

3
1
4 1 5 = [2(1) + 3( 1) + 4(2)] = [7]
2
2

1
2

= [2

2] = [0]

Se dicen que dos vectores son ortogonales si su producto punto es igual a 0. Los vectores
del ejemplo 3.4.b son ortogonales tal y como lo muestra la figura 3.4 se puede apreciar
que los vectores ortogonales son perpendiculares.
y
6

x = (2; 1)
* 1
- x
A
AUx2 = (1; 2)

?
Figura 3.4: Vectores ortogonales

32

Captulo 3 Espacios Vectoriales y Dependencia Lineal

La Norma de un Vector
La norma o largo de un vector X est definida como la raz cuadrada del producto punto
del vector con s mismo y lo denotamos como jjXjj:
jjXjj =

X 0X =

q
x21 + x22 + ::: + x2n

Nota: Vea que la definicin anterior en R2 no es ms que el valor de la hipotenusa


en el teorema de Pitgoras. La norma de un vector es la extensin de este teorema a
ndimensiones.
Nota: Los vectores cuya norma es igual a 1 se denominan vectores unitarios.
I Ejemplo 3.5

El vector X = [1 2 3] tiene como norma

12 + 22 + 32 = 3;742

Teorema 3.1. Sean X e Y dos vectores pertenecientes a Rn , entonces se cumple:


2
2
2
1. X 0 Y = 12 (jjX + Y jj
jjXjj
jjY jj ).
2. jX 0 Y j jjXjj jjY jj (desigualdad de Schwarz).
3. jjX + Y jj jjXjj + jjY jj (desigualdad del tringulo).
I Ejemplo 3.6
Sean X 0 = 1
1.

2.
3.

3 ;Y 0 = 3 0

4 ; entonces se cumple que:

2 3
3
X 0 Y = 1 2 3 405 = 15
4
1
1
2
2
kX + Y k
kXk
kY k = (69 14 25) = 15
2
2
p
p
15 = jX 0 Y j kXk kY k = 12 + 22 + 32
32 + 02 + 42 = 18;71
8;306 = jjX + Y jj

kXk + kY k = 8;742

Dependencia e Independencia lineal


Para facilitar el estudio de la (in)dependencia lineal se comenzar estudiando sistemas
de ecuaciones homogneos.

Dependencia e Independencia lineal

33

Sistemas Homogneos
Un sistema de ecuaciones homogneo es de la forma:
a1 x1 + b1 x2 + c1 x3 = 0
a2 x1 + b2 x2 + c2 x3 = 0
a3 x1 + b3 x2 + c3 x3 = 0
Donde x1 ; x2 y x3 son las incgnitas y ai ; bi ; ci para i = 1; 2; 3 son los coeficientes.
Entonces el sistema puede representarse de las siguientes formas:
2
32 3 2 3
a1 b1 c1
x1
0
4a2 b2 c2 5 4x2 5=405 ;
a3 b3 c3
x3
0
Sx = 0
o bien:

2 3
2 3
2 3
a1
b1
c1
4a2 5 x1 + 4b2 5 x2 + 4c2 5 x3 = 0;
a3
b3
c3
s1 x1 + s2 x2 + s3 x3 = 0

Este tipo de sistemas siempre tiene al menos una solucin, la cual es x = 0, esta solucin
se conoce como solucin trivial del sistema homogneo. Veamos si existe otra. Si se
premultiplica en ambos lados por S 1
S 1 Sx = S 1 0
x = 0
se puede concluir que si existe inversa, es decir, si S es de rango completo, entonces la
solucin trivial ser nica.
Si se reordena el sistema de la siguiente forma:
2 3
2 3
2 3
a1
b1
c1
4a2 5 x1 + 4b2 5 x2 = 4c2 5 x3
a3
b3
c3
se aprecia que si existiese otra solucin aparte de la trivial, se puede expresar el vector
s3 en funcin de s2 y s1 . Luego, se puede hacer la siguiente definicin:
Dependencia lineal: Un conjunto F de vectores ndimensionales son linealmente dependientes entre s, si se puede dejar expresado un vector en funcin del
resto. Anlogamente podemos definir dependencia lineal si el sistema de ecuaciones homogneo conformado por todos los vectores de F tiene ms de una
solucin, o bien, la matriz S conformada por los vectores de F no es de rango
completo.
Anlogamente se puede definir independencia lineal:
Independencia lineal: Un conjunto de vectores n-dimensionales F son linealmente independientes entre s, si la solucin al sistema:
s1 x1 + s2 x2 + ::: + sn xn = 0

34

Captulo 3 Espacios Vectoriales y Dependencia Lineal


es nica, es decir, la matriz S conformada por los vectores de F es de rango
completo.
I Ejemplo 3.7
2 3
2 3
2 3
2
3
4
(a) Los vectores a = 445 ; b = 4 5 5 ; c = 4 14 5 son linealmente dependientes ya
3
1
1
que c = 2b + a:
2 3
2 3
2 3
2
3
1
(b) Los vectores a = 445 ; b = 4 5 5 ; c = 425 son linealmente independientes ya
3
1
3
que la matriz compuesta por los vectores a; b; c tiene determinante no nulo.
2
3 1
4 5 2 = 33
3
1 3

Ejercicios Propuestos
1. Sume y grafique los siguientes vectores.
0

a. X1 = 2
b. X3 =

1 ; X2 = 1

2 ; X4 = 0

5 ; X6 =

d. X7 = 5

c. X5 = 4

4 ; X8 =

2. Multiplique escalarmente y grafique los siguientes vectores.


0

a. X1 = 1
b. X2 =

3 ;k = 2
0

3 ;k =
0

c. X3 = 1
d. X3 =

3 ;k =

2
2

3 ;k = 2

3. Calcule el producto punto de los siguientes vectores y verifique que se cumpla X 0 Y =


2
2
2
1
jjXjj
jjY jj ):
2 (jjX + Y jj
a. X1 = 3

b. X3 = 1
c. X5 =
d. X7 = 6

3
1

1 ; X2 = 4 3
5 ; X4 = 2 4

2
2

3
1

4 ; X6 =

2 3

1 ; X8 = 2

1 0
2

4. Muestre que los vectores del ejercicio 3 cumplen con la desigualdad de Schwarz y
con la del Tringulo

Espacios, Subespacios y Bases Vectoriales

35

5. Determine si los siguientes vectores son linealmente dependientes o independientes


a. X1 = 1
b. X1 = 1
c. X1 =
d. X1 =
e. X1 = 1

3 ; X2 = 4
0

2
1

3 ; X2 = 7
0

11
4

3 ; X2 = 5
0

6
0

0
0

15 ; X3 = 3
0

2
4

5 ; X2 =

2 ; X2 =

4 ; X3 = 8
0

2 ; X3 = 3

2 ; X3 = 1

4
1

1
0

Espacios, Subespacios y Bases Vectoriales


Antes de definir espacio y subespacio vectorial tenemos que definir 2 conceptos:
Sea F una coleccin de vectores ndimensionales, decimos que F est cerrado
bajo la suma si para cualquier par de vectores pertenecientes a F se cumple que
su suma tambin pertenece a F
x; y 2 F =) x + y 2 F.
Anlogamente, F est cerrado bajo la multiplicacin escalar si para cualquier
vector perteneciente a F y cualquier escalar pertenecientes a los reales su multiplicacin tambin pertenece a F
x 2 F and k 2 R =) kx 2 F.
Dado lo anterior se puede definir (sub)espacio vectorial
Espacio Vectorial: Cualquier conjunto de vectores F es un espacio vectorial si
F est cerrado bajo la suma y bajo la multiplicacin escalar.
Subespacio Vectorial: Cualquier subconjunto F 2 F es un subespacio vectorial
si F est cerrado bajo la suma y bajo la multiplicacin escalar.
I Ejemplo 3.8

R2 es un espacio vectorial y los todos vectores de la forma

x
tal que x 2 R forman
0

un subespacio vectorial de R2 .

Sistemas no Homogneos
Un sistema de ecuaciones no homogneo es de la forma:
a1 x1 + b1 x2 + c1 x3 = d1
a2 x1 + b2 x2 + c2 x3 = d2
a3 x1 + b3 x2 + c3 x3 = d3
Donde x1 ; x2 y x3 son las incgnitas y ai ; bi ; ci ; di para i = 1; 2; 3 son los coeficientes.
Entonces el sistema puede representarse de las siguientes formas:

36

Captulo 3 Espacios Vectoriales y Dependencia Lineal


2
32 3 2 3
a1 b1 c1
x1
d1
4a2 b2 c2 5 4x2 5=4d2 5 ;
a3 b3 c3
x3
d3
Sx = D
Nuevamente la solucin ser nica si S es de rango completo, ya que si se premultiplica
por S 1 se obtiene:
Sx = S 1 D
x = S 1D
Este resultado es ms relevante de lo que parece. No slo nos ayudar a resolver sistemas de ecuaciones lineales, sino que tambin significa que si la matriz S es de rango
completo, entonces siempre podremos encontrar una combinacin lineal x de los vectores de S que formen cualquier vector D, es decir, podremos generar cualquier vector
en el espacio. Esto nos lleva a otra definicin:
S

Base Vectorial: Un conjunto k de vectores F son una base para el espacio vectorial de k dimensiones F si estos k vectores son linealmente independientes.
En otras palabras, se tienen k vectores pertenecientes a Rk linealmente independientes,
se puede generar cualquier otro vector perteneciente Rk a travs de una combinacin
lineal de estos.
I Ejemplo 3.9
2 3
2 3
2 3
0
0
1
Los vectores a = 405, b = 415, c = 405 son base para el espacio vectorial R3 , a su
1
0
0
3
vez los vectores a y b no son base
2 3para el espacio vectorial R , pero si son base para el
x
subespacio de R3 de la forma 4y 5 donde x; y 2 R.
0
Vectores Elementales: Los vectores elementales E1 ; E2 ; :::; En son vectores
unitarios que sirven como base para Rn y son de la siguiente forma:
E1 = [1 0
0]
E2 = [0 1
0]
..
..
. =
.
En = [0 0
1]

Ejercicios Propuestos
1. Determine la dimensin del espacio vectorial que generan los siguientes conjuntos
de vectores. De qu forma son estos espacios?

Ejercicios Propuestos
a. X1 = 1
b. X1 = 1
c. X1 =
d. X1 =
e. X1 = 1

3 ; X2 = 4

2
1

3 ; X2 = 7
0

11
4

3 ; X2 = 5
0

5 ; X2 =
0

2 ; X2 =

15 ; X3 = 3
0

2
4

4 ; X3 = 8
1

2 ; X3 = 3
0

2 ; X3 = 1

4
1

1
0

37

La Ecuacin Caracterstica
de una Matriz

El Problema de los Valores Caractersticos


En muchas aplicaciones de matrices a problemas matemticos, fsicos y estadsticos
surge el siguiente problema: para una matriz cuadrada A de orden n se necesita encontrar
los escalares y los vectores no nulos X que satisfagan simultneamente la siguiente
ecuacin:
AX = X
Este sistema de ecuaciones se conoce como el problema de los valores caractersticos. Ejemplos de aplicaciones a la solucin este problema son caracterizar sistemas
dinmicos, los cuales aparecern en cualquier modelo econmico que quiera analizar el
comportamiento de los agentes en el tiempo; en econometra aparecen como la base del
mtodo de componentes principales el que trata de mermar los problemas de colinealidad; o en el test de cointegracin de Johansen.
Para resolver el sistema anterior es conveniente escribirlo de la siguiente forma:
(A
I)X = 0
lo que corresponde a un sistema de ecuaciones homogneo con n incgnitas, el cual
tendr soluciones no triviales si el determinante de la matriz de coeficientes es nulo:
a11
a12
:::
a1n
a21
a22
:::
a2n
det(A
I) =
=0
..
..
..
..
.
.
.
.
am1
am2
: : : amn
La expansin de este determinante por Laplace entrega un polinomio de grado n en ;
el que es denotado por '( ) y se le llama polinomio caracterstico de A. La ecuacin
que corresponde a '( ) = 0 es llamada ecuacin caracterstica de A.

Vectores y Valores Propios


La solucin al problema caracterstico est compuesta por 2 elementos:
(a) Las n races de la ecuacin caracterstica: 1 ; 2 ; :::; n :
(b) Un vector asociado a cada raz caracterstica: X1 ; X2 ; :::; Xn :
Para aclarar conceptos, los trminos Valores Propios, Valores Eigen, Valores Caractersticos y Valores Latentes refieren al mismo concepto. Esto es porque el primer lugar
donde se dio nombre al estudio de la ecuacin caracterstica fue en Alemania donde a

40

Captulo 4 La Ecuacin Caracterstica de una Matriz


los les llamaron Eigenwert, cuya traduccin al ingls fue Proper Values pero, como
se ver ms adelante, estos valores caracterizan completamente a una matriz por lo que
son llamados valores caractersticos.
Teorema 4.1 La ecuacin AX = X tiene soluciones no triviales si y slo si
es una raz caracterstica de la ecuacin caracterstica de A y la cual tiene
asociado un vector no nulo X con los cuales la ecuacin se satisface.
I Ejemplo 4.14
Analicemos el problema caracterstico de la siguiente matriz: A =

2
2

1
, cuya
3

ecuacin caracterstica es:


'( ) = det(A

I) =

1
2

5 +4=0

y sus soluciones son:


(4
)(1
) = 0 =) 1 = 1; 2 = 4
las cuales tienen asociadas los siguientes vectores propios:
2 1 x1
x
x1 + x2 = 0
para 1 = 1 : AX = X )
= 1 )
2 3 x2
x2
2x1 + 2x2 = 0
podemos apreciar que la primera ecuacin es igual a la segunda, entonces:
1
x1 = x2 ) X2 =
1
2 1 x1
4x1
2x1 + x2 = 0
para 2 = 4 : AX = X )
=
)
2 3 x2
4x2
2x1 x2 = 0
nuevamente estas ecuaciones son idnticas, esto siempre sucede cuando se cumple con
el requisito de que (A
I) sea singular
1
2x1 = x2 ) X1 =
2
o cualquier multiplicacin escalar de X1 ; X2 .
Geomtricamente, los vectores propios son los nicos que se mantienen invariantes ante
el operador lineal A y, cualquier otro vector que no sea el propio, se acerca a estos
cuando el operador lineal es aplicado. Para entender lo anterior, se aplicar el operador
A del ejemplo 4.1 al vector B 0 = [0 2]:
2 1 0
2
=
2 3 2
6
La figura 4.1 muestra la transformacin grficamente. Tal y como se aprecia, al premultiplicar A por B se obtuvo un vector que se encuentra a la derecha del inicial. Repitiendo
el procedimiento C 0 = [2 0]:
2 1 2
4
=
2 3 0
4
4

Muchos softwares computacionales y libros imponen la pseudo restriccin de que la norma del vector
propios sea unitaria (kXi k), as se cierra el problema y se evita de que existan infinitas soluciones para los
vectores propios. Adems, bajo ciertas condiciones, es una propiedad deseable.

Vectores y Valores Propios

41

En figura 4.2 se aprecia, a diferencia del caso anterior, que al premultiplicar A por C el
resultado se encuentra a la izquierda del vector original. Intuitivamente, se puede decir
que deberan existir dos vectores en los cuales estas dos "fuerzas"se anulen y que los
vectores resultantes tras la premultiplicacin de A no se encuentren ni a la izquierda ni a
la derecha del vector original. Por ltimo, se repite el ejercicio con el vector propio X2 :
2 1 1
4
1
=
=4
2 3 2
8
2
y
6
8
7
x2 = (2; 6)
6
5
4
3
x1 = (0; 2)
2
6
1

-x
1 2 3 4 5 6 7 8 9 10

Figura 4.1: Transformacin A al vector B:

y
8
7
6
5
4
3
2
1
0

x2 = (4; 4)

- x1 = (2; 0)
-x
1 2 3 4 5 6 7 8 9 10

Figura 4.2: Transformacin A al vector C:

42

Captulo 4 La Ecuacin Caracterstica de una Matriz


y
8
7
6
5
4
3
2
1
0

6
X20 = (4; 8)

X2 = (1; 2)
-x
1 2 3 4 5 6 7 8 9 10

Figura 4.3: Transformacin A al vector X2 :


Se puede apreciar (figura 4.3) que si se premultiplica X2 por A, el vector resultante no
se desplaza ni a la izquierda ni a la derecha, sino que aumenta en una magnitud igual a su
valor propio. Luego, los vectores propios son aquellos que anulan estas fuerzas. Como
ejercicio repita el procedimiento con el vector X1 .
Teorema 4.2 Si las races de la ecuacin caracterstica son distintas, entonces
los vectores caractersticos asociados a cada una de estas races son linealmente
independientes.
Este teorema puede ser intuitivo por la construccin de los vectores propios, pero como
podra pensarse, no se puede afirmar lo contrario.
Teorema 4.3 Si las races de la ecuacin caracterstica no son distintas, entonces
los vectores caractersticos asociados a cada una de estas races pueden ser
linealmente independientes como linealmente dependientes.
Por ejemplo, los valores propios de una matriz identidad de orden 2 son
pero cualquier vector puede ser su vector propio.

= 1;

=1

La Matriz Modal
La matriz modal es aquella que est compuesta por todos los vectores propios, es decir,
es de la forma:
M = X1 X2 ::: Xn
si se premultiplica esta matriz por la matriz A obtendremos:
AM = AX1 AX2 ::: AXn
pero por definicin cada uno de los elementos es:
AX1 AX2 ::: AXn = 1 X1
:::
2 X2
n Xn = M D
2
3
0 ::: 0
1
60
::: 0 7
2
6
7
donde D es una matriz diagonal de la forma 6 .
.
.. 7, entonces se puede
.. . . .
4 ..
. 5
0
0 :::
n

Aplicaciones de la Descomposicin Espectral

43

concluir que:
AM = M D
Esta matriz es de suma utilidad ya que nos permitir escribir (caracterizar) la matriz
original en funcin de su valores y vectores propios. A esto se conoce como descomposicin espectral de una matriz y se deriva postmultiplicando la expresin anterior por
M 1 . Para esto, tal y como se vio en le teorema 4.2, la matriz M 1 tiene que estar
definida. Una condicin suficiente para que esto se cumpla es que los valores propios
sean distintos. Si ese es el caso, se puede escribir:
A = M DM 1
I Ejemplo 4.2
Continuando con el ejemplo 4.1, la descomposicin espectral de A es:
1
2 1
1 1 1 0 32
3
=
1
1
2 3
1 2 0 4 3
3

Aplicaciones de la Descomposicin Espectral


Todas las aplicaciones que siguen estn sujetas a que la matriz modal sea invertible, pero
se puede estar tranquilos ya que en econometra la mayora de las matrices con las cuales
se trabaja son simtricas y, por lo tanto, se cumple el siguiente teorema:
Teorema 4.4 Sea A una matriz simtrica de orden k, entonces A tendr k vectores propios distintos y ortogonales entre s. Como consecuencia de lo anterior,
la matriz modal de A es siempre invertible.5

El Rango de una Matriz


Ocupando la descomposicin espectral de una matriz y las propiedades del rango se
puede llegar a una expresin simplificada del mismo:
Rango (A) = Rango (M DM 1 )
Como ya se sabe, M es una matriz cuadrada de rango completo (ya que es invertible,)
entonces se puede ocupar la propiedad (d) del rango:
Rango (A) = Rango (M D)
ocupando la propiedad (a) y despus nuevamente la (d) se obtiene:
Rango (A) = Rango (A0 ) = Rango (D0 M 0 ) = Rango (D0 ) = Rango (D)
Deducir el rango de D es simple ya que como D es una matriz diagonal el nmero
de filas o columnas linealmente independientes ser el nmero de filas o de columnas
distintas de cero.
Teorema 4.5 El rango de un matriz A ser el nmero de valores propios distintos
5

Si adems se impuso la condicin kXi k = 1 se puede demostrar que M

= M 0.

44

Captulo 4 La Ecuacin Caracterstica de una Matriz


de cero si y slo si su matriz modal es invertible.
I Ejemplo 4.3
La matriz A del ejemplo 4.1 es de rango 2 ya que sus dos races (
distintas de cero.

= 1;

= 4) son

La Traza de una Matriz


Al igual que el rango, se puede encontrar una expresin para la traza de una matriz a
travs de la descomposicin espectral de sta. Lo que se busca es:
tr(A) = tr(M DM 1 )
ocupando la propiedad cclica de la traza:
tr(A) = tr(M DM 1 ) = tr(M 1 M D) = tr(ID) = tr(D)
dado que D es una matriz diagonal que contiene las races de A llegamos el siguiente
teorema:
Teorema 4.6 La traza de una matriz es igual a la suma de sus races caractersticas o valores propios.
I Ejemplo 4.4
La traza de la matriz A es la suma de su diagonal 2 + 3 = 5, como tambin la suma de
sus races 1 + 4 = 5

El Determinante de una Matriz


En este apartado vamos a tratar de encontrar una expresin para el determinante a travs
de la descomposicin espectral. El determinante de A es igual a:
jAj = M DM 1
ocupando la propiedad de que el determinante de la multiplicacin es igual a la multiplicacin de los determinantes:
jAj = jM j jDj M 1
como la multiplicacin es conmutativa:
jAj = jM j M 1 jDj
ocupando la primera propiedad pero al revs:
jAj = M M 1 jDj = jIj jDj
como el determinante de la identidad es igual a 1 se obtiene que:
n
Y
jAj = 1 jDj =
i
i

Aplicaciones de la Descomposicin Espectral

45

Teorema 4.7 El determinante de una matriz es igual al producto de sus races


caractersticas.
I Ejemplo 4.5.
El determinante la matriz A es ((2)(3)
sus races 4(1) = 4:

(1)(2)) = 4, y tambin la multiplicacin de

Potencias de una Matriz


Debido a lo complejo de los clculos, una de las aplicaciones ms tiles de la descomposicin espectral de una matriz es su aplicacin a las potencias de una matriz. Lo que
se quiere es encontrar una expresin para An . Se comienza encontrando una expresin
para A2 :
A2 = AA
= (M DM 1 )(M DM 1 )
= (M D2 M 1 )
Luego es fcil demostrar por induccin que An = M Dn M 1 : Esta expresin es ms
simple que la original ya que la matriz Dn es igual a:
3
2 n
0 ::: 0
1
n
60
::: 0 7
2
7
6
Dn = 6 .
.
.. 7
..
..
4 ..
.
. 5
n
0
0 :::
n
Teorema 4.8 Sea A una matriz con descomposicin expectral definida y n 2 N ,
entonces
An = M Dn M 1 .

Se tratar de extender el teorema anterior a los nmeros negativos pero para esto se debe
encontrar otro resultado, invirtamos A:
A 1 = (M DM 1 ) 1
por propiedades de las matrices inversas se tiene que:
A 1 = (M 1 ) 1 D 1 (M ) 1
A 1 = M D 1M 1
1
donde la matriz D es de la siguiente forma:
2
3
1= 1
0
:::
0
6 0
1= 2 : : :
0 7
6
7
D 1=6 .
.
.. 7 .
..
..
4 ..
.
. 5

0
0
: : : 1= n
Note que la inversa de D es simplemente una matriz diagonal con los recprocos de las
races caractersticas. Esto nos permite obtener la inversa de una matriz a travs de la

46

Captulo 4 La Ecuacin Caracterstica de una Matriz


descomposicin espectral de una manera fcil y rpida.
Teorema 4.9 Sea A una matriz con descomposicin expectral definida. Si la
matriz A 1 existe, entonces sus vectores propios son los mismos que los de A y
sus valores propios son los recprocos de A.
Observe que si una o ms races de A son iguales a cero, es decir, A no es de rango
completo, entonces D 1 no estara definida y la inversa de A tampoco.
Anlogamente, se puede encontrar por induccin que A n = M D n M 1 . Luego, se
puede extender el teorema 4.8 de la siguiente forma:
Teorema 4.8 Sea A una matriz con descomposicin expectral e inversa definida
y n 2 Z. Entonces se cumple
An = M Dn M 1 .
De la misma forma, se puede pensar que el resultado anterior podra expandirse a potencias con nmeros reales. Esto es errado pues si se elevase un nmero negativo por 21 , se
estar buscando una raz de un nmero negativo, lo cual no est definida en R.
Teorema 4.11 Sea A una matriz con descomposicin expectral e inversa definida
y cuyas races caractersticas son no negativas. Entonces, para todo n 2 R se
cumple que
An = M Dn M 1 .
I Ejemplo 4.6
1

Se calcula A 2 y A
1

(a) A 2 = M D 2 M
(b) A

= MD

para la matriz A del ejemplo 4.1


1

1 1
1 2

=
1

1
1

1
2

1
0

1
3
1
3

2
3
1
3

1 0
0 2
0
1
4

2
3
1
3

=
1
3
1
3

4
3
2
3

1
3
5
3
3
4
1
2

:
1
4
1
2

Matrices Idempotentes
Las matrices idempotentes son aquellas matrices que cumplen con la propiedad An = A
para todo natural n. Para entender las implicancias de esta propiedad en la descomposicin espectral de una matriz estudiemos A2 para A idempotente:
A2 = M D2 M 1
pero idempotencia implica
A = M D2 M 1
entonces
M DM 1 = M D2 M 1
(2)
la nica forma que se cumpla (2) es que 2 = , es decir, las races caractersticas de A

Ejercicios Propuestos

47

tienen que ser 0 o 1. Suponga que todas las races son 1, luego:
A = M IM 1
= MM 1
= I
Si las races no son todas 1, es decir, algunas races son iguales a 0 y ocupando la
definicin de rango se puede afirmar que A es singular.
Teorema 4.12 Todas las matrices idempotentes, excepto la matriz identidad, son
singulares. La nica matriz idempotente de rango completo es la matriz identidad.
Por ltimo, tomando en cuenta que el rango de una matriz son los valores propios distintos de ceros y que en una matriz idempotente sus races son 0 o 1 se puede concluir:
Teorema 4.13 El rango de una matriz idempotente es igual a la suma de sus
races caractersticas, es decir, es igual a su traza.

Ejercicios Propuestos
1. Dadas las siguientes matrices
5
0 2
5
1
;B =
;C =
4
2
4
1
53
3
2
2
2
4
1
3
4
4 5;F = 4 3
2
35
D=4 1 3
1
2
3
4
3 3
a. Encuentre la ecuacin caracterstica de cada matriz.
b. Encuentre los vectores y valores propios de cada una de esas matrices imponiendo
la restriccin de que kXi k = 1.
c. Encuentre la matriz modal y su inversa para cada una de las matrices.
d. Calcule M 0M:
Usando la descomposicin espectral calcule:
e. El rango de todas las matrices.
f. La traza de todas las matrices.
g. El determinante de todas las matrices.
h. Las potencias de la forma A3 ; A 3 para todas las matrices.
A=

0
21

Formas Lineales, Cuadrticas y Clculo Matricial

Formas Lineales
Un polinomio lineal homogneo es un polinomio de grado 1 y se puede representar de
la siguiente forma:
n
X
q = a1 x1 + a2 x2 + ::: + an xn =
ai xi
i=1

y una representacin matricial del mismo sera:

q = a1

a2

::: an

3
x1
6 x2 7
6 7
6 .. 7 = AX
4 . 5

xn
donde q, A y X pueden pertenecer a los nmeros reales. Este tipo de notacin matricial
es muy til en problemas de optimizacin y en cualquier otro mbito donde se manejen
muchos polinomios y ecuaciones.

Formas Cuadrticas
Un polinomio cuadrtico homogneo es un polinomio compuesto slo de trminos de
grado 2, es decir:
n X
n
X
q=
aij xi xj
j=1 i=1

y se puede expresar en notacin matricial de la siguiente forma:


q = X 0 AX
donde A tiene la propiedad de ser una matriz simtrica y q es un nmero real.

I Ejemplo 5.1

Se escribe en forma matricial la siguiente forma cuadrtica:


q = x21 + 2x22 7x23 4x1 x2 + 8x1 x3
para esto se debe expandir la expresin X 0 AX, con tres incgnitas:

50

Captulo 5 Formas Lineales, Cuadrticas y Clculo Matricial

x1

x2

x3

a11
4 a21
a31

a12
a22
a32

32 3
a13
x1
a23 5 4x2 5
a33
x3

= a11 x21 + a22 x22 + a33 x23 + a12 x1 x2 + a13 x1 x3 +


+a21 x2 x1 + a23 x2 x3 + a31 x3 x1+ a32 x3 x2
Observe que los elementos de la diagonal de A tienen trminos al cuadrado, mientras
que el resto de los elementos son los coeficientes de los trminos de la forma xi xj .
Dado lo anterior, nos es conveniente reescribir el polinomio de la siguiente forma:
q = x21 + 2x22 7x23 2x1 x2 2x2 x1 + 4x1 x3 + 4x3 x1 + 0x2 x3 + 0x3 x2
entonces, su forma matricial es:
2
32 3
1
2 4
x1
0 5 4x2 5
q = x1 x2 x3 4 2 2
4
0
7
x3
3
2
1
2 4
0 5X
= X0 4 2 2
4
0
7

Matrices Definidas y Semidefinidas


Se quiere estudiar cuando la forma cuadrtica de q es siempre positiva o siempre negativa. Para esto, se analiza la descomposicin espectral de A. En una forma cuadrtica A
es simtrica. Luego, por el teorema 4.5, sus vectores caractersticos son ortogonales entre s. Sin prdida de generalidad, se impone que cada uno de los vectores caractersticos
sea un vector unitario (Mi0 Mi = 1), entonces:
2
3
2
M10
M10 M1 M10 M2 : : : M10 Mn
0
6 M2 7
6 M20 M1 M20 M2 : : : M20 Mn
6
7
6
M 0 M = 6 . 7 M1 M2 : : : Mn = 6
..
..
..
..
4 .. 5
4
.
.
.
.
2

6
6
= 6
4

Mn0
1
0
..
.

0
cumplindose que:

Mn0 M1

Mn0 M1

:::

Mn0 Mn

0 ::: 0
1 ::: 0 7
7
.. . .
. 7=I
. .. 5
.
0 ::: 1

M 0M = I ) M 0 = M 1
por lo que la descomposicin espectral puede ser reescrita como:
A = M DM 0 .
Substituyendo en la forma cuadrtica y defininedo y = M 0 X se tiene que:
q = X 0 AX = X 0 M DM 0 X = y 0 Dy.
Como D es una matriz diagonal, se puede escribir la expresin anterior de la siguiente

3
7
7
7
5

Clculo Matricial
forma:
q = X 0 AX =

n
X

51

2
i yi

i=1

luego, si A es simtrica, el valor de q depender slo de las races caractersticas.


Sea A una matriz simtrica. Si todas todas las races de A son positivas (negativa), entonces se dice que A es positiva (negativa) definida. Si las races de
A son mayores (menores) o iguales a cero, entonces se dice que A es positiva
(negativa) semidefinida, o bien, definida no negativa (positiva).

Clculo Matricial

Funciones Reales
Una funcin real f : X ! R, denotada por y = f (x), es una relacin que asocia, de
manera nica, un conjunto de valores x 2 X a un valor y 2 R: En esta relacin se
denomina a las variables x como variables independientes o dominio y a la variable y
como variable dependiente o recorrido.
I Ejemplo 5.2
Son ejemplos de conjuntos dominio X: C, Z, R, Rn o cualquier conjunto arbitrario.
I Ejemplo 5.3
La forma lineal corresponde a una funcin f : Rn ! R de la forma:
q = a1 x1 + a2 x2 + ::: + an xn
donde x1 ; x2 ; :::; xn son las variables del dominio y q es la variable del recorrido.
La forma cuadrtica corresponde a una funcin f : Rn ! R de la forma:
n X
n
X
q=
aij xi xj
j=1 i=1

donde x1 ; x2 ; :::; xn son las variables del dominio y q es la variable del recorrido.

Derivadas de Funciones Reales


La derivada de una funcin representa el cambio de y respecto a un cambio infinitesimal
de una de las variables independientes. Se denomina vector gradiente a aquel vector
columna que representa las primeras derivadas de una funcin respecto a todas las varia-

52

Captulo 5 Formas Lineales, Cuadrticas y Clculo Matricial


bles independientes. Son representaciones del vector gradiente:
2 @f 3 2 3
f1
@x
6 @f1 7 6 7
6 @x2 7 6 f2 7
7
rf = 6
.7
6 .. 7 = 6
4 . 5 4 .. 5
@f
fn
@xn

I Ejemplo 5.4

El vector gradiente de una funcin de la forma:


y = 2x1

4x2 + 3x3 ) y = 2

es:
rf =

@f
1
6 @x
@f 7
4 @x2 5
@f
@x3

3
2
= 4 45
3
2

2 3
x1
3 4x2 5
x3

Teorema 5.1 Sea f (X) = AX , entonces:


@f (X)
= A0 .
X
I Ejemplo 5.5

El vector gradiente de la funcin en el ejemplo 5.1


y = x21 + 2x22 7x23 4x1 x2 + 8x1 x3
es:
2 @f 3 2
3
2x1 4x2 + 8x3
@x1
6 @f 7 4
4x1 + 4x2 5
rf = 4 @x
5=
2
@f
8x1 14x3
@x
32 3
2 3
x1
2
4
8
0 5 4x2 5
= 4 4 4
8
0
14 x3
2
32 3
1
2 4
x1
0 5 4x2 5
= 24 2 2
4
0
7
x3
= 2AX
Teorema 5.2 Sea f (X) = X 0 AX, entonces:
@f (X)
= 2AX.
@X

Clculo Matricial

53

Por otro lado se denomina matriz Hessiana a la matriz de segundas derivadas de una
funcin. Se obtiene tomando cada elemento del vector gradiente y derivndolo respecto
a cada una de las variables independientes, es decir:
2 @f
3
@f
@f
@x @x

1
1
6 @f
6 @x2 @x1
H=6
6 ..
4 .

@f
@xn @x1

@x1 @x2
@f
@x2 @x2

..
.

@x1 @xn
@f
@x2 @xn

..

..
.

@f
@xn @x2

@f
@xn @xn

7
7
7
7
5

Teorema de Young. Si una funcin es continua y doblemente diferenciable, entonces se cumple que:
@f
@f
=
.
@xi @xj
@xj @xi
Es decir, las derivadas cruzadas son idnticas.
Entonces podemos afirmar que, si la funcin es doblemente diferenciable, la matriz Hessiana es simtrica.
I Ejemplo 5.6
La matriz Hessiana de la funcin en el ejemplo 5.1 es:
2 @f
3 2
@f
@f
H

1 @x1
6 @x@f
4 @x2 @x1
@f
@x3 @x1

@x1 @x2
@f
@x2 @x2
@f
@x3 @x2

@x1 @x3
@f 7
@x2 @x3 5
@f
@x3 @x3

2
=4 4
8

4
4
0

3
8
0 5
14

3
1
2 4
0 5
= 24 2 2
4
0
7
= 2A
entonces podemos concluir que el Hessiano de una forma cuadrtica es:
@ 2 X 0 AX
H=
= 2A
@X 2
2

Aproximacin a una Funcin


Muchas veces es ms fcil trabajar con una funcin aproximada que con ella misma.
Una herramienta para hacer esto es la expansin de Taylor. La expansin de Taylor es
una aproximacin polinomial de una funcin, que consiste en caracterizarla en funcin
de sus derivadas y un punto arbitrario. Se expondr la expansin de primer y segundo
orden pero hay que recalcar que entre mayor el orden de la aproximacin mejor ser
sta.6
6
En el lmite, cuando el orden tiende a infinito, Taylor demostr que las funciones son idnticas. Es obvio
que la funcin a aproximar tiene que ser infintamente diferenciable para que el teorema aplique.

54

Captulo 5 Formas Lineales, Cuadrticas y Clculo Matricial


Aproximacin de Primer Orden
La aproximacin de Taylor de primer orden nos entrega una forma funcional lineal de la
funcin original y su formula es:
y f (xo ) + rf (xo )0 (x xo )
donde xo es el punto de expansin, f (xo ) es la funcin evaluada en el punto de expansin y rf (xo )0 es el vector gradiente evaluado en el punto traspuesto.
I Ejemplo 5.7
Sea f (x1 ; x2 ) = ln(x1 )+ln(x2 ). Su aproximacin de primer orden por Taylor entorno
al punto xo = (1; 2), sera de la forma:
x1 1
y
ln(1) + ln(2) + 11 12
x2 2
x2
y
1;307 + x1 +
2
comparemos:
f (1; 2) = ln(1) + ln(2) = 0; 693
2
y(1; 2) t
1;307 + 1 + = 0; 693
2
en el punto de expansin son idnticos. Veamos en un punto cercano (1;1; 2;1)
f (1;1; 2;1) = ln(1;1) + ln(2;1) = 0;837
2;1
y(1;1; 2;1) t
1;307 + 1;1 +
= 0; 843
2

Aproximacin de Segundo Orden


La aproximacin de Taylor de segundo orden nos entrega un polinomio de segundo
orden y su formula es:
1
y f (xo ) + rf (xo )0 (x xo ) + (x xo )H(xo )(x xo )
2
donde xo es el punto de expansin, f (xo ) es la funcin evaluada en el punto de expansin, rf (xo )0 es el vector gradiente evaluado en el punto traspuesto y H(xo ) es el
Hessiano de la funcin evaluado en el punto.
I Ejemplo 5.7
Sea f (x1 ; x2 ) = ln(x1 ) + ln(x2 ). Su aproximacin de segundo orden por Taylor entorno al punto xo = (1; 2), es lo que ya se haba proximado ms el termino del Hessiano evaluado en el punto:
1 0
x1 1
x1 1
+ x1 1 x2 2
y
ln(1) + ln(2) + 11 12
1
x2 2
x2 2
0
4
y

3;307 + 3x1 +

3x2
2

x21

x2
4

Ejercicios Propuestos

55

Comparemos:
2
22
12
= 0;693
2
2
nuevamente en el punto de expansin son iguales. En el punto (1;1; 2;1)
2;1
2;12
1;12
= 0;8305
y(1; 2)
3;307 + 3(1;1) + 3
2
2
y(1; 2)

3;307 + 3(1) + 3

Ejercicios Propuestos
1. Escriba las siguientes formas cuadrticas en notacin matricial.
a. x21 + 4x1 x2 + 3x22
b. 2x21 6x1 x2 + x23
c. x21 2x22 3x23 + 4x1 x2 + 6x1 x3

8x2 x3

2. Escriba la siguiente matriz como una forma cuadrtica.


3
2
2
3 1
4 3 2
45
1
4
5
2
3
a11 a12 : : : a1n
6 a21 a22 : : : a2n 7
6
7
3. Sea A = 6 .
..
.. 7 una matriz, entonces las submatrices de A
..
4 ..
.
.
. 5
son:

am1

am2

A1 = [a11 ] ; A2 =

:::

a11
a21

entonces demuestre que:

amn

a12
a22

a11
; A3 = 4 a21
a31

a12
a22
a32

3
a13
a23 5 ; :::; An = A
a33

a. Si A es positiva definida, entonces los determinantes de las submatrices de A son


todos positivos.
b. Si A es positiva semidefinida, entonces los determinantes de las submatrices de A
son todos no-negativos.
c. Si A es negativa definida, entonces los determinantes de las submatrices de A
alternan de signo partiendo por jA1 j < 0; jA2 j > 0; jA3 j < 0; :::; jAn j ( 1)n > 0.
d. Si A es negativa semidefinida, entonces los determinantes de las submatrices de A
alternan de signo partiendo por jA1 j 0; jA2 j 0; jA3 j 0; :::; jAn j ( 1)n 0.
4. Encuentre
2.

@X 0 AX
@X

@ 2 X 0 AX
@X 2

para todas las formas cuadrticas de los ejercicios 1 y

5. Aproxime por Taylor las siguientes funciones:


a. f (x) = cos(x), en primer grado y alrededor de :
b. f (x) = sin(x): en primer grado y alrededor de 2 3 :

56

Captulo 5 Formas Lineales, Cuadrticas y Clculo Matricial


c. f (x) = ex ; en quinto grado entorno al 0.
d. f (x1 ; x2 ) = x1 ln(x2 ); en segundo grado entorno al punto (2; 2):

Bibliografa

[1] Ayres, Frank, Jr. 1962. Theory and Problems of Matrices.Schaum Publishing Co.
[2] Edwards, Gonzalo. 2000. Introduccin al Anlisis de Sistemas Dinmicos. 2da edicin. Ediciones Universidad Catlica de Chile. Cap 9 y 14.
[3] Schneider, Hans y Barker, George Phillip. 1968. Matrices and Linear Algebra. Holt
Rinehart and Winston, inc.
[4] Lang, Serge. 1969. Linear Algebra. 4ta edicin. Addison-Wesley Publishing Co.
[5] Greene, William. 2000. Anlisis Economtrico. 3ra edicin. Prentice Hall.
[6] Hohn, Franz. 1967. Elementary Matrix Algebra. 2da edicin. The Macmillan Co.

También podría gustarte