Está en la página 1de 105

Algebra Lineal

Marco A. Colque

14 de Julio de 2009
ii
Indice general

I Preliminares 1

1. Matrices 3
1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Suma de Matrices . . . . . . . . . . . . . . . . . . . . 6
1.3.2. Producto . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3. Matriz transpuesta . . . . . . . . . . . . . . . . . . . . 9
1.4. Matriz escalonada . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5. La Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6. Operaciones Elementales . . . . . . . . . . . . . . . . . . . . . 16
1.6.1. Intercambio de Filas . . . . . . . . . . . . . . . . . . . 17
1.6.2. Multiplicacion de una Fila por un escalar . . . . . . . 18
1.6.3. Suma a una Fila un multiplo escalar de otra . . . . . . 20
1.6.4. Operaciones Elementales por Columna . . . . . . . . . 27
1.7. Metodo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . 28

2. Determinantes 31
2.1. introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2. Funcion Determinante . . . . . . . . . . . . . . . . . . . . . . 31
2.3. Propiedades del Determinante . . . . . . . . . . . . . . . . . . 33
2.4. Determinantes y Operaciones Elementales . . . . . . . . . . . 40
2.5. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3. Sistemas de Ecuaciones 49
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2. Soluciones de Sistemas de Ecuaciones Lineales . . . . . . . . . 49
3.3. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4. Resolucion de sistemas de Ecuaciones Lineales . . . . . . . . . 53
3.5. Sistemas inconsistentes . . . . . . . . . . . . . . . . . . . . . . 53
3.6. Sistemas consistentes . . . . . . . . . . . . . . . . . . . . . . . 55
3.6.1. Soluciones unicas . . . . . . . . . . . . . . . . . . . . . 55
3.6.2. Infinitas soluciones . . . . . . . . . . . . . . . . . . . . 57

iii
iv INDICE GENERAL
3.7. Problemas de aplicacion . . . . . . . . . . . . . . . . . . . . . 61

II Algebra Lineal 63

4. Espacios Vectoriales 65
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2. Definicion y ejemplos. . . . . . . . . . . . . . . . . . . . . . . 65
4.3. Propiedades de los espacio vectoriales . . . . . . . . . . . . . 68
4.4. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 70
4.5. Subespacio generado . . . . . . . . . . . . . . . . . . . . . . . 73
4.6. Dependencia e independencia lineal . . . . . . . . . . . . . . . 77
4.7. Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . 80
4.8. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

5. Espacios con Producto Interior 89


5.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2. Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . 89
5.3. Norma de un vector . . . . . . . . . . . . . . . . . . . . . . . 92
5.4. Angulo entre vectores . . . . . . . . . . . . . . . . . . . . . . 94
5.5. Proceso de Gram Schmidt . . . . . . . . . . . . . . . . . . . . 96

6. Transformaciones Lineales 101


6.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . 101
6.2. Nucleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . 103
Parte I

Preliminares

1
Captulo 1

Matrices

1.1. Introduccion
En el presente captulo definiremos arreglos rectangulares, los cuales lla-
maremos MATRICES y al conjunto de arreglos rectangulares del mismo
tamano le dotaremos de una estructura algebraica con la cual podremos
hacer varias operaciones simultaneamente. Nuestro estudio de las matrices
tiene, en principio, el objetivo de estudiar sistemas de ecuaciones lineales,
los cuales reduciremos al estudios de ecuaciones del tipo A X = B en donde
A, X, B son matrices. En lo que sigue consideraremos que los elementos de
las matrices estan en un campo F el cual en general se puede suponer que
son los numeros reales o complejos. Esta consideracion obedece a lograr la
mayor generalidad posible sin un esfuerzo adicional por ejemplo en la teora
de grafos se consideran las matrices con elementos en un algebra Booleana
y en otras aplicaciones matrices con elementos en el campo Z2 .

1.2. Definicion y Ejemplos


Diremos que una matriz A de tamano m n es un arreglo rectangular
dispuesto en m filas y n columnas, es decir:

a11 a12 a1n
a21 a22 a2n
A=
. . .

. . . . . . . . . .
am1 am2 am n

Nos interesa el caso en el cual los elementos de la matriz A son numeros


reales o complejos.
La i-esima fila de A es

(ai1 ai2 . . . ain ) para cada i = 1, 2, ..., m.

3
4 CAPITULO 1. MATRICES
Del mismo modo la j-esima columna de A es:

a1j
a2j

..
.
amj

Para j = 1, 2, ..., n.
Usaremos tambien la notacion

A = (aij )(nm) o simplemente A = (aij )

cuando el tamano de la matriz este sobreentendida. El elemento aij de A es


elemento de la i-esima fila y la j-esima columna. Por ejemplo si

1 2 3 4
A = 5 1 2 0
0 1 1 1

El elemento a2 1 = 5 es el elemento de la segunda fila y primera columna.


En general si A es una matriz de n m con elementos en el campo F
escribiremos:A Mnm (F).
Si n = m diremos que la matriz A es cuadrada de orden n.
En caso de que la matriz A es cuadrada los elementos a11 , a22 , ..., ann de A
se denominan la diagonal principal de A y escribiremos:

diag(A) = (a11 , a22 , ..., ann )

Veamos algunos ejemplos:


Si
1 2 3 0
3 1 2 0
A=
0 1 1 1

1 0 4 1
es una matriz de orden 4 4, es decir es cuadrada y podemos escribir A
M4 (R). Luego
diag(A) = (1, 1, 1, 1)
Veamos un ejemplo mas: definamos la matriz A = (aij ) del siguiente modo
aij = (i 2j)2 , i = 1, 2, 3, 4, j = 1, 2, 3. Los elementos de la matriz A se
pueden calcular del siguiente modo:

a11 = (1 2 1)2 = 1
a23 = (2 2 3)2 = 16
a43 = (4 2 3)2 = 4
1.3. OPERACIONES CON MATRICES 5

as la matriz A es:

1 9 25
0 4 16
A=
1

1 9
2 0 4
A continuacion vamos a definir algunas matrices especiales.

Definicion 1. La matriz nula 0nm Mnm (F) es la matriz defina por:

[0nm ]ij = 0.

Es decir la matriz nula de M23 (R) es:



0 0 0
023 =
0 0 0

cuando no haya confusiones escribiremos 0nm = 0.

Definicion 2. La matriz identidad In Mnn (F) es la matriz defina por:


(
1, i=j
[In ]i j =
0 i 6= j.

cuando no haya confusion escribiremos I = In .

Por ejemplo la matriz identidad de orden 4 es por definicion:



1 0 0 0
0 1 0 0
I4 =
0 0 1

0
0 0 0 1

o de manera abreviada
1
1
I=



1
1

1.3. Operaciones con Matrices


Hemos definido un conjunto Mnm (F) donde F es el conjunto de los numeros
reales o complejos. Vamos a aprovechar la estructura de F para definir op-
eraciones en Mnm (F).
Para abreviar las demostraciones diremos que si A es una matriz [A]ij es el
elemento de la i-esima fila y j-esima columna de A.
6 CAPITULO 1. MATRICES
1.3.1. Suma de Matrices
Definicion 3. Si A, B Mnm (F) entonces la suma de A con B es la
matriz C Mnm (F) que se define por:

[C]ij = [A]ij + [B]ij (1.1)


para cada valor de i, j. La suma de 1.1 es la suma del campo F. As es-
cribiremos
C = A + B.

Observacion 1. Es importante notar que el tamano de las matrices A y B


debe ser el mismo para poder realizar la suma.

Ejemplo 1. Sean A, B Mnm (F) definidas por:



1 2 1 1 1 0
A= 3 2 1 , B = 2 2 3
1 2 3 0 3 2
entonces la suma es la matriz A + B que por definicion es:

1 2 1 1 1 0 1 + 1 2 + (1) 1 + 0
3 2 1 + 2 2 3 = 3 + 2 2 + (2) 3 + 1
1 2 3 0 3 2 1 + 0 2 + 3 3 + (2)
| {z } | {z } | {z }
A B A+B

luego

2 1 1
A+B = 5 0 4
1 5 1

1.3.2. Producto
Vamos a definir dos tipos de productos.
Producto por un escalar

Definicion 4. Sea A Mnm (F) y sea F. Definimos el producto de la


matriz A por el escalar como la matriz A dada por

[ A]ij = [A]ij

es decir:

a11 a12 a1m
a21 a22 anm

A= .. .. .. ..
. . . .
an1 an2 anm
1.3. OPERACIONES CON MATRICES 7

Ejemplo 2. Sea la matriz



1 1 4
A=
3 2 3

y el escalar = 5 entonces el producto A es la matriz


1 1 4 5 1 5 (1) 5 4 5 5 20
5A=5 = =
3 2 3 5 3 5 (2) 5 3 15 10 15

El otro producto que vamos a definir se denomina Producto de matrices.

Definicion 5. Sean A Mnp y B Mpm la Matriz producto de A por


B es la matriz A B Mnm definido por:
p
X
[A B]i j = [A]i k [B]k j
k=1

Observacion 2. Notemos que:

1. Para que el producto de matrices este bien definido el numero de colum-


nas de A debe ser igual al numero de Filas de la matriz B.

2. Para obtener el elemento [AB]i j se multiplica las coordenadas de la i-


esima fila de A y la j-esima columna de B termino a termino y luego
se las suma. Es decir:

b1j

b2j

ai1 ai2 . . . aip . = ai1 b1j + ai2 b2j + . . . + aip bpj
| {z } ..
fila i
bpj
| {z }
columna j

Veamos algunos ejemplos:

Ejemplo 3. Vamos a calcular el producto de las matrices:



1 2 1
1 2 1 0 1 2 0
A= , B= 3 2 1


1 2 0 2 24
2 3 2 43

El producto esta bien definido pues el numero de columnas de A, 4, es igual


al numero de filas de B (de acuerdo a la definicion 5 en nuestro ejemplo
8 CAPITULO 1. MATRICES
p = 4) . Luego el tamano de la matriz AB debe ser 2 3. Vamos a calcular
algunos elementos de esta matriz:
4
X
[A B]1 1 = [A]1 k [B]k 1 = [A]1 1 [B]1 1 + [A]1 2 [B]2 1 + [A]1 3 [B]3 1 + [A]1 4 [B]4 1
k=1
= (1 1) + (2 (1)) + ((1) 3) + (0 2) = 4

4
X
[A B]2 3 = [A]2 k [B]k 3 = [A]2 1 [B]1 3 + [A]2 2 [B]2 3 + [A]2 3 [B]3 3 + [A]2 4 [B]4 3
k=1
= ((1) 1) + ((2) 0) + (0 (1)) + (2 (2)) = 5.

As podemos ir llenando los elementos de la matriz AB:



4
AB =
5

Finalmente obtenemos:

4 0 2
AB =
5 8 5

Teorema 6. Sean A, B, C Mnm (F) y , K entonces:

1. A + B = B + A, (Conmutatividad).

2. (A + B) + C = A + (B + C), (Asociatividad).

3. Existe una unica matriz 0 Mnm (F) tal que

A + 0 = A.

4. Existe una unica matriz B Mnm (F) tal que

A+B =0

La matriz B se denota por A.

5. (A) = ( )A, (Asociatividad).

6. ( + )A = (A) + (A), (Distributividad).

7. (A + B) = A + B, (Distributividad).

8. A (BC) = (AB) C, (Asociatividad).

9. A (B + C) = A B + A C.
1.3. OPERACIONES CON MATRICES 9

Demostracion. 1. Vamos a probar que A + B = B + A, dos matrices son


iguales si son iguales coordenada a coordenada.

[A + B]ij = [A]ij + [B]ij


= [B]ij + [A]ij = [B + A]ij , i, j.

8. Supongamos que A = Anp , B = Bpm , C = Cpm , entonces:


p
X p
X
[A(B + C)]ij = [A]ik [B + C]kj = [A]ik ([B]kj + [C]kj )
k=1 k=1
Xp
= [A]ik [B]kj + [A]ik [C]kj
k=1
Xp p
X
= [A]ik [B]kj + [A]ik [C]kj = [A B]ij + [A C]ij
k=1 k=1
= [A B + A C]ij , i, j.

las demas propiedades se demuestran del mismo modo.

Teorema 7. Si A Mnm (F) entonces

1. A Im = A

2. In A = A

1.3.3. Matriz transpuesta


Definicion 8. Si A Mnm (F) entonces la transpuesta de A es la matriz
At Mmn (F) definida por:

[At ]i j = [A]j i .

Ejemplo 4. Sea
1 0 2 1
A=
i 1 3 2 24

entonces la matriz transpuesta At debe ser una matriz de 4 2 los elementos


de la primera columna de At son los elementos de la primera fila de A pues:

[At ]11 = [A]11 = 1


[At ]21 = [A]12 = 0
[At ]31 = [A]13 = 2
[At ]41 = [A]14 = 1.
10 CAPITULO 1. MATRICES
Luego tenemos que:

1 i
0 1
At =
2 3
1 2 42

Teorema 9. Sean A, B Mnm (F) entonces:

1. (At )t = A.

2. (A + B)t = At + B t .

3. (A)t = At .

4. Si A Mnk y B Mkm entonces (A B)t = B t At .

Demostracion. consideremos:
p
X
t
[(A B) ]ij = [(A B)]ji = [A]jk [B]ki
k=1
p
X
= [At ]kj [B t ]ik
k=1
p
X
= [B t ]ik [At ]kj
k=1
= [B t At ]ij , i, j.

por lo tanto (A B)t = B t At .

1.4. Matriz escalonada


Observemos el siguiente sistema de ecuaciones:

2x + 3y z = 0

3x 2y 2z = 0


x y 2z = 0
Los podemos expresar en terminos del producto de matrices del siguiente
modo:

2 3 1 x 0
3 2 2 y = 0
1 1 2 z 0
1.4. MATRIZ ESCALONADA 11

por supuesto existe sistemas mas faciles de resolver que otros, por ejemplo
el sistema
x + 3y z = 0

x 2y = 1


x=2
cuya expresion matricial es:

1 3 1 x 0
1 2 0 y = 1
1 0 0 z 2
se la puede resolver de manera inmediata. Nos interesan las matrices cuyo
sistema asociado sea facil de resolver. Estas son precisamente las matrices
escalonadas.

Definicion 10. Una matriz A Mnm (F) se dice que es una matriz escalon-
ada si:

1. Todas las filas nulas se encuentran por debajo de las filas no nulas.

2. El pivote de la linea i + 1 aparece a la derecha del pivote de la linea i


para i = 1, 2, ..., n 1.

Por ejemplo las siguientes matrices son escalonadas:



1 3 1 2 3 1 0 0 1 2 1 1
0 2 0 , 0 5 2 0 , 0 0 0 1 3
0 0 0 0 0 1 1 0 0 0 0 3

Una matriz se denomina ESCALONADA REDUCIDA si ademas de ser


escalonada ocurre que:

1. El primer elemento no nulo de cada fila no nula se denomina pivote y


es igual a 1.

2. Si una columna contiene un pivote entonces todos los demas elementos


de la columna son iguales a cero.

Por ejemplo las matrices:



1 0 1 1 0 1 0 0 1 2 0 0
0 1 0 , 0 1 2 0 , 0 0 0 1 0
0 0 0 0 0 1 1 0 0 0 0 1

son ejemplos de matrices escalonadas reducidas.


12 CAPITULO 1. MATRICES
Observacion 3. Sea A0 Mn (F) una matriz escalonada, supongamos que
su elemento a0ii 6= 0, 1, entonces no es un pivote, luego debe existir a0ik = 1
con k < i un pivote de A0 , en realidad el i-esimo pivote de A0 , pero esto es
imposible pues no pueden haber i 1 pivotes distribuidos en por lo menos
i 2 columnas. As toda matriz cuadrada escalonada tiene los elementos de
su diagonal principal iguales a ceros o unos. Por ejemplo:

1 0 0 2 0 1 0 0
0 1 0 1 0 0 1 0 1 0 0
0 1 0
0 0 0 0 , 0 0 0 1 ,
0 0 0
0 0 0 0 0 0 0 0

as podemos decir que:


1. Si la matriz A0 tiene todos los elementos de la diagonal principal
iguales a 1 entonces A0 = In .

2. Una matriz escalonada reducida por filas A Mn (F) es una matriz


identidad o una matriz con una fila llena de ceros.

1.5. La Matriz Inversa


Todo numero real o complejo a no nulo tiene un inverso multiplicativo a1 tal
que aa1 = 1. La nueva estructura que hemos construido Mnm (F) hereda
todas las propiedades respecto de adicion del campo F y algunas multiplica-
tivas.Que ocurre con la existencia de un inverso multiplicativo? veremos
que existe aunque no en todos los casos.
Definicion 11. Dada A Mn (F) diremos que la matriz B Mn (F) es la
inversa de A si:
AB = BA = In
Si una matriz tiene inversa diremos que es inversible o que es una matriz
singular.
Veamos un ejemplo
Ejemplo 5. Si

0 1 1 1 0 1
A = 1 0 1 , B= 0 1 1
1 1 1 1 1 1
entonces
1 0 0
AB = BA = 0 1 0
0 0 1
As B es la matriz inversa de A (o A es la inversa de B).
1.5. LA MATRIZ INVERSA 13

Teorema 12. Si A Mn (F) y la matriz inversa de A existe, esta es unica.


Demostracion. Supongamos que B, C Mn (F) son inversas de A entonces
AB = BA = In y AC = CA = In luego como

BIn = B(AC) = (BA)C = In C = C

B = C.

Definicion 13. Dada A Mn (F) si existe la matriz inversa de A la deno-


taremos con A1 .
Teorema 14. Si A, B Mn (F) tienen inversa entonces
1. (A1 )1

2. AB tambien tiene inversa y

(AB)1 = B 1 A1

Demostracion. 1. Es aclaro por la unicidad de la inversa ya que dada


A1 entonces
AA1 = A1 A = I
luego A es la inversa de A1 .

2. Basta ver que

(AB)B 1 A1 = A(BB 1 )A1 = (A I)A1 = AA1 = I

luego B 1 A1 = (AB)1 .

Ejemplo 6. Sea la matriz



2 3
A=
2 2

a b
queremos calcular la inversa de A, si existe, sea B = entonces si
c d
la inversa de A existe AB = I2 es decir:

2a + 3c 2b + 3c 1
AB = =
2a + 2c 2b + 2d 1

as tenemos un sistema de cuatro ecuaciones y cuatro incognitas, este tiene


solucion, luego la inversa existe y es
3

1 1 2
B=A =
1 1
14 CAPITULO 1. MATRICES
Ejemplo 7. Si A es una matriz de orden n tal que Ak = 0 para algun k N
mostraremos que

(In A)1 = In + A + A2 + + Ak1

Basta calcular:
h i
In + A + A2 + + Ak1 (In A) = In + A + A2 + + Ak1
A(In + A + A2 + A3 Ak1 )
= In + A + A2 + + Ak1 A A2 Ak
= In

Ejemplo 8. Sea A dada por



0 1 1
A = 0 0 1
0 0 0
Notemos que
0 0 1 0 1 1
A3 = 0 0 0 0 0 1 = 0
0 0 0 0 0 0
| {z } | {z }
A2 A

por lo demostrado antes (I A)1 existe ademas



1 1 2
(I A)1 = I + A + A2 = 0 1 1
0 0 1
Ejemplo 9. Sea A Mn (F) tal que

A2 A I = 0

demostrar que A1 existe y calcularla.


Solucion.- Basta notar que A2 A I = A(A I) I entonces

A(A I) = I

por lo tanto A1 = A I.
Ejemplo 10. Sean A y B matrices cuadradas. Muestre que si A + B y A
son invertibles entonces

(A + B)1 = A1 (In + BA1 )1

Nuevamente por la unicidad de la matriz inversa basta probar que


h i
(A + B) A1 (In + BA1 )1 = In
1.5. LA MATRIZ INVERSA 15

veamos:
h i h i
(A + B) A1 (In + BA1 )1 = (A + B)A1 (In + BA1 )1
= (AA1 + BA1 )(In + BA1 )1
= (In + BA1 )(In + BA1 )1
= In

Las preguntas que debemos hacernos en este momento son:

1. Como reconocer cuando una matriz tiene inversa?

2. Si una matriz tiene inversa como la podemos hallar?

estas son preguntas importantes en este punto, veamos una respuesta parcial:

Teorema 15. Dada la matriz A M2 (F)



a b
A=
c d

entonces A tiene inversa si y solo si ad bc 6= 0 y la inversa es



1 1 d b
A =
ad bc c a

x y
Demostracion. Sea B = y calculemos
z u

ax + bz ay + bu 1
AB = =
cx + dz cy + du 1

As tenemos el siguiente sistema de ecuaciones lineales:



ax + bz = 1


cx + dz = 0

ay + bu = 0


cy + du = 1

entonces (
acx + bcz = c
acx adz = 0

as (cb ad)z = c es decir si ad bc 6= 0 entonces


c
z=
zb cd
16 CAPITULO 1. MATRICES
del mismo modo se calculan las otras soluciones
d d
x= , y=
ad bc ad bc
c a
z= , w=
ad bc ad bc

las cuales existen y son unicas (como la inversa de la matriz) si y solo si


ad bc 6= 0.

Ejemplo 11. Sea la matriz



2 1
A=
1 3
entonces como 2 3 1 1 = 5 6= 0 entonces la inversa de A existe y esta es:

1 1 3 1
A =
5 1 2
por supuesto esta no es una tecnica util para resolver nuestro problema. A
si que le vamos a dar un enfoque distinto.

1.6. Operaciones Elementales


Dada una matriz A, nuestro objetivo es obtener una forma escalonada (re-
ducida) que sea equivalente a la una matriz A. Para esto identificaremos
algunas operaciones elementales entre las filas de la matriz.
Sea la matriz
a11 a12 a1m
a21 a22 a2m

A= .. .. ..
. . .
an1 an2 anm
denotaremos con Fi la i-esima fila de A. luego si A tiene n filas entonces
denotaremos con:
F1
F2

A= .
..
Fn
As por ejemplo si

1 2 1 1
2 3 0 1
A=
1 1
entonces F2 = (2 3 0 1)
3 1
2 1 0 0
1.6. OPERACIONES ELEMENTALES 17

1.6.1. Intercambio de Filas


Dada una matriz A Mnm (F) la primera operacion que vamos a definir es
el intercambio de filas: sean Fi y Fj filas de A entonces la operacion

F1 F1
.. ..
. .

Fi
F F Fj
.. i j .
. ..

Fj Fi

.. ..
. .
Fn Fn

es el intercambio de fila por ejemplo



1 2 1 1 1 2 1 1
2 3 0 1 F3 1 1 3 1
A= F2 = A0
1 1 3 1 2 3 0 1
2 1 0 0 2 1 0 0

por supuesto la matriz A0 no es igual a la matriz A sin embargo si definimos


las matriz Ei,j Mn (F) de la siguiente forma:
Fi Fj
In Ei,j (1.2)
1
entonces Ei,j es invertible pues Ei,j Ei,j = In luego Ei,j = Ei,j , ademas:
Fi Fj
Teorema 16. Si A Mnm (F) y A A0 entonces Ei,j A = A0 . Luego

A = Ei,j A0 .

Ejemplo 12. Veamos que E3,4 M4 (R) es la matriz:



1 0 0 0
0 1 0 0
E3,4 =
0 0

0 1
0 0 1 0

luego como:

1 0 0 0 1 0 0 0 1
0 1 0 0 0 1 0 0 1
E3,4 E3,4 =
0
=
0 0 1 0 0 0 1 1
0 0 1 0 0 0 1 0 1
1
concluimos que E3,4 = E3,4 .
18 CAPITULO 1. MATRICES

1 2 1 1
Ejemplo 13. Consideremos la matriz A = 0 0 0 1 entonces
0 0 2 2

1 2 1 1 1 2 1 1
A= 0 0 0 1 F2
F3
0 0 2 2 = A0
0 0 2 2 0 0 0 1
la nueva matriz A0 se puede obtener del siguiente modo E2,3 A = A0 veamos:
Por 1.2 tenemos que:

1 0 0
E2,3 = 0 0 1
0 1 0
es la matriz identidad de orden tres a la cual se ha intercambiado las filas
segunda y tercera. Luego:


1 0 0 1 2 1 1 1 2 1 1
E2,3 A = 0 0 1 0 0 0 1 = 0 0 2 2 = A0
0 1 0 0 0 2 2 0 0 0 1

1.6.2. Multiplicacion de una Fila por un escalar


Dada una matriz A Mnm (F) vamos a definir la multiplicacion de una fila
por un escalar no nulo. Sea F, 6= 0 y Fi la i-esima fila de A. entonces

F1 F1
.. ..
.
Fi .
Fi Fi

.. ..
. .
Fn Fn
Donde
Fi = (ai1 ai2 ...aim )
Por ejemplo

1 2 1 1 1 2 1 1
2 3 0 1 F3 2 3 0 1
A=
1 1


= A0

3 1 1 (1) 3 1
2 1 0 0 2 1 0 0
si = 2 tenemos que

1 2 1 1 1 2 1 1 1 2 1 1
2 3 0 1 2F3 2 3 0 1 0 1
A= = 2 3
1 1 3 1 2 1 2 (1) 2 3 2 1 2 2 6 2
2 1 0 0 2 1 0 0 2 1 0 0
1.6. OPERACIONES ELEMENTALES 19

de nuevo la matriz A0 no es igual a la matriz A.


Definimos
F
In i Ei ()
la matriz Ei () Mn (F) es invertible, para esto basta ver que
1 1
E2 () = Ei

Ejemplo 14. Calculemos

1 0 0 0 1 2 1 1
0 1 0 0 2 3 0 1
E3 (2) =
0 0 2 0
,
entonces si A=
1 1

3 1
0 0 0 1 2 1 0 0
tenemos que:

1 0 0 0 1 2 1 1 1 2 1 1
0 1 0 0 0 1 0 1
E3 (2) A = 2 3 = 2 3
0 0 2 0 1 1 3 1 2 2 6 2
0 0 0 1 2 1 0 0 2 1 0 0
Ejemplo 15. Veamos que si 6= 0 entonces:

1 0 0 0 1 0 0 0
0 0 0 0 1/ 0 0
E2 () = , y E2 1 =
0 0 1 0 0 0 1 0
0 0 0 1 0 0 0 1
si multiplicamos ambas matrices tenemos que:

1 0 0 0 1 0 0 0 1
1 0 0 0 0 1/ 0 0 1
E2 ()E2 =
0 0 1 0 0 0 1
=
0 1
0 0 0 1 0 0 0 1 1
1
Luego E2 () E2 1 = I4 por lo tanto E2 () = E2 1 .
F
Teorema 17. Si A Mnm (F) y A i A0 entonces
Ei ()A = A0 .

1 2 1 1
Ejemplo 16. Consideremos la matriz A = 0 0 0 1 como antes
0 0 2 2
no esta en forma escalonada pero si

1 2 1 1 1 2 1 1 1 2 1 1
F F (1/2)F
A= 0 0 0 1 2 3 0 0 2 2 0 0 1 = A0
2
1
0 0 2 2 0 0 0 1 0 0 0 1
20 CAPITULO 1. MATRICES
entonces la nueva matriz A0 esta en la forma escalonada reducida. Se puede
verificar que
E2 (1/2) E2,3 A = A0
pues si:
1 0 0 1 1 0 0
E2,3 = 0 0 1 , E2 = 0 1/2 0
2
0 1 0 0 0 1
entonces

1 1 0 0 1 0 0 1 2 1 1
E2 E2,3 A = 0 1/2 0 0 0 1 0 0 0 1
2
0 0 1 0 1 0 0 0 2 2

1 0 0 1 2 1 1
= 0 0 1/2 0 0 0 1
0 1 0 0 0 2 2

1 2 1 1
= 0 0 1 1
0 0 0 1

1.6.3. Suma a una Fila un multiplo escalar de otra


Dada una matriz A Mnm (F) vamos a definir la suma a una fila Fi un
multiplo escalar de otra fila Fj . Sea F y Fi la i-esima fila de A queremos

F1 F1
.. ..
. .

Fi
F +F Fi + Fj
.. i j .
..
.

Fj F
j
.. ..
. .
Fn Fn
donde
Fi + Fj = (ai1 + aj1 ai1 + aj2 ... ai1 + ajm )
Por ejemplo

1 2 1 1 1 2 1 1
2 3 0 1 F2 +(2)F1 2 + (2)1 3 + (2)2 0 + (2)(1) 1 + (2)1
A= 1 1





3 1 2 3 0 1
2 1 0 0 2 1 0 0

1 2 1 1
0 1 2 1
= 2
= A0
3 0 1
2 1 0 0
1.6. OPERACIONES ELEMENTALES 21

Definimos
Fi +Fj
In Ei,j ()
la matriz Ei,j ()Mn (F) es invertible, para esto basta ver que
1
Ei,j () = Ei,j ()

Ejemplo 17. Calculemos E2,3 () M4 (R) y su inversa:



1 0 0 0 1 0 0 0
0 1 0 0 1 0
E2,3 () =
0
, E2,3 () =
0 1 0 0 0 1 0
0 0 0 1 0 0 0 1

entonces es claro que:



1 0 0 0 1 0 0 0 1
0
1 0 0 1 0 1
E2,3 ()E2,3 () =
0 =
0 1 0 0 0 1 0 1
0 0 0 1 0 0 0 1 1

Fi +Fj
Teorema 18. Si A Mnm (F) y A A0 entonces

Ei,j ()A = A0 .

1 0 1 1
Ejemplo 18. Consideremos la matriz A = 2 0 0 2 esta no esta
0 0 1 1
en la forma escalonada sin embargo:


1 0 1 1 1 0 1 1
F2 +(2)F1
2 0 0 2 0 2 2 0
0 0 1 1 0 0 1 1

1 0 1 1
(1/2)F2
0 1 1 0
0 0 1 1

1 0 0 2
F2 +F3
0 1 0 1
F1 +F3
0 0 1 1

entonces la nueva matriz A0 esta en la forma escalonada reducida. Se puede


verificar que
E1,3 (1) E2,3 (1) E2 (1/2) E2,1 (2) A = A0
22 CAPITULO 1. MATRICES
Dada una matriz A Mnm (F) las operaciones elementales por filas que
hemos estudiado se pueden utilizar para transformar la matriz A en otra
matriz A0 escalonada reducida o simplemente escalonada, como se hizo en
el ejemplo 18. Mas aun existen E1 , E2 , ..., Ek Mn (F) matrices elementales
(una para cada operacion elemental) tales que:

E1 E2 Ek A = A0
En particular si A Mn (F) entonces A0 Mn (F) ademas si A0 = In entonces
la matriz A es invertible y la inversa es

A1 = E1 E2 Ek

que de manera mas conveniente podemos escribir

A1 = E1 E2 Ek In

es decir la matriz inversa de A, cuando existe, es precisamente la matriz


que se obtiene al aplicar a la matriz identidad las operaciones elementales
por fila que usamos para obtener la forma escalonada reducida de A, que
ademas debe ser igual a la matriz identidad. En resumen tenemos:

Definicion 19. Si F, 6= 0, entonces las matrices Ei,j , Ei (), Ei,j ()


Mnm (F) se denominan matrices elementales.
Si A Mnm (F) y si E Mn (F) es una matriz elemental entonces se
dice que la matriz EA es equivalente por filas a la matriz A y escribiremos
A EA.

Teorema 20. Si A Mnm (F) entonces existe un numero finito de matrices


elementales E1 , E2 , ..., Ek Mn (F) tales que

E1 E2 E3 Ek A = A0 (1.3)

donde A0 es una matriz escalonada (reducida). Es decir A es equivalente por


filas a una matriz escalonada (reducida).

Teorema 21. Si A Mn (F) entonces

A tiene inversa A In

Ejemplo 19. Sea la matriz



1 0 1 1
2 0 4 2

0 0 1 1
2 2 2 0
1.6. OPERACIONES ELEMENTALES 23

Vamos a determinar si esta tiene inversa: el elemento [A]11 = 1 es el pivote


para la primera fila, vamos a usar este para volver cero a todos los elementos
de su columna:

1 0 1 1 1 0 1 1 1 0 1 1
2 0 4 2 0 0 6 4 F4 +(2)F1 0 0 6 4
F2 +2F
1
0 0 1 1 0 0 1 1 0 0 1 1
2 2 2 0 2 2 2 0 0 2 4 2

Ahora necesitamos un pivote para la fila 2, que ademas debe estar a la


derecha del pivote anterior para esto intercambiamos las filas segunda y
cuarta:

1 0 1 1 1 0 1 1 1 0 1 1
0 0 6 4 F4 0 2 4 2 (1/2)F2 0 1 2 1
F2
0 0 1 1 0 0 1 1 0 0 1 1
0 2 4 2 0 0 6 4 0 0 6 4

usamos al elemento [A]22 = 1 como pivote, pero como todos los elementos
de su columna ya son iguales a cero entonces pasamos a buscar el pivote en
la tercera fila:

1 0 1 1 1 0 1 1 1 0 0 0
0 1 2 1 (1)F3 0 1 2 1 0 1 2 1
F1+F3
0 0 1 1 0 0 1 1 0 0 1 1
0 0 6 4 0 0 6 4 0 0 6 4

1 0 0 0 1 0 0 0
F2 2F3 0 1 0 1 F +6F 0 1 0 1
0
4 3
0 1 1 0 0 1 1
0 0 6 4 0 0 0 2

1 0 0 0 1 0 0 0
(1/2)F4 0 1 0 1
F3 +F4 0 1 0 0
0 0 1 1 F2 F4 0 0 1 0
0 0 0 1 0 0 0 1

As A I4 luego tiene inversa. Como calculamos la inversa de A? segun lo


analizado basta con aplicar las mismas operaciones elementales a la matriz
identidad I4 . Lo mas conveniente en estos casos es construir una matriz au-
mentada (A|I) y aplicar el metodo anterior para hallara la matriz escalonada
reducida de A aplicando las mismas operaciones a la matriz identidad as si
A tiene inversa entonces
(A|I) (I|A1 )
24 CAPITULO 1. MATRICES


1 0 1 1 1 1 0 1 1 1 0 0 0

2 0 4 2 1 F2 +2F1 0 0 6 4 2 1 0 0

0 0 1 1 1 F4 2F1 0 0 1 1 0 0 1 0

2 2 2 0 1 0 2 4 2 2 0 0 1

1 0 1 1 1 0 0 0
F2 F4 0 1 2 1 1 0 0 12

(1/2)F2 0 0 1 1 0 0 1 0
0 0 6 4 2 1 0 0

1 0 1 1 1 0 0 0
(1)F3 0 1 2 1 1 0 0 21

0 0 1 1 0 0 1 0
0 0 6 4 2 1 0 0

1 0 0 0 1 0 1 0
F1 +F3 0 1 0 1 1 0 2 21

F2 2F3 0 0 1 1 0 0 1 0
0 0 6 4 2 1 0 0

1 0 0 0 1 0 1 0
F4 +6F3 0 1 0 1 1 0 2 12

(1/2)F4 0 0 1 1 0 0 1 0
0 0 0 1 1 21 3 0

1 0 0 0 1 0 1 0
F3 +F4 0 1 0 0 0 1/2 1 1/2

F2 F4 0 0 1 0 1 1/2 2 0
0 0 0 1 1 1/2 3 0

As la inversa de la matriz A es

1 0 1 0
0 1/2 1 1/2
A1 =
1 1/2

2 0
1 1/2 3 0

Ejemplo 20. Si A M4 (R) es tal que




a , j =i+1
[An ]i j = 1 , i=j


0 , en otro caso.

Calcular, si es que existe, A1 .


1.6. OPERACIONES ELEMENTALES 25

Solucion.- La matriz A es:



1 a 0 0
0 1 a 0
A=
0

0 1 a
0 0 0 1

vamos a escalonar la matriz (A|I)



1 a 0 0 1 0 0 0 1 0 a2 0 1 a 0 0
0 1 a 0 0 1 0 0 0 a2 0 0
1 2 0
F aF 1 1 a
0 0
1 a 0 0 1 0 F2 aF3 0 0 1 a 0 0 1 0
0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1

1 0 0 a 1 a a 0
3 2

F1 +a F3 0
2 1 0 a2 0 1 a 0

0 0 1 a 0 0 1 0
0 0 0 1 0 0 0 1

1 3
0 0 a 1 a a 2 0
F3 aF4 0 1 0 0 0 1 a a2

2
F2 +a F4 0 0 1 0 0 0 1 a
0 0 0 1 0 0 0 1

1 0 0 0 1 a a a3 2

F3 aF4 0 1 0 0 0 1 a a2

F2 +a2 F4 0 0 1 0 0 0 1 a
0 0 0 1 0 0 0 1
| {z }
A1

por lo tanto A1 existe y ademas



1 a a2 a3
0 1 a a2
A1
0

0 1 a
0 0 0 1

Observacion 4. Supongamos que A Mn (F) y X M1n (F) entonces la


ecuacion matricial
AX = 0 (1.4)
tiene solucion X = 0, esta es unica cuando A1 existe, pues si X1 , X2
M1n (F) son tales que AX1 = 0 y AX2 = 0 entonces AX1 = AX2 luego

A1 (AX1 ) = A1 (AX2 ) por lo tanto X1 = X2

El recproco tambien es cierto. Supongamos que AX = 0 tiene solucion


unica, por el Teorema 20 existen E1 , E2 , . . . , Ek matrices elementales tales
26 CAPITULO 1. MATRICES
que E1 E2 Ek A = A0 donde A0 es una matriz escalonada reducida entonces
A0 X = 0 as por la Observacion 3 la matriz A0 es la identidad o tiene una fila
de ceros, si ocurre lo segundo podemos suponer, sin perdida de generalidad,
que la fila Fn = 0, entonces hay por lo menos una columna de A0 que no
contiene un pivote, podemos parametrizar la variable correspondiente a la
variable asociada a esta columna de modo que :
Xt , es solucion de AX = 0 para cada t R
esto es una contradiccion a la unicidad de las soluciones del sistema, por lo
tanto A0 = I as A1 existe.
Ejemplo 21. Sea la matriz escalonada reducida

1 0 0 0
0 1 0 1
A0 = 0 0

1 0
0 0 0 0
el sistema homogeneo asociado a esta matriz es A0 X = 0 es decir:

x1 =0
x2 + x4 =0

x3 =0
la columna cuatro no contiene pivote, luego hacemos x4 = t y obtenemos
que:

0 1 0 0 0 0 0
t 0 1 0 1 t 0
Xt =
0 , es solucion, pues: 0 0 1 0 0
=
0
t 0 0 0 0 t 0
para cada t R, as el sistema tiene infinitas soluciones, por lo tanto la
matriz A0 no tiene inversa.
De acuerdo a la definicion de la inversa de una matriz A para ver que B =
A1 se debe verificar que: AB = BA = I esto se puede mejorar:
Proposicion 22. Si A, B Mn (F) son tales que BA = I entonces AB = I.
Demostracion. Si A, B Mn (F) son tales que BA = I vamos a probar que
la inversa de A existe.
Supongamos que X M1n (F) es solucion de AX = 0 entonces (BA)X = O
luego X es solucion de (BA)X = 0 o de manera equivalente IX = 0 luego
X = 0, as el sistema AX = 0 tiene solucion unica, por la Observacion 4
A1 existe.
Si A1 existe entonces
B = BI = B(AA1 ) = (BA)A1 = IA1 = A1
luego es claro que AB = I.
1.6. OPERACIONES ELEMENTALES 27

Veamos otra aplicacion de la Observacion 4

Proposicion 23. Sean A, B Mn (F) si AB tienen inversa entonces A1


y B 1 tambien existen.

Demostracion. Supongamos que AB tiene inversa entonces el sistema (AB)X =


0 tiene solucion unica X = 0 si la inversa de B no existe entonces e3xiste
X0 M1n (F) no nulo tal que BX0 = 0 luego A(BX0 ) = 0 lo que contradice
la hipotesis por lo tanto B 1 existe as como A = (AB)B 1 la inversa de A
tambien existe.

1.6.4. Operaciones Elementales por Columna


Hemos definido operaciones elementales por fila , para esto utilizamos ma-
trices elementales por fila:

Ei,j , Ei (), Ei,j ()

notemos que
t t t
Ei,j = Ei,j , Ei () , Ei,j () = Ej,i ()

Del mismo modo podemos definir operaciones elementales por columna, y


sus respectivas matrices elementales:

Ii,j , Ii (), Ii,j ()

As si A Mnm (F) entonces:


Ci Cj
1. Si A A0 entonces A Iij = A0 .
C
2. Si A i A0 entonces A Ii () = A0 .
Ci + Cj
3. Si A A0 entonces A Iij () = A0 .

Ejemplo 22. Por ejemplo:



0 0 1 1 0 0 1 0 0
I1,3 = 0 1 0 , I2 () = 0 0 , I1,3 () = 0 1 0
1 0 0 0 0 1 0 1

y si consideramos la matriz

a b c
A= d e f
g h i
28 CAPITULO 1. MATRICES
entonces

a b c 0 0 1 c b a
A I1,3 = d e f 0 1 0 = f e d
g h i 1 0 0 i h g

a b c 1 0 0 a b c
A I2 () = d e f 0 0 = d e f
g h i 0 0 1 g h i

a b c 1 0 0 a + c b c
A I1,3 () = d e f 0 1 0 = d + f e f
g h i 0 1 g + i h i

Ademas resulta claro que:

Ii,j = Ei,j , Ii () = Ei (), Ii,j () = Ej,i ()

Supongamos que A Mn (F) tenga inversa entonces existen matrices E1 , . . . , Ek


tales que:
Ek E1 A = In
entonces
At E1t Ekt = In
por lo tanto:
Ek E1 A = At I1t Ikt
donde I1 , I2 , . . . , Ik son matrices elementales por columna.

1.7. Metodo de Gauss-Jordan


Vamos a dar un metodo algortmico: Dada una matriz A M queremos
determinar una matriz escalonada (reducida) equivalente por filas a la matriz
A. Las unicas operaciones permitidas son las elementales por fila.
1. Todas las filas nulas deben ir al final de la matriz.
Por ejemplo:
1 0 2 1 0 2
0 0 0 F2 F3
2 0 4
2 0 4 0 0 0

2. El primer elemento no nulo de la fila Fi se denomina PIVOTE si todos


los elementos a su izquierda y abajo son iguales a cero.
Por ejemplo: en

3 0 6 0 3 9
2 0 0 , 0 2 0
2 0 4 0 0 0
1.7. METODO DE GAUSS-JORDAN 29
el 3 es el primer pivote en ambas matrices. Del mismo modo el 1 es
pivote en las siguientes matrices:

2 3 6 0 3 9 2
0 1 0 , 0 0 0 1
0 2 4 0 0 0 3

3. Hacemos el pivote igual a uno con una operacion elemental.


Por ejemplo:
3 0 6 1 0 2
(1/3)F1
2 0 0 2 0 0
2 0 4 2 0 0
o de manera similar:

0 3 9 0 1 9
0 2 0 F1
F2
0 2 0
0 0 0 0 0 0

4. Eliminamos todos los elementos por debajo (y arriba) del pivote.



1 0 2 1 0 2
F 2F
2 0 0 2 1 0 0 4
F3 2F1
2 0 0 0 0 4

o de manera similar:

0 1 9 0 1 9
0 2 0 F2 2F
1 0 0 18
0 0 0 0 0 0

5. Volvemos al paso (1.) con i + 1.


Es decir buscaremos el siguiente pivote en la siguiente fila. Por ejemplo
en las matrices

3 0 6 0 3 9 5
0 2 0 , 0 0 0 2
0 4 4 0 0 0 7

3 es el primer pivote y 2 es el segundo.


30 CAPITULO 1. MATRICES
Captulo 2

Determinantes

2.1. introduccion
En el T.15 establecemos una condicion necesaria y suficiente para la ex-
istencia de la inversa de una matriz cuadrada de orden 2, esta depende
simplemente de ver si una determinada expresion es diferente de cero. Se
puede llegar a un resultado similar para matrices de orden n? este captulo
se dedica a dar una respuesta a esta pregunta.

2.2. Funcion Determinante


Dada una matriz A M2 (F) diremos que el Determinante de A es la funcion
definida del siguiente modo:

det : M2 (F) R (2.1)


A 7 [A]11 [A]22 [A]12 [A]21 (2.2)

Por ejemplo si

2 3
A= entonces det(A) = 2 1 3 2 = 4
2 1

Vamos a dar una definicion recursiva del Determinante de una matriz de


orden n > 2. para esto primero veamos algunas definiciones previas.

Definicion 24. Dada A Mnm (F) el menor Mij de la matriz A el la


matriz que se obtiene al eliminar la i-esima fila y la j-esima columna de la
matriz A. Por lo tanto Mij M(n1)(m1) (F).
Si A Mn (F) el Cofactor Cij de A es

Cij = (1)i+j det(Mij ) (2.3)

31
32 CAPITULO 2. DETERMINANTES
Es decir si

a11 ... a1(j1) a1j a1(j+1) ... a1m
.. .. .. .. ..
. ... . . . ... .

a(i1)1 . . . a(i1)(j1) a(i1)j a(i1)(j+1) . . . a(i1)m

A=
ai1 ... ai(j1) aij ai(j+1) ... aim

a . . . a(i+1)(j1) a(i+1)j a(i+1)(j+1) . . . a(i+1)m
(i+1)1
.. .. .. .. ..
. ... . . . ... .
an1 ... an(j1) anj an(j+1) ... anm
entonces el menor Mij de A es la matriz:

a11 ... a1(j1) a1(j+1) ... a1m
.. .. .. ..
. ... . . ... .

a(i1)1 . . . a(i1)(j1) a(i1)(j+1) . . . a(i1)m
Mij = a(i+1)1 . . . a(i+1)(j1) a(i+1)(j+1)


. . . a(i+1)m
.. .. .. ..
. ... . . ... .
an1 ... an(j1) an(j+1) ... anm
Ejemplo 23. Si

2 3 3
A= 2 1 4
4 7 8
entonces

1 4 2 3 2 3
M11 = , M23 = , M32 =
7 8 4 7 2 4
entonces

1+1 1 4 3+2 2 3
C11 = (1) det = 20, C32 = (1) det = 2
7 8 2 4
Definicion 25. Dada A Mn (F) con n > 2 entonces definimos
n
X
det(A) = (1)1+j [A]1j det(M1j ) (2.4)
j=1

el determinante de la matriz A.
Observacion 5. Para aplicar la formula 2.4 se debe se debe calcular el
determinante det(M1j ) pero notemos que el menor Mij Mn1 F es de un
orden menor que A. As tenemos que
1. Por la definicion 2.4 si

a11 a12
A= entonces det(A) = a11 a22 a12 a21
a21 a22
2.3. PROPIEDADES DEL DETERMINANTE 33

2. Supongamos que
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
entonces
3
X
det(A) = (1)1+j a1j det(M1j )
j=1

= a11 det(M11 ) a12 det(M12 ) + a13 det(M13 )



a22 a23 a21 a23 a21 a22
= a11 det a12 det + a13 det
a32 a33 a31 a33 a31 a32
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32

Ejemplo 24. Sea la matriz



2 3 3
A= 2 1 4
1 2 1

entonces aplicando la Observacion 5 tenemos que:

det(A) = 2 + (12) + 12 (3) (6) 16 = 9

2.3. Propiedades del Determinante


Para denotar el determinante de la matriz A escribiremos tambien

a11 a1n

.. . . ..
det(A) = . . .

an1 ann

Dada la matriz A Mn (F) el cofactor Cij de la matriz A se puede escribir:

Cij = (1)i+j |Mij | (2.5)

con esta notacion:


n
X
det(A) = a1j C1j
j=1

se denomina el desarrollo en COFACTORES del determinante de A.

Lema 26. Supongamos que



a b a b
A= |A| = 0 0 + a b
0 00 0
c + c d + d 00 c d c00 d00
34 CAPITULO 2. DETERMINANTES
del mismo modo si
0 0 00 00
a0 + a00 b0 + b00 a b a b
A=
|A| = +
c d c d c d
Demostracion. Basta calcular:

a b
det(A) =
c0 + c00 d0 + d00
= a(d0 + d00 ) b(c0 + c00 ) = (ad0 bc0 ) + (bd00 bc00 )
0 0 00 00
a b
= + a b
c d c d

Teorema 27. Sea la matriz A Mn (F) en donde la i-esima fila


Fi = Fi0 + Fi00
donde alpha, F entonces

F1 F1 F1
.. .. ..
. . .
0
det(A) = det F i
0 + F 00
i
= det F + det
i Fi00

.. .. ..
. . .
Fn Fn Fn
Demostracion. Vamos a usa el principio de induccion para la demostracion.
Para n = 2 la proposicion es verdadera por el L. 26. Supongamos que la
proposicion es verdadera para matrices de orden n 1. Sea A Mn (F)
vamos a considerar dos casos:
Caso 1. Si

F10 + F100 F10 F100
F2 F2 F2

A= .. y A0 = .. , A00 = ..
. . .
Fn Fn Fn
entonces como se elimina la primera fila:
n
X
det(A) = (a01j + a001j ) C1j
j=1
Xn
= a01j C1j + a001j C1j
j=1
Xn n
X
= a01j C1j
0
+ a001j C1j
00

j=1 j=1
0 00
det(A) = |A | + |A |
2.3. PROPIEDADES DEL DETERMINANTE 35

Caso 2. Supongamos que i > 1 entonces

n
X
det(A) = a1j C1j
j=1
Xn
0 00
= a1j (C1j + C1j ) Por H. I.
j=1
Xn n
X
0 00
= a1j C1j + a1j C1j
j=1 j=1
0 00
det(A) = |A | + |A |

Corolario 28. Si A Mn (F) y tiene una fila de ceros entonces

det(A) = 0

Demostracion. Si la fila nula es Fi entonces podemos escribir Fi = 0 Fi0 +0 Fi00


donde Fi0 , Fi00 son filas cualesquiera luego por el T.27


F1 F1 F1
.. .. ..
. . .

det(A) = det 0
0 Fi + 0 Fi
00 = 0 det F 0 + 0 det F 00 = 0
i i
.. .. ..
. . .
Fn Fn Fn

Por definicion el desarrollo en cofactores para el calculo del determinante de


la matriz A se debe realizar con respecto de los elementos de la primera fila.
Esto se puede mejorar sustancialmente.
Designaremos con ei la i-esima fila de la matriz identidad, por ejemplo si I5
entonces
e1 = (1 0 0 0 0), e3 = (0 0 1 0 0)

Ejemplo 25. Veamos que si:



a b c
a b
A= , B= 1 0 0
0 1
d e f
36 CAPITULO 2. DETERMINANTES
entonces

a b
det(A) = det = a,
0 1

a b c
det(B) = det 1 0 0 = ce bf
d e f

b c
= (1) det
e f

Lema 29. Sea una matriz A Mn (F) tal que Fi = ek para algun k entonces

det(A) = Cik

Demostracion. Vamos a proceder por induccion. El resultado es evidente si


n = 2, 3 supongamos entonces que el Lema es verdadero para matrices de
orden n 1 consideremos dos casos:

Caso 1. Si i = 1 entonces
n
X
det(A) = (1)1+j a1j M1j
j=1

por hipotesis F1 = ek luego a1j = 0 para j 6= k y a1k = 1 entonces

det(A) = (1)1+k det(Mik ) = Cik .

Caso 2. Supongamos que i > 1 entonces


X
det(Mik ) = (1)1+j a1j det(Bj )
j6=k

donde Bj es el cofactor 1j (con j = 1, 2, ..., k 1, k + 1, .., n) de la


matriz Mik . Ademas podemos escribir:
X X
det(Mik ) = (1)1+j a1j det(Bj ) + (1)1+(j1) a1j det(Bj )
j<k j>k
(2.6)
y para la matriz A tenemos:
n
X
det(A) = (1)1+j a1j det(M1j )
j=1

Por otro para el menor M1j su i 1 fila de esta matriz es:

1. ek1 si j < k pues hemos quitado un cero a la izquierda del uno


de esta fila.
2.3. PROPIEDADES DEL DETERMINANTE 37

2. ek si j > k pues hemos quitado un cero a la derecha del uno de


esta fila
3. Una fila de ceros si j = k.

As aplicando la H. I. a los menores M1j de A tenemos que:



(i1)+(k1) det(B ),
(1) j j < k,
det(M1j ) = (1) (i1)+k det(Bj ), j > k,


0 j = k.

por lo tanto

n
X
det(A) = (1)1+j a1j det(M1j )
j=1
X X
= (1)1+j a1j (1)(i1)+(k1) det(Bj ) + (1)1+j a1j (1)(i1)+k det(Bj )
j<k j>k
" #
X X
= (1)i+k (1)j1 a1j det(Bj ) + (1)1+(j1) a1j det(Bj )
j<k j>k

as por (2.6) hemos terminado la demostracion.

Ahora vamos a aplicar este Lema para probar el:

Teorema 30. Si A Mn (F) entonces

n
X
det(A) = aik Cik
k=1

para cualquier 1 i n.

Demostracion. Sea Fi la i-esima fila de A entonces podemos escribir:

n
X
Fi = aik ek
k=1
38 CAPITULO 2. DETERMINANTES
por el Teorema 27 tenemos que


F1 F1

.. ..
X
. n .
P
det(A) = det
a e
k ik k = aik det ek

.. k=1 ..
. .
Fn Fn
n
X
det(A) = aik Cik Por el L.29
k=1

Veamos algunos ejemplos en los cuales podemos aplicar esta nuevas her-
ramientas.
Ejemplo 26. Sean las matrices:

2 3 4 1 2 3 4 1
0 1 0 3 2 1 0 3
A= 2 1 0 2
,
B=
0

2 0 0
1 2 2 0 0 4 0 0
1. Para calcular el determinante de A podemos elegir cualquier fila para el
desarrollo por cofactores gracias al Teorema 30 por supuesto elegimos
la que tiene mayor cantidad de ceros as:

2 4 1 2 3 4

det(A) = (1)2+2 1 2 0 2 + (1)2+4 3 2 1 0
1 2 0 1 2 2
= 1 4 + 3 4 = 16

2. Para la matriz B elegimos la fila 3 as tenemos que:



2 4 1

det(B) = (1) 3+2
2 2 0 3
0 0 0
como la matriz M23 tiene una fila de ceros det(B) = 0.
Corolario 31. Si A Mn (F) tiene dos filas iguales entonces det(A) = 0.
Demostracion. Si n = 2 el resultado es facil de verificar. Si n > 2 supong-
amos que el resultado es verdadero para matrices de orden n 1 y tomemos
A Mn (F) entonces si las filas iguales de A son Fl y Fk sea i diferente de l
y k entonces por la H. I. tenemos que
n
X n
X
det(A) = [A]ij Cij = [A]ij 0 = 0
j=1 j=1
2.3. PROPIEDADES DEL DETERMINANTE 39

pues los menores Mij tienen dos filas iguales (se elimino la fila i 6= l, k ) y
es una matriz de orden n 1.

Ejemplo 27. Sea la matriz



2 3 2 1
0 2 4 3
A=
0

0 3 2
0 0 0 2

Vamos a calcular su determinante. Primero apliquemos el T.30 a la cuarta


fila de A, entonces
2 3 2

det(A) = (2) 0 2 4
0 0 3

aplicando nuevamente el T.30 a la tercera fila de esta nueva matriz tenemos:



2 3

det(A) = (2) 3 = (2) 3 2 2 = 24
0 2

Definicion 32. Una matriz A Mnm (F) se dice que es:

1. Triangular superior si [A]ij = 0, i > j.

2. Triangular inferior si [A]ij = 0, i < j.

Ejemplo 28. Mas matrices



1 0 2 1 2 4 2 1 2
0 1 5 3 0 0 4 3 4
,
0 0 3 6 0 0 3 3 6
0 0 0 4 0 0 0 0 4

son triangulares superiores, las siguientes son triangulares inferiores:



2 0 0 0 0
1 0 0 0 6 0
2 1 0 0 , 0 0 0
1 2 2 0 0
1 2 2 0
1 0 0 0 0

Proposicion 33. Si A Mn (F) es triangular inferior (superior) entonces

det(A) = [A]11 [A]22 [A]nn

Demostracion. La demostracion es inmediata por induccion.

Demostraremos en T.35 que det(A) = det(At ), esto nos dice que podemos
aplicar la regla de cofactores a las columnas de A. Ademas:
40 CAPITULO 2. DETERMINANTES
1. El determinante de estas matrices se calcula de manera inmediata para
matrices triangulares.

2. Si A es una matriz escalonada entonces es tambien triangular superior.


Recordemos que mediante operaciones elementales por fila tenemos un meto-
do para escalonar matrices. Existe una relacion entre el determinante y las
operaciones elementales?.

2.4. Determinantes y Operaciones Elementales


Vamos a ver como se comportan las operaciones elementales por fila con
respecto a la funcion determinante.
Teorema 34. Sea A Mn (F) y F entonces:
1. Si Ei ()A = A0 entonces det(A) = (1/) det(A0 ).

2. Si Ei,j A = A0 entonces det(A) = det(A0 ).

3. Si Ei,j ()A = A0 entonces det(A) = det(A0 ).


Demostracion. La primera parte es inmediata a partir del Teorema 27.
2. Por el teorema 27 y su corolario basta considerar:

F1 F1 F1 F1 F1

.. .. .. .. ..
. . . . .

Fi + Fj Fi Fi Fj Fj

. .. .. .. ..
0= .
. = . + . + . + . = 0+det(A)+det(A0 )+0

Fi + Fj Fi Fj Fi Fj

.. .. .. .. ..
. . . . .

Fn Fn Fn Fn Fn

entonces det(A) = det(A0 ).

3. Para la tercera basta ver que por el Teorema 27 su colorario y la primera


parte de este teorema podemos escribir

F F1 F1
1
.. .. ..
.
. .
Fi + Fj Fi Fj

.. .. ..
det(A0 ) = . = + = det(A) + 0 = det(A)
. .
Fj
Fj Fj
.. .. ..
. . .

Fn Fn Fn
2.4. DETERMINANTES Y OPERACIONES ELEMENTALES 41

Si bien las operaciones elementales por fila alteran la matriz, el determi-


nante se comporta bastante bien con lo que las tecnicas de escalonamiento
se pueden usar para el calculo del determinante teniendo en cuenta este
teorema. Es mas no es difcil comprobar que:

1. El det(Ei ()) = . Luego si Ei ()A = A0 entonces

det(A0 ) = det(Ei ()) det(A)

2. det(Ei,j ) = 1 entonces

det(A0 ) = det(Ei,j ) det(A)

3. Como det(Ei,j ()) = luego

det(A0 ) = det(Ei,j ()) det(A)

4. La inversa de una matriz elemental es una matriz elemental del mismo


tipo.

En resumen si E es una matriz elemental entonces

det(EA) = det(E) det(A) (2.7)

Teorema 35. Sea A Mn (F) entonces

1. A tiene inversa si y solo si det(A) 6= 0.

2. Si B Mn (F) entonces det(AB) = det(A) det(B).

3. det(At ) = det(A).

Demostracion. Consideremos A, B Mn (F) entonces

1. A tiene inversa si y solo si existen operaciones elementales E1 , E2 , ..., Ek


tales que
E1 E2 Ek A = I

luego por (2.7) tenemos que

|E1 | |E2 | |Ek | |A| = 1

esto ocurre si y solo si |A| 6= 0.


42 CAPITULO 2. DETERMINANTES
2. Supongamos que |A| = 0 entonces A no tiene inversa, por la Proposi-
cion 23 la matriz AB no tiene inversa, luego det(AB) = 0. Si ahora
suponemos que |A| 6= 0 entonces la inversa de A existe y

E1 E2 Ek A = I

para algunas Ej entonces como la inversa de una matriz elemental es


elemental entonces
A = Ek1 Ek1
1
E11
luego por la primera parte:

det(AB) = det(Ek1 Ek1


1
Ek1 B)
= det(Ek1 ) det(Ek1
1
) det(E11 ) det(B)
= det(A) det(B)

3. De a cuerdo a la Sec. 1.6.4 es claro que el determinante de una matriz


elemental por columnas es igual al determinante de su transpuesta que
es una matriz elemental por filas.Ademas por el item 2 del presente
teorema basta considerar el caso en que A tiene inversa luego como
existen E1 , ..., Ek tales que

E1 Ek A = At Ik I1

donde Im = Emt entonces si det(I ) = det(E ) por el item 2 de este


m m
teorema tenemos que det(A) = det(At ).

Observacion 6. Supongamos que det(A) 6= 0 por el teorema A1 existe


ademas det(AA1 ) = det(I) = det(A) det(A1 ) entonces
1
det(A1 ) =
det(A)
Hasta aqu el T.35 resuelve parte del problema planteado al inicio de este
captulo: Una matriz A Mn (F) tiene inversa si y solo si det(A) 6= 0. Por
supuesto en el camino hemos dado varias propiedades que nos ayudan al
calculo del determinante de una matriz, es mas el item 3 del Teorema 35 nos
dice que toda propiedad de determinantes referente a las filas de una matriz
son tambien propiedades referentes a las columnas.
Ejemplo 29. Vamos a calcular el determinante de

2 1 0 0 1
0 1 1 2 1

A= 1 2 1 0 1

1 1 0 3 1
0 4 8 8 0
2.4. DETERMINANTES Y OPERACIONES ELEMENTALES 43

recordemos que podemos utilizar las operaciones elementales, entonces



2 1 0 0 1 2 1 0 0 1

0 1 1 2 1 0 1 1 2 1
F4 +F3

det(A) = 1 2 1 0
1 = 4 1 2 1 0 1
1 1 (1/4)F
0 3 1 5 0
1 1 3 0
0 4 8 8 0 0 1 2 2 0

1 2 1 0 1

0 1 1 2 1
F1 2F3

= (4) 0 3 2 0 3
F1 F3 0
1 1 3 0
0 1 2 2 0
Ahora podemos usar el metodo de cofactores, pero en la primera columna de
la ultima matriz, (Esto gracias a que |At | = |A|) .


1 2 1 0 1
1 1 2 1
0 1 1 2 1
3 2 0 3
det(A) = (4) 0 3 2 0 3 = (4)

1 1 3 0
0 1 1 3 0
1


2 2 0
0 1 2 2 0

1 1 2 1 1 1 2 1

(1)F1 3 2 0 3 F4 F1 0 5 6 6
= (4) = 4
F3 F1 0 2 5 1 F2 +3F1 0 2 5 1
1 2 2 0 0 1 0 1

5 6 6

= 4 2 5 1 = 4 37 = 141
1 0 1
As det(A) = 148.
Ejemplo 30. Encontrar el valor de x tal que el determinante de

x3 0 3
A= 0 x+2 0
5 0 x+5
sea igual al cero.


x3 0 3
x3 3

|A| = 0 x+2 0 = (x + 2)

5 5 x+5
0 x+5

x 0 x 0 3 3 3 3
= (x + 2) +
5 5 + 0 x
+
5 5
0 x
|A| = (x + 2) x(x + 2) = x(x + 2)2
44 CAPITULO 2. DETERMINANTES
por lo tanto |A| = si y solo si x = 0 o x = 2

Ejemplo 31. Calcular el determinante de la matriz



1 1 1
A= b+c c+a a+b
bc ca ab

Usemos el elemento [A]11 como pivote:



1 1 1 1 1 1
F2 (b+c)F1

|A| = b + c c + a a + b = 0 ab ac
bc F (bc)F1
ca ab 3 0 c(a b) b(a c)

1 0 0
a b c(a b)

= 1 a b c(a b) =
1 a c b(a c) a c b(a c)

1 c

= (a b)(a c) = (a b)(a c)(b c)
1 b

por lo tanto det(A) = (a b)(a c)(b c)

Ejemplo 32. Mostrar que :



ab bc ca
det b c c a a b = 0
ca ab bc

Solucion.-

ab bc ca ab bc ca
F3 +F1

det b c c a a b = bc ca ab
ca ab bc cb ac ba

a b b c c a
F3 +F2
= b c c a a b = 0
0 0 0

Ejemplo 33. Calcular el determinante de:



a1 + 1 a2 a3 an
a1 a + 1 a an
2 3
a1 a a + 1 an
A= 2 3
.. .. .. . .. ..
. . . .
a1 a2 a3 + 1 an + 1
Primero realizamos la operacion : Fi F1 para cada i = 2, 3, ..., n es decir:

(a1 a2 . . . ai + 1 . . . an ) (a1 + 1 a2 . . . ai . . . an ) = (1 0 . . . 1 . . . 0)
2.4. DETERMINANTES Y OPERACIONES ELEMENTALES 45

entonces

a1 + 1 a2 a3 an

1 1 0 0

1 0 1 0
|A| =
.
.. .. .. .. ..
. . . .

1 0 0 1

ahora realizamos la siguiente operacion: F1 ai Fi para i = 2, 3, ..., n, es


decir

(a1 + 1 a2 . . . ai . . . an ) (ai 0 . . . ai . . . 0) = (1 + a1 + ai a2 . . . 0 . . . an )

de esto obtenemos:

P
1 + n ai 0 0 0
i=1 1 0 0
1 1 0 0
Xn 0 1 0
1 0 1 0
|A| = = 1+ ai .. .. . . ..
.. .. .. . . .. . . . .
. . . . . i=1
0 0 1
1 0 0 1
n
X

= 1+ ai
i=1

Ejemplo 34. Calcular los siguientes determinantes:


n 1 1 1 1
n 2 1 1 1
1 1 0 1
0 1 n 1 3 1 1
1 1
i) det
2
, ii) det n 1 1 4 1
4 6 2
.. .. .. .. .. ..
9 3 9 3 . . . . . .
n 1 1 1 n

Solucion.-
46 CAPITULO 2. DETERMINANTES
i)

1 1 0 1 1 1 0 1

0 1 1 1 0 1 1 1

det = 2 3
2 4 6 2 1 2 3 1

9 3 9 3 3 1 3 1

1 1 0 1 1 1 0 1

0 1 1 1 1
F3 F1
= 6 =63 0 1 1
0 0
0 3 3 0 1 1
3 1 3 1 3 1 3 1

1 1 0 1
1 1 1
F4 3F1 0 1 1 1
= 18 = 18 1 1 0
0 1 1 0
4
0 3 4
4 3 4
=18 [4 3 4 4] = 18 (15) = 270

ii) Haciendo
Fi F1 =(n 1 1 . . . i . . . 1) (n 1 1 . . . 1 . . . 1)
=(0 0 0 . . . i 1 . . . 0), i = 2, 3, ..., n
entonces tenemos que


n 1 1 1 1 n 1 1 1 1

n 2 1 1 1 0 1 0 0 0

n 1 3 1 1 0 0 2 0 0

det n 1 1 4 1 = 0 0 0 3 0

. . .. .. .. .. .. .. .. .. ..
..
.. .. . . . . . . . . .
.

n 1 1 1 n 0 0 0 0 n1
=n (2 3 (n 1)) = n!

2.5. Matriz Adjunta


Vamos a ahora dar respuesta a la segunda interrogante. Se puede encontrar
una formula para el calculo de la inversa?
primero veamos algunas definiciones.
Definicion 36. Dada la matriz A Mn (F) si Cij = (1)i+j det(Mij ) es un
cofactor de A entonces la matriz de cofactores se define como

Cof(A) = Cij

entonces la matriz adjunta de A se define como


Adj(A) = Cof(A)t
2.5. MATRIZ ADJUNTA 47

Ejemplo 35. Sea la matriz



2 1 0
A = 1 0 1
1 2 1
entonces la matriz de cofactores es:

2 2 2 2 1 1
Cof(A) = 1 2 5 , luego Adj(A) = 2 2 2
1 2 1 2 5 1
Lema 37. Sea A Mn (F) si i 6= j entonces

[A]i1 Cj1 + [A]i2 Cj2 + + [A]in Cjn = 0 (2.8)

Demostracion. Sea la matriz A0 Mn (F) que se obtiene a partir de la matriz


A sustituyendo la fila j-esima por la i-esima fila es decir:

F1 F1
.. ..
. .

Fi Fi


A = ... , A0 = ...

Fj Fi

.. ..
. .
Fn Fn

Es claro que det(A0 ) = 0 pues tiene dos filas iguales, ademas Cjk = Cjk 0 en-
0
tonces si utilizamos la formula de cofactores en la j-esima fila de A tenemos
n
X n
X
0 0 0
0 = det(A ) = [A ]jk Cjk = [A]ik Cjk =
k=1 k=1

Teorema 38. Sea A Mn (F) es una matriz invertible, entonces


1
A1 = Adj(A)
det(A)
Demostracion. Calculemos vamos a multiplicar A por Adj(A) = Cof(A)t ,
por definicion tenemos que:
n
X n
X
[A Adj(A)]ij = [A]ik [Adj(A)]kj = [A]ik [Cof(A)]jk
k=1 k=1
Xn
= [A]ik Cjk
k=1
48 CAPITULO 2. DETERMINANTES
por el Lema 37 y el Teorema 30 tenemos que:

det(A) , i = j
[A Adj(A)]ij =
0 , i 6= 0.

As tenemos que A Adj(A) = det(A) I si A es invertible entonces


1
A= Adj(A)
det(A)
Captulo 3

Sistemas de Ecuaciones

3.1. Introduccion
Dado un sistema de ecuaciones lineales


a11 x1 + a12 x2 + + a1m xm = b1

a21 x1 + a22 x2 + + a2m xm = b2
.. .. .. (3.1)

. . . ... ..
.
..
.
..
.
..
.


an1 x1 + an2 x2 + + anm xm = bn

Se lo puede modelar como una ecuacion matricial:



a11 a12 a1m x1 b1
a21 a22 a2m x2 b2

.. .. .. .. .. = .. (3.2)
. . . . . .
an1 an2 anm xm bn
| {z } | {z } | {z }
Anm Xn1 b1n

buscamos soluciones de la ecuacion AX = b donde X Mn1 (F), es claro


que podemos considerar estas soluciones como elementos de Rn .
A lo largo del presente captulo la ecuacion AX = b denotara un sistema de
ecuaciones donde A Mnm (F), X Mm1 (F) y b Mn1 (F).

3.2. Soluciones de Sistemas de Ecuaciones Lineales


Definicion 39. Dado un sistema AX = b una solucion del sistema es una
matriz X0 tal que
AX0 = b

El sistema AX = 0 se denomina Homogeneo, por supuesto A 0 = 0 por lo


tanto siempre tiene solucion.

49
50 CAPITULO 3. SISTEMAS DE ECUACIONES
Teorema 40. Si un sistema tiene dos soluciones distintas entonces tiene
infinitas soluciones.
Demostracion. Sea el sistema AX = b si X0 , X1 son soluciones distintas de
este sistema, entonces sea

Xt = (1 t)X0 + tX1 , tR

as tenemos que:

AXt = A[(1 t)X0 + tX1 ]


= (1 t)AX0 + tAX1 = (1 t)b + tb
=b

por lo tanto Xt es solucion del sistema para cada t R.

Es decir las soluciones de un sistema de ecuaciones se pueden clasificar como:


Caso 1. Un conjunto vaco.

Caso 2. Una sola solucion.

Caso 3. Infinidad de Soluciones.


Un caso sencillo, pero interesante es cuando A Mn (F) en este caso podemos
hacer
X = A1 b
Teorema 41. Dada A Mn (F) si A1 existe si y solo si el sistema AX = b
tiene solucion unica.
Demostracion. Ver la observacion 4.

Ejemplo 36. Sea el sistema:



x + y + z = 1
x + y = 0

y z = 1

As tenemos que:

1 1 1 1 0 1
A = 1 1 0 y A1 = 1 1 1
0 1 1 1 1 2
entonces la solucion unica del sistema es:

1 0 1 1 2
X = A1 b = 1 1 1 0 = 2
1 1 2 1 3
3.3. REGLA DE CRAMER 51

3.3. Regla de Cramer


A continuacion vamos a dar un metodo para el calculo de las soluciones de
un sistema AX = b donde A Mn (F) y ademas det(A) 6= 0, conocida como
la Regla de Cramer.
Sea A Mn (F) tal que det(A) 6= 0 entonces vimos que el sistema de ecua-
ciones AX = b tiene solucion unica, dada por X = A1 b, ademas por el T.
38
1 1
A1 = Adj(A) X = Adj(A) b
det(A) det(A)
entonces podemos escribir:

x1 C11 C21 Cn1 b1
x2 1 C12 C22 Cn2 b2

.. = .
. .. . . .. .. (3.3)
. det(A) . . . . .
xn C1n C2n Cnn bn
luego h i
1
xi = C1i b1 + C2i b2 + C3i b3 + + Cni bn
det(A)
Si consideramos la matriz

a11 a12 a1(i1) b1 a1(i+1) a1n
a21 a22 a2(i1) b2 a2(i+1) a2n

Ai = .. .. .. .. .. ..
. . . . . .
an1 an2 an(i1) bn an(i+1) ann
el desarrollo por cofactores respecto de la columna i es
det(Ai ) = C1i b1 + C2i b2 + C3i b3 + + Cni bn
por lo tanto
det(Ai )
xi = , i = 1, 2, ..., n
det(A)
donde Ai es la matriz que se obtiene de A al reemplazar la columna i por la
columna b.
Ejemplo 37. Considere el sistema

x + y + z = 1
2x + y 2z = 1

x + y z = 0
En terminos de matrices tenemos:

1 1 1 x 1
2 1 2 y = 1 det(A) = 5 3 = 8
1 1 1 z 0
| {z } | {z } | {z }
A X b
52 CAPITULO 3. SISTEMAS DE ECUACIONES
el sistema tiene solucion unica, luego por la regla de Cramer sus soluciones
son:

1 1 1 1 1 1 1 1 1

1 1 2 2 1 2 2 1 1

0 1 1 1 0 1 1 1 0
x= , y= , z=
8 8 8
entonces la solucion del sistema es:

x 5/8
y = 1/2
z 1/8
Ejemplo 38. Sea el sistema de ecuaciones:


x y + z w = 1

x + y w = 0

x y + 2z = 2

x y + 3z = 3
La ecuacion matricial asociada a este sistema es:

1 1 1 1 x 1
1 1 0 1 y 0
= det(A) = 0
1 1 2 0 z 2
1 1 3 0 w 3
| {z } | {z } | {z }
A X b

La regla de Cramer no nos dice nada cuando det(A) = 0, en este caso el


sistema tiene soluciones basta ver

1 1
1 1
X0 =
0 , X1 = 1
0 0
por el T.40 en realidad tiene infinitas soluciones.
Ejemplo 39. Sea el sistema de ecuaciones:

x y = 1
(3.4)
x + y = 0
La ecuacion matricial asociada a este sistema es:

1 1 x 1
= det(A) = 0
1 1 y 0
| {z } | {z } | {z }
A X b

es claro que el sistema no tiene soluciones, pues si existiesen x, y R que


verifiquen (3.4) entonces sumando ambas se tiene que 0 = 1 lo cual es
imposible.
3.4. RESOLUCION DE SISTEMAS DE ECUACIONES LINEALES 53
Desafortunadamente este metodo solo es aplicable a sistemas cuya matriz
de coeficientes es cuadrada y ademas tiene determinante diferente de cero.
Como vimos en los anteriores ejemplos si el determinante es cero puede o
no existir soluciones. Para el caso de un sistema en general o cuya matriz
de coeficientes sea cuadrada pero tenga determinante nulo necesitamos otro
tipo de procedimiento.

3.4. Resolucion de sistemas de Ecuaciones Lineales


Las operaciones elementales por fila, que estudiamos en los captulos ante-
riores, aplicadas a la matriz aumentada:

a11 a12 a1m b1

a21 a22 a2m b2

(A|b) = .. .. .. .. ..
. . . . .

an1 an2 anm bn

son precisamente operaciones efectuadas a las ecuaciones de (3.1), estas op-


eraciones son:

1. Intercambio de ecuaciones.

2. Multiplicar a una ecuacion un escalar no nulo.

3. Suma a una ecuacion un multiplo escalar de otra ecuacion.

As si E es una matriz elemental entonces dada X0 una solucion del sistema


(3.2), X0 es tambien solucion de (EA)X0 = Eb y viceversa pues E 1 existe.
Luego X es solucion de (3.2) si y solo si es solucion de A0 X = b0 donde
(A|b) (A0 |b0 ) es decir basta analizar las soluciones de A0 X = b0 donde
(A0 |b0 ) es escalonada (reducida).

Teorema 42. Si A Mnm (F) entonces X es solucion de AX = b si y


solo si es solucion de A0 X = b0 donde (A|b) (A0 |b0 ).

Vamos a analizar esta situacion con calma, estudiando las posibles formas
que puede adquirir (A0 |b0 ) la cual asumiremos que es una matriz escalona.

3.5. Sistemas inconsistentes


Dado el sistema AX = b supongamos que (A|b) (A0 |b0 ) si el numero de
filas no nulas de A0 es menor al numero de filas no nulas de (A0 |b0 ) o de
54 CAPITULO 3. SISTEMAS DE ECUACIONES
manera equivalente hay un pivote en la fila b0 , entonces el sistema


a11 x1 + a12 x2 + + a1m xm = b1



a22 x2 + + a2m xm = b2
.. .. ..
. . .



+ a(n1)m xm = bn1

0 = bn
no tiene solucion.
Observacion 7. Es decir el sistema no tiene soluciones si la matriz (A0 |b0 )
tiene un pivote en la columna b0 .
Ejemplo 40. Sea el sistema


x + y + 3z + w =0

x + z w =1

y + z w =0

x y + 2z 2w =2
la ecuacion matricial asociada a este sistema es:

1 1 3 1 x 0
1 0 1 1 y 1

0 1 1 1 z = 0
1 1 2 2 w 2
| {z } | {z } | {z }
A X b
para resolverlo primero escribimos la matriz aumentada asociada a este sis-
tema:
1 1 3 1 0
1 0 1 1 1
(A|b) = 0 1 1 1 0


1 1 2 2 2
ahora procedemos a encontrar su forma escalonada:

1 1 3 1 0 1 1 3 1 0

1 0 1 1 1 0 1 2 2 1
(A|b) = F2F2
0 1 1 1 0 F4 F1 0 1 1 1 0

1 1 2 2 2 0 2 1 3 2

1 1 3 1 0 1 1 3 1 0
(1)F2 0 1 2 2 1 0 1 2 2 1
F4 +2F
2
F3 +F2 0 0 3 1 3 0 0 3 1 1
0 2 1 3 2 0 0 3 1 0

1 1 3 1 0


F4 F3 0 1 2 2 1
0 0
0 0 3 1 1 = (A |b )

0 0 0 0 1
3.6. SISTEMAS CONSISTENTES 55

como el numero de filas de A0 es menor que el numero de filas de (A0 |b0 )


(o hay un pivote en la fila b0 ), el sistema no tiene solucion, basta ver el
sistema equivalente


x + y + 3z + w = 0

y + 2z + 2w = 1

3z + w = 1

0 = 1

3.6. Sistemas consistentes


Dado el sistema AX = b y su equivalente (A0 |b0 ) vimos que si el numero de
filas no nulas de A0 es menor al numero de filas no nulas de (A0 |b0 ) el sistema
es inconsistente (No tiene soluciones).
Si el numero de filas no nulas de A0 es igual al numero de filas no nulas de
(A0 |b0 ) el sistema tiene solucion.
Entonces restan estudiar dos casos:

3.6.1. Soluciones unicas


Dado el sistema AX = b supongamos que (A|b) (A0 |b0 ) si

1. El numero de filas no nulas de A0 es igual al numero de filas no nulas


de (A0 |b0 ). (El sistema tiene solucion).

2. El numero de filas no nulas de A0 es igual a m el numero columnas de


A.

el sistema tiene solucion unica.

Ejemplo 41. Sea el sistema:




x y + z = 1

x + y = 0

x y + 2z = 2

y z = 1

La ecuacion matricial asociada a este sistema es:



1 1 1 1
1 x 0
1 0 y =
1 1 2 2
z
0 1 1 | {z } 1
| {z } X | {z }
A b
56 CAPITULO 3. SISTEMAS DE ECUACIONES
ahora escalonamos la matriz aumentada del sistema:

1 1 1 1 1 1 1
1
1 1 0 0 F2 +F1 0 0 1 1
(A|b) = 1 1





2 2 F3 F1 0 0 1 1
0 1 1 1 0 1 1 1

1 1 1 1
F2 F4 0 1 1 1
= (A0 |b0 )
F4 F3 0 0 1 1
0 0 0 0

As el sistema tiene solucion unica, para determinarla basta resolver el


sistema asociado a (A0 |b0 ) o seguir escalonando hasta conseguir la matriz
escalona reducida.

Forma 1: El sistema asociado a (A0 |b0 ) es:



x y + z = 1
y z = 1

z = 1

entonces z = 1, y = 2 y x = 1 + y z = 1 + 2 1 = 2 luego la solucion


unica del sistema es:
2
X= 2
1

Forma 2: Continuemos el proceso de escalonamiento:


1 1 1 1 1 0 0
2
0 1 1 1 F1 +F2 0 1 0 2
(A|b)
0 0 1 1 F2 +F3 0 0 1
1
0 0 0 0 0 0 0 0

as la solucion es
x 2
y = 2
z 1

Ejemplo 42. Resolver el sistema



3x y + z = 1
x + y 2z = 2

2x z = 5
3.6. SISTEMAS CONSISTENTES 57

Solucion.- Consideremos la matriz aumentada del sistema y escalonamos:



3 1 1 1 1 1 2 4 1 1 2 4
F F F F
1 1 2 2 1 3 1 1 2 2 2 1 0 2 4 6
F3 2F1
2 0 1 5 2 0 1 5 0 2 5 13

1 1 2 4 1 0 0 1
F3 F2 F +F
0 1 2 3 1 2 0 1 0 11
1/2F2 F 2F
0 0 1 7 2 3
0 0 1 7
| {z }
! solucion

As la solucion unica del sistema es



x 1
y = 11
z 7

3.6.2. Infinitas soluciones


Dado el sistema AX = b supongamos que (A|b) (A0 |b0 ) si

1. El numero de filas no nulas de A0 es igual al numero de filas no nulas


de (A0 |b0 ). (El sistema tiene solucion).

2. El numero de filas no nulas de A0 es diferente al numero de pivotes de


A0 .

el sistema tiene infinitas soluciones, ademas hay un parametro por cada


columna de A0 que no tiene pivote.

Ejemplo 43. Sea el sistema:



x y + z w = 1
2x + y + 5z + w = 1

La ecuacion matricial asociada a este sistema es:



x
1 1 1 1 y =
1
2 1 5 1 z 1
| {z } w | {z }
A | {z } b
X

ahora escalonamos la matriz aumentada del sistema:



1 1 1 1 1 F2 2F1 1 1 1 1 1
(A|b) = = (A0 |b0 )
2 1 5 1 1 (1/3)F2 0 1 1 1 1
58 CAPITULO 3. SISTEMAS DE ECUACIONES
las columnas tres y cuatro de A0 no contienen pivotes, las variables z, w
asociadas a estas columnas son las que se deben parametrizar para resolver
el sistema.
x y + z w = 1
y + z + w = 1
despejando tenemos que:

y = 1 z w, z =1+yz+w

y parametrizando z = t y w = r tenemos que




x = 2t

y = 1 t r

z = t

w = r
o de manera equivalente

1 1 1
0 2 0
X=
0 + t 1 + r 0 , t, r R
0 0 1
por ejemplo algunas soluciones del sistema son:

1 1 1 0
0 2 0 0
X1 =
0 + 0 1 + (1) 0
=
0

0 0 1 1

1 1 1 2
0 2 0 4
X2 =
0 + (2) 1 + 3 0
=
2
0 0 1 3
Ejemplo 44. Sea la matriz

1 1 1 1
A = 0 1 1 2
2 1 1 0
Resuelva el sistema AX = 0.

Solucion.- El sistema homogeneo es:



x
1 1 1 1 y 0 x y + z + w = 0
0 1 1 2 = 0 y + z + 2w = 0
z
2 1 1 0 0 2x y + z = 0
w
3.6. SISTEMAS CONSISTENTES 59

Para resolver el sistema consideremos:



1 1 1 1 1 1 1 1
0 1 1 2 F3 2F 1 0 1 1 2
2 1 1 0 0 1 1 2

1 1 1 1 1 0 0 1
F3 +F2 F F
0 1 1 2 1 2 0 1 1 2
0 0 0 0 0 0 0 0
El sistema tiene infinitas soluciones, parametrizamos z = t, w = r, luego

x w = 0
, x = r, y = t + 2r
y + z + 2w = 0
as las soluciones son:

x 0 1
y 1 2
+r ,
z =t 1 0 t, r R
w 0 1
Ejemplo 45. Resolver el sistema

x y + z w + u = 1
2x + z 2w = 3

x + y w u = 4
Solucion.- Consideremos:

1 1 1 1 1 1 1 1 1 1 1 1
F F
2 0 1 2 0 3 3 1 0 2 1 0 2 5
F 2 2F1
1 1 0 1 1 4 0 2 1 0 2 5

1 1 1 1 1 1
F3 F2
0 2 1 0 2 5
0 0 0 0 0 0

Hacemos z = t, w = r, u = s entonces y = 5/2 + z/2 + u, x = 1 + y z +


w u luego
5 t 3 t
y= + + s, x= + r, entonces
2 2 2 2


x 3/2 1/2 1 0
y 5/2 1/2 0 1

z = 0 +t 1 +r 0 + s 0 , t, r, s R

w 0 0 1 0
u 0 0 0 1
60 CAPITULO 3. SISTEMAS DE ECUACIONES
Ejemplo 46. Resuelva el sistema AX = b donde:


0 1 2 1 1 0 1
0 1 1 1 1 0 0
A= 0

y b=
1
0 0 1 1 0
0 1 1 0 0 0 1

Solucion.- Consideremos la matriz aumentada del sistema:



0 1 2 1 1 0 1 0 1 2 1 1 0 1
0 1 1 1 1 0 0 F2 +F1 0 0 3 2 0 0 1

0 0 0 1 1 0 1 F4 F1 0 0 0 1 1 0 1
0 1 1 0 0 0 1 0 0 3 1 1 0 2

0 1 2 1 1 0 1
F4 +F2 0 0 3 2 0 0 1

0 0 0 1 1 0 1
0 0 0 1 1 0 1

0 1 2 1 1 0 1
F4 +F3 0 0 3 2 0 0 1

(1)F3 0 0 0 1 1 0 1
0 0 0 0 0 0 0

As el sistema tiene infinitas soluciones:



x2 + 2x3 + x4 + x5 = 1
3x3 + 2x4 = 1

x4 x5 = 1

ponemos x1 = t, x5 = r, x6 = s entonces x4 = 1 + x5 , x3 = (1/3)


(2/3)x4 , x2 = 1 + 2x3 + x4 + x5 entonces las soluciones del sistema son:
2 2
x1 = t, x2 = r, x3 = 1 r, x4 = 1 + r, x5 = r, x6 = s o
3 3

x1 0 1 0 0
x2 0 0 2/3 0

x3 1 0 2/3 0
= + t + r + s, r, t, s R
x4 1 0 1 0

x5 0 0 1 0
x6 0 0 0 1
Ejemplo 47. Dado el sistema

ax + y + z = 2a 1
x + ay + z = a

ax + y + az = 3a + 3
3.7. PROBLEMAS DE APLICACION 61
La ecuacion matricial asociada a este sistema es:

a 1 1 x 2a 1
1 a 1 y = a
1 1 a z 3a + 3

Vamos a formar la matriz aumentada del sistema y a escalonar:


a 1 1 2a 1 1 1 a 3a + 3
F F
(A|b) 1 a 1 a 1 3 1 a 1 a
1 1 a 3a + 3 a 1 1 2a 1

1 1 a 3a + 3
F2 F1
0 a 1 1 a 4a 3
a 1 1 2a 1

1 1 a 3a + 3
F3 aF1
0 a 1 1 a 4a 3
0 1 a 1 a 3a a 1
2 2

1 1 a 3a + 3
F3 +F2
0 a1 1 a 4a 3
0 0 a a + 2 3a + 3a 4
2 2

Analicemos primero: Si a = 1 entonces el sistema



1 1 1 0

0 0 0 1

0 0 0 2

no tiene solucion. Supongamos que a 6= 1 y como a2 a + 2 = 0 si a = 2


entonces
1 1 2 9
0 3 3 15
0 0 0 2
tampoco tiene solucion. Si a 6= 1, 2 entonces el sistema tiene solucion
unica.

3.7. Problemas de aplicacion


Ejemplo 48. Un espa sabe que en cierto aeropuerto secreto hay estaciona-
dos 60 aviones, entre cazas y bombarderos. El espa desea determinar cuantos
de los 60 aviones son cazas y cuantos son bombarderos. Hay un tipo de co-
hete que es transportado por ambas clases de aviones; el caza porta seis de
estos cohetes y el bombardero solo dos. El agente sabe que con 280 cohetes
quedan pertrechados por completo todos los aviones que se hallan en el aerop-
uerto. Ademas, se entera de que en esa base el numero de aviones caza es
62 CAPITULO 3. SISTEMAS DE ECUACIONES
el doble del numero de bombarderos. Calcule el numero de aviones caza y
bombarderos que hay en el aeropuerto.

Solucion 1. Sea C en numero de cazas y B el de bombarderos, entonces


tenemos es sistema:
C + B = 60
6C + 2B = 280

C 2B = 0
resolviendo tenemos que C = 40 y B = 20

Ejemplo 49. Un industrial de la mueblera fabrica sillas, mesas para cafe y


mesas para comedor. Se necesitan 10 minutos para lijar una silla, 6 para
pintarla y 12 para barnizarla. Se necesitan 12 minutos para lijar una mesa
para cafe, 8 para pintarla y 12 para barnizarla. Se necesitan15 minutos para
lijar una mesa de comedor, 12 para pintarla y 18 para barnizarla. La mesa
de lijado esta disponible 16 horas a la semana, la mesa de pintura 11 horas
a la semana y la mesa de barnizado 18 horas. Cuantas unidades de cada
mueble deben fabricarse por semana de modo que las mesas de trabajo se
ocupen todo el tiempo disponible?

Solucion 2. Sea x en numero de sillas, y el numero de mesas para cafe y z el


numero de mesas para comedor, entonces si pensamos en minutos podemos
formar el sistema:

10x + 12y + 15z = 960
6x + 8y + 12z = 660

12x + 12y + 18z = 1080
Podemos resolver este sistema utilizando MatLab del siguiente modo:

1. Escribimos A = [10 12 15; 6 8 12; 12 12 18] y presionamos


ENTER.

2. Luego escribimos b = [960; 660; 1080] y presionamos ENTER.

3. Finalmente escribimos: A \ b. (o de manera equivalente inv(A) b)

as tenemos que:
x 30
y = 30
z 20
Parte II

Algebra Lineal

63
Captulo 4

Espacios Vectoriales

4.1. Introduccion

Vamos a estudiar la estructura de Espacio Vectorial, la cual es en esencia,


una generalizacion del espacio Rn , es por esta razon que este sera nuestro
principal modelo de espacio vectorial, en realidad los espacio vectoriales que
nos interesan son los de dimension finita, los cuales son identicos a Rn .

4.2. Definicion y ejemplos.

Un campo F es un conjunto en el cual se definen dos operaciones, suma y


producto las cuales cumplen todos los axiomas de los numeros reales. En
nuestro caso F siempre sera R o C.

Definicion 43. Un Espacio Vectorial es un conjunto V y un campo F en


el cual estan definidas dos operaciones +, (Suma y producto). los el-
ementos de V se denominan vectores y los elementos de F escalares, la
primera operacion se denomina Suma de Vectores y el segunda producto por
un escalar, las cuales cumplen las siguientes propiedades: Sean u, v, w V
y , F entonces

65
66 CAPITULO 4. ESPACIOS VECTORIALES
S1. Clausura P1. Clausura

u+v V uV

S2. Asociatividad P2. Asociatividad

u + (v + w) = (u + v) + w ( ) v = ( v) = ( v)

S3. Conmutatividad

u+v =v+u

S4. Neutro aditivo P3. Neutro multiplicativo

! 0 V : v + 0 = v 1v =v

S5. Inverso aditivo

! (v) V : v + (v = 0)

D. Distributividad

(u + v) = u + u

( + ) u = u + u

Es importante notar que un e.v. es un conjunto V y campo F, junto a dos


operaciones, es decir al conjunto V se le puede asociar otro campo F1 y otras
operaciones, no existe una sola forma de hacer a V un espacio vectorial.
Si V es un espacio vectorial sobre el campo F con las operaciones +, es-
cribiremos (VF , +, ) si las operaciones se asumen conocidas escribiremos VF .
Las operaciones de espacio vectorial tienen una interpretacion geometrica:
4.2. DEFINICION Y EJEMPLOS. 67
Ejemplo 50. Dado n N el conjunto

Rn = {(a1 , a2 , ..., an ) : a1 , a2 , ..., an R}

se denomina Espacio vectorial Euclidiano n dimensional. Este es efectiva-


mente un espacio vectorial sobre el campo R, con las operaciones:

u + v =(u1 , u2 , ..., un ) + (v1 , v2 , ..., vn ) = (u1 + v1 , u2 + v2 , ..., un + vn )


v =(v1 , v2 , ..., vn ) = (v1 , v2 , ..., vn )

El elemento Neutro aditivo es el vector nulo 0 = (0, 0, ..., 0). Dado v =


(v1 , v2 , ..., vn ) el inverso aditivo de u es v = (v1 , v2 , ..., vn ).
Notemos que si n = 1 entonces Rn = R, es decir R es un espacio vectorial
sobre si mismo. En los casos de n = 2, 3, se denomina plano euclidiano y
espacio euclidiano tridimensional, respectivamente.

Ejemplo 51. El conjunto (Mnm (F), +, ) donde el producto es el producto


por un escalar, es tambien un e.v. el elemento neutro aditivo es la matriz
nula y dada A Mnm (F) el inverso aditivo es la matriz A dada por

[A]ij = [A]ij .

Ejemplo 52. Sea X un conjunto no vaco y sea F un campo, definimos el


conjunto:
F(X; F) = {f : es un funcion de X en F }
Definimos las operaciones de suma y producto por un escalar:

1. Si f, g F(X; F) la suma defunciones f + g definida por:

(f + g)(x) = f (x) + g(x), x F

entonces f + g F(X; F).

2. Si y f F(X; F) entonces definimos el producto f por:

( f )(x) = f (x), x F

entonces f F(X; F).

As F(X; F) con estas operaciones es un e.v. sobre el campo F. el elemento


Neutro aditivo en F(X; F) es la funcion constante igual a 0 y dado f
F(X; F) el neutro aditivo es f .

Existen muchos otros ejemplos de espacios vectoriales, veremos mas ejemplos


mas adelante.
68 CAPITULO 4. ESPACIOS VECTORIALES
4.3. Propiedades de los espacio vectoriales
Para poder trabajar con los e.v. con mas comodidad veamos el siguiente:

Teorema 44. Sea VF un espacio vectorial y u, v, w V , , F entonces

1. u + w = v + w u = v.

2. Si 0 F entonces 0 u = 0 V . Del mismo modo si 0 V entonces


0 = 0.

3. Si v = 0 si y solo si = 0 o v = 0.

4. (1) v = v.

Demostracion. 1. Supongamos que u + w = v + w entonces

u = u + 0 =u + (w + (w))
=(u + w) + (w)
=(v + w) + (w)
=v + (w + (w))
=v + 0 = v.

por lo tanto u = v, el recproco es evidente.

2. 0 u = (0 + 0) u = 0 u + 0 u si 0V = 0 como 0 + (0 u) = 0 u entonces

0+0u=0u=0u+0u

por el item anterior 0 u = 0.

3. Supongamos que 6= 0 entonces existe 1 luego si v = 0 tenemos


que:
1 ( v) = 1 0 = 0
por lo tanto v = 0.

4.
v + (1) v = 1 v + (1) v = (1 + (1)) v = 0 v = 0.

Observacion 8. De la primera parte del T.44 se tiene que si w + u = w =


w + 0 entonces u = 0.
De aqu en adelante escribiremos u + (v) = u v y v = v.

Diremos que dos vectores v, u V son paralelos si uno es multiplo escalar


del otro. Es decir si existe F tal que u = v.
4.3. PROPIEDADES DE LOS ESPACIO VECTORIALES 69

Ejemplo 53. Los vectores (1, 2), (2, 4) R2 son paralelos pues

(2, 4) = 2 (1, 2)

Ejemplo 54. Sean (2, 3, 1), (2, 1, 1) R3 , no son paralelos pues si existe
R tal que (2, 3, 1) = (2, 1, 1) esto ocurre si y solo si existe R
tal que (2, 3, 1) = (2, , ) luego

2 = 2
3 =

1 =

as de la primera y segunda ecuacion tenemos que = 1 y = 1, lo cual


es imposible.

Proposicion 45. Supongamos que u, w VR son paralelos a v VR , en-


tonces si R , u + w es paralelo a v.

Demostracion. Si u, w son vectores paralelos a v existen 1 , 2 R tales que


u = 1 v y w = 2 v entonces

u + w =(1 v) + (2 v)
=(1 v) + ( 2 ) v
=(1 + 2 )v

por lo tanto existe = 1 + 2 R tal que u + w = v luego son


paralelos.

Observacion 9. Sean u = (a, b) y v = (c, d) vectores en R2 , supongamos


que son vectores no nulos, son paralelos si y solo si existe 6= 0 tal que
u = v luego a = c, b = d si y solo si

ad = cd, bc = cd

luego u, v son paralelos si y solo si ad bc = 0.


70 CAPITULO 4. ESPACIOS VECTORIALES
4.4. Subespacios vectoriales
De aqu en adelante V denotara un espacio vectorial sobre el campo F, el
cual puede ser R o C.

Consideremos W V donde VF es un espacio vectorial, el conjunto W con


las operaciones de V hereda de forma natural las propiedades S2, S3, P 2, P 3, D
pues son propiedades generales respecto a los elementos de V .

Las otras propiedades, en general no se hereda, por ejemplo sea

S = {(1, b) : b R} R2

es claro que 0 6 S, ademas (1, 1) S pero (1, 1) = (1, 1) 6 S. Dado

W V nos interesa el caso en que W con las operaciones de V , aun es un


espacio vectorial dentro de V .
Definicion 46. Sea VF un espacio vectorial, si W V no vaco, tal que
W es un espacio vectorial, con las operaciones de V , se dice que W es un
Subespacio Vectorial de V sobre el campo F. En tal caso escribiremos

W F V, o simplemente W V

Es decir un Subespacio Vectorial o simplemente un subespacio de V , es un


subconjunto de V que cumple todas las propiedades de espacio vectorial.
Como ya dijimos algunas propiedades las hereda cualquier subconjunto de
V , as nos podemos concentrar solo en la verificacion de S1, S4, S5, P 1, en
realidad esto es un poco mas facil.
Teorema 47. W V es un subespacio de VF si y solo si:
1. 0 W .

2. Para todo v, u W y F se tiene que

u + v W. (4.1)

Demostracion. ) Si W V y v, u W , F se tiene, de manera trivial,


que u + v W , por S1, P 1.

) Para probar S1 basta toma = 0 en la ecuacion (4.1). Por el item 1, W


tiene neutro aditivo, luego S4 es verdad. Para probar S5, sea v V
entonces como 0 V y tomando = 1 , nuevamente por (4.1)se
tiene que 0 + (1)v = v W . Finamente haciendo u = 0 en (4.1) si
v W y F entonces v W por lo tanto W V .

La demostracion del siguiente resultado es inmediata.


4.4. SUBESPACIOS VECTORIALES 71

Proposicion 48. Si V es un espacio vectorial, entonces si 0 V

{0} V, V V
a 0
Ejemplo 55. Definamos el conjunto W = b 0 : a, b R M2 (R)
entonces

1. Poniendo a = b = 0 entonces 00 00 W .

2. Dadas ab11 00 , ab22 00 W y R entonces
a1 0 a2 0 a1 +a2 0
b1 0 + b2 0 = b1 +b2 0 W

por lo tanto W M2 (R).

Ejemplo 56. Sea V un e.v. sobre R, dado v0 V definamos

L = { v0 : R}

entonces

1. Si = 0 entonces 0 v0 = 0 L.

2. Supongamos que u, v L y sea R, entonces existen 1 , 2 R


tales que u = 1 v0 , v = 2 v0 luego

u + v = 1 v0 + (2 v0 ) = v0 (1 + 2 )
| {z }
R

entonces por definicion u + v L, por lo tanto L V .

Supongamos que V = Rn , entonces L es una recta, el vector v0 se denomina


vector direccional de L, como 0 L, se dice que la recta pasa por el origen
de coordenadas.
En general un recta en Rn es el conjunto

L = { v0 + P0 : R}
72 CAPITULO 4. ESPACIOS VECTORIALES

por ejemplo en R2 la recta

L = { (1, 2) + (1, 2) : R}

tiene a (1, 2) como vector direccional y pasa por el punto (1, 2), es un
subespacio de R2 ? para ser un subespacio de R2 un condicion necesaria es
(0, 0) L pero si esto fuese as, existira R tal que

(0, 0) = (1, 2) + (1, 2) = ( + 1, 2 2)

pero esto nos lleva a que 1 = = 1 lo cual es imposible, luego (0, 0) 6 L,


es decir no es un subespacio de R2 .

En Rn todas las rectas que pasan por el origen son subespacios de Rn .

Vamos a ver una generalizacion del ejemplo anterior.

Ejemplo 57. Sean v1 , v2 , ..., vn V definamos

W = {1 v1 + 2 v2 + + n vn : 1 , 2 , ..., n F }

entonces

1. Si 1 = 2 = ... = n = 0 entonces 0 W .

2. Supongamos que

1 v1 + 2 v2 + + n vn , 1 v1 + 2 v2 + + n vn W

y sea F, entonces

(1 v1 + 2 v2 + + n vn ) + (1 v1 + 2 v2 + + n vn ) =
(1 + 1 ) v1 + (2 + 2 ) v2 + + (n + n ) vn W
| {z } | {z } | {z }
F F F

por lo tanto W F V .
4.5. SUBESPACIO GENERADO 73

Ejemplo 58. Del E.52 sabemos que F(X; F) es un espacio vectorial, si


F = R escribiremos F(X; F) = F(X) y si X = R entonces escribimos
F(X) = F.
Consideremos 1, x, x2 , ..., xn F, entonces por el E.57 el conjunto

Pn = {a0 + a1 x + a2 x2 + + an xn : a0 , a1 , ..., an R} (4.2)

es un subespacio vectorial sobre F, denominado el conjunto de los polinomios


de grado n. El conjunto de los polinomios de cualquier orden es tambien un
espacio vectorial, este lo denotamos por P .
Ejemplo 59. Sea A Mnm (F) y consideremos el conjunto

N = {X Mm1 (F) : AX = 0}

el conjunto de soluciones del sistema homogeneo AX = 0. Entonces


1. Como A 0 = 0 entonces 0 N .

2. Supongamos que A X1 = 0 y A X2 = 0 y F entonces

A(X1 + X2 ) = A X1 + A (X2 ) = 0 + 0 = 0

luego X1 + X2 N .
por lo tanto N Mm1 (F).

4.5. Subespacio generado


Vamos a analizar el ejemplo 57 con mas profundidad. Para esto veamos
primero algunos ejemplos:
Ejemplo 60. Sea V = R2 , y consideremos

W = {(1, 1) + (2, 2) : , R} R2

notemos que (1, 1) + (2, 2) = ( 2 )(1, 1) entonces

W = {t (1, 1) : t R}, pues

2 = t siempre tiene solucion.


Ejemplo 61. Sea el subespacio

W = {(2, 1) + (2, 1) : , R} R2

Dado (a, b) R2 notemos que (a, b) W si y solo si existen , R tales


que
(a, b) = (2, 1) + (2, 1)
74 CAPITULO 4. ESPACIOS VECTORIALES
si y solo si el siguiente sistema tiene solucion

2 2 = a 2 2
, como det = 4 6= 0
= b 1 1

resulta que (a, b) W por lo tanto W = R2 .


Ejemplo 62. Sea el subespacio
W 0 = {(2, 1) + (2, 1) + (0, 2) : , , R} R2
entonces W 0 R2 , sea (a, b) R2 notemos que (a, b) W 0 si y solo si el
siguiente sistema tiene solucion

2 + 2 = a
1 + + 2 = b
se puede hacer verificar que:

2 2 0 a 1 3 2 a + b

1 1 2 b 0 3 2 a + 2b

luego W 0 = R2 .

De estos ejemplos se desprenden algunas interrogantes:


1. Todo subespacio de un espacio V es de la forma del E.57?
2. En los casos en que esto sea verdad Es numero de vectores para
escribir W como en el E. 57, es unico?
3. Como identificarlos?.
Para la primera interrogante podemos pensar en el espacio P pues dado
un conjunto {p1 (x), p2 (x), ..., pm (x)} P siempre podemos encontrar un
polinomio p(x) de grado mas grande que el grado de los polinomios pi (x), i =
1, 2, ..., m luego no existen a1 , a2 , ..., am R tales que
a1 p1 (x) + a2 p2 (x) + ... + am pm (x) = p(x)
Por lo tanto no todo espacio vectorial se puede escribir como en el E.57. En
realidad los espacios vectoriales que son de interes en el algebra lineal son
aquellos que s se pueden representar de esta forma y son nuestro objeto
de estudio. Bajo esta consideracion la segunda y tercera interrogante seran
estudiadas en lo que va del captulo.
Definicion 49. Sean v1 , v2 , ..., vn VF una Combinacion Lineal de estos
elementos es un vector
1 v1 + 2 v2 + ... + n vn
donde 1 , 2 , ..., n F.
4.5. SUBESPACIO GENERADO 75

Sea S = {v1 , v2 , ..., vn } V entonces el subespacio

hSi = {1 v1 + 2 v2 + ... + n vn : 1 , 2 , ..., n F}

se denomina Espacio Generado por S.


a 0
Ejemplo 63. En el E.55 vimos que W = b 0 : a, b R M2 (R)
notemos que
a 0
W = b 0 : a, b R = a 10 00 + b 01 00 : a, b R
1 0 1 0
es decir W = 00 , 00

Proposicion 50. Sean W, U F V entonces W U V .

Demostracion. Como W U V entonces 0 W 0 U luego 0 W U .


Ahora sean u, v W U y F entonces u, v W, u, v U por el T.47
u + v W y u + v U luego

u + v W U

El subespacio hSi es el mas pequeno tal que contiene a conjunto S, en el


siguiente sentido:
T
Teorema 51. Sea {W : S W W V }, entonces es claro que S hSi
as \
hSi {W : S W W V }

por otro lado si S W y W V entonces hSi W por la clausura de la


suma de vectores y el producto por un escalar, entonces
\
{W : S W W V } hSi
T
por lo tanto {W : S W W V } = hSi.

Como dijimos antes los e.v. que nos interesan son precisamente del tipo hSi.
recordemos que:
Veamos por ejemplo:

{(2, 1), (2, 1)} = {(2, 1), (2, 1) , (0, 2)} = R2

Supongamos que S = {(2, 1), (2, 1) , (0, 2)} y notemos que

a (2, 1) + b (2, 1) = (0, 2) donde a = 1, b = 1


76 CAPITULO 4. ESPACIOS VECTORIALES

entonces si v {(2, 1), (2, 1) , (0, 2)} existen , , R tales que
v = (2, 1) + (2, 1) + (0, 2)

= (2, 1) + (2, 1) + a (2, 1) + b (2, 1)
= ( + a) (2, 1) + ( + b) (2, 1)
= ( 1) (2, 1) + ( + 1) (2, 1)
es decir si S0
= {(2, 1), (2, 1)} hemos probado que hSi hS 0 i, ademas si
u hS 0 i existen , R tales que
u = (2, 1) + (2, 1) = (2, 1) + (2, 1) + 0 (0, 2) hSi
por lo tanto
hSi = hS 0 i
as el elemento (0, 2) no es indispensable para que hSi = R2 , esto gracias a
que es combinacion lineal de los otros elementos de S. Esto nos da la pauta
que debemos seguir.
Proposicion 52. Sea S = {v1 , v2 , ..., vn } VF
1. Si S 0 S entonces hS 0 i hSi.

2. Si v hS 0 i entonces hS 0 i = S 0 {v}
Demostracion. 1. Supongamos, sin perdidas de generalidad, que S 0 =
{v1 , v2 , .., vn1 } entonces si
v = 1 v1 + 2 v2 + ... + n1 vn1 hS 0 i
se tiene que
v = 1 v1 + 2 v2 + ... + n1 vn1 + 0 vn hSi
por lo tanto hS 0 i hSi. El caso general es evidente.
2. Supongamos que S 0 = {v1 , v2 , ..., vm } si v hS 0 i entonces existen
escalares a1 , a2 , ..., am F tales que
a1 v1 + a2 v2 + ... + am vm = v
por el la primera parte de esta proposicion sabemos que

hS 0 i S 0 {v}
entonces sea w S 0 {v}, por definicion existen b1 , b2 , ..., bm , bm+1 F
tales que
w =b1 v1 + b2 v2 + ... + bm vm + bm+1 v

=b1 v1 + b2 v2 + ... + bm vm + bm+1 a1 v1 + a2 v2 + ... + am vm
= (b1 + bm+1 a1 ) v1 + (b2 + bm+1 a2 ) v2 + ... + (bm + bm+1 am ) vm
| {z } | {z } | {z }
1 2 m
0
=1 v1 + 2 v2 + ... + m vm S
4.6. DEPENDENCIA E INDEPENDENCIA LINEAL 77

luego S 0 = S 0 {v}.

4.6. Dependencia e independencia lineal


Dado un conjunto finito S VF diremos que es un conjunto de generadores
de V si
hSi = V
es decir S = {v1 , v2 , ..., vn } es un conjunto de generadores de V si para todo
v V existen 1 , 2 , ..., n F tales que

1 v1 + 2 v2 + ... + n vn = v

Ejemplo 64. los conjuntos

{(2, 1), (2, 1), }, {(2, 1), (2, 1), (0, 2)}, {(1, 0), (0, 1)}

son conjuntos de de generadores de R2 .

Ejemplo 65. El conjunto S = {e1 , e2 , ..., en } Rn donde

e1 = (1, 0, ..., 0), e2 = (0, 1, 0, ..., 0), ..., en = (0, 0, ..., 0, 1)

es un conjunto de generadores de Rn pues dado (a1 , a2 , ..., an ) Rn podemos


escribir
n
X
(a1 , a2 , ..., an ) = ai ei
i=1

Ejemplo 66. El espacio vectorial F no tiene un conjunto finito de gener-


adores, sin embargo Pn F si esta generado por un conjunto finito, basta
considerar {1, x, x2 , ..., xn }.

Ejemplo 67. Sea S = {(1, 1, 2), (0, 1, 1), (1, 2, 1), (2, 3, 3), (0, 2, 2)}
R3 , entonces v hSi si y solo si existen escalares x1 , x2 , x3 , x4 , x5 tales que


v1 1 0 1 2 0
v2 = x1 1 +x2 1 +x3 2 +x4 3 +x5 2
v3 2 1 1 3 2

es decir si y solo si el siguiente sistema tiene solucion:



x1 x3 2x4 = v1
x1 + x2 + 2x3 + 3x4 + 2x5 = v2

2x1 + x2 x3 3x4 + 2x5 = v2
78 CAPITULO 4. ESPACIOS VECTORIALES
escalonando tenemos:

1 0 1 2 0 v1 1 0 1 2 0 v1

1 1 2 3 2 v2 0 1 1 1 2 v1 + v2

2 1 1 3 2 v3 0 0 0 0 0 3v1 v2 + v3

este sistema tiene solucion si y solamente si 3v1 v2 + v3 = 0 es decir si


y solo si

v1 1/3 1/3
v2 = t 1 + r 0 , t, r R
v3 0 1

as hSi = {(1/3, 1, 0), (1/3, 0, 1)} .

Hemos encontrado un conjunto mas simple que genera el mismo espacio que
S, aun queda por determinar si este conjunto es el mas pequeno posible, en
el camino hemos perdido informacion acerca de los elementos de S.

Definicion 53. Dado VF un espacio vectorial, el conjunto S = {v1 , v2 , ..., vn }


V se denomina Linealmente Independientes (L.I.) si dado 1 , 2 , ..., n F
tales que

1 v1 + 2 v2 + ... + n vn = 0 1 = 2 = ... = n = 0.

Si S no es linealmente independiente diremos que es Linealmente Dependi-


ente (L.D.). Es decir S es L.D. si existen 1 , 2 , ..., n F no todos iguales
a cero, tales que
1 v1 + 2 v2 + ... + n vn = 0.

Observacion 10. Notemos que si S = {v1 , ..., vn } es L.D. entonces existen


1 , 2 , ..., n F no todos iguales a cero, tales que

1 v1 + 2 v2 + ... + n1 vn1 + n vn = 0.

supongamos que n 6= 0 entonces



1 2 1 n
vn = v1 v2 ... vn1 vn1
n n n n1

es decir, si S 0 = S {vn } por definicion vn hS 0 i entonces como S =


S 0 {vn } por la P.52 tenemos que hSi = hS 0 i.
Nuevamente podemos preguntarnos si S 0 es L.I. si no lo es, encontraremos
S 00 S 0 S tal que hS 00 i = hS 0 i = hSi, eventualmente podemos encontrar
B S tal que B = hSi.

Resumiendo hemos probado:


4.6. DEPENDENCIA E INDEPENDENCIA LINEAL 79

Teorema 54. Si S VF es un conjunto de generadores de V , entonces


existe B S tal que hBi = V . Ademas ningun subconjunto propio de B
genera V (B es L.I.).
Demostracion. En la Ob. 10 hemos probado que existe B S L.I. que
genera V , supongamos que B = {v1 , v2 , ..., vm } y sea A B, sin perdida de
generalidad podemos suponer que A = {v2 , v3 , ..., vm }.
Si hAi = V entonces v1 hAi, luego existen 2 , 3 , ..., m F tales que

v1 = 2 v2 + 3 v3 + ... + m vm

entonces
(1) v1 + 2 v2 + 3 v3 + ... + m vm = 0
luego B no es L.I. lo cual es una contradiccion, con lo que queda demostrado
el teorema.

Ejemplo 68. Sean S = {(1, 2, 1), (1, 0, 1), (2, 1, 1), (1, 2, 1)} vamos a
determinar si es L.I o no. Supongamos que

1 1 2 1 0
1 2 + 2 0 + 3 1 + 4 2 = 0 (4.3)
1 1 1 1 0

el conjunto S sera L.I. si los unicos escalares que hacen esto posible son
todos iguales a cero caso contrario el conjunto sera L.D. notemos que (4.3)
es equivalente a un sistema de ecuaciones, que en su forma matricial es:

1
1 1 2 1 2 0
2 0 1 2 0
3 =
1 1 1 1 0
4
es importante notar que las columnas de la matriz de coeficientes son los
vectores de S. Escalonando tenemos:

1 1 2 1 1 1 2 1
2 0 1 2 0 2 1 0
1 1 1 1 0 0 0 0
as existen una infinidad de escalares 1 , 2 , 3 , 4 que satisfacen (4.3) no
todos iguales a cero, luego el conjunto es L.D.
Resolviendo el sistema podemos escribir: 3 = t, 4 = r luego 2 = t/2, 1 =
(3/2)t r. Entonces


3 1 1 2 1 0
t
t r 2 0 + t 1 + r 2 = 0 (4.4)
2 2
1 1 1 1 0
80 CAPITULO 4. ESPACIOS VECTORIALES
Siguiendo los pasos de la Ob. 10 podemos decir que (1, 2, 1) es combinacion
lineal de {(1, 2, 1), (1, 0, 1), (2, 1, 1)}, Este conjunto el L.I.? igual que
antes podemos observar

1 1 2 1 1 2
2 0 1 0 2 1
1 1 1 0 0 0
nuevamente el sistema tiene infinidad de soluciones, son L.D. entonces ha-
ciendo 3 = t tenemos que

1 1 2 0
3 t
t 2 0 +t 1 = 0 (4.5)
2 2
1 1 1 0

entonces (2, 1, 1) es combinacion lineal de {(1, 2, 1), (1, 0, 1)} por la Ob.
10, el conjunto {(1, 2, 1), (1, 0, 1)} es L.I. ? basta ver:

1 1 1 1
2 0 0 2
1 1 0 0
tiene solucion unica, luego son L.I. as


{(1, 2, 1), (1, 0, 1), (2, 1, 1), (1, 2, 1)} = {(1, 2, 1), (1, 0, 1)}

En resumen dado un subconjunto finito S Rn , para determinar un sub-

conjunto S 0 de S que sea L.I. y hSi = hS 0 i basta escalonar la matriz cuyas


columnas son los vectores de S y S 0 son los vectores correspondientes a las
columnas en donde existen pivotes.

4.7. Bases y dimension


Definicion 55. Dado un espacio vectorial VF , un conjunto B V se dice
que es un a base de V si
i) Genera V , es decir hBi = V .

ii) Es linealmente independiente.


Ejemplo 69. El conjunto {(1, 2, 1), (1, 0, 1)} R2 es base de R2 .
Observacion 11. Dado un sistema de ecuaciones AX = 0 donde A
Mnm (F) siempre tiene solucion, supongamos que m > n, hay mas columnas
que filas, si A A0 entonces si A0 es una matriz escalonada puede tener a
mas n pivotes, luego hay columnas que no contiene pivotes, por lo tanto
AX = 0 tiene infinitas soluciones.
4.7. BASES Y DIMENSION 81
Proposicion 56. Supongamos que S = {v1 , v2 , ..., vn } V es un conjunto
de generadores de V , entonces dado {w1 , w2 , ..., wm } V , con m > n, es
L.D.
Demostracion. Supongamos que x1 w1 + x2 w2 + ... + xm wm = 0, queremos
demostrar que esta ecuacion tiene alguna solucion no trivial. Como hSi = V
entonces dado wj V existen escalares 1j , 2j , ..., nj tales que

wj = 1j v1 + 2j v2 + ... + nj vn , j = 1, 2, ..., m.
luego xj wj = xj 1j v1 + xj 2j v2 + ... + xj nj vn as se tiene que:

m
X X
m X
m X
m
xj wj = xj 1j v1 + xj 2j v2 + .... + xj nj vn = 0
j=1 j=1 j=1 j=1
Pm
esto es verdad, por ejemplo, si cada j=1 xj ij = 0 para cada i = 1, ..., n.
es decir si el sistema:


x1 11 + x2 12 + + xm 1m = 0

x1 21 + x2 22 + + xm 2m = 0
.. .. .. .. . . . .. .. ..


. . . . . .. . . .

x1 n1 + x2 n2 + + xm nm = 0
La matriz de coeficientes de este sistema tiene el numero de filas n menor
que el numero de columnas m, por la Ob. 11 este existen x1 , ..., xm F no
todos iguales a cero tales que satisfacen este sistema y por lo tanto tales que
x1 w1 + x2 w2 + ... + xm wm = 0, luego {w1 , w2 , ..., wm } es L.D.

Corolario 57. Supongamos que S = {v1 , v2 , ..., vn } V es un conjunto de


generadores de V , si {w1 , w2 , ..., wm } V es L.I. , entonces n m.
Teorema 58. Dado B V base de V , cualquier otra base de V tiene la
misma cantidad de elementos de B.
Demostracion. Supongamos que B tiene n elementos y sea B0 V una base
de V de m elementos, entonces
1. Como B genera V y B es L.I. entonces por el C.57 m n.
2. Como B0 genera V y B es L.I. entonces por el C.57 n m.
por lo tanto n = m.

Definicion 59. Diremos que un espacio vectorial es de dimension finita, si


contiene un conjunto finito que es base de V .
Si n es numero de elementos de una una base de V , entonces diremos que
V es un espacio de dimension n y escribiremos
dim V = n.
82 CAPITULO 4. ESPACIOS VECTORIALES
Enunciaremos algunas consideraciones importantes acerca de la base y la
dimension de un espacio vectorial en el siguiente teorema:
Teorema 60. Sea VF un espacio vectorial de dimension finita n. Entonces
1. Todo conjunto de generadores de V contiene una base de V .
2. Todo conjunto L.I. de V esta contenido en alguna base de V .
3. Si W V tiene dimension finita menor o igual a n.
4. Si W V tiene dimension n, entonces V = W .
5. Si S es subconjunto de V con n elementos. Es un conjunto de gener-
adores si y solo si es L.I.
Demostracion. 1. Si S es un conjunto de generadores entonces por el T. 54
existe S 0 S tal que hS 0 i = hSi, por la Ob. 10 S 0 es L.I. luego es una
base de V .
2. Sea S un conjunto L.I. con m elementos, como dim V = n entonces
contienen una base de n elementos, por el C. 57 n m.
Si hSi = V entonces S es una base de V , si no es as, existe v
V hSi entonces sea S 0 = {v} S este conjunto es L.I. pues si S =
{v1 , v2 , ..., vm } entonces si

1 v1 + 2 v2 + + m vm + v = 0

= 0 pues v 6 hSi, luego como S es L.I. i = 0, i = 1, 2, ..., m.


Si hS 0 i = V entonces es base de V , si no procedemos como antes hasta
encontrar un base. Esto siempre es posible pues cuando el numero de
elementos de S 00 sea n, si existe w V hS 0 i entonces S 00 {w} sera un
con junto L.I. de n + 1 elementos, lo cual es imposible por el C.57.

Observacion 12. 1. El espacio Rn tiene dimension n, una base para


este espacio es el conjunto {e1 , e2 , ..., en } el cual se denomina Base
canonica de Rn .
2. Si B = v1 , v2 , ..., vn es un subconjunto de Rn por el T.60, es una base si
y solo si son L.I. esto ocurre si y solo si el sistema homogeneo AX = 0,
cuyas columnas son los vectores v1 , v2 , ..., vn , tiene solucion unica si
y solo si det(A) 6= 0.
3. El espacio Mnm (F) tiene dimension n m, para ver esto basta con-
siderar el conjunto B de las matrices Ai,j dadas por
(
1, r=s
[Ai,j ]r,s =
0 s 6= s.
4.8. COORDENADAS 83

Por ejemplo M32 (R) tiene como base el conjunto


n 1 0 0 1 0 0 0 0 0 0 0 0 o
B= 00 , 00 , 10 , 01 , 00 , 00
00 00 00 00 10 01

4. El conjunto Pn definido en el E.4.2 tiene como generadores a conjunto

{1, x, x2 , ..., xn }

si 0 1 + 1 x + 2 x2 + + n xn = 0 donde 0 Pn

podemos escribir

0 1 + 1 x + 2 x2 + + n xn = 0 1 + 0 x + 0 x2 + + 0 xn

por igualdad de polinomios tenemos que i = 0 para cada i = 0, 1, ..., n.


Por lo tanto
B = {1, x, x2 , ..., xn }
el L.I. luego es una base de Pn , as dim Pn = n + 1.

Ejemplo 70. El conjunto {(1, 2, 1), (2, 3, 5), (1, 1, 6)} R3 no es base de
R3 pues
1 2 1
det 2 3 5 =0
1 1 6
Sin embargo el conjunto {(1, 1, 0), (1, 1, 1), (0, 2, 2)} R3 si es una base
pues:
1 1 0
det 1 1 1 =6
0 2 2
Observacion 13. Como algunas consecuencias inmediatas del T.60 pode-
mos decir que:

1. En un espacio de dimension n ningun conjunto de mas de n vectores


puede ser L.I.

2. En un espacio de dimension n ningun conjunto con menos de n vec-


tores puede generar a todo el espacio.

4.8. Coordenadas
Supongamos que B = {v1 , v2 , ..., vn } es una base de VF , entonces dado v V
existen 1 , 2 , ..., n F tales que

1 v1 + 2 v2 + + n vn = v
84 CAPITULO 4. ESPACIOS VECTORIALES
Si existen 1 , 2 , ..., n F tales que

1 v1 + 2 v2 + + n vn = v

entonces (1 1 )v1 + (2 2 )v2 + + (n n )vn = v v = 0 como B


es base entonces i i = 0 para cada i = 1, 2, ..., n luego tenemos que:

Proposicion 61. Si B es una base de VF y v V , entonces existen UNICOS


1 , 2 , ..., n F tales que

1 v1 + 2 v2 + + n vn = v

Si B es una base de V , de aqu en adelante consideraremos a los elementos


de B ordenados, as nos referiremos a B como una base ordenada.

Definicion 62. Sea B una base ordenada de VF y v V , entonces si


1 , 2 , ..., n F son tales que

1 v1 + 2 v2 + + n vn = v,

las coordenadas de v en la base ordenada B es la n-upla

[v]B = (1 , 2 , ..., n )

Ejemplo 71. Si en Rn consideramos la base ordenada B = {e1 , e2 , ... , en }


entonces es claro que dado u Rn

[u]B = u

Ejemplo 72. Sea B = {(1, 1, 1), (1, 0, 0), (1, 1, 0)} R3 como
| {z } | {z } | {z }
v1 v2 v
3
1 1 1
det 1 0 0 =1
1 1 0
entonces es un conjunto L.I. y como dim R3 = 3 entonces es una base de R3 .
Para calcular las coordenadas del vector v = (2, 1, 3) en la base B buscamos
escalares 1 , 2 , 3 tales que

1 v1 + 2 v2 + 3 v3 = v

es decir tenemos que resolver el sistema:



1 1 1 1 2
1 0 0 2 = 1
1 1 0 3 3
4.8. COORDENADAS 85

escalonando o por cualquier otro metodo tenemos que:



1 1
2 = 4
3 1
es decir
[(2, 1, 3)]B = (1, 4, 1)
Ejemplo 73. Sea S = {1+x, 2+x2 , 1+xx2 , 2+2x2 } P2 como dim P2 = 3
este conjunto es L.D. vamos a determinar una base de P2 utilizando S, esto
siempre es posible por el T. 60. Consideremos la combinacion lineal
1 (1 + x) + 2 (2 + x2 ) + 3 (1 + x x2 ) + 4 (2 + 2x2 ) = 0
haciendo operaciones es facil comprobar que:
(1 + 22 + 3 + 24 ) 1 + (1 + 3 ) x + (2 3 + 24 ) x2 = 0
por igualdad de polinomios tenemos que esto es equivalente a:

1 + 22 + 3 + 24 = 0
1 + 3 = 0

2 3 + 24 = 0
este es un sistema de ecuaciones lineales, para estudiar el sistema procede-
mos a escalonar:

1 2 1 2 1 2 1 2
1 0 1 0 0 1 0 1
0 1 1 2 0 0 1 1
as tenemos que

h S i = {1 + x, 2 + x2 , 1 + x x2 }
ademas B = {1 + x, 2 + x2 , 1 + x x2 } es L.I. luego es una base de P2 .
Dado el vector 1 + 2x + x2 P2 las coordenadas de este vector en la base

ordenada B son las soluciones de:


1 (1 + x) + 2 (2 + x2 ) + 3 (1 + x x2 ) = 1 + 2x + x2
por igualdad de polinomios tenemos que

1 + 22 + 3 = 1
1 + 3 = 2

2 3 = 1
entonces la solucion unica del sistema es 1 = 7/2, 2 = 1/2, 3 = 3/2.
Por lo tanto
[1 + 2x + x2 ]B = (7/2, 1/2, 3/2).
86 CAPITULO 4. ESPACIOS VECTORIALES
Sea VF un espacio vectorial de dimension n y sean B = {v1 , v2 , ..., vn } y B 0 =
{u1 , u2 , ..., un } bases ordenadas de V . Dado un vector u V supongamos
que

u = 1 v1 + 2 v2 + + n vn (4.6)
entonces [u]B = (1 , 2 , ..., n ) como B0 es base de V entonces podemos
encontrar escalares tales que:

vj = c1j u1 + c2j u2 + + cnj un , j = 1, 2, ..., n

entonces
X
n X
n X
n
u = 1 ci1 ui + 2 ci2 ui + + n cin ui
i=1 i=1 i=1

agrupando tenemos que

u = (c11 1 + c12 2 + + c1n n ) u1 + (c21 1 + c22 2 + + c2n n ) u2 + +


+ (cn1 1 + cn2 2 + + cnn n ) un

por lo tanto las coordenadas de u en la base B0 son:



c11 c12 c1n 1
c21 c22 c2n 2

[u]B0 = . (4.7)
..
..
.
..
. ..
.

..
.


cn1 cn2 cnn n
| {z }| {z }
P [u]B

Es decir si [u]B entonces podemos escribir u en la base B0 haciendo [u]B0 =


P [u]B donde P es la matriz que obtiene de

(u1 u2 un |v1 |v2 | |vn ) (I|P )

La matriz P se denomina matriz de cambio de Base, pues tomamos un vector


u escrito en la base B es decir (4.6)y la transformamos a la base B0 como se
muestra en (4.7) la matriz de transicion es precisamente la que obtiene de

(B 0 | B) (I|P )

esta matriz se denota por


PB0 B
As podemos escribir:

PB0 B : (V, B) (V, B)


[v]B 7 [v]B
4.8. COORDENADAS 87

Ejemplo 74. En R3 consideremos las bases B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
y B 0 = {(1, 2, 1), (1, 1, 1), (1, 0, 1)}, entonces la matriz de cambio de co-
ordenadas de la base B a la base B 0 es la que se obtiene de

(B0 |B) = (B0 |I)



por lo tanto (B0 |I) I|(B0 )1 luego
1
1 1 1 1 2 1
1
P = (B0 )1 = 2 1 0 = 2 0 2
4
1 1 1 1 2 3

as dado u = (1, 1, 1) vamos a calcular

[u]B0 = P [u]B

como B es la base canonica entonces [u]B = u por el E.71. Luego



1 2 1 1 1
1
[u]B0 = 2 0 2 1 = 1
4
1 2 3 1 1

es decir (1, 1, 1) = 1 (1, 2, 1) + (1) (1, 1, 1) + 1 (1, 0, 1)


88 CAPITULO 4. ESPACIOS VECTORIALES
Captulo 5

Espacios con Producto


Interior

5.1. Introduccion
Hemos estudiado los espacios vectoriales los cuales son estructuras que gen-
eralizan a Rn . En este capitulo vamos a dotar a un espacio vectorial de
la nocion de distancia y de ortogonalidad, lograremos esto introduciendo
una funcion denominada Producto Interno. A los largo de este captulo V
denotara un espacio vectoriales sobre el campo de los numeros reales.

5.2. Definicion y ejemplos


Dado un espacio vectorial V sobre el campo de los numero reales una funcion

h , i:V V R

tal que si v, u, w V y , R entonces

I1. hu, ui 0.

I2. hu, ui = 0 si y solo si u = 0.

I3. hu, vi = hv, ui.

I4. hu, vi = hu, vi.

I5. hu, v + wi = hu, vi + hu, wi

Observacion 14. Las propiedades I3, I4 y I5 dicen que el producto interior


es lineal respecto de cada variable, es decir

hu, v + wi = hu, vi + hu, wi = hu, vi + hu, wi

89
90 CAPITULO 5. ESPACIOS CON PRODUCTO INTERIOR
ademas

hv + w, ui = hu, v + wi = hu, vi + hu, wi


= hu, vi + hu, wi = , hv, ui + hw, ui

as hv + w, ui = , hv, ui + hw, ui.


Notemos tambien que las propiedades I4, I5 se pueden resumir en

hu, v + wi = hu, vi + hu, wi

Ejemplo 75. Vamos a definir un producto interior en Rn .

Sean v = (v1 , v2 , ..., vn ), u = (u1 , u2 , ..., un ) vectores y R, entonces sea

hu, vi = u1 v1 + u2 v2 + + un vn (5.1)

vamos a mostrar que es un producto interior:

1. hu, ui = u1 u1 + u2 u2 + + un un = u21 + u22 + + u2n 0.

2. hu, ui = 0 si y solo si u21 + u22 + + u2n = 0 esto es verdad si y solamente


si u1 = u2 = = un = 0.

3. hu, vi = u1 v1 + u2 v2 + + un vn = v1 u1 + v2 u2 + + vn un = hv, ui.

4. Vamos a probar que

hu, v + wi = hu, vi + hu, wi

donde w = (w1 , w2 , ..., wn ).

hu, v + wi = u1 (v1 + w1 ) + u2 (v2 + w2 ) + + un (vn + wn )


= ( u1 v1 + u1 w1 ) + ( u2 v2 + u2 w2 ) + + ( un vn + un wn )
= ( u1 v1 + u2 v2 + + un vn ) + ( u1 w1 + u2 w2 + + un wn )
= hu, vi + hu, wi

Por lo tanto (5.1) define un producto interior den Rn , este producto interior
se denomina producto interior Euclidiano.

Ejemplo 76. Veamos algunos ejemplos en R3 con este producto interior:


Sean u = (1, 2, 3), v = (0, 1, 2), w = (0, 1, 0).

1. Calcular hu, vi, hw, (2)vi.

a) hu, vi = h(1, 2, 3), (0, 1, 2)i = 4.


b) hw, (2)vi = (2)hw, vi = (2)h(0, 1, 0), (0, 1, 2)i = 2.
5.2. DEFINICION Y EJEMPLOS 91
2. Hallar un vector que sea ortogonal a u y v.
Queremos encontrar (x, y, z) R3 tal que h(x, y, z), ((1, 2, 3))i = 0 y
h(x, y, z), (0, 1, 2)i = 0 es decir queremos hallar las soluciones de:

x 2y + 3z = 0
y + 2z = 0
Resolviendo tenemos que x = 7t, y = 2t, z = t para cada t R.
Por ejemplo si t = 1 entonces (7, 2, 1) es ortogonal a u y v.
3. Calcular hu, v + (3)w + 2ui.
hu, v + (3)w + 2ui =hu, vi + hu, (3)w + 2ui
=hu, vi + hu, (3)wi + hu, 2ui
=hu, vi + (3)hu, wi + 2 hu, ui
=4 + (3)(2) + 2 14 = 38

Proposicion 63. Sea V un espacio con producto interior, entonces


1. hu, 0i = 0.
2. Si hu, vi = hu, wi para todo u V entonces v = w.
Demostracion. 1. Si 0 V y OR R entonces como OR 0 = 0 podemos
escribir:
hu, 0i = hu, OR 0i = OR hu, 0i = 0.
2. Supongamos que hu, vi = hu, wi entonces
hu, vi hu, wi = 0, luego
hu, v wi = 0
tomemos en particular v w = u entonces hv w, v wi = 0 pero
esto ocurre si y solo si v w = 0 si y solo si v = w.

Definicion 64. Diremos que dos vectores son Ortogonales si su producto


interior es cero, es decir u, v V son ortogonales si y solo si hu, vi = 0. En
este caso escribiremos
u v hu, vi.
Ejemplo 77. Los vectores (1, 2), (2, 1) R2 son ortogonales pues:
h(1, 2), (2, 1)i = 1 (2) + 2 1 = 0
as podemos decir que
(1, 2) (2, 1)

Los vectores (2, 1), (3, 2) no son ortogonales pues


h(2, 1), (3, 2)i = 8 6= 0.
92 CAPITULO 5. ESPACIOS CON PRODUCTO INTERIOR
Ejemplo 78. Sea u V definamos el conjunto u = {v V : hu, vi = 0}
entonces notemos que
1. 0 u pues hu, 0i = 0.
2. Sean v, w u y R entonces hu, vi = hu, wi = 0
hu, v + wi = hu, vi + hu, wi = 0 + 0 = 0
luego v + w u .
por lo tanto hemos probado que u V .
Ejemplo 79. Vamos a calcular una base para (1, 2, 1) .

Por definicion (1, 2, 1) = {(x, y, z) R3 : h(1, 2, 1), (x, y, z)i = 0} es


decir (x, y, z) (1, 2, 1) si y solo si
x + 2y z = 0
parametrizando z = t, y = r tenemos x = 2r + t luego
(1, 2, 1) = {(1, 1, 0)t + (2, 1, 0)r : t, r R}
por lo tanto {(1, 1, 0), (2, 1, 0)} es una base de (1, 2, 1) .

5.3. Norma de un vector


Vamos a definir la norma de un vector como una funcion definida por:
k k :V R
p
u 7 hu, ui
esta bien definida pues hu, ui 0.
Observacion 15. Notemos que kuk2 = hu, ui.
Ejemplo 80. Si (1, 2) R3 entonces
p
k(1, 2)k = 12 + 22 = 5
Geometricamente tenemos:
5.3. NORMA DE UN VECTOR 93

Ejemplo 81. Si (1, 2, 2) R3 entonces


p
k(1, 2, 2)k = (1)2 + 22 (2)2 = 9 = 3

Geometricamente esto representa el tamano del vector (1, 2, 2).

||u||

Geometricamente la norma de un vector es el tamano del vector o la distancia


del origen al vector. La distancia d entre dos vectores u, v V se define como:

d(u, v) = ku vk

Geometricamente tenemos que:

Por ejemplo en R3 si u = (1, 1, 2), v = (2, 0, 1) entonces



d(u, v) = k(1, 1, 2) (2, 0, 1)k = k(1, 1, 3)k = 11

Proposicion 65 (Desigualdad de Schwartz). Sean u, v V entonces

|hu, vi| kuk kvk (5.2)

Demostracion. Notemos que ku vk 0 entonces

ku vk2 = hu v, u vi
= hu, ui 2 hu, vi + 2 hv, vi

Si > 0 entonces
2 hu, vi 1 kuk2 + kvk2
poniendo = kuk/kvk tenemos que

hu, vi kuk kvk

Notemos que la igualdad se cumple si y solo si u v = 0 es decir si y solo


si u = v.
94 CAPITULO 5. ESPACIOS CON PRODUCTO INTERIOR
Teorema 66. Sea V un espacio vectorial, entonces: Si u, v V y , R

1. kuk 0 y kuk = 0 si y solamente si u = 0.

2. k uk = || kuk.

3. ku + vk kuk + kvk Desigualdad triangular.

Demostracion. Las dos primeras propiedades son inmediatas recordando que


kuk2 = hu, ui.
Para la ultima:

ku + vk2 = hu + v, u + vi = hu, ui + 2 hu, vi + hv, vi


= kuk2 + hu, vi + kvk2
kuk2 + kuk kvk + kvk2 = (kuk + kvk)2

Si u V es un vector no nulo, entonces kuk 6= 0 luego por la parte 2. del


T.66 tenemos que

u 1 1

= u = kuk = 1 (5.3)
kuk kuk kuk

Observacion 16. Un vector de norma igual a uno se denomina unitario.


Por (5.3) dado un vector u se puede encontrar un vector unitario u/kuk que
es paralelo a u, este proceso se denomina normalizacion.

5.4. Angulo entre vectores


Analicemos el producto interior en R3 , la norma que genera el producto inte-
rior euclidiano es precisamente una generalizacion del teorema de Pitagoras.
5.4. ANGULO ENTRE VECTORES 95
entonces si tenemos los vectores u, v:

por la regla de los cosenos

ku vk2 = kuk2 + kvk2 2kuk kvk cos

entonces tenemos que

hu v, u vi = hu, ui + hv, vi 2kuk kvk cos


hu, ui 2 hu, vi + hv, vi = hu, ui + hv, vi 2kuk kvk cos

as tenemos que: 2 hu, vi = 2kuk kvk cos por lo tanto

hu, vi
cos =
kuk kvk

esto nos motiva a dar la siguiente definicion.

Definicion 67. Si u, v VR son vectores no nulos, el angulo entre u y v


se define por
hu, vi
cos = (5.4)
kuk kvk

As decir que dos vectores son ortogonales si el angulo entre ellos es de 90o
o /2.

Proposicion 68 (Teorema de Pitagoras). Si u, v VR son vectores


ortogonales y no nulos entonces

kuk2 + kvk2 = ku + vk2

Demostracion.

ku + vk2 = hu + v, u + vi
= hu, ui + 2hu, vi + hv, vi
= kuk2 + 2hu, vi + kvk2

como hu, vi = 0 entonces kuk2 + kvk2 = ku + vk2 .


96 CAPITULO 5. ESPACIOS CON PRODUCTO INTERIOR
5.5. Proceso de Gram Schmidt
Definicion 69. Un conjunto de vectores no nulos se denomina ortogonal si
todos sus vectores son ortogonales entres si. Y se denomina ortonormal si
ademas de ortogonal todos sus elementos tienen norma uno.

Por la Ob.16 dado un conjunto ortogonal se puede encontrar un conjunto


ortonormal por el proceso de normalizacion.

Ejemplo 82. En Rn el conjunto {e1 , e2 , ..., en } es un conjunto ortonormal.


En particular, en R3 el conjunto {(1, 0, 0), (0, 0, 1), (0, 0, 1)} es ortonormal.

Ejemplo 83. El conjunto {(1, 1, 1), (1, 0, 1), (1, 2, 1)} R3 es ortogonal.
Como
k(1, 1, 1)k = 3, k(1, 0, 1)k = 2, k(1, 2, 1)k = 6
entonces normalizando tenemos que:
( )
1 1 1 1 1 1 2 1
, , , , 0, , , ,
3 3 3 2 2 6 6 6

es un conjunto ortonormal.

Teorema 70. Sea S = {v1 , v2 , ..., vn } VR un conjunto ortogonal, si


hv,vi i
v = 1 v1 + 2 v2 + + n vn entonces i = hvi ,vi i para cada i = 1, 2, ..., n

Demostracion. Si v = 1 v1 + 2 v2 + + n vn entonces
DX
n E Xn
hv, vi i = j vj , vi = j hvj , vi i
j=1 j=1

= i hvi , vi i

para cada i = 1, 2, ..., n , por lo tanto

hv, vi i
i =
hvi , vi i

El teorema nos dice un poco mas: Si S = {v1 , v2 , ..., vn } VR es un conjunto


ortogonal, entonces v hSi si y solo si
n
X hv, vi i
v= vi (5.5)
hvi , vi i
i=1

Corolario 71. Todo conjunto ortogonal (ortonormal) es L.I.


5.5. PROCESO DE GRAM SCHMIDT 97

Demostracion. Supongamos que S = {v1 , v2 , ..., vn } VR es un conjunto


ortogonal, entonces si

1 v1 + 2 v2 + + n vn = 0

por T.70 se tiene que para cada i = 1, 2, ..., n


h0, vi i
i = =0
hvi , vi i
luego S es L.I.

Una pregunta natural en este punto es: Todo espacio vectorial, de dimension
finita, tiene una base ortogonal (ortogonal)?
Para dar una respuesta veamos primero:
Observacion 17. Sean u, v V queremos hallar R tal que hv, u vi =
0 es decir

entonces como
hv, u vi = hv, ui hv, vi
tenemos que hv, u vi = 0 si y solo si
hu, vi
=
hv, vi
entonces el vector
hu, vi
P royv u = v
hv, vi
se denomina proyeccion ortogonal de u sobre v.
Es un vector en la direccion de v tal u P royv u es ortogonal a v.
Si u, v no son paralelos entonces el conjunto {u, v} es L.I. luego es base del
espacio que generan W = h{u, v}i.
Si w = u P royv u es claro que v, w h{u, v}i entonces h{v, w}i h{u, v}i
y como u = w + P royv u h{w, v}i tenemos que h{u, v}i h{w, v}i por lo
tanto
h{v, w}i = h{u, v}i
es decir {v, w} genera a W luego hemos conseguido una base de W en donde
sus elementos son ortogonales.
98 CAPITULO 5. ESPACIOS CON PRODUCTO INTERIOR

El siguiente teorema generaliza este hecho:

Teorema 72. Dado un conjunto S = {v1 , v2 , ...., vn } V L.I. Entonces los


vectores S 0 = {u1 , u2 , ..., un } definidos por
(
u1 = v1
Pk1 hvk ,uj i (5.6)
uk = vk j=1 huj ,uj i uj

forma un conjunto L.I. tal que

hSi = hS 0 i.

Demostracion. La demostracion se hara por induccion sobre n el numero de


elementos del conjunto. La proposicion es verdadera para n = 1 de forma
trivial y para n = 2 por la Ob.17.

Supongamos que el conjunto Sk0 = {u1 , u2 , ...., uk } ha sido construido usando


la ecuacion (5.6) y hSk i = hSk0 i donde Sk = S = {v1 , v2 , ...., vk }.
Entonces sea Sk+1 = {v1 , v2 , ...., vk , vk+1 } L.I. y sea

k
X hvk+1 , uj i
uk+1 = vk+1 uj
huj , uj i
j=1

P hv ,uj i
si uk+1 = 0 entonces vk+1 = kj=1 huk+1 j ,uj i
uj hSk0 i lo cual nos dice que
Sk+1 es L.D. que nos lleva a una contradiccion. Por lo tanto uk+1 6= 0 ademas
5.5. PROCESO DE GRAM SCHMIDT 99

dado 1 i k

D k
X hvk+1 , uj i E
huk+1 , ui i = vk+1 uj , ui
huj , uj i
j=1
k
X hvk+1 , uj i
= hvk+1 , ui i huj , ui i
huj , uj i
j=1
hvk+1 , ui i
= hvk+1 , ui i hui , ui i
hui , ui i
=0

entonces Sk+10 es un conjunto ortogonal. Como ui hSk0 i = hSk i para cada


0
i = 1, 2, ..., k entonces uk+1 hSk+1 i por lo tanto hSk+1 i hSk+1 i pero
0
como Sk+1 es L.I. y la dimhSk+1 i = k + 1 tenemos que

0
hSk+1 i = hSk+1 i

con lo que hemos terminado la demostracion.

Observacion 18. Se sigue del teorema T.72 que todo espacio de dimension
finita admite una base ortonormal.

Ejemplo 84. Sea

B = {(0, 1, 1), (1, 1, 0), (1, 1, 0)} R3


| {z } | {z } | {z }
v1 v2 v3

entonces como

0 1 1
det 1 1 1 = 2
1 0 0

B es una base de R3 . Vamos a aplicar el proceso de Gram Schmidt a esta


100 CAPITULO 5. ESPACIOS CON PRODUCTO INTERIOR
base.

u1 = v1 = (0, 1, 1)
hv2 , u1 i
u 2 = v2 u1
hu1 , u1 i
h(1, 1, 0), (0, 1, 1)i
= (1, 1, 0) (0, 1, 1)
h(0, 1, 1), (0, 1, 1)i
1
= (1, 1, 0) + (0, 1, 1)
2
= (1, 1/2, 1/2)
hv3 , u1 i hv3 , u2 i
u 3 = v3 u1 u2
hu1 , u1 i hu2 , u2 i
h(1, 1, 0), (0, 1, 1)i
= (1, 1, 0) (0, 1, 1)
h(0, 1, 1), (0, 1, 1)i
h(1, 1, 0), (1, 1/2, 1/2)i
(1, 1/2, 1/2)
h(1, 1/2, 1/2), (1, 1/2, 1/2)i
1 1
= (1, 1, 0) (0, 1, 1) + (1, 1/2, 1/2)
2 3
= (2/3, 2/3, 2/3)

As el conjunto

{(0, 1, 1), (1, 1/2, 1/2), (2/3, 2/3, 2/3)}

forma una base ortogonal de R3 . Podemos normalizar para obtener una base
ortonormal:
n 1 1 2 2 2 o
B0 = (0, 1, 1), 1, , , , ,
2 2 3 3 3
Ejemplo 85. Analizando nuevamente el ejemplo anterior, los vectores v2 , v3
son ortogonales, entonces podemos poner

u1 = v2 = (1, 1, 0)
u2 = v3 = (1, 1, 0)
hv1 , u1 i hv1 , u2 i
u3 = v1 u1 u2
hu1 , u1 i hu2 , u2 i
= (0, 0, 1)

luego otra base ortogonal de R3 es {(1, 1, 0), (1, 1, 0), (0, 0, 1)}.
Indice alfabetico

101