Está en la página 1de 44

Parte III

Algebra lineal y Geometrı́a

79
Capı́tulo 5

Sistemas de ecuaciones lineales. Matrices

Empecemos recordando la discusión de las soluciones de un sistema de ecuaciones lineales antes


de introducir matrices y conceptos más difı́ciles.

5.1. Sistemas de ecuaciones lineales. Método de Gauss


Definición 5.1.1 Un sistema de m ecuaciones lineales con n incógnitas (SEL) es un conjunto de m
igualdades del tipo


 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a x + a x + ··· + a x
21 1 22 2 2n n = b2
(SEL) =

 ............................


am1 x1 + am2 x2 + · · · + amn xn = bm

donde los números a11 , a12 , · · · , amn son dados y se llaman coeficientes. Los números b1 , · · · , bm tam-
bién son dados y se llaman términos independientes y x1 , · · · , xn son desconocidos y se llaman
incógnitas.

Ejemplo 5.1.2 Un SEL de tres ecuaciones con tres incógnitas es




 −2x + y + 2z = 2
x + y + z = 2


3x − 2y − z = 4

Definición 5.1.3 Se llama solución del (SEL) a un punto de (α1 , α2 , · · · , αn ) ∈ Rn tal que al
substituir las incógnitas x1 , · · · , xn por α1 , α2 , · · · , αn las igualdades se cumplen.

Ejemplo 5.1.4 Ası́, (1,-2,3) es una solución del SEL del ejemplo anterior. También decimos que
x = 1, y = −2, z = 3 es solución.

81
82

El conjunto de soluciones de un SEL subespacio especial de Rn (ver Tema 2)


Cantidad de soluciones. Un sistema de m ecuaciones con n incógnitas puede
- no tener ninguna solución, en cuyo caso se llama incompatible.
- tener soluciones, en cuyo caso se llama compatible. En este caso puede haber una única solución
(se llama determinado) o más de una solución (indeterminado). Veremos que en este último caso hay
infinitas soluciones
En general, lo importante en un SEL no son las ecuaciones en si, sino las soluciones que forman
un subconjunto de Rn . Por tanto:

Definición 5.1.5 Diremos que dos SEL son equivalentes si tienen las mismas soluciones.

Método de Gauss para resolución de un SEL


Buscaremos ir cambiando el SEL por uno equivalente más sencillo hasta que obtengamos todas
las soluciones.
Hay tres operaciones sobre un SEL que producen un sistema equivalente:

1. Intercambiar ecuaciones.

2. Substituir una ecuación por la que resulta de multiplicarla por un número #= 0.

3. Substituir una ecuación por la que resulta de sumarle otra de las ecuaciones multiplicada por
un número.

Nota 5.1.6 En general, produce un sistema equivalente sustituir una ecuación por una combinación
lineal de ecuaciones donde el coeficiente de la que cambiamos no es nulo.

Vamos a usar metódicamente las tres operaciones elementales para ir obteniendo sistemas de
ecuaciones lineales equivalentes cada vez más sencillos de resolver.
Antes de describir el método notemos que una ecuación del tipo 0 = b donde b es un número
no nulo hace un sistema incompatible y que eliminar una ecuación del tipo 0 = 0 da un sistema
equivalente.

• Reducción del SEL a forma triangular.


Vamos a reducir progresivamente un SEL genérico a forma triangular.

Ejemplo 5.1.7 Como ejemplo, haremos las operaciones con el sistema




 x1 +5x2 −2x3 = 3
x1 +3x2 +x3 = 1


−x1 +5x2 −13x3 = 0
83

A.- Eliminar coeficientes de x1 en todas las ecuaciones menos la primera. Lo haremos


usando a11 como pivote:

1. Reordenamos las ecuaciones de modo que a11 #= 0.

2. La segunda ecuación a21 x1 + a22 x2 + · · · + a2n xn = b2 se substituye por la diferencia entre ella
misma multiplicada por a11 y la primera multiplicada por a21 quedando a!22 x2 +· · ·+a!2n xn = b!2 .

3. La tercera ecuación a31 x1 + a32 x2 + · · · + a3n xn = b3 se substituye por la diferencia de ella


misma por a11 y la primera por a31 quedando a!32 x2 + · · · + a!3n xn = b!3 .

4. Continuamos este procedimiento hasta usar todas las filas.

Al acabar el paso A tenemos un sistema equivalente de la forma




 a11 x1 + a12 x2 + · · · + a1n xn = b1

 a!22 x2 + · · · + a!2n xn = b!2

 ....................


a!m2 x2 + · · · + a!mn xn = b!m
Si en el proceso no ha aparecido una ecuación de la forma 0 = b! seguimos con el paso B. Si ha
aparecido y b! es no nulo, el sistema es incompatible. Si b! es nulo eliminamos la ecuación 0 = 0 y
seguimos.

Ejemplo 5.1.8 El sistema del ejemplo anterior lo cambiamos a


 

 x1 +5x2 −2x3 = 3 
 x1 +5x2 −2x3 = 3
x1 +3x2 +x3 = 1 ≡ −2x2 +3x3 = −2

 

−x1 +5x2 −13x3 = 0 +10x2 −15x3 = 3
B.- Eliminar coeficientes de x2 en todas las ecuaciones menos las dos primeras. Ahora
pivotamos sobre a!22 :

1. Reordenamos las m − 1 últimas ecuaciones y las incógnitas de modo que a!22 #= 0.

2. Repetimos el proceso anterior con todas las ecuaciones menos la primera.

Al acabar, obtenemos un sistema de la forma




 a11 x1 + a12 x2 + a13 x3 + · · · + a1n xn = b1



 a!22 x2 + a!23 x3 + · · · + a!2n xn = b!2

a!!33 x3 + · · · + a!!3n xn = b!!3



 ....................


 a!!m3 x3 + · · · + a!!mn xn = b!!m
Actuamos con las ecuaciones 0 = b!! igual que en A.
84

Ejemplo 5.1.9 El sistema del ejemplo anterior lo cambiamos a


 

 x 1 +5x 2 −2x 3 = 3 
 x1 +5x2 −2x3 = 3
−2x2 +3x3 = −2 ≡ −2x2 +3x3 = −2

 

+10x2 −15x3 = 3 0 = −7

Por tanto, el sistema es incompatible.

C.- Final. Repetimos el proceso anterior hasta obtener un sistema del tipo


 a11 x1 + a12 x2 + · · · + a1m! xm! + · · · + a1n xn = b1

 ! ! !
a22 x2 + · · · + a2m! xm! + · · · + a2n xn = b!2

 .......................


a!!! !!! !!!
m! m! xm! + · · · + am! n xn = bm!

con todos los elementos a11 , a!22 , . . . , a!!!


m! m! #= 0. Un sistema de este tipo es siempre compatible y es
!
determinado si y sólo si m = n.

Ejemplo 5.1.10 Veamos ejemplos.

1. Primero el fácil. Si m! = n el sistema es compatible. Ası́ dado:




 x + y + z = 2
y = −2


− 4z = −12

su única solución es
x = 1, y = −2, z = 3.

2. Ahora si m! < n. Entonces el sistema es indeterminado.


%
x1 +5x2 −2x3 = 3
−2x2 +3x3 = −2

Entonces, si damos a x3 un valor arbitrario λ, la solución general del sistema es


−11λ − 4 3λ + 2
x1 = ; x2 = ; x3 = λ.
2 2
3. Por fin, otro ejemplo indeterminado un poco más liado
%
x1 + 2x2 + 3x3 − 0x4 = 2
−3x2 − 5x3 + 0x4 = −3

Su solución general es
λ 5
x1 = , x2 = 1 − λ, x3 = λ, x4 = µ.
3 3
85

• Reducción del SEL a forma diagonal.


El caso más fácil es que al triangular todos los elementos de la diagonal principal son #= 0.
Entonces los términos diagonales se pueden usar, empezando por abajo, para eliminar todas las
variables, excepto una, en cada ecuación. Ası́, el sistema anterior da
 

 x + y + z = 2 
 x = 1
y = −2 ≡ y = −2

 

− 4z = −12 z = 3
Si al triangular aparecen ceros en la diagonal, podemos usar los términos #= 0 de la diagonal para
obtener 0 sobre ellos:
% %
x1 +5x2 −2x3 = 3 2x1 +11x3 = −4

−2x2 +3x3 = −2 −2x2 +3x3 = −2
Finalizado lo cual usamos las variables que quedan como parámetros:
−11λ − 4 3λ + 2
x1 = ; x2 = ; x3 = λ.
2 2

5.2. Matrices
En las operaciones realizadas para resolver un sistema lo único que alteramos son los coeficientes.
Podı́amos organizar los coeficientes tal y como aparecen en las ecuaciones y realizar las operaciones
con ellos. Veamos el esquema genérico.

5.2.1. Algunas definiciones básicas


Empezaremos con una definición de matrices y conceptos relacionados con ellas.

Definición 5.2.1 Llamamos matriz de orden m × n a una tabla rectangular de números (o fun-
ciones) organizada en m lı́neas horizontales (que llamamos filas) y n lı́neas verticales (que llamamos
columnas). En general, se denota como
 
a11 a12 · · · a1n
 
 a21 a22 · · · a2n 
A=  .. .. .. 
 . . ··· . 
am1 am2 · · · amn
Ejemplo 5.2.2 Veamos una matriz 3 × 2 y una 2 × 3
 
, - 3 2
1 2 3  
and 1 4
4 5 6
5 6
86

Una matriz de orden 1 × n la llamaremos matriz fila,

F = (a11 , a12 , · · · , a1n ).


. /
Ejemplo 5.2.3 Ası́, 1 2 3 .

Una matriz de orden m × 1 la llamaremos matriz columna,


 
x1
 
 x2 
C=  ..
.

 . 
xm
, -
1
Ejemplo 5.2.4 Ası́, un ejemplo de matriz columna es .
2
Una matriz B es una submatriz de A si se obtiene de A quitándole algunas filas y/o columnas.

Ejemplo 5.2.5 Ası́,


, - , - , -
1 2 3 . / 1 2 3
, , 3 son submatrices de
4 5 6 4 5 6
En particular, las filas y/o columnas son submatrices de la matriz A.

Veamos una serie de definiciones sobre matrices:

Definición 5.2.6 Llamamos matriz nula a aquella en que todos sus elementos son 0. La diagonal
principal de una matriz está formada por los elementos de la forma aii .
Una matriz es triangular superior (resp. inferior ) si todos los elementos de la misma que están
por debajo (resp. por encima) de la diagonal principal son nulos. Por ejemplo, la matriz
 
1 2 3 0
 
0 4 5 −1
0 0 0 −3
es triangular superior.

Definición 5.2.7 Una matriz cuadrada es la que tiene el mismo número de filas que de columnas.
Es diagonal si sus únicos elementos no nulos son los de la diagonal principal.
La matriz identidad a una matriz cuadrada diagonal en que todos los elementos de la diagonal
principal son 1. Se suele denotar por I,
 
1 0 0
 
I=  0 1 0 
0 0 1
87

5.2.2. Operaciones con matrices


Definición 5.2.8 Recordemos ahora como se opera con matrices:

• Si A y B son matrices de orden m × n, su suma A + B es la matriz de orden m × n donde cada


elemento es la suma de los correspondientes elementos de A y B. Ası́
, - , - , -
1 2 −1 −2 1 3 −1 3 2
+ =
4 −2 3 −1 4 2 3 2 5

• Si A es una matriz de orden m × n, la matriz kA tiene orden m × n y sus elementos son los de
A multiplicados por k. Ası́
, - , -
−2 1 3 4 −2 −6
(−2) =
−1 4 2 2 −8 −4

• Si tenemos una matriz A de orden m × n y otra matriz B de orden n × p, se define el producto


de ellas, AB, como la matriz C de orden m × p cuyos elemento de lugar ij se obtiene sumando los
productos de los elementos de la fila i de A por los de la columna j de B. Ası́:
 
, -3 2 , - , -
1 2 3   3 + 2 + 15 2 + 8 + 18 20 28
1 4 = = .
4 5 6 12 + 5 + 30 8 + 20 + 36 47 64
5 6

Es importante observar que el producto de matrices no es conmutativo, ni siquiera cuando ambas


matrices son cuadradas. Es decir, en general, AB y BA serán matrices diferentes.

Definición 5.2.9 La matriz traspuesta At de una matriz A se obtiene de A cambiando filas por
columnas. Ası́  
, - 1 4
1 2 3  
A= At = 2 5
4 5 6
3 6
Una matriz es simétrica si es igual a su traspuesta. O sea, aij = aji , para todo i, j. Por tanto, ha
de ser cuadrada. Ası́  
1 2 3
 
A = 2 −1 4
3 4 2
es simétrica
88

5.2.3. Método de Gauss sobre las matrices asociadas a un sistema


Veamos el uso de matrices en un SEL.
Definición 5.2.10 El sistema genérico (SEL) tiene dos matrices asociadas, la matriz del sistema
 
a11 a12 · · · a1n
 
 a21 a22 · · · a2n 
A=  .. .. .. 

 . . · · · . 
am1 am2 · · · amn
y la matriz ampliada  
a11 a12 · · · a1n b1
 
 a21 a22 · · · a2n b2 
A =
!
 .. .. .. .. .

 . . ··· . . 
am1 am2 · · · amn bm
Representando los puntos de Rn como matriz columna, tenemos
   
x1 b1
   
 x2   b2 
X= .  y B= . 
  

 ..   .. 
xn bm
O sea, el SEL se puede expresar como
AX = B.

El método de Gauss para resolver un SEL se puede realizar sobre la matriz ampliada. En ella,
las operaciones elementales 1, 2 y 3 del Ejemplo 5.1.7 entre ecuaciones producen operaciones en filas
y el intercambio de incógnitas se traduce en un intercambio de columnas.
Ejemplo 5.2.11 Discute el sistema


 x1 − 3x2 + 9x3 = −10
2x2 − 4x3 = 8


11x2 − 22x3 = 44
usando el método de Gauss sobre la matriz ampliada.
Lo reducimos
     
1 −3 9 −10 1 −3 9 −10 1 −3 9 −10
     
0 2 −4 8  ≡ 0 1 −2 4  ≡ 0 1 −2 4  .
0 11 −22 44 0 1 −2 4 0 0 0 0
El sistema es compatible e indeterminado.
Si la última ecuación fuera 11x2 − 22x3 = 33 en vez de 11x2 − 22x3 = 44, el sistema saldrı́a
incompatible.
89

5.2.4. Rango de una matriz


Dada una matriz m × n,  
a11 a12 · · · a1n
 
 a21 a22 · · · a2n 
A= 
 .. .. .. 

 . . ··· . 
am1 am2 · · · amn
la podemos expresar como n columnas, A = (C1 , · · · , Cn ). Decimos que un conjunto de columnas es
linealmente independiente si la única combinación lineal que nos da 0 es la trivial.
Lo mismo se puede definir en filas con
 
F1
 
 F2 
A=  . 

.
 .. 
Fm

Definición 5.2.12 Llamaremos rango de una matriz al máximo número de filas (o columnas) lineal-
mente independientes. Se denota por rg A.

Es muy importante que el rango de una matriz es invariante por operaciones elementales. Por
tanto, el rango de las matrices de un SEL son los mismos que el del SEL equivalente con matrices
asociadas triangulares.
Por otra parte dado un SEL cuya matriz ampliada es triangular, el que sea compatible o no,
determinado o no, se puede fácilmente en términos del rango y el número de incógnitas.

Ejemplo 5.2.13 Como hemos visto en el Ejemplo 5.2.11), el SEL.


 
1 −3 9 −10
 
0 1 −2 4  .
0 0 0 0
es compatible e indeterminado y no es difı́cil ver que el rango de la matriz es 2 el de la ampliada
también y el de incógnitas es 3

Por tanto:

Teorema 5.2.14 (Teorema de Rouché-Frobenius) Dado el sistema de ecuaciones AX = B. Si A!


es la matriz ampliada, se cumple que:
• Si rgA = rgA! entonces, el sistema es compatible. En este caso
- si rgA = n (número de incógnitas), el sistema es determinado (solución única) y
- si rgA < n (número de incógnitas), el sistema es indeterminado (muchas soluciones).
• Si rgA < rgA! entonces el sistema es incompatible (no tiene solución).
90

5.3. Determinante de una matriz


5.3.1. Definición y cálculo
A una matriz cuadrada de orden n, A, le podemos asociar un número llamado determinante de
dicha matriz que se denota |A|.
Antes de pasar a la definición general del determinante de una matriz cuadrada de orden n
veremos los casos n = 2 y n = 3 que tienen una definición más sencilla.
• Determinante de una matriz de orden 2.

Definición 5.3.1 El determinante de una matriz cuadrada de orden 2 se define


0 0
0 a a 0
0 11 12 0
0 0 = a11 a22 − a12 a21
0 a21 a22 0

Ejemplo 5.3.2 0 0
0 4 −8 0
0 0
0 0 = 4 · 5 − (−8) · 3 = 44
0 3 5 0

• Determinante de una matriz de orden 3.

Definición 5.3.3 El determinante de una matriz cuadrada de orden 3 se define


0 0
0 a11 a12 a13 00
0
0 0
0 a21 a22 a23 0 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32
0 0
0 a31 a32 a33 0
Lo que puede expresarse mediante el siguiente esquema llamado regla de Sarrus

signo + signo −

Ejemplo 5.3.4 Ası́ pues


0 0
0 8 4 −3 0
0 0
0 0
0 2 −7 5 0 = 8 · (−7) · 9 + 4 · 5 · 6 + (−3) · 2 · 1 − (−3) · (−7) · 6 − 4 · 2 · 9 − 8 · 5 · 1 =
0 0
0 6 1 9 0
= −504 − 6 + 120 − 126 − 72 − 40 = −628
91

• Desarrollo de un determinante por adjuntos.

Definición 5.3.5 Si A es una matriz de orden m × n, llamamos menores de orden k a los deter-
minantes de las submatrices cuadradas de orden k obtenidas de A eliminando m − k filas y n − k
columnas.

Ejemplo 5.3.6 Dada la matriz de orden 3 × 4,


 
3 0 1 1
 
 2 −7 4 2 
5 9 8 3

sus cuatro menores de orden 3 son


0 0 0 0 0 0 0 0
0 3 0 1 0 0 3 0 1 0 0 3 1 1 0 0 0 1 1 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 2 −7 4 0 , 0 2 −7 2 0, 0 2 4 2 0, 0 −7 4 2 0 ,
0 0 0 0 0 0 0 0
0 5 9 8 0 0 5 9 3 0 0 5 8 3 0 0 9 8 3 0

tiene muchos menores de orden 2, entre ellos


0 0 0 0 0 0
0 3 0 00 0 −7 4 0 0 3 1 0
0 0 0 0 0
0 0, 0 0, 0 0
0 2 −7 0 0 9 8 0 0 5 8 0

y doce menores de orden 1, entre ellos

3, 0, 9.

Definición 5.3.7 Si A es una matriz cuadrada de orden n y aij es un elemento de A, llamamos


adjunto de aij al número que resulta de multiplicar (−1)i+j por el menor de orden n − 1 obtenido
eliminando la i-ésima fila y la j-ésima columna de la matriz A y lo denotaremos por Aij .
Con los adjuntos formamos una matriz que llamamos matriz adjunta (ó matriz de adjuntos) y
denotamos Ad .

Ejemplo 5.3.8 Calculemos una matriz adjunta


   
2 3 5 13 6 5
   
A =  −2 1 4  Ad =  −18 −3 9 
1 −3 1 7 −18 8

Con este lenguaje, podemos ver que el determinante de matrices de orden 2 × 2 o 3 × 3 es igual
a la suma de los productos de los elementos de una fila o columna por su adjunto.
92

Ejemplo 5.3.9 El determinante de la matriz


 
2 3 5
 
 −2 1 4 
1 −3 1
puede calcularse desarrollando por cualquier fila o columna, por ejemplo,
0 0
0 2 3 5 00
0
0 0
0 −2 1 4 0 = 2A11 + 3A12 + 5A13 = 69 = 3A12 + 1A22 + (−3)A32
0 0
0 1 −3 1 0

Esta forma de ver el determinante ya es generalizable a cualquier matriz cuadrada.

Definición 5.3.10 Definimos el determinante de una matriz cuadrada A como la suma de los pro-
ductos de los elementos de cualquier fila o columna de A por los adjuntos correspondientes.

Ejemplo 5.3.11 Calcula el determinante de la matriz


 
4 2 3 −1
 1 −3 0 5 
 
A=  .
 0 2 1 0 
2 3 −4 −2
Tenemos,
0 0 0 0 0 0 0 0
0 2 3 −1 00 0 4 3 −1 00 0 4 2 −1 0 0 4 2 3 0
0 0 0 0 0 0
0 0 0 0 0 0 0 0
|A| = 0 0 −3 0 5 0 − 20 1 0 5 0 + 1 0 1 −3 5 0 − 0 0 1 −3 0 0 = −261
0 0 0 0 0 0 0 0
0 3 −4 −2 0 0 2 −4 −2 0 0 2 3 −2 0 0 2 3 −4 0

5.3.2. Propiedades del determinante


Enunciemos siete propiedades con un ejemplo de cada una
1.- El determinante de una matriz A y el de su traspuesta, At coinciden, (|A| = |At |). Ası́
0 0 0 0
0 2 4 5 0 0 2 −1 3 00
0 0 0
0 0 0 0
0 −1 0 7 0 = 106 = 0 4 0 −2 0
0 0 0 0
0 3 −2 −4 0 0 5 7 −4 0
2.- El determinante de una matriz A y el de la matriz A! obtenida intercambiando entre sı́ dos
filas (o bien dos columnas) de A coincide en valor absoluto pero cambia de signo. (|A| = − |A! |). Ası́
0 0 0 0
0 −1 0 7 0 0 7 0 −1 0
0 0 0 0
0 0 0 0
0 2 4 5 0 = −106 = − 0 5 4 2 0
0 0 0 0
0 3 −2 −4 0 0 −4 −2 3 0
93

3.- El determinante de una matriz que tiene dos filas (o bien dos columnas) iguales es 0. Ası́
0 0
0 2 4 4 0
0 0
0 0
0 −1 0 0 0= 0
0 0
0 3 −2 −2 0

4.- Si A! es una matriz donde hemos multiplicado todos los elementos de una fila (o bien de una
columna) de una matriz A por un mismo número k, entonces resulta que |A! | = k |A|. Ası́
0 0 0 0
0 5 9 −2 0 0 1 9 −2 0
0 0 0 0
0 0 0 0
0 −5 1 7 0 = 5 0 −1 1 7 0
0 0 0 0
0 10 3 4 0 0 2 3 4 0
5.- El determinante permanece invariante si a una fila (o columna) le sumamos otra multiplicada
por un mismo número k. Ası́
0 0 0 0
0 5 9 −2 0 0 0 10 5 0
0 0 0 0
0 0 0 0
0 −5 1 7 0 = 0 −5 1 7 0
0 0 0 0
0 6 3 4 0 0 6 3 4 0

6.- El determinante es 0 si y sólo si una fila es combinación lineal de las otras. Lo mismo es cierto
para columnas. Ası́
0 0
0 7 2 −5 0
0 0
0 0
0 3 8 −3 0 = 0
0 0
0 −2 3 1 0
7.- El determinante del producto de dos matrices cuadradas es el producto de los dos determi-
nantes correspondientes. Ası́
0, -, -0 0 0
0 0 −2 1 −4 00 0 −4 −6 0
0 0 0
0 0 = 66 = 0 0
0 3 1 2 3 0 0 5 −9 0

5.3.3. Cálculo del rango usando el determinante


Usando determinantes, el rango de una matriz se caracteriza por existir un menor no nulo de
orden rg A y que todos los menores de orden (rg A + 1) son nulos.

Ejemplo 5.3.12 La matriz siguiente tiene rango 2


 
1 1 −2 5
 
 2 −1 1 −1  .
3 0 −1 4
94

Esta forma de calcular el rango podemos usarla para discutir un SEL con Rouché-Frobenius.

Ejemplo 5.3.13 Discute el siguiente sistema de ecuaciones lineales según los valores de λ.



x1 + x2 − 2x3 = 5

2x1 − x2 + λx3 = −1



3x1 − x3 = 4

5.4. Inversa de una matriz


Definición 5.4.1 Dada una matriz cuadrada de orden n, se llama matriz inversa de A a otra matriz
cuadrada de orden n, denotada por A−1 y que cumple

A · A−1 = A−1 · A = I

siendo I la matriz identidad de orden n.

Ejemplo 5.4.2 Sólo las matrices cuadradas con determinante no nulo tienen inversa. Por ejemplo
no tiene inversa la matriz , -
1 2
2 4

5.4.1. Cálculo de la inversa usando el determinante


El determinante da una forma de obtener la matriz inversa de una cuadrada (si existe) ya que se
puede probar la propiedad siguiente:

Propiedad 5.4.3 Una matriz cuadrada A tiene inversa si y sólo si su |A| #= 0, y en este caso

1
A−1 = (At )d
|A|

siendo (At )d la matriz de adjuntos de la matriz traspuesta de A (5.3.7).


Diremos que una matriz cuadrada es regular o no singular si su determinante no es 0, y por tanto
tiene inversa.

Ejemplo 5.4.4 Queremos calcular la matriz inversa de


 
3 0 −2
 
A=  0 1 −3  .
2 4 0
95

Para ello primero calculamos su determinante


0 0
0 3 0 −2 0
0 0
0 0
0 0 1 −3 0 = 40 #= 0.
0 0
0 2 4 0 0

Ahora calculamos la matriz traspuesta y su adjunta


   
3 0 2 12 −8 2
   
At =  0 1 4  (At )d =  −6 4 9 .
−2 −3 0 −2 −12 3
Por fin, tenemos que  
12 −8 2
1  
A−1 =  −6 4 9 .
40
−2 −12 3

5.4.2. Regla de Cramer


La regla de Cramer resuelve un SEL compatible y determinado.

Propiedad 5.4.5 (Regla de Cramer) Dado un SEL expresado matricialmente como

AX = B

donde A es cuadrada de rango máximo. Para resolver el SEL llamemos Ax1 la matriz obtenida a
partir de A sustituyendo la primera columna por B, Ax2 la obtenida al sustituir la segunda columna,
y ası́ hasta Axn . Entonces la solución del SEL es
Ax1 Ax2 Axn
x1 = x2 = ··· xn =
|A| |A| |A|
Ejemplo 5.4.6 Resuelve usando la regla de Cramer el sistema siguiente



x1 + 3x2 − 2x3 = 2

4x1 + x2 + x3 = 7 .



3x1 + 5x2 − 3x3 = 5

Su solución es
0 0 0 0 0 0
0 2 3 −2 0 0 1 2 −2 0 0 1 3 2 0
1 00 0
0 2 1 00 0
0 1 00 0
0 7
x1 = 0 7 1 1 0= x2 = 0 4 7 1 0= 2 x3 = 0 4 1 7 0=
30 0 3 30 0 30 0 3
0 5 5 −3 0 0 3 5 −3 0 0 3 5 5 0

Un sistema homogéneo admite sólo la solución trivial si y sólo si la matriz de coeficientes es


invertible si y sólo si el determinante es #= 0.
96

5.4.3. Cálculo de la inversa por el método de Gauss-Jordan


Para toda matriz cuadrada con determinante #= 0, hemos encontrado matrices F, C que son
producto de un número finito de matrices elementales de forma que F M C = I. Equivalentemente

CF M = I.

Luego M −1 = CF .
Una forma sencilla de obtener M −1 es ir realizando en la matriz identidad las mismas operaciones
que reducen la matriz M . Veamos un ejemplo:

Ejemplo 5.4.7 Sea la matriz  


1 0 2
 
M = 0 2 3
1 1 4
Reduzcamos
     
1 0 0 ˙ 1 0 2 1 0 0 ˙ 1 0 2 1 0 0 ˙ 1 0 2
     
0 1 0 ˙ 0 2 3 ≡  0 1 0 ˙ 0 2 3 ≡ −1 0 1 ˙ 0 1 2 ≡
0 0 1 ˙ 1 1 4 −1 0 1 ˙ 0 1 2 0 1 0 ˙ 0 2 3
     
1 0 0 ˙ 1 0 2 1 0 0 ˙ 1 0 2 5 2 −4 ˙ 1 0 0
     
−1 0 1 ˙ 0 1 2  ≡ −1 0 1 ˙ 0 1 2 ≡  3 2 −3 ˙ 0 1 0
2 1 −2 ˙ 0 0 −1 −2 −1 2 ˙ 0 0 1 −2 −1 2 ˙ 0 0 1

Acabó la 1a. Vamos con la 2a


Capı́tulo 6

Espacios vectoriales y aplicaciones


lineales

6.1. Estructura vectorial de Rn


En este tema hablamos de la estructura de espacio vectorial en Rn . Un elemento es un vector
v = (v1 , . . . , vn ) y las coordenadas vi son las componentes del vector. Por ejemplo, en R2

#v = (v1 , v2 )

También podemos representar un vector v = (v1 , . . . , vn ) como una matriz columna:


 
v1
 
 v2 
V = 
 .. 
.
vn

6.1.1. Suma y producto por un escalar en Rn


Empecemos viendo dos operaciones sencillas. Primero la suma

Definición 6.1.1 Dados v = (v1 , . . . , vn ), w = (w1 , . . . , wn ) ∈ Rn , se define su suma como v + w =


(v1 + w1 , . . . , vn + wn ).

Esta definición se puede ver gráficamente:

97
98

w
#
#v + w
#
O
#v
Luego v + w es el vector que se construye a partir de v y w siguiendo la regla del paralelogramo.
Y, ahora, el producto por un escalar (un número real)

Definición 6.1.2 Dados v = (v1 , . . . , vn ) ∈ Rn , y λ ∈ R, se define el producto de un escalar por un


vector: λv = (λ v1 , . . . , λ vn )

Gráficamente:

λ#v

O #v
Luego λv es un vector que tiene la misma dirección que v, el mismo sentido si λ > 0, sentido
opuesto si λ < 0, y la “longitud” de λv es |λ| veces la de v.
Dado un vector v, se llama vector opuesto a −v = (−1)v.

Propiedad 6.1.3 Las operaciones suma y producto cumplen las propiedades habituales.

6.1.2. (In)dependencia lineal


El concepto básico en esta sección es el de combinación lineal.

Definición 6.1.4 Diremos que un vector v ∈ Rn es combinación lineal de los vectores v1 , . . . , vr si


existen λ1 , . . . , λr ∈ R tales que
v = λ1 v 1 + · · · + λr v r .
Los λ1 , . . . , λr se llaman coeficientes de la combinación lineal.

Ejemplo 6.1.5 Por ejemplo, el vector (2, 2, 1) es combinación lineal de los vectores (1, 1, 0) y (0, 0, 1),
porque se puede escribir (2, 2, 1) = 2(1, 1, 0) + (0, 0, 1).
En este caso, los coeficientes de la combinación lineal son 2 y 1.

Por tanto, ver si un vector es combinación lineal de otros (o no) es, simplemente, ver si un sistema
es compatible (o no). Por Rouché-Frobenius, esto equivale a ver que los rangos de la matriz del SEL
y la matriz ampliada coinciden.
99

Estas matrices se pueden construir directamente de los vectores. Ası́, dado un conjunto de vec-
tores {v1 , . . . , vr }. Si v1 = (v11 , . . . , vn1 ), . . . , vr = (v1r , . . . , vnr ), su matriz asociada (o matriz de
coordenadas) se obtiene poniendo las coordenadas de los vectores en columnas. Se representa
. /
v1 v2 · · · vr

Por tanto,
 
v11 v12 ··· v1r
. / v v22 ··· v2r 
 21 
v1 v2 · · · vr =  
· · · ··· ··· · · ·
vn1 vn2 ··· vnr
Entonces,

Propiedad 6.1.6 Un vector v es c.l. de {v1 , . . . , vr } si y sólo si


. / . /
rg v1 v2 · · · vr = rg v v1 v2 · · · vr

Si el sistema es determinado o indeterminado está ligado a otro concepto, el de independencia lineal.

Definición 6.1.7 Se dice que los vectores v1 , . . . , vr son linealmente independientes (l.i.) si la única
combinación lineal que da 0 es aquella en la que todos los coeficientes son cero.

λ1 v1 + · · · + λr vr = 0 implica λ1 = · · · = λr = 0. (6.1)

Ejemplo 6.1.8 Ası́, por ejemplo, para ver si los vectores (1, 1, 1, 0), (0, 1, 0, 1) y (1, 0, 1, 0) son l.i.,
tomamos una combinación lineal de ellos igualada a 0:

λ(1, 1, 1, 0) + µ(0, 1, 0, 1) + ν(1, 0, 1, 0) = 0,

de donde resultan las ecuaciones:

λ + ν = 0; λ + µ = 0; λ + ν = 0; µ = 0,

que tienen como solución única λ = 0, µ = 0, ν = 0. Luego son vectores l.i.

Se dice que los vectores v1 , . . . , vr son linealmente dependientes si no se verifica la propiedad (6.1),
es decir, si existen λ1 , . . . , λr , no todos nulos, tales que λ1 v1 + · · · + λr vr = 0.

Propiedad 6.1.9 Esta claro que v1 , . . . , vr son linealmente dependientes si y sólo si uno de los
vectores vi es combinación lineal de los demás.

Veamos algún ejemplo:


100

Ejemplo 6.1.10 Si consideramos los vectores (1, 1, 1, 0), (0, 1, 0, 1) y (1, 0, 1, −1), y tomamos una
combinación lineal de ellos igualada a 0:

λ(1, 1, 1, 0) + µ(0, 1, 0, 1) + ν(1, 0, 1, −1) = 0, (6.2)

obtenemos las ecuaciones:

λ + ν = 0; λ + µ = 0; λ + ν = 0; µ − ν = 0,

cuyas soluciones son todos los λ, µ, ν que verifiquen λ = −ν = −µ. Basta tomar µ = 1 para tener
la igualdad (6.2) con coeficientes no nulos.

Este concepto también se puede estudiar usando la matriz de las coordenadas del conjunto de
vectores {v1 , . . . , vr }. Si v1 = (v11 , . . . , vn1 ), . . . , vr = (v1r , . . . , vnr ). Ası́
. /
Propiedad 6.1.11 Los vectores v1 , v2 , . . . , vr son l. i. si y solo si la matriz v1 v2 · · · vr tiene
rango r (el máximo rango posible). Por tanto, para que sean l.i. ha de ser r ≤ n.

6.2. k-planos vectoriales


Vamos a repetir el estudio de conjuntos l.i. de vectores, etc., en subconjuntos de Rn que lo
permitan. Veamos que tipo de subconjuntos.

6.2.1. Subespacios vectoriales en paramétricas


Empecemos viendo el subespacio vectorial generado por un conjunto de vectores.

Definición 6.2.1 El subespacio vectorial generado por v1 , . . . , vr ∈ Rn es el conjunto V de todas las


posibles combinaciones lineales de los vectores v1 , . . . , vr .
Se dice también que v1 , . . . , vr generan V o que son un sistema de generadores. Se usará la notación

V = < {v1 , . . . , vr } > .

Ejemplo 6.2.2 Por ejemplo, el subespacio vectorial V , generado por los vectores (1, −1, 0) y (0, 1, 1)
está formado por todas las combinaciones lineales λ(1, −1, 0) + µ(0, 1, 1), donde λ y µ varı́an en el
conjunto de todos los números reales, es decir:

V = {(λ, −λ + µ, µ) | λ, µ ∈ R}.
Esta expresión de V se llama paramétrica ya que las coordenadas de los elementos de V también
pueden escribirse:
101

x= λ
y = −λ + µ
z= µ
Como hemos visto en c.l.,
Propiedad 6.2.3 Un vector v está en V si y sólo si
! " ! "
rg v1 v2 · · · vr = rg v v1 v2 · · · vr
Ejemplo 6.2.4 Por ejemplo, comprueba que (5, −2, 3) ∈ V y que (2, 3, 4) ∈
/ V donde V está gener-
ado por (1, −1, 0) y (0, 1, 1).

6.2.2. Base de un subespacio vectorial


Veamos el caso en el que los generadores son también l.i.
Definición 6.2.5 Sea V generado por v1 , . . . , vk . Si, además, v1 , . . . , vk son l.i. decimos que {v1 , . . . , vr }
es una base de V y que V es un k-plano vectorial o un subespacio vectorial de dimensión k de Rn
es una propiedad que la dimensión del subespacio está bien definida, no depende de los generadores
que tomemos.
Si empezamos con un sistema de generadores cualquiera siempre podemos encontrar una base
dentro de él.
Propiedad 6.2.6 Si V está generado por r vectores {v1 , . . . , vr }, su dimensión es el rango de la
matriz de sus componentes ! "
rg v1 v2 · · · vr .
Además, se puede extraer de {v1 , . . . , vr } una base de V , tomando k vectores l.i. entre {v1 , . . . , vr }.
Veamos un ejemplo de aplicación directa de todo esto:
Ejemplo 6.2.7 ¿Cuál es la dimensión del subespacio vectorial V generado por los vectores (1, 1, 0, 1),
(1, 0, 0, 1), (2, 1, 0, 2)?. El rango de la matriz asociada a estos vectores es 2, luego la dimensión de V
es 2 y una base es, por ejemplo, {(1, 1, 0, 1), (1, 0, 0, 1)}.

La propiedad más importante de las bases es que cada vector se expresa como una UNICA c.l.
Esto pasa ya que el SEL correspondiente es compatible y determinado.
Definición 6.2.8 Si u1 , . . . , uk es una base cualquiera de un k-plano vectorial V y v ∈ V , se llaman
componentes de v respecto de la base {u1 , . . . , uk } a los números reales λ1 , . . . , λk tales que
v = λ 1 u 1 + · · · + λ k uk .
Propiedad 6.2.9 Las componentes son únicas para cada vector una vez fijada la base.
102

6.2.3. Subespacios vectoriales en forma implı́cita


En el Tema 1 indicamos como las soluciones de un SEL homogéneo forman un subespacio vectorial.
Recordemoslo:

Ejemplo 6.2.10 Consideremos en R3 el conjunto V de las soluciones del SEL homogéneo


!
−2x + y + 2z = 0
x + y + z = 0
Restando la segunda de la primera obtenemos −3x + z = 0, con lo que z = 3x.
Sustituyendo en la primera obtenemos y + 4z = 0. Equivalentemente, y = −4z.
Por tanto V tiene la expresión paramétrica:

x= 2λ
y = −4λ
z= λ
que es claramente un subespacio vectorial generado por (2, −4, 1).

De hecho, las dos formas son equivalentes, dado un subespacio vectorial V en forma paramétrica,
se puede hallar una presentación de V en forma implı́cita (como solución de un SEL homogéneo).
Veamoslo en un ejemplo.

Ejemplo 6.2.11 Consideremos V el subespacio vectorial de R3 del Ejemplo 6.2.2. En forma paramétri-
ca se expresaba

x= λ
y = −λ + µ
z= µ
Para expresarlo en forma implı́cita, despejamos primero los parámetros λ y µ en función de las
coordenadas (x, y, z). Nos da
λ = x y µ = z.

Para hacerlo hemos usado la 1a ecuación y la 3a . Ahora, sustituimos los parámetros en las que
quedan (en este caso sólo la 2a ),

y = −x − z ≡ x + y + z = 0.

y nos da la forma implı́cita de V


103

6.2.4. Bases de Rn (EXTRA)


Es interesante estudiar con algo más de detalle el caso de V = Rn .

Definición 6.2.12 Una base de Rn es un conjunto de n vectores linealmente independientes.

Propiedad 6.2.13 Un conjunto de n vectores de Rn es una base si y sólo si la matriz de sus


componentes tiene rango n (si y sólo si el determinante de la matriz asociada es #= 0).

Ejemplo 6.2.14 1.- El ejemplo inmediato de base es el conjunto de vectores e1 = (1, 0, . . . , 0, 0),
e2 = (0, 1, . . . , 0, 0), . . . , en = (0, 0, . . . , 0, 1), que forman una base de Rn que se llama base canónica.
2.- Como ejemplo menos obvio, comprueba que {(1, 1, 0), (1, −1, 0), (1, 0, 1)} es base de R3 .

Definición 6.2.15 Si B = {v1 , . . . , vn } forman una base de Rn , se llaman coordenadas o compo-


nentes de v ∈ Rn respecto de la base B a los números reales λ1 , . . . , λn tales que v = λ1 v1 +· · ·+λn vn .

Ejemplo 6.2.16 1. En el caso de la base canónica, las coordenadas están claras. Todo v = (v1 , . . . , vn )
se puede escribir como v = v1 e1 + · · · + vn en .
2. Halla las coordenadas de (2, 3, 4) respecto la base (1, 1, 0), (1, −1, 0), (1, 0, 1).

Bases y matriz de cambio.


Dado un vector v = (x1 , x2 , · · · , xn ) y una base B = {v1 , . . . , vn }, si las coordenadas de v respecto
a B, son λ1 , . . . , λn , se cumple
v = λ1 v 1 + · · · + λn v n .
Veamos como escribirlo matricialmente. La igualdad se convierte en
    
v11 v21 · · · vn1 λ1 x1
    
 v12 v22 · · · vn2   λ2   x2 
 . ..     
 . ..  .  =  . 
 . . ··· .   ..   .. 
v1n v2n · · · vnn λn xn

Sea X es la matriz de las coordenadas de v, X ! la de las componentes respecto a B y M la matriz


de las coordenadas de los vectores de la base, la ecuación anterior es

MX! = X

Si, como es habitual, conocemos las coordenadas X y queremos conocer las componentes X ! ,
obtenemos
X ! = M −1 X.
Ejemplo Halla las coordenadas de (2, 3, 3) respecto la base (1, 1, 0), (1, −1, 0), (1, 0, 1) de esta
manera.
104

6.3. Aplicaciones lineales


En esta sección estudiamos el ejemplo más simple de funciones, las lineales. Estas funciones
trabajan bien con los conceptos de espacio vectorial que hemos introducido.

Definición 6.3.1 Una aplicación

f : Rn −→ Rm , f (x1 , . . . , xn ) = (y1 , . . . , ym ).

es lineal (una a.l.) si las coordenadas de la imagen vienen dadas por funciones lineales homogéneas.
O sea,

y1 = a11 x1 + a12 x2 + · · · + a1n xn ,


y2 = a21 x1 + a22 x2 + · · · + a2n xn , (6.3)
..
.
ym = am1 x1 + am2 x2 + · · · + amn xn ,

Nota 6.3.2 Una a.l. se puede conocer sabiendo las imágenes de los vectores de la base canónica
e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1), ya que

f (e1 ) = (a11 , a21 , . . . , am1 ),


f (e2 ) = (a12 , a22 , . . . , am2 )
...... ...
f (en ) = (a1n , a2n , . . . , amn ),

6.3.1. La matriz de una aplicación lineal


Una de las utilidades de las matrices es la posibilidad de describir con ellas las a.l.

Definición 6.3.3 La matriz asociada a la a.l. f de (6.3) es la matriz F de tipo m × n formada por
los coeficientes  
a11 a12 . . . a1n
 
 a21 a22 . . . a2n 
F =  .. .. .. .. 
 (6.4)
 . . . . 
am1 am2 . . . amn

Ejemplo 6.3.4 Calcula la matriz asociada a la a.l.

f : R3 −→ R3 ,

dada por y1 = x1 ; y2 = 2x1 + x2 ; y3 = −x1 + 3x2


105

La matriz asociada a una a.l. facilita los cálculos. Ası́, podemos obtener la imagen de un vector.

Propiedad 6.3.5 Sea f una a.l. y F su matriz asociada. Dado (x1 , . . . , xn ) ∈ Rn , su imagen
f (x1 , . . . , xn ) = (y1 , . . . , ym ) cumple
    
y1 a11 a12 ... a1n x1
    
 y2  a a22 ... a2n   x2 
 .  =  .21 ..   
 .   . .. ..  . , (6.5)
 .   . . . .   .. 
ym am1 am2 . . . amn xn

Ejemplo 6.3.6 Calcula usando la matriz asociada f (1, 0, −1) siendo f la a.l. de los ejemplos ante-
riores.

El uso de matrices no sólo facilita el cálculo de las imágenes sino que las operaciones entre a.l.
se corresponden perfectamente con las mismas operaciones entre matrices, ası́ la suma y el producto
por un escalar:

Propiedad 6.3.7 Si F y G son matrices m × n asociadas a a.l. f, g : Rn −→ Rm , entonces:


a) La matriz asociada a f + g es F + G,
b) La matriz asociada a λf es λF .

Y, más importante aún, la composición de a.l. corresponde al producto de matrices:

Propiedad 6.3.8 Si F es la matriz m × n asociada a una a.l. f : Rn −→ Rm y G la matriz p × m


asociada a una a.l. g : Rm −→ Rp , entonces la matriz asociada a g ◦ f es GF .

Como consecuencia f es biyectiva si y sólo si la matriz asociada F es invertible. Lo que es más,


entonces, la inversa f −1 , que también es lineal, tiene F −1 como matriz asociada.
Veamos otra forma de obtener la matriz de una a.l.

Propiedad 6.3.9 La matriz F de la a.l. f es la de las componentes de las imágenes de la base


canónica: ( )
F = f (e1 ) f (e2 ) · · · f (er ) .

Ejemplo 6.3.10 La matriz asociada a la a.l. f : R3 −→ R3 que lleva los vectores e1 , e2 , e2 en los
vectores (1, 0, 0), (1, 2, 1), (2, 0, 1) es:  
1 1 2
 
F = 0 2 0 .
0 1 1
106

6.3.2. Rango y núcleo de una aplicación lineal


Dada una a.l. f : Rn −→ Rm , veamos dos subespacios asociados a f que son muy interesantes.

Definición 6.3.11 En primer lugar, el espacio imagen de f , que se representa f (Rn ), es el subespacio
vectorial de Rm generado por las imágenes de la base canónica de Rn :

f (Rn ) = < {f (e1 ), f (e2 ), · · · , f (en )} > .

Su dimensión se llama rango de f :


rg (f ) = dimf (Rn ).

De la representación de f como una matriz y de la relación entre la independencia lineal de


vectores y el rango de la matriz de sus componentes se deduce que

Propiedad 6.3.12 El rango de una a.l. f es igual al rango de su matriz asociada F .

Ejemplo 6.3.13 La matriz de f : R3 −→ R2 definida como f (x, y, z) = (x + y, y − z, x + z), es


 
1 1 0
 
0 1 −1
1 0 1

Luego el rango de f es 2, por ser el rango de la matriz.

Definición 6.3.14 El segundo subespacio asociado a una a.l. f está formado por los vectores v de
Rn que cumplen f (v) = 0. Este subespacio vectorial de Rn se llama núcleo de f y se representa por
Ker f o f −1 (0).

Ejemplo 6.3.15 Encontremos explı́citamente el núcleo de la aplicación anterior f . Hemos de resolver


la ecuación f (x, y, z) = (0, 0), es decir
*
x+y = 0
.
y−z = 0

Sus soluciones son los vectores de la forma (−λ, λ, λ), de donde se deduce que su dimensión es 1 y
(−1, 1, 1) es una base.

Ası́, el núcleo es el conjunto de soluciones del SEL homogéneo f (v) = 0. El sistema es compatible
ya que siempre existe la solución trivial.
107

La dimensión del núcleo será n menos el rango de la matriz F . Por tanto:

Propiedad 6.3.16 Si f : Rn −→ Rm es una a.l.,

n = dim(f −1 (0)) + rg (f ). (6.6)

Ejemplo 6.3.17 En nuestro ejemplo, 3 = 2 + 1.

Nota 6.3.18 Todo subespacio vectorial V de Rn puede representarse en forma implı́cita como solu-
ción de un SEL homogéneo. Igualmente, puede verse como el núcleo de una a.l. f .

6.3.3. La matriz asociada y el cambio de base (EXTRA)


Dada una a.l. f : Rn −→ Rm le hemos asociado una matriz F de manera que si X es la matriz
de coordenadas de un vector v, la matriz Y de coordenadas de su imagen f (y) se obtiene como

Y = FX

Todo esto sucede usando las coordenadas habituales que son las componentes respecto a las bases
canónicas de Rn y Rm
¿Que pasa con otras bases?
Consideremos B = {v1 , v2 , · · · , vn } base de Rn y B ! base de Rm . Poniendo las coordenadas de
f (vi ) respecto a B ! , obtenemos la matriz de f en las bases B y B ! . Cumple

Y ! = F !X !.
donde X ! es la matriz de coordenadas de un vector en Rn respecto a la base B e Y ! es la matriz
de coordenadas de su imagen en Rm respecto a la base B ! .
¿Que relación hay entre F y F ! ?
Si M es la matriz de cambio de la base B y N la matriz de cambio de la base B ! , tenemos

X = MX! y Y ! = N −1 Y

Sustituyendo arriba, obtenemos

F ! X ! = Y ! = N −1 Y = N −1 F X = N −1 F M X !

Por lo que
F ! = N −1 F M.
108

6.4. Diagonalización de un endomorfismo


Dada una a.l. f de un Rn en si mismo, buscamos ‘direcciones privilegiadas’: las que se conservan
por f .
Estas direcciones vendrán dadas por vectores v (no nulos) tales que v y f (v) tengan la misma
dirección.

Definición 6.4.1 Dada una a.l. f : Rn −→ Rn , decimos que un vector v ∈ Rn es un vector propio
(autovector) si hay un número real λ tal que

f (v) = λv.

Decimos que λ es el valor propio (autovalor) asociado a v. Asimismo, v es un vector propio asociado
a λ.

Nota 6.4.2 Como


f (v) = λv equivale a (f − λI)(v) = 0
los vectores propios asociados a λ son los elementos del núcleo de f − λI

Trabajando matricialmente hay vectores propios no triviales cuando el determinante de F − λI


se anule.

Propiedad 6.4.3 Si F es la matriz n × n asociada a una a.l. f : Rn −→ Rm , λ es un valor propio


de f si y sólo si es raı́z del polinomio | F − λI | (este polinomio se llama caracterı́stico).

Una vez hallados los valores propios, para cada uno tenemos vectores propios asociados.

Propiedad 6.4.4 Si F es la matriz n × n asociada a una a.l. f : Rn −→ Rm y λ es un valor propio


de f , un vector v ∈ Rn es un vector propio asociado a λ si y sólo si está en el núcleo de F − λI.

La expresión de la a.l. se puede simplificar si hay una base de vectores propios ya que en esta
base tiene expresión diagonal con los valores propios en la diagonal principal.

Definición 6.4.5 Decimos que una a.l. f : Rn −→ Rn , es diagonalizable si admite una base de
vectores propios.

Hay un caso habitual en el que sucede.

Propiedad 6.4.6 Si F es la matriz n × n asociada a una a.l. f : Rn −→ Rn y su polinomio


caracterı́stico tiene n raı́ces simples distintas, existe una base de vectores propios.
Capı́tulo 7

Sobre la Geometrı́a de Rn

7.1. Geometrı́a afı́n


Todo el capı́tulo anterior estuvo relacionado con subespacios vectoriales y aplicaciones lineales.
En todo ello el vector 0 jugaba un papel especial (siempre está en los subespacios y las aplica-
ciones lineales lo conservan). Pero, muchas veces, necesitamos considerar el mismo tipo de problemas
trasladados a otro punto. Esto es lo que se llama estructura afı́n de Rn .

7.1.1. Subespacios afines de Rn


Los subespacios afines de Rn son subespacios vectoriales trasladados:

Definición 7.1.1 Si V es un subespacio vectorial y P ∈ Rn , el subespacio afı́n P + V de Rn se


obtiene de un V trasladando el origen a un punto:

P + V = {P + v; v ∈ V },

siendo P + v la suma coordenada a coordenada.

Cuando P es el origen O = 0, se obtiene un subespacio vectorial como caso particular de


subespacio afı́n.
Ası́, los espacios afines son la generalización, a dimensión n, de las rectas y planos de R3 . Cuando
esas “rectas y planos” pasan por el origen, son subespacios vectoriales, si no, son, simplemente,
subespacios afines.

Definición 7.1.2 Un subespacio afı́n E ⊆ Rn es un subconjunto que se uede poner de la forma


P + V , con P un punto y V un subspacio vectorial.

El punto P no es único, pero el subespacio V sı́, y se llama subespacio director de E. Es lógico


definir la dimensión de E como la de V . Si la dimensión es k, decimos que V es un k-plano afı́n.

109
110

Ejemplo 7.1.3 Usando los ejemplos de subespacio vectorial de la Sección 6.2, podemos dar los
siguientes ejemplos de subespacio afı́n (y dibujarlos). Ası́, si P = (1, 1, 1), son subespacios afines (de
dimensiones respectivas 2, 2 y 1) los siguientes: (1, 1, 1) + {(y, y, z); y, z ∈ R}, (1, 1, 1) + {0} × R2 ,
(1, 1, 1) + R × {(0, 0)}

Vamos a ver como en e caso vectorialla expresió paramétrica y la implı́cita de un subespacio afı́n.
Primero la paramétrica:
Sea ahora {v1 , . . . , vk } una familia de vectores que generan V , entonces v es una c.l. de esta familia
y existen λ1 , . . . , λk ∈ R cumpliendo

X = P + λ1 v 1 + · · · + λk v k ; .

o, usando coordenadas,

yi = Pi + λ1 v1i + · · · + λk vki ; i = 1, . . . , n. (7.1)

Estas ecuaciones ((??) o (7.1)) se llaman ecuaciones paramétricas de P + V .

Ejemplo 7.1.4 Por ejemplo, si r es la recta de R3 que pasa por (1, 2, 1) en la dirección del subespacio
vectorial generado por (1, 1, 0), su ecuación es

(1, 2, 1) + t(1, 1, 0) = (1 + t, 2 + t, 1); t ∈ R,

o, equivalentemente,
x = 1 + t; y = 2 + t; z = 1

Veamos la forma implı́cita. Primero observemos que para que un punto X = (x1 , x2 , · · · , xn )
esté en P + V , basta ver que X − P ∈ V . Ası́, si el subespacio vectorial V viene dado en implı́itas
(como solución de un SEL homogéneo), el subespacio afı́n P + V está formado por los puntos X tales
que X − P verifica el SEL. Desarrollando, obtenemos que X ha de cumplir un SEL (normalmente
no homogéneo) que se llaman ecuaciones implı́citas de P + V .

Ejemplo 7.1.5 1.- Por ejemplo, sea Π = P +V el plano afı́n de R3 donde P = (1, 2, 1) y V está dado
por la ecuación x + y = 0, los puntos X de P + V están dados por

(x − 1) + (y − 2) = 0.

Desarrollando,
x + y = 3.

2.- Realiza el mismo trabajo con P = (1, 2, 1, −1) y W del Ejemplo 2.2.15.
111

Como en el caso vectorial podemos pasar de implı́citas a paramétricas y al revés.


Si E = P + V viene dado implı́citamente (solución de un SEL), para obtener la expresión
paramétrica sólo hemos de resolver el SEL.

Ejemplo 7.1.6 Sea Π = P + V el plano afı́n de R3 dado por x + y = 3.


Las soluciones son los (x, y, z) que cumplen


 x= λ
y = 3 +λ


z= µ

Al revés, si E = P + V viene dado en forma paramétrica, obtenemos los parámetros en función


de las incógnitas usando unas ecuaciones y sustituimos en las ecuaciones que no hemos usado.

Ejemplo 7.1.7 Sea r la recta de R3 dada en forma paramétrica por,

x = 1 + t; y = 2 + t; z = 1

Usando la primera ecuación obtenemos t = x − 1.


Sustituyendo t en las demás obtenemos las ecuaciones implı́citas de r
!
−x +y = 1
z = 1

7.1.2. Aplicaciones afines


Una vez vistos subespacios que ‘trasladan el origen’ vamos a trasladar las a.l.

Definición 7.1.8 Una aplicación afı́n

f : Rn −→ Rm

es aquella en la que la imagen de un punto f (x1 , . . . , xn ) = (y1 , . . . , ym ) viene dada por funciones
lineales (no homogéneas):

y1 (x1 , . . . , xn ) = a11 x1 + a12 x2 + · · · + a1n xn + b1 ,


y2 (x1 , . . . , xn ) = a21 x1 + a22 x2 + · · · + a2n xn + b2 ,
.............................................
ym (x1 , . . . , xn ) = am1 x1 + am2 x2 + · · · + amn xn + bm ,

Veamos un ejemplo directo:


112

Ejemplo 7.1.9 La aplicación f : R3 −→ R3 dada por

f (x1 , x2 , x3 ) = (x1 + 1, 2x1 + x2 + 2, −x1 + 3x2 − 1)

es una aplicación afı́n

Ası́ una aplicación afı́n puede verse como la suma de dos partes:
1.- los términos lineales que dan una a.l. Lf asociada a f .
2.- una traslación mediante los términos independientes asociada a f . El vector traslación es una
matriz columna.

Ejemplo 7.1.10 En el ejemplo, la mariz de la a.l. asociada es


 
1 0 0
 
F =  2 1 0 .
−1 3 0
y la de la traslación


1
 
B= 2 
−1

Ası́, las aplicaciones afines se puede describir en forma matricial usando dos matrices: la matriz
F de tipo m × n formada por los coeficientes de los términos de grado 1, y la matriz B de tipo m × 1
formada por los términos independientes.
Entonces, si escribimos el vector x = (x1 , . . . , xn ) en forma de matriz columna X y el f (x)
también como matriz columna Y , se cumple

Y = F X + B.

Veamos un ejemplo directo:

Ejemplo 7.1.11 En nuestro ejemplo, la imagen del vector (1, 0, −1) se puede calcular:
      
1 0 0 1 1 2
      
 2 1 0  0  +  2  =  4 
−1 3 0 −1 −1 −2

Para acabar, veamos que hacer cuando la a.l. asociada la damos mediante las imagen de una base:
113

Ejemplo 7.1.12 Sea la aplicación afı́n f : R3 −→ R3 tal que


1.- La a.l. asociada lleva e1 , e2 , e3 en (1, 0, 0), (1, 2, 1), (2, 0, 1) respectivamente, y
2.- la traslación asociada viene dada por el vector (−1, −2, 1).
La matriz de la a.l. asociada y la de la traslación son
  
1 1 2 1
   
F = 0 2 0 y B =  3 .
0 1 1 −1

Como antes, para calcular la imagen del punto (1, 3, −1), hacemos
      
1 1 2 1 −1 1
      
0 2 0  3  + −2 = 4 .
0 1 1 −1 1 3

Las aplicaciones afines conservan los subespacios afines:

Propiedad 7.1.13 Sea f : Rn −→ Rm una aplicación afı́n.


1. Si E = P + V es un subespacio afı́n de Rn su imagen f (E) es un subespacio afı́n de Rm .
Además:
f (P + V ) = f (P ) + Lf (V ).

2. Si E = P + V es un subespacio afı́n de Rm su anti-imagen

f −1 (E) = {v ∈ Rn | f (v) ∈ E

es un subespacio afı́n de Rn .

Ejemplo 7.1.14 Sea f : R3 −→ R3 la aplicación afı́n con matrices asociadas


   
1 0 0 1
   
 2 1 0 y  2 .
−1 3 0 −1

1.- Comprueba que f (R3 ) es un 2-plano afı́n que pasa por (1, 2, −1). Expresalo en paramétricas
y en implı́citas.
2.- Halla la expresión en paramétricas e implı́citas de los subespacios afines f −1 (0, 0, 0) y f −1 (0, 1, 0).
114

7.2. Geometrı́a euclı́dea de Rn


7.2.1. Producto escalar en Rn
Definición 7.2.1 Se define el producto escalar de dos vectores u = (u1 , . . . , un ), v = (v1 , . . . , vn )
de Rn por la fórmula
n
/
u · v := u1 v1 + · · · + un vn = ui v i .
i=1

Obsérvese que el producto escalar de dos vectores es un escalar (es decir, un número real). Además:

Propiedad 7.2.2 El producto escalar verifica las siguientes propiedades:

i) u · (v + w) = u · v + u · w

ii) u · (λv) = λ u · v, siendo λ ∈ R,

iii) u · v = v · u.

iv) u · u ≥ 0, y u · u = 0 si y solo si u = 0.

Definición 7.2.3 El módulo de un vector u es


√ 0
|u| := u·u= (u1 )2 + · · · + (un )2 .

Un vector u se dice que es unitario si su módulo es 1, i.e. si |u| = 1.


La distancia entre dos puntos P, Q ∈ Rn se define como el módulo del vector P Q, es decir
0
d(P, Q) = |P Q| = (P1 − Q1 )2 + (P2 − Q2 )2 + · · · + (Pn − Qn )2 ,

siendo P = (P1 , P2 , . . . , Pn ) y Q = (Q1 , Q2 , . . . , Qn ).

También cuando n = 1 y P y Q son números reales, su distancia es el valor absoluto de la


diferencia |P − Q|.

Definición 7.2.4 El ángulo entre vectores !(u, v) se puede definir como aquel cuyo coseno es
u·v
cos θ = , θ = !(u, v).
|u| |v|
Dos vectores se dice que son ortogonales si su producto escalar es 0, lo que equivale a que forman
un ángulo de 90o ó π/2 radianes.

Se puede ver que dos vectores tienen la misma dirección si el coseno del ángulo que forman es ±1
(1 si es el mismo sentido, −1 si el sentido es contrario).
115

7.2.2. Bases ortogonales (b.o.g.) y ortonormales (b.o.n.)


Vamos a estudiar bases que tienen propiedades cercanas a las de la base canónica.

Definición 7.2.5 Una base {u1 , . . . , uk } de un subespacio vectorial V se dice que es ortogonal (b.o.g.)
si los vectores que la componen son ortogonales dos a dos, es decir, si

ui · uj = 0 si i #= j.

La base es ortonormal (b.o.n.) si, además, los vectores que la componen son unitarios, es decir, si

ui · uj = δij ,

siendo δij la delta de Kronecker (1 cuando i = j y 0 cuando i #= j).

Como ejemplo

Ejemplo 7.2.6 La base canónica de Rn es una b.o.n.

La gran importancia de una b.o.g. es que dado un vector v sus coordenadas respecto a una b.o.g.
se pueden hallar sencillamente:

Propiedad 7.2.7 Si {u1 , . . . , un } es una b.o.g. de V , para v ∈ V tenemos


(v · u1 ) (v · uk )
v= u1 + · · · + uk .
(u1 · u1 ) (uk · uk )
(v · ui )
Luego las componentes de v son λi = .
(ui · ui )
Además, la ortogonalidad ya conlleva independencia lineal.

Propiedad 7.2.8 Si k vectores {u1 , . . . , uk } de Rn son ortogonales, entonces son l.i.

Por tanto, k vectores {u1 , . . . , uk } ortogonales de un subespacio vectorial V de dimensión k forman


una base.
Ortogonalización de una base. Dada una base de un subespacio vectorial V de dimensión k
podemos hallar una b.o.g. de V mediante un algoritmo en k estadios. En cada estadio sustituimos
un vector de la base por otro que sea ortogonal a los anteriores y que siga siendo base de V .
Describamos el algoritmo. Sea {u1 , . . . , uk } una base de V .
1. Tomamos e1 = u1 . Esta claro que {e1 , u2 , . . . , uk } es base de V .
2. Usando u2 construimos
(u2 · e1 )
e2 = u 2 − e1
(e1 · e1 )
Esta claro que e2 y e1 son ortogonales y que {e1 , e2 , u3 . . . , uk } sigue siendo base de V .
3. Repetimos el proceso k veces y obtenemos una base ortogonal de V .
Veamos un ejemplo:
116

Ejemplo 7.2.9 Sea V el subespacio de R3 generado por los vectores (1, 1, 1) y (1, −1, −1). Proce-
diendo como acabamos de indicar:
1.- e1 = (1, 1, 1), 1 2
(1, −1, −1) · (1, 1, 1) 4 2 2
2.- e2 = (1, −1, −1) − (1, 1, 1) = ,− ,− .
(1, 1, 1) · (1, 1, 1) 3 3 3

7.2.3. Proyección ortogonal


Dado un subespacio vectorial V ⊆ Rn la proyección ortogonal de un vector v en V (que denotamos
πV (v)) es el único vector de V tal que v − πV (v) es ortogonal a todos los elementos de V .
Se puede probar que la proyección ortogonal en un subespacio V existe y es única. Lo que es más,
tiene una fácil expresión en función de una b.o.g. de V .

Definición 7.2.10 Dado un subespacio V ⊆ Rn . Si {e1 , . . . , ek } es una b.o.g. de V , entonces, para


todo v ∈ Rn , definimos:
(v · e1 ) (v · ek )
πV (v) = e1 + · · · ek .
(e1 · e1 ) (ek · ek )
Propiedad 7.2.11 Para todo v ∈ Rn , tenemos πV v ∈ V y v − πV v es ortogonal a todo V .

Nota 7.2.12 A v − πV v le llamamos proyección de v en V⊥ y lo denotamos πV⊥ v.

Veamos que pasa cuando el subespacio V tiene dimensión 1.

Ejemplo 7.2.13 Calcular πV (1, 2, 3) cuando V es el subespacio generado por el vector (1, 1, 1) es
fácil. Como (1, 1, 1) es una b.o.g. de V ,
(1, 2, 3) · (1, 1, 1)
πV (1, 2, 3) = (1, 1, 1) = (2, 2, 2).
(1, 1, 1) · (1, 1, 1)
Además, πV⊥ (1, 2, 3) = (1, 2, 3) − (2, 2, 2) = (−1, 0, 1) que es ortogonal a (1, 1, 1).

En dimensión 2 el proceso es más laborioso ya que empieza por obtener una b.o.g.:

Ejemplo 7.2.14 Calcular πV (1, 2, 3) cuando V es el subespacio generado por los vectores (1, 1, 1) y
(1, −1, −1) es más largo. Primero necesitamos una b.o.g y hemos visto que
1 2
4 2 2
e1 = (1, 1, 1) y e2 = ,− ,−
3 3 3
lo es. Para facilitar podemos coger un múltiplo de e2 , en particular (2, −1, −1).

(1, 2, 3) · (1, 1, 1) (1, 2, 3) · (2, −1, −1)


πV (1, 2, 3) = (1, 1, 1) + (2, −1, −1)
(1, 1, 1) · (1, 1, 1) (2, −1, −1) · (2, −1, −1)
1 2 1 2
1 1 5 5
= (2, 2, 2) + −1, , = 1, , .
2 2 2 2
117

Además, 1 2 1 2
5 5 1 1
πV⊥ (1, 2, 3) = (1, 2, 3) − 1, , = 0, − ,
2 2 2 2
que es ortogonal a (1, 1, 1) y a (1, −1, −1).

7.2.4. Producto vectorial en R3


Un problema estándar es completar una familia de vectores l.i. hasta conseguir una base. Vamos
a ver una operación que nos permite añadir el último. En particular, en R3 , asocia a dos vectores un
tercero perpendicular a ambos.

Definición 7.2.15 El producto vectorial u × v de dos vectores u, v de R3 se define por la fórmula


3 3
3 e 1 e2 e3 3
3 3
3 3
u × v = 3u1 u2 u3 3 ,
3 3
3 v1 v2 v3 3

donde {e1 , e2 , e3 } es la base canónica de R3 y ui , vi son las componentes de u y v respectivamente en


esa base.

Es fácil obtener una serie de propiedades del producto vectorial asociadas a propiedades del
determinante:

Propiedad 7.2.16 El producto vectorial de dos vectores u × v cumple:


i) u × v es ortogonal a u y a v,

ii) u × v = −v × u,

iii) u × (v + w) = u × v + u × w,

iv) u × (λ v) = λ u × v

De mayor importancia en lo que sigue es la relación de su módulo con los de u y v.


Propiedad 7.2.17 El módulo del producto vectorial cumple |u × v| = |u| |v| sen θ, siendo θ =
!(u, v).
El producto vectorial se puede usar para calcular áreas y volúmenes ası́:
Area de un paralelogramo generado por dos vectores u y v. Parece razonable, usando una
figura, los conocimientos de geometrı́a elemental y la propiedad ii) anterior, definirla por
Area(paralelogramo) = |u|h = |u||v| sen θ = |u × v|
Area del triángulo generado por los mismos vectores es
1 1
Area(triángulo) = |u| |v| sen θ = |u × v|.
2 2
118

Ejemplo 7.2.18 Si en vez de tener los vectores, tenemos los vértices, tomamos un vértice fijo como
origen y hallamos la diferencia. Ası́, por ejemplo, para hallar el área del triángulo de vértices (1, 0, 0),
(0, 1, 0) y (1, 1, 1), tomamos (1, 0, 0) como origen y consideramos u = (0, 1, 0) − (1, 0, 0) = (−1, 1, 0)
y v = (1, 1, 1) − (1, 0, 0) = (0, 1, 1). Aplicando la fórmula anterior, obtenemos primero
3 3
3 e1 e2 e3 3
3 3
3 3
u × v = 3 −1 1 0 3 = (1, 1, −1)
3 3
3 0 1 13
con lo que el área del triángulo es √
1 3
|u × v| =
2 2
Hay otro par de fórmulas geométricas usando una mezcla del producto vectorial y el escalar.
3 3
3 u1 u2 u 3 3
3 3
3 3
(u × v) · w = u · (v × w) = 3 v1 v2 v3 3 .
3 3
3 w1 w 2 w 3 3
Volumen de un paralelepı́pedo generado por tres vectores u, v y w. Parece razonable hallarlo
multiplicando el área del paralelogramo generado por u y v que, según acabamos de ver es |u × v|,
por la altura a del paralelepı́pedo, que, es el módulo de la proyección de w sobre u × v, es decir, la
podemos definir por
Volumen(paralelepı́pedo) = |(u × v) · w|
Volumen del tetraedro. Como el paralelepı́pedo generado por tres vectores se puede dividir
en seis tetraedros iguales al generado por los mismos vectores parece lógico definir el volumen del
tetraedro generado por los vectores u, v y w como
1
Volumen(tetraedro) = |(u × v) · w|.
6
Ejemplo 7.2.19 Como antes, si nos dan los vértices tomamos uno fijo como origen. Ası́, por ejemplo,
el volumen del tetraedro de vértices (1, 0, 0), (0, 1, 0), (1, 1, 1) y (1, 2, 1) se calcula usando los vectores
u = (0, 1, 0) − (1, 0, 0) = (−1, 1, 0), v = (1, 1, 1) − (1, 0, 0) = (0, 1, 1) y w = (1, 2, 1) − (1, 0, 0) =
(0, 2, 1) y aplicando entones la fórmula anterior. Primero obtenemos
3 3
3−1 1 03
3 3
3 3
(u × v) · w = 3 0 1 13 = −1
3 3
3 0 2 13
por lo que el volumen de ese tetraedro es

1 1
|(u × v) · w| = ,
6 6
y el volumen del paralelepı́pedo generado por los mismos puntos es 1.
119

7.3. Los números complejos y el plano


Vamos a hablar algo de los números complejos, indicando sus propiedades básicas, representación
y forma de trabajar con ellos, como introducción al análisis de funciones de variable compleja que
veréis en Mate II.
La primera aparición de los números complejos es como soluciones de una ecuación de segundo
grado con coeficientes reales. Ası́, sabemos que la ecuación

x2 + 1 = 0,

tiene como soluciones



x = ± −1.

Pero, ¿que significa −1?
Para que las soluciones de ua ecuación de segundo grado tenga sentido siempre, necesitamos que
las raı́ces de números negativos existan. Esto es lo que lleva a la definición de los números complejos.

7.3.1. Números complejos. Operaciones


Comenzamos definiendo el número j.

Definición 7.3.1 Llamamos j a −1 y decimos que es imaginario.

Está claro que, para que las reglas habituales de las raı́ces sigan cumpliéndose, j 2 = −1. Asimismo:
√ 0 √ √ √
−a = a (−1) = a −1 = a j, cuando a > 0.

Queremos que los nuevos números a introducir, los complejos, contengan estos números imagi-
narios (que son las raı́ces de números negativos) y, además, los números reales, por lo tanto deberán
contener la suma de un número real y un número imaginario. Esto sugiere la siguiente definición:

Definición 7.3.2 El conjunto de los números complejos se define como:

C = {a + b j | a, b ∈ R}.

La expresión de un número complejo como z = a + b j, se llama forma binomial. Su parte real es


a y su parte imaginaria es b j.

Escribiremos 0 + b j = b j, y a + 0 j = a, de este modo se puede considerar que todo número real


a es complejo identificándolo con a + 0 j. Resulta ası́ R ⊂ C.
Para extender a C las operaciones de R (suma y producto) tratamos un número complejo en su
forma binomial, usamos asociatividad y distributividad y consideramos j 2 = −1. Nos da las siguientes
definiciones.
120

Definición 7.3.3 Sean a + b j, c + d j ∈ C. Definimos:


Suma: (a + b j) + (c + d j) = (a + c) + (b + d) j.
Producto: (a + b j)(c + d j) = (ac − bd) + (ad + bc) j.

No es difı́cil probar que estas definiciones conservan las propiedades habituales: asociativa y
conmutativa para + y ·, distributiva de · respecto de +, y existencia del 1 y del 0 y del opuesto. El
inverso merece consideración aparte. Definamos primero el complejo conjugado

Definición 7.3.4 Dado un número complejo z = a + b j ∈ C, su conjugado es

z = a − b j.

Aplicando la definición del producto de números complejos, tenemos que

z · z = |z|2 = a2 + b2 .

Por lo tanto, el inverso de z, es decir, el número por el que hay que multiplicar z para que de 1 es
1 z
z −1 = = 2
z |z|

ya que es fácil ver que zz −1 = 1.


Usando esto, el cociente de dos números complejos es
a+b j (a + b j) · (c − d j) (ac + bd) + (bc − ad) j ac + bd bc − ad
= = 2 2
= 2 + 2 j.
c+d j (c + d j)(c − d j) c +d c + d2 c + d2
Los complejos y raı́ces de polinomios reales.
Con lo que hemos visto ya tenemos elementos para comprobar que
Una ecuación real de segundo grado siempre tiene dos soluciones.
En efecto, dada una ecuación a x2 + b x + c = 0, sus soluciones se obtienen aplicando la fórmula

−b ± b2 − 4 a c
x= ,
2a
que, como ya conocı́amos, tiene solución real si b2 − 4 a c ≥ 0.

Si b2 − 4 a c < 0, entonces podemos escribir b2 − 4 a c = −η 2 , con lo que b2 − 4 a c = η j, y
−b ± η j −b η
x= = ± j,
2a 2a 2a
donde se observa que:
Si las soluciones de una ecuación de segundo grado con coeficientes reales no son números reales,
entonces son dos números complejos conjugados.
Equivalentemente, todo polinomio real de segundo grado tiene dos raı́ces. Las dos son reales o
son un par de complejos conjugados.
121

Lo sorprendente es que los números complejos también proporcionan todas las raı́ces de polinomios
de cualquier grado.
Teorema fundamental del álgebra: Todo polinomio de grado n con coeficientes reales tiene ex-
actamente n raı́ces (quizás repetidas o múltiples) en el conjunto de los números complejos.
Equivalentemente, todo polinomio real descompone en producto de factores lineales y cuadráticos.
Las dos son reales o son un par de complejos conjugados.

7.3.2. Representación gráfica. Forma polar


Igual que cada número real venı́a representado por un punto de una recta, llamada recta real,
vamos a representar cada número complejo por un punto de un plano. La representación es la más
natural que a uno cabe imaginar: a cada número complejo a + b j le asociaremos el punto del plano
de coordenadas (a, b). Esto a veces se expresa diciendo que C es un espacio vectorial de dimension 2
sobre R.

Esta representación geométrica sugiere una nueva forma de entender un número complejo medi-
ante el módulo y el argumento. En efecto, puesto que el número complejo z viene representado por un
vector z, ahora podemos fijarnos en que ese vector está completamente determinado por su longitud
y por el ángulo que forma con el semieje positivo X o eje real.
El módulo de ese vector es

r = a2 + b2 ,

que coincide con el módulo |z| del número complejo z que definimos antes.
Además, el ángulo θ, que llamamos argumento, es el único θ ∈ [0, 2π[ que verifica

a b
cos θ = √ ; sen θ = √ .
a2 + b2 a2 + b2

Nota 7.3.5 Si no restringimos θ al intervalo [0, 2π[, se tiene que θ y θ + 2π son argumentos del
mismo número complejo. A partir de ahora no tendremos inconveniente en aceptar que el argumento
de un número complejo varı́a en R y que, por tanto, un mismo número complejo tiene distintos
argumentos, pero todos ellos difieren en un múltiplo de 2π, y solo uno de ellos está en el intervalo
[0, 2π[.

La expresión en forma polar de un número complejo es rθ donde r es su módulo y θ su argumento.


Se tiene ası́ que un número complejo puede representarse bien por sus partes real a e imaginaria

b (z = a + b j), o bien por su módulo r = |z| = a2 + b2 y su argumento θ.

Ya hemos visto como pasar de la forma binomial a la polar. Al revés, si z = rθ es la forma polar,
la binomial es z = r(cos θ + sen θ j).
122

Una forma de recordar estas relaciones es usar la ‘fórmula de Euler’

eθj = cos θ + sen θ j.

Entonces z puede escribirse rθ si


1 2
a b
z =a+b j =r + j = r(cos θ + sen θ j) = r eθj ,
r r

La representación de un número complejo en forma polar es útil para muchos cálculos, ya que:
- El módulo del producto de dos números complejos es el producto de los módulos.
- el argumento del producto de dos números complejos es la suma de los argumentos (podemos
tener que reducir la suma para que este en [0, 2π[).
Raı́ces de números complejos.
Para hallar todas las raı́ces de ı́ndice n de u número complejo z, consideramos que han de cumplir
n
x = z.
Escribiéndolos en forma polar, z = rθ y x = ρϕ , la ecuación se divide en

ρn = r y nϕ = θ.
Hay que tener en cuenta que la última ecuación hay que entenderla módulo un múltiplo entero de
2π.

Ejemplo 7.3.6 Busquemos las raı́ces cúbicas de la unidad. Son los x = ρϕ cumpliendo ρ3 = 1 (o
sea, ρ = 1) y 3ϕ = 2π k.
Salen ϕ =; ϕ = 2π/3; ϕ = 4π/3.

Ası́, todo número complejo tiene n raı́ces n-ésimas. Incluso más es cierto.
Teorema fundamental del álgebra: Todo polinomio de grado n con coeficientes complejos tiene
exactamente n raı́ces (quizás repetidas o múltiples) en el conjunto de los números complejos.

También podría gustarte