Está en la página 1de 37

ÁLGEBRA LINEAL

PARA
MATEMÁTICAS I
(Grados en Ingenierı́a Industrial)

Rosa Marı́a de Frutos Marı́n

Departamento de Matemática Aplicada

UNIVERSIDAD DE VALLADOLID
1. SISTEMAS DE ECUACIONES LINEALES

1.1. Reducción de una matriz a la forma escalonada


Matriz: Tabla de números dispuestos en filas (horizontales) y columnas (verticales).
Operaciones elementales en las filas de una matriz:

 Sumarle a una fila un múltiplo de otra.
Tres tipos: Intercambiar dos filas.

Multiplicar a una fila por una constante no nula.
Matriz escalonada: Aquella en la cual el primer elemento no nulo de cada fila se encuentra más
a la derecha que en las filas precedentes, y las filas formadas solo por ceros (en caso de haberlas)
aparecen en la parte inferior de la matriz.
   
Ejemplos:   3 3 7 0 0 9 8 −7
2 1 8 7 0  0
 0  0 5 1 
 ;
 0
 0 4 14 

1 0 2 3  ;  0 0 0 0   0 0 0 4 
0 0 0 0 5
0 0 0 0 0 0 0 0
El primer elemento distinto de cero en cada fila no nula se denomina elemento principal de la fila.

∗ ∗ ∗ Toda matriz puede llevarse a la forma escalonada mediante una secuencia de


operaciones elementales en las filas. Para lograrlo, basta emplear la siguiente estrategia:
1. Tomando como pivote el elemento situado en la esquina superior izquierda, obtener ceros
debajo del mismo (sumándoles a las filas inferiores múltiplos adecuados de la fila que contiene
el pivote).
2. Tapar la fila y columna en que estaba el pivote.
3. Repetir el proceso descrito con la matriz resultante.

teniendo en cuenta que, SI EN LA POSICIÓN DE PIVOTE HAY UN CERO, entonces


– Si debajo de él encuentro un elemento no nulo: Intercambio las filas.
– Si debajo de él no hay más que ceros: Tapo dicha columna de ceros.
F2 ← F2 − 2 × F1
Ejemplo: F3 ← F3 − 3 × F1
F2 ! F3 F4 ← F4 − 4/5 × F2 F4 ← F4 − 1/10 × F3

 ↓  ↓ ↓  ↓ 
1 −2 0 1 1 −2 0 1 1 −2 0 1 1 −2 0 1 1 −2 0 1
 2 −4 3   1   4   4   4 

M=
2 ∼ 0 0 2 ∼ 0 5 1 ∼ 0 5 1 ∼ 0 5 1 
3 −1 1 7   0 5 1 4   0 0 2 1   0 0 2 1   0 0 2 1 
0 4 1 1 0 4 1 1 0 4 1 1 1/ −11/ 0 0 0 −23/
0 0 5 5 10

• La forma escalonada de una matriz M NO es única.


Pero: Todas las matrices escalonadas que pueda obtener a partir de M tienen sus elementos
principales situados idénticamente (misma escalera). En particular, tienen el mismo número de
filas no nulas. DICHO NÚMERO SE LLAMA RANGO DE M .
Matriz escalonada reducida: La escalonada que tiene todos los elementos principales iguales
a 1, y por encima de los mismos solamente lleva ceros.

• La forma escalonada reducida de M es única. (Haga lo que haga: mismo resultado final)
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 3

Obtención de la forma escalonada reducida a partir de una forma escalonada cual-


quiera: Tras multiplicar cada fila por el inverso de su elemento principal, se utiliza como pivote
el último 1 principal, luego el penúltimo, etc. para obtener ceros por encima de los mismos.

Ejemplo: F2 ← 1/5 × F2 F1 ← F1 − F4
F3 ← 1/2 × F3 F2 ← F2 − 4/5 × F4
F2 ← F2 − 1/5 × F3 F1 ← F1 + 2 × F2
F4 ← −10/23 × F4 F3 ← F3 − 1/2 × F4

↓ ↓  ↓ 
0 ↓
   
1 −2 0 1 1 −2 0 1 1 −2 0 0 1 −2 0 1 0 0 0
 0 5 1 4   0 1 1/ 4/   0 1 1/ 0   0 1 0 0  0 1 0 0
M = ∼ ∼ ∼ ∼ 
5 5 5
 0 0 2 1   0 0 1 1/
2
  0 0 1 0   0 0 1 0  0 0 1 0
0 0 0 −23/ 0 0 0 1 0 0 0 1 0 0 0 1
10 0 0 0 1

Ejercicio: Hallar la forma escalonada reducida de las matrices:


   
1 3 0 2 3 1 0 Soluciones:  1 0 −15/  
1 3/ 0 0

2 2
(a)  2 6 0  (b)  4 6 3 −1  (a)  0 1 5/  (b)  0 0 1 0 

2
1 5 5 2 3 7 1 0 0 0 0 0 0 1

1.2. Resolución de un sistema de ecuaciones lineales


• Los sistemas escalonados se resuelven por SUSTITUCIÓN de ABAJO a ARRIBA:
Empezando por la última ecuación y siguiendo por la penúltima, antepenúltima, etc., se despeja
en cada ecuación la incógnita que aparece en primer término (incógnita principal ).
Ejemplo 1:
 
2x + y + 3z = 5 
  2 x = 5 − (10) − 3(−3)
 ⇒ x=2
y = 16 + 2(−3) ⇒ y = 10
ÚNICA solución:
y − 2 z = 16 =⇒ =⇒

 
 (2, 10, −3)
2 z = −6 z = −3

Ejemplo 2:
 

 
 x = 2 y + (3 − 5 u) − u
x − 2y − z + u = 0 ⇒ x=3 + 2y − 6u
=⇒ =⇒ Existen INFINITAS

z + 5u = 3  
 z = 3 − 5u

∗ x = 3 + 2s − 6t
y=s
soluciones, todas ellas de la forma (s , t ∈ IR : parámetros)
∗ z = 3 − 5t
u=t

Las incógnitas principales (señaladas con ∗) deben obedecer a las expresiones de los recuadros,
obtenidas al sustituir y despejar de abajo a arriba; pero las incógnitas que NO son principales
están libres y pueden tomar cualquier valor real; por eso, a cada una de ellas le asignamos el valor
de un parámetro. Ası́ pues:

Núm. de parámetros = Núm. total de incógnitas − Núm. de incógnitas principales

• Sistema de m ecuaciones lineales con n incógnitas, caso general.


  a
a11 x1 + a12 x2 + · · · + a1n xn = b1  11 a12 . . . a1n b1 


a21 x1 + a22 x2 + · · · + a2n xn = b2  a21 a22 . . . a2n b2 
codificado mediante: A|B = 
 .. .. .. ..
.. 

.................................... 
 . . . . .

am1 x1 + am2 x2 + · · · +amn xn = bm am1 am2 . . . amn bm

A|B: matriz AMPLIADA del sistema. Sin la última columna, es A: matriz DE LOS COEFICIENTES.
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 4

MÉTODO DE GAUSS. Se ejecutan los siguientes pasos:


1. Escribir la matriz ampliada, A|B.
2. Escalonarla.
3. Escribir el sistema correspondiente (equivalente al de partida, pero ahora escalonado).
4. Resolverlo por sustitución de abajo a arriba.

→ Si al escalonar aparece una fila de la forma (0, 0, . . . , 0, k), con k ̸= 0, entonces el sistema no
tendrá solución. (¿por qué?)
→ En caso contrario: Si al escalonar de A|B quedan r filas no nulas, entonces el sistema reescrito
tendrá r ecuaciones y, por tanto, habrá r incógnitas principales (una por ecuación). Ası́:
• Si r = n, el sistema tendrá solución única (como en el Ejemplo 1).
• Si r < n, habrá infinitas soluciones, dependientes de n − r parámetros. (¿por qué?)

Ya sabemos discutir y resolver cualquier sistema; ahora, reformularemos nuestras conclusiones:


Un sistema es incompatible, si y solo si la escalonada de A|B posee una fila cuyo
elemento principal está en la última columna. Lo cual significa que el rango de A|B supera
(exactamente en una unidad) al de A.

En todo sistema compatible se cumple que rg(A) = rg(A|B) y además:

Núm. de parámetros en la solución = Núm. de incógnitas − rango de A

MÉTODO DE GAUSS-JORDAN. Es una variante del método de Gauss. Los pasos son:
1. Escribir la matriz ampliada, A|B.
2. Llevarla a su forma escalonada REDUCIDA.
3. Reescribir el sistema.
4. Despejar las incógnitas principales, y escribir la solución.

Ejercicio: Resolver, por el método de Gauss y por el de Gauss-Jordan, el sistema:


 
 x1 = −1 + t + 4 s
x1 − x2 + x3 + 5 x4 + x5 = 2  

 
 x2 = t
2 x1 − 2 x2 + 3 x3 + 13 x4 + 3 x5 = 3
Solución: x = −7 + 5 s
x3 + 7 x4 + 9 x5 = 7   3


  x4 = 2 − 2 s

5 x1 − 5 x2 + 8 x4 − 4 x5 = 11
x5 = s
Ejercicios: Discutir y, en su caso, resolver, los sistemas:
{ { }
3 x − 6 y + 9 z = 15 Solución: ( 5 + 2 s − 3 t, s , t ) : s, t ∈ IR
1.
2 x − 4 y + 6 z = 10
 (21 )
 3x + 3y = 15 Solución: /4 , −1
/4 , 1/2
2. 2 x + 2 y + 2 z = 11

x + 3y + 3z = 6

 x + 4y + 2z = 3 Es incompatible.
3. x−y−z = 2

2 x + 3 y + z = 11
{ }
{ Solución: ( − 2t − s , t , − s , s ) : t, s ∈ IR
x + 2y + 3z + 4u = 0
4.
2x + 4y + 7z + 9u = 0 Es homogéneo; y se resuelve igual que todos.
2. MATRICES
Se llama matriz de m filas y n columnas (o matriz de tamaño m× n) a una tabla rectangular de
 
a11 a12 ... a1n
  {
Filas ≡ horizontales
 a21 a22 . . . a2n 
números de la forma  . .. .. .. . Nota:
 .. . . .  Columnas ≡ verticales
am1 am2 . . . amn
Los números aij se llaman elementos de la matriz. Solo se consideran iguales dos matrices si son
del mismo tamaño y, en cada una de las posiciones, aparece el mismo elemento en una que en otra.
Solemos usar letras mayúsculas para poner nombre a las matrices: A, B, M , P , etc. . .

2.1. Operaciones con matrices


• Suma de matrices de igual tamaño:
     
a11 a12 ... a1n b11 b12 ... b1n a11 + b11 a12 + b12 ... a1n + b1n
     
 a21 a22 ... a2n   b21 b22 ... b2n   a21 + b21 a22 + b22 ... a2n + b2n 
 .. .. .. .. + .. .. .. .. = .. .. .. .. 
     
. . . . . . . . . . . .
am1 am2 ... amn bm1 bm2 ... bmn am1 + bm1 am2 + bm2 ... amn + bmn

• Producto de un escalar(≡ número real) por una matriz:


   
a11 a12 ... a1n λ a11 λ a12 ... λ a1n
   
 a21 a22 ... a2n   λ a21 λ a22 ... λ a2n 
λ· .. .. .. .. = .. .. .. .. 
   
. . . . . . . .
am1 am2 ... amn λ am1 λ am2 ... λ amn

• Multiplicación de dos matrices de tamaños m× n y n× p :


   
a11 a12 ... a1n   c11 c12 ... c1j ... c1p
 .  b11 b12 ... b1j ... b1p  . 
 . .. .. ..   . .. .. .. .. 
 . . . .   b   . . . . . 
   21 b22 ... b2j ... b2p   
 ai1 ai2 ... ain · . .. .. ..  =  ci1 ci2 ... cij ... cip 
   .   
 .. .. .. ..  . . . .  . .. .. .. .. .. 
 . . . .  bn1 bn2 ... bnj ... bnp  .. . . . . . 
am1 am2 ... amn cm1 cm2 ... cmj ... cmp

siendo cij = ai1 · b1j + ai2 · b2j + · · · + ain · bnj

Propiedades de las operaciones anteriores. Para cualesquiera matrices A, B, C de tamaño


m × n, y cualesquiera números reales λ y µ, se verifica:

(1) A+B =B+A (Prop. Conmutativa)


(2) (A + B) + C = A + (B + C) (Prop. Asociativa)

Notas:
 
(3) A + Om×n = A (Om×n es neutro)
0 0 ... 0

(4) A + (−A) = Om×n (A posee opuesta) • Om×n = ... ... ... . . .


... ... ... ...
(5) (λ + µ)A = λA + µA (Distributividad de escalares)
0 0 ... 0
“Matriz nula” de tamaño m× n
(6) λ(A + B) = λA + λB (Distributividad de matrices)


(7) λ(µA) = (λµ)A (“Asociatividad” escalares) • − A = (−1)A


(8) 1A = A (1 es ‘neutro’) • A − B = A + (−B)

Añadamos las siguientes propiedades, que involucran la tercera operación:


E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 6

(9) La multiplicación de matrices es asociativa:


(A · B) C = A (B · C), para cualesquiera matrices Am×n , Bn×p , Cp×q

(10) La multiplicación de matrices es distributiva:


A (B + C) = A B + A C (por la derecha)
(A + B) C = A C + B C (por la izquierda)

(11) Con un factor escalar, se cumple: (λA) B = A (λB) = λ (A B)

La multiplicación de matrices NO es conmutativa: En efecto, conocido el producto AB, con


el producto BA puede ocurrir:
• Que no tenga sentido. Ej: Si A es 5× 8 y B es 8× 2.
• Que tenga tamaño diferente. Ej: Si A es 5× 8 y B es 8× 5.
• Que sea de igual tamaño que AB, pero con elementos distintos.
• Que sea idéntica a AB.
{
A=O
El producto de matrices no nulas puede ser nulo. Por tanto: AB = O ̸⇒ o bien
( 1 −1 ) ( 7 3 5 ) ( 0 0 0 ) B=O
Por ejemplo, · =
2 −2 7 3 5 0 0 0

Simplificar factores NO está, en principio, permitido, ya que AB = AC ̸⇒ B = C


( 1 −1 ) ( 5 6 ) ( 1 −1 )( 4 7 )
Ası́ por ejemplo, la igualdad · = es verdadera, pero si
2 −2 1 5 2 −2 0 6
simplificáramos el primer factor de ambos miembros, obtendrı́amos una falsedad.

2.2. Expresión matricial de un sistema de ecuaciones lineales



 a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
El sistema de m ecuaciones y n incógnitas siguiente:


 ...................................
am1 x1 + am2 x2 + · · · +amn xn = bm
    
a11 a12 . . . a1n x1 b1
    
puede reescribirse  a a
 . 21 . 22
. . . a2n   x2   b2 
. .  ·  .  =  .  ; esto es, A · X = B , donde:
 .. .. .. ..   ..   .. 
am1 am2 . . . amn xn bm
A es la matriz m × n que contiene los coeficientes del sistema, X es la matriz columna formada
por las n incógnitas, y B, la matriz columna de los (¿cuántos?) términos independientes.
 
x
} ( ) ( )
3x + 7y − 5z − 2u = 11 3 7 −5 −2  y 
Ejemplo: El sistema queda:   = 11
2 −1  z 
2x − y + z + 4u = 23 1 4 23
u

2.3. Trasposición de matrices


Dada una matriz A de tamaño m×n, se define At (leı́do “A traspuesta”) como la matriz de tamaño
n× m que resulta al colocar las filas de A a modo de columnas.
( ) ( 3 2 )
3 1 8 t
Ejemplo: Trasponiendo la matriz A = se obtiene A = 1 5
2 5 4
8 4
Vemos que quien estaba en la posición (i, j) de A pasa a la posición (j, i) de At , y que las columnas
de A reaparecen en At a modo de filas.
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 7

Propiedades de la trasposición:
t
(1) (At ) = A
t
(2) (A + B) = At + B t
t
(3) (λA) = λAt
t t
(4) (A·B) = B t ·At . En general: (A1 ·A2 ·· · ··Ar ) = Art ·· · ··A2t ·A1t ¡Atención al orden !

2.4. Matrices cuadradas


Llamamos matrices cuadradas a las que tienen igual número de filas que de columnas; una matriz de
tamaño es n×n se dice es cuadrada de orden n. La lı́nea formada por los elementos a11 , a22 , . . . , ann
se llama diagonal principal.
Matriz triangular superior: La que debajo de la diagonal principal lleva sólo ceros.
Matriz triangular inferior: La que encima de la diagonal principal lleva sólo ceros.
Matriz diagonal: La que por fuera de la diagonal principal lleva sólo ceros.
Matriz identidad de orden n, (In ): La que es diagonal, y cumple: aii = 1 para todo i.
( 3 4 1 ) ( 2 0 0 ) ( 0 0 0 ) ( 1 0 )
Ejemplo: 0
0 5 4 7 1 0 0 7 0 I3 = 0 1 0
0 0 2 3 0 2 0 0 2 0 0 1
M. triang. superior M. triang. inferior Matriz diagonal M. identidad de orden 3

Dada cualquier matriz A de tamaño m × n (no necesariamente cuadrada) se verifica: Im · A = A,


y también: A · In = A; es decir que la matriz identidad (del tamaño adecuado) actúa como neutro
para el producto; multiplicar por ella no produce ningún efecto.

2.5. Matrices inversibles


En esta sección consideramos exclusivamente matrices cuadradas.
Una matriz A cuadrada de orden n se dice que es inversible si existe otra matriz B de su mismo
tamaño tal que A · B = In y además B · A = In , en cuyo caso se dice que B es inversa de A.
• A no puede tener dos inversas diferentes: Si B cumple AB = BA = In , y por otra parte
C cumple AC = CA = In , entonces C = B. [Demostr: Por asociatividad, (BA)C = B(AC); y
se tiene que primer miembro vale In · C = C, y que el segundo vale B · In = B].
A la matriz inversa de A (si es que existe) la denotamos A−1 .

• Los dos productos AB y BA, en principio, no tendrı́an por qué ser iguales. Pero puede demostrarse
lo siguiente (no es sencillo): AB = In ⇔ BA = In . Traducción práctica: Si AB = In entonces
ya puede asegurarse que A es inversible y que B = A−1 (y, también naturalmente, que B es
inversible y que A = B −1 ).
( )
•Existen matrices cuadradas que no son inversibles; por ejemplo, 12 36 no lo es (¿por qué?)

2.6. Cálculo práctico de A−1 :


Se construye la matriz “doble ancho” A | In , y se hacen operaciones elementales en las filas hasta
llegar a la forma escalonada reducida. En el momento en que la mitad izquierda de la matriz
coincida con In , se tendrá A−1 en la mitad derecha. Esquemáticamente:
( ) ( ) ( ) ( )

A In ∼ ∼ ∼ · · · ∼ In A−1
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 8

Si, al ir escalonando, aparece una fila que en su mitad izquierda sólo lleve ceros, el proceso no
podrá concluirse con éxito (pues ya nunca aparecerá In en la parte izquierda), y significará que A
no es inversible.
Nota: El proceso descrito responde a la resolución simultánea de los n sistemas de ecuaciones
lineales de la forma AX = Ei (donde Ei es la columna i-ésima de In ) que se plantean al buscar
las n columnas Ci de la matriz A−1 , ya que:
 

A ·  C1 C2 . . . Cn  = In ⇐⇒ Para cada i = 1 . . . n, A·Ci = Ei ,


(esto es, Ci es una solución del sistema AX = Ei )
( 1 1 )
Ejemplo: Para hallar la inversa de A = , harı́amos:
3 5
( ) ( ) ( ) ( )
1 1 1 0 1 1 1 0 1 1 1 0 1 0 5/2 −1/2
∼ ∼ ∼ ;
3 5 0 1 0 2 −3 1
0 1 −3/2 1/2

0 1 −3/2 1/2
( 5 −1 )
−1
/2 /2
de modo que resulta: A =
−3 1
/2 /2
( 1 0 1 ) 
−1 1 0

Ejercicio: Calcular la matriz inversa de A = 2 0 1 . Solución: A−1 = −1/5 0 1/


5

1 5 1 2 −1 0

2.7. Dos propiedades de la inversión de matrices


• Si A y B son matrices cuadradas de orden n e inversibles, entonces su producto es inversible, y
además: (A · B)−1 = B −1 · A−1 .
El mismo resultado es cierto para cualquier número de factores, ası́ por ejemplo, si A, B, C,
D son matrices inversibles de igual tamaño, se tendrá: (A · B · C · D)−1 = D−1 · C −1 · B −1 · A−1 .
La demostración de este hecho se reduce a comprobar que multiplicando ambas matrices (la dada
como producto, y su presunta inversa) obtenemos en efecto la matriz identidad.

• Si una matriz cuadrada A es inversible, entonces su matriz traspuesta también lo es, y además
( )t
se cumple: ( A t )−1 = A−1 . Ejercicio: Demostrar esta propiedad.

3. DETERMINANTES  
a11 a12 . . . a1n
 a21 a22 . . . a2n 
Dada una matriz cuadrada de orden n, A 
= .. .. .. .. , se define el determinante de A

. . . .
an1 an2 . . . ann
∑ inv(j1 ,...,jn )
como el número real: det(A) = (−1) a 1j1 · a 2j2 · . . . · a njn
(j1 ,...,jn )∈Pn

Cada uno de los n! sumandos consiste en el producto de n elementos de la matriz, tomados uno
de cada fila, y sin repetir columna [producto elemental ], afectado de un cambio de signo si la
permutación (j1 , . . . , jn ) tiene un número impar de inversiones.
7
Ejemplos: • Si n = 5, uno de los sumandos será: (−1) a 13·a 25·a 34·a 41·a 52 , correspondiente
{ (3, 1), (3, 2)
a la permutación (3, 5, 4, 1, 2), cuyas 7 inversiones son: (5, 4), (5, 1), (5, 2)
(4, 1), (4, 2)
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 9

(a a12 )
• det 11
= a11 a22 − a12 a21
a21 a22
 
a11 a12 a13
• det a21 a22 a23  = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33
a31 a32 a33 (Regla de Sarrus)

Para los valores de n superiores a 3 ya no es adecuado calcular det(A) aplicando literalmente la


definición: Pensemos que para n = 4 hay 4! = 24 sumandos, para n = 5 hay 5! = 120 sumandos,
para n = 10 son ya 10! = 3 628 800 sumandos, . . .

3.1. Cinco propiedades, y sus consecuencias prácticas


1. Si A es una matriz triangular (superior o inferior), entonces det(A) = a11 · a22 · a33 . . .· ann
(simplemente, el producto de los elementos de la diagonal principal).

2. Si A contiene una fila formada exclusivamente por ceros, entonces det(A) = 0.

3. Las operaciones elementales en filas surten el siguiente efecto sobre el valor del determinante:

- Si sumamos a una fila un múltiplo de otra, el determinante no varı́a.


- Si intercambiamos dos filas, el determinante cambia de signo.
- Si multiplicamos a una fila por k, el determinante queda multiplicado por k.
   
... ... ... ... ... ... ... ... ... ... ... ...
 ... ... 
Esto es: det  ... ... ... ...  = k · det

... ... ... ... ... ... 

 kai1 kai2 ... ... ... kain  ai1 ai2 ... ... ... ain
... ... ... ... ... ... ... ... ... ... ... ...

−→ Atención: Si A contiene dos filas iguales o proporcionales, entonces det(A) = 0 (¿por qué?)
−→ Atención: Si A es una matriz de orden n, entonces det(kA) = k n det(A) (¿por qué?)

Cálculo efectivo de det(A) mediante reducción a la forma triangular: Basta con efectuar
sucesivas operaciones elementales en las filas de la matriz hasta llegar a la forma escalonada (que
será triangular), aplicando en cada paso los resultados anteriores.
Ejemplo:
       
3 0 6 1 0 2 1 0 2 1 0 2
• det 2 0 8  = 3 det 2 0 8  = 3 det 0 0 4  = −3 det 0 7 5  = −3 · 1 · 7 · 4 = −84
2 7 9 2 7 9 0 7 5 0 0 4

4. Dada cualquier matriz cuadrada A, siempre se verifica: det(At ) = det(A) .

−→ Consecuencia práctica: A efectos (solamente) del cálculo de determinantes, es indiferente


trabajar con las filas de A o con sus columnas (≡ las filas de At ).

5. Si A y B son matrices cuadradas de igual tamaño, entonces: det(A · B) = det(A) · det(B)

[Esta igualdad, si se piensa, resulta sorprendente y admirable.]

−→ Consecuencia importante:
( ) 1
Si A es inversible, entonces det(A) ̸= 0, y además: det A−1 =
det(A)

Demostración: Tomando determinantes en la igualdad A·A−1 = In y aplicando los resultados (5)


y (1) obtenemos: det(A) · det(A−1 ) = 1, de donde se deducen ambos hechos.
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 10

3.2. Desarrollo de det(A) por los cofactores de una lı́nea


Una matriz obtenida suprimiendo en A alguna de sus filas y/o columnas se dice que es una submatriz
de A; también la propia A se considera submatriz de sı́ misma. Al determinante de una submatriz
cuadrada de A se le llama menor de la matriz A.
Si A es cuadrada, llamamos menor complementario del elemento aij , denotado Mij , al determi-
nante de la submatriz que resulta de suprimir en A la fila i y la columna j [justo las que contenı́an
i+j
a aij ]. Además, se define el cofactor del elemento aij como el número Cij = (−1) Mij . Pues bien:
Si A es una matriz n× n, entonces se cumple:
• det(A) = ai1 C i1 + ai2 C i2 + · · · + ain C in para cualquier número i de fila,
• det(A) = a1j C 1j + a2j C 2j + · · · + anj C nj para cualquier número j de columna.
Ejemplo: Usando la tercera columna,
 
1 1 0 −1
det

2 2 10 28 
 = 0· C 1 3 + 10· C 2 3 + 1· C 3 3 + 3· C 4 3 = 0 + 10· (−14) + 1· 0 + 3· 60 = 40 ,
5 7 1 −5
1 1 3 6
( ) {
1 1 −1 C3 3 = 0
donde: C 2 3 = (−1)5 · det 5 7 −5 = (−1)· 14; análogamente,
1 1 6 C 4 3 = 60
3.3. Rango de una matriz
Anteriormente, habı́amos llamado rango de una matriz al número de filas no nulas de una cualquiera
de sus formas escalonadas. Ahora reencontraremos el rango bajo un aspecto muy distinto.
Dada una matriz A de tamaño m×n, llamamos rango de A al máximo de los órdenes de todas
las submatrices cuadradas de A que tengan determinante distinto de cero. Más precisamente:
Diremos que el rango de A es r si A posee al menos un menor de orden r que no sea nulo,
siendo iguales a cero todos los menores de A de orden r+1 o superior que puedan formarse.
Ejemplos:
   - Su única submatriz 4× 4 tiene determinante nulo.
1 4 0 5 
 −9 4 −10 0 
• rg  = 2, porque: - Sus 16 submatrices 3× 3 tienen determinante nulo.
0 8 −2 9  (
1 4
)
3 12 0 15 - Pero det = 40 ̸= 0
−9 4

( )  - Sus 6 submatrices 2× 2 tienen determinante nulo.
1 4 0 5
• rg = 1, porque:
2 8 0 10  - Contiene al menos una submatriz 1× 1 con determinante
( )
no nulo, det a14 = det(5) = 5 ̸= 0
Hacer operaciones elementales en las filas de una matriz no altera su rango. En
efecto, considerando cada uno de los tres tipos de operación elemental en filas, observamos que
cada submatriz cuadrada N extraı́da de A se corresponde de forma natural con una submatriz N ∗
en la matriz resultante A∗ ; y que, det(N ∗ ), dependiendo del tipo de operación, será igual a det(N ),
− det(N ) o k · det(N ) con k ̸= 0, (ver 3.1–propiedad 3); en cualquiera de los casos, o bien ambos
menores son nulos, o bien ambos son no nulos. En consecuencia: rg (A) = rg (A∗ )

El rango de una matriz escalonada coincide con el número de filas no nulas que posee.
Basta para demostrarlo considerar la submatriz que toma todas las filas no nulas eligiendo como
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 11

columnas las que contienen a los elementos principales; su determinante es justo el producto de
dichos elementos principales, y por tanto es distinto de cero. Por otra parte, cualquier submatriz
cuadrada de tamaño mayor ha de tomar alguna fila de ceros, ası́ que tendrá determinante nulo.
−→ En la práctica: Para hallar el rango de una matriz, basta con hacer operaciones elementales
en sus filas hasta obtener una matriz escalonada, y contar cuántas filas no nulas quedan.
 
2 1 3 0 1
 0 1 −1 0 1 
Ejemplo: Hallar el rango de 
A=  
6 6 6 2 4 
6 3 9 1 2
       ←
2 1 3 0 1 2 1 3 0 1 2 1 3 0 1 2 1 3 0 1
 0 3 filas
1 −1 0 1   0 1 −1 0 1   0 1 −1 0 1   0 1 −1 0 1 ←
A=
 6
∼ ∼ ∼ no nulas
6 6 2 4   0 3 −3 2 1   0 0 0 2 −2   0 0 0 2 −2  ←
6 3 9 1 2 0 0 0 1 −1 0 0 0 1 −1 0 0 0 0 0

=⇒ rg(A) = 3 En efecto, el rango de A es igual al de las matrices sucesivamente obtenidas


[ pues ninguna operación elemental en las filas altera el rango ]. En particular,
es igual al rango de la escalonada, ¡que se conoce a simple vista!
Una matriz y su traspuesta tienen siempre el mismo rango. Es decir: Para toda matriz
A se cumple rg(A t ) = rg(A) . De las dos lecturas que tiene el concepto de rango, una de ellas
proporciona este resultado como obvio (puesto que de At se extraen los mismos menores que de
A); la “otra” lectura garantiza que, por tanto, escalonar A t deja siempre igual número de filas no
nulas que escalonar A. Esto último no era, a priori, nada obvio.

3.4. Matrices cuadradas de orden máximo


{
rg(A) = n (máximo posible)
Para una matriz cuadrada An×n solo caben dos opciones:
rg(A) = r < n.

• Caso rg(A) = n: Significa que, al escalonar A, resultan n filas no nulas (no aparece ninguna
fila de ceros); los n elementos principales ocupan justamente la diagonal principal, y si se prosigue
hasta la forma escalonada reducida, se llega a la matriz identidad:
   
( ) ( )  ∗ ... ∗ 1 0 ... 0
 0  ∗   0 1 0 
A∼ ∼ ∼ ··· ∼ 
 .. .. ..

 ∼ ... ∼ 
 .. .. ..


 . . .   . . . 
0 0 ...  0 0 ... 1

→ Si se intenta invertir A, el proceso concluye con éxito:


( ) ( ) ( ) ( )
−1
A In ∼ ∼ ∼ ··· ∼ In A

→ Como A es inversible, resulta que det(A) ̸= 0 (ver página 9)

→ Y, dado un sistema AX = B, aplicando Gauss obtenemos que es compatible determinado:


( ) ( ) ( ) ( )

A B ∼ ∼ ∼ ··· ∼ In ∗..
.

E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 12

• Caso rg(A) = r < n: Significa que, al escalonar A, aparece una o más filas de ceros; por tanto,
la forma escalonada reducida nunca puede ser In :  
( ) ( )  ∗ ... ∗
 0 0 ∗ 
A∼ ∼ ∼ ··· ∼ 
 0 0 0···0 


 
0 0 0
0 0 ... 0

→ Si se intenta invertir A, aparecen filas de ceros en la mitad izquierda:


( ) ( ) ( ) ( )
.......
A In ∼ ∼ ∼ ··· ∼ .......
00··· 0

→ Al calcular el determinante por reducción a la forma triangular, resulta:


( ) ( ) ( ....... )
det(A) = ± det = ± det · · · = det ....... = 0
.......
00··· 0

→ Para el sistema AX = B se tiene:


( ) ( ) ( ) ( ... )

............... ... ↕ r
A B ∼ ∼ ∼ ··· ∼
...............

0 0 ··· 0 ⋆ ↕ n− r
0 0 ··· 0 ⋆

Miremos en la última columna: Si ALGUNO de los n − r números representados por ⋆ es


distinto de cero, habrá incompatibilidad; si TODOS ELLOS se anulan, entonces el sistema
será perfectamente compatible, pero la solución no será única porque aparecen parámetros
(¿cuántos?)

En resumen: Si A es una matriz cuadrada de orden n, entonces las siguientes proposiciones son
equivalentes:

(i) rg(A) = n

(ii) A ∼ ∼ ∼ · · · ∼ In , es decir, la escalonada reducida de A es In .

(iii) A es inversible.

(iv) det(A) ̸= 0

(v) El sistema AX = B es compatible determinado [cualquiera que sea la columna de términos


independientes del sistema].

Nota: La equivalencia de estas proposiciones significa lo siguiente:


Dada una matriz An×n concreta, si una cualquiera de las anteriores afirmaciones es verdadera
cuando se refiere a A, entonces necesariamente lo son las otras cuatro; si, por el contrario, alguna
de ellas es falsa, entonces con seguridad las otras cuatro son falsas también. O las cinco son falsas,
o las cinco son verdaderas.
4. ESPACIOS VECTORIALES
Decimos que un conjunto V es un espacio vectorial sobre el cuerpo IR si se tienen definidas
dos operaciones:
– Una OPERACIÓN INTERNA, que a cada par de elementos ū, v̄ ∈ V le asigna ū + v̄ ∈ V ,
– Una LEY DE COMPOSICIÓN EXTERNA, que a cada λ ∈ IR y cada ū ∈ V le asigna λ· ū ∈ V ,
de modo que se cumplan las siguientes propiedades:
(1) ū + v̄ = v̄ + ū, ∀ū, v̄ ∈ V ( Prop. Conmutativa)
(2) (ū + v̄) + w̄ = ū + (v̄ + w̄), ∀ū, v̄, w̄ ∈ V ( Prop. Asociativa)
(3) ∃ 0̄ ∈ V tal que: ū + 0̄ = ū, ∀ ū ∈ V ( 0̄ es neutro)
(4) ∀ ū ∈ V, ∃ − ū ∈ V tal que ū + (−ū) = 0̄ ( ū posee opuesto)
(5) (λ + µ) · ū = λ · ū + µ · ū, ∀ λ, µ ∈ IR, ∀ ū ∈ V ( Distributividad de escalares)
(6) λ · (ū + v̄) = λ · ū + λ · v̄, ∀ λ ∈ IR, ∀ ū, v̄ ∈ V ( Distributividad de vectores)
(7) λ · (µ · ū) = (λµ) · ū, ∀ λ, µ ∈ IR, ∀ ū ∈ V ( “Asociatividad” escalares)
(8) 1 · ū = ū ∀ ū ∈ V, ( 1 es ‘neutro’)

(normalmente, se omite el punto que indica la ley externa). A los elementos de un espacio vectorial
se les llama VECTORES, y suelen denotarse en la forma: ū, v̄, etc.; o bien en negrita. Por contraste,
a los números reales usados para la segunda operación se les llama ESCALARES.

Ejemplos notables:

1. Conjunto de las matrices de tamaño m×n, con las operaciones habituales (Ver pág. 5).
 
{ a11 a12 . . . a1n }
 a21 a22 . . . a2n 
Mm×n = A =  .. .. .. ..  , donde aij ∈ IR para todo i = 1, . . . , m; j = 1, . . . , n
. . . .
am1 am2 . . . amn

2. Conjunto de los polinomios en la indeterminada X con coeficientes reales, con


las operaciones habituales.
[ ] { 2 n
}
IR X = a0 + a1 X + a2 X + . . . + an X , donde n ∈ N ∪ {0}, ai ∈ IR para todo i
{ [−→] }
3. Conjunto de los vectores libres del plano, V 2=
AB , donde A,B son puntos del plano
−→
Un vector fijo es un par ordenado de puntos del plano, AB (el origen, A y el extremo, B, son
[−→]
los que son, y no pueden cambiarse). En cambio, el vector libre ⃗u = AB es el objeto abstracto
{ }
igual dirección −→
representado por cualquier vector fijo que posea igual sentido que AB .
e igual longitud
[−→] [−→] [−→]
Si se tiene ⃗u = AB y ⃗v = BC , entonces ⃗u + ⃗v = AC ; por otra parte, multiplicar por el escalar
λ a un vector libre v̄ significa multiplicar su longitud por el valor absoluto de λ, dejando el mismo
sentido si es λ > 0, e invirtiéndolo si es λ < 0.

Análogamente se tiene V 3 : Conjunto de los vectores libres del espacio.


E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 14

4. Espacio cartesiano n-dimensional,


{( ) }
IRn = x1 , x2 , . . . , xn , donde xi ∈ IR para todo i = 1, . . . , n ,
{ ( ) ( ) ( )
x1 , x2 , . . . , xn + y 1 , y 2 , . . . , y n = x1 + y1 , x2 + y2 , . . . , xn + yn
con las operaciones ( ) ( )
λ x1 , x2 , . . . , xn = λx1 , λx2 , . . . , λxn

5. Conjunto de todas las funciones reales definidas en un intervalo [a, b] ⊂ IR,


{ }
F[a,b] = f : [a, b] → IR ,
con las operaciones ordinarias de suma de funciones y producto de un escalar por una función.

Esta pequeña muestra de ejemplos permite apreciar que conjuntos de caracterı́sticas muy diversas,
por responder todos ellos a la definición de espacio vectorial, se comportan de la misma manera en lo
que respecta a las operaciones. Todo lo que se aprenda acerca de un espacio vectorial V (definiciones,
resultados, técnicas,. . . ) tiene validez en cualquiera de estos conjuntos.

4.1. Otras propiedades de los espacios vectoriales


A partir de los ocho axiomas dados por la definición de espacio vectorial es posible deducir las
siguientes propiedades:

(a) λ · 0̄ = 0̄, para todo λ ∈ IR

(b) 0 · ū = 0̄, para todo ū ∈ V

(c) Si λ · ū = 0̄, entonces λ = 0 o bien ū = 0


·
(d) Para cada ū ∈ V , es (−1) ū = − ū

4.2. Subespacio vectorial


Sea V un espacio vectorial, y sea W un subconjunto (no vacı́o) de V . En W podemos sumar
elementos, y también multiplicarlos por escalares, como elementos de V que son. Pues bien: si W ,
con estas dos operaciones heredadas de V , es por sı́ mismo un espacio vectorial, entonces diremos
que W es un subespacio vectorial de V .
{ / } Conjunto de las ternas en las cuales la 3era
Ejemplo: W = (x, y, x) x, y ∈ IR ←
componente es igual que la 1era .

Claramente, W ⊂ IR3 , pero ¿es W un subespacio de IR3 ?


{
(x, y, x) + (x′ , y ′ , x′ ) = (x + x′ , y + y ′ , x + x′ )
∗ Las operaciones en W son las heredadas de IR :
3
λ · (x, y, x) = (λx, λy, λx)
Observamos que, en ambos casos, el resultado de la operación es una terna que, de nuevo, tiene
iguales las componentes 1era y 3era . Esto es, EL RESULTADO de la operación no solo pertenece a
IR3 (por supuesto), sino que, de hecho, PERTENECE AL PROPIO W .

Este hecho es muy importante, porque si el resultado se saliera de W , entonces las operaciones no
permitirı́an ni siquiera que nos planteáramos si W es o no un espacio vectorial.

Ahora, solo falta comprobar si se cumplen las 8 propiedades de la lista:


E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 15


Las igualdades que figuran en 1), 2), 5), 6), 7) y 8) son verdaderas para todos los vectores de
3
IR , luego también lo serán, en particular, para los vectores que están en W .

¿Existe elemento neutro en W ? Sabemos que en IR3 sı́ hay un elemento neutro, pero hemos de
mirar si se encuentra dentro de W . En este caso, la respuesta es SÍ [basta observar 0̄ = (0, 0, 0)].

Dado ū = (x, y, x) ∈ W , ¿hay en W un opuesto para él? Ya sabemos que en IR3 , sı́ que lo hay,
pero ¿se encuentra en W ? De nuevo, la respuesta es SÍ [basta observar − ū = ( − x, − y, − x)].

Conclusión: W sı́ es un espacio vectorial ; por tanto: W sı́ es un subespacio vectorial de IR3

El siguiente resultado teórico nos permitirá, en la práctica, ahorrarnos estas comprobaciones:

Sea W un subconjunto no vacı́o de un espacio vectorial V .


Para que W sea un subespacio vectorial de V , es NECESARIO y SUFICIENTE que se cumpla:

C1: ∀ū, v̄ ∈ W , ū + v̄ ∈ W . [W es cerrado para la suma]


C2: ∀λ ∈ IR, ∀ū ∈ W , λ · ū ∈ W . [W es cerrado para el producto por escalares]

En efecto, en estas condiciones estará garantizado que W cumple los 8 axiomas de espacio vectorial:

Las igualdades 1), 2), 5), 6), 7) y 8) se verifican automáticamente en W .

El neutro de V puede escribirse: 0̄ = 0 · w̄, con w̄ ∈ W ; entonces, C2 asegura que es 0̄ ∈ W .

Dado ū ∈ W, el opuesto que ū posee en V se escribe: − ū = ( − 1) · ū; C2 garantiza − ū ∈ W .

Ejemplo 1:
{( a b
) }
• W= 0 c : a, b, c, d, e ∈ IR es un subespacio vectorial de M3×2 [ pues cumple C1 y C2 ].
d e
{( a b ) }

Sin embargo, W = 3 c : a, b, c, d ∈ IR no es un subespacio vectorial de M3×2 , pues la
d e
condición que caracteriza la pertenencia a W ∗ no se conserva al sumar entre sı́ elementos de W ∗
(ni tampoco al multiplicarlos por escalares).
{( ) }
a b
Ejemplo 2: W = : a, b, c ∈ IR es un subespacio vectorial de M2×2 , mientras
5a c
{( ) }
a b
que W ∗ = : a, b, c ∈ IR no es un subespacio vectorial de M3×2 .
5+a c

[ ] { }
2
Ejemplo 3: IR2 X = a0 + a1 X + a2 X : a0 , a1 , a2 ∈ IR , conjunto de los polinomios cuyo
[ ]
grado es MENOR O IGUAL que 2, es un subespacio vectorial de IR X .
{ }
∗∗∗ Ejemplo 4: Dada una matriz A de tamaño m × n, el conjunto WA = X ∈ IRn : AX = 0 ,
formado por todas las soluciones del sistema HOMOGÉNEO asociado a A, es un subespacio vectorial
de IRn . En efecto:
C1 Si X1 , X2 ∈ WA , entonces A(X1 + X2 ) = AX1 + AX2 = 0 + 0 = 0 ⇒ X1 + X2 ∈ WA .
C2 Si X1 ∈ WA y λ ∈ IR, entonces A(λX1 ) = λ(AX1 ) = λ(AX1 ) = λ · 0 = 0 ⇒ λX1 ∈ WA .
Atención: Esto no funciona si el sistema no es homogéneo.
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 16

Ejemplo 5: En todo espacio vectorial V encontramos: el subespacio { 0̄} (llamado subespacio


nulo), y el propio espacio V , visto como subespacio de sı́ mismo.

4.3. Combinaciones lineales


Sean v̄1 , v̄2 ,. . . , v̄r vectores de un espacio vectorial V . Llamamos combinación lineal de los vectores
v̄1 , v̄2 ,. . . , v̄r a todo vector que pueda expresarse en la forma k1 v̄1 + k2 v̄2 + · · · + kr v̄r , siendo
k1 , k2 ,. . . , kr números reales (a los que llamamos coeficientes de la combinación lineal).
Dado cierto vector ū ∈ V , podemos preguntarnos si ū es, o no es, combinación lineal de los r
vectores dados, es decir, si existen r escalares k1 , k2 ,. . . , kr tales que se cumpla la igualdad
ū = k1 v̄1 + k2 v̄2 + · · · + kr v̄r .
Para hallar la respuesta:
1o Planteamos k1 v̄1 + k2 v̄2 + · · · + kr v̄r = ū (Ecuación en las incógnitas k1 , k2 ,. . . , kr ).

2o Reescribimos la ecuación en forma de sistema de ecuaciones lineales (en las mismas incógnitas).

3o Discutimos dicho sistema:

Si es COMPATIBLE (determinado o no) ⇒ ū SÍ es combinación lineal de esos vectores.


Si es INCOMPATIBLE ⇒ ū NO es combinación lineal de ellos.

{
v̄1 = (2, 6, 4, 2)
Ejemplo: Estudiar si el vector ū = (1, −3, −2, 8) es combinación lineal de
v̄2 = (1, 1, 0, −2).
Necesitamos saber SI EXISTEN O NO números a, b ∈ IR tales que av̄1 + bv̄2 = ū.

Consideramos la ecuación: a (2, 6, 4, 2) + b (1, 1, 0, −2) = (1, −3, −2, 8) (∗)

⇐⇒ (2 a + b , 6 a + b , 4 a , 2 a − 2 b) = (1, −3, −2, 8)


       
 2a + b = 1 
  2 1 1 2 1 1 2 1 1
6a + b = −3  6 1 −3   0 −2 −6   0 −2 −6 
⇐⇒ ;  ∼ ∼  ←incompatible

 4a = −2 
 4 0 −2 0 −2 −4 0 0 2
−2 −3
2a − 2b = 8 2 8 0 7 0 0 16

No existen valores adecuados de a y b, por tanto, ū NO ES combinación lineal de v̄1 y v̄2 .

Nota: La ecuación (∗) podı́amos haberla escrito y desarrollado en la forma siguiente:


           
 2a + b = 1 
2 1 1 2a + b 1  
          6a + b = −3
a  6  + b  1  =  −3  ⇐⇒  6a + b  =  −3  ⇐⇒
4 0 −2 4a −2 
 4a = −2 

2 −2 8 2a − 2b 8 2a − 2b = 8
Se llega al mismo sistema; es un cambio de look sin consecuencias. Ese nuevo look será el que
emplearemos en lo sucesivo.

• Espacio generado por un conjunto de vectores

Dados los vectores v̄1 , v̄2 , . . . , v̄r ∈ V , se define


{ } { }
lin v̄1 , v̄2 , . . ., v̄r = k1 v̄1 + k2 v̄2 + · · · + kr v̄r : k1 , k2 , . . . , kr ∈ IR ,
{ }
esto es, lin v̄1 , . . ., v̄r contiene todos los vectores que se pueden obtener como combinación lineal
{ }
de v̄1 , v̄2 , . . . , v̄r . Es inmediato comprobar que lin v̄1 , . . ., v̄r es cerrado para la suma y para el
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 17

{ }
producto por escalares, y, por tanto, lin v̄1 , . . ., v̄r es un subespacio vectorial de V , al que se
denomina espacio generado por v̄1 , v̄2 , . . . , v̄r .

• Sistema de generadores de un espacio vectorial V


{ }
El subespacio lin v̄1 , v̄2 , . . . , v̄r puede ocurrir que contenga solo parte de los vectores de V , pero
{ }
también puede ocurrir que los contenga a todos. Diremos que el conjunto S = v̄1 , v̄2 , . . . , v̄r es
( )
un sistema de generadores de V (o que genera a V ) si se cumple: lin S = V .
{( 1 ) ( 3 )}
Ejemplo: Averiguar si el conjunto S = , es, o no, un sistema de generadores de IR2 .
2 5
(x)
Se trata de saber si CUALQUIER vector y ∈ IR2 puede ponerse como combinación lineal de estos
( ) ( ) ( )
dos vectores, esto es, si la ecuación a 12 + b 35 = xy (en la cual a y b son las incógnitas)
es SIEMPRE compatible, independientemente de cuáles sean los valores de los parámetros x e y.
( ) ( ) ( ) { }
a + 3b = x
→ Planteamos el sistema: a 12 + b 35 = x ⇐⇒
y 2a + 5b = y
( ) ( )
1 3 x x El sistema es compatible
→ Lo discutimos: ∼ 1 3 →
2 5 y 0 −1 y − 2x para todo x, y.

Por tanto, el conjunto S SÍ es un sistema de generadores de IR2 .

• Si, contrariamente a lo que sucede en el anterior ejemplo, el sistema que surge al escribir el vector
genérico de V como combinación lineal de los vectores de S resulta no ser siempre compatible,
sino únicamente cuando se cumplen ciertas condiciones, entonces significa que V no está generado
por S. En ese caso, al sistema de ecuaciones que recoge dichas condiciones se le conoce como las
( )
ECUACIONES IMPLÍCITAS o CARTESIANAS del espacio lin S .

Ejemplo:        
{ 1 1 2 1 }
−1   3  0   3 
Averiguar si el conjunto S = ū1 = 0 , ū2 = 1 , ū3 = 1 , ū4 = 2  es o no un
5 0 1 −13
−2 −2 0 6
sistema de generadores de IR5 .
→ Planteando la igualdad a1 ū1 + a2 ū1 + · · · + a4 ū4 = (x, y, z, u, v) obtenemos un sistema en las
incógnitas a1 , . . . , a5 , que discutimos a continuación:
     
1 1 2 1 x 1 1 2 1 x 1 1 2 1 x
−1 3 0 3 y   0 4 2 4 x+y   0 1 1 2 z 
     
 0 1 1 2 z ∼ 0 1 1 2 z ∼ 0 4 2 4 x+y ∼
     
 5 0 1 −13 u   0 −5 −9 −18 −5x + u   0 −5 −9 −18 u−5x 
−2 −2 0 6 v 0 0 4 8 2x + v 0 0 4 8 2x + v
   
1 1 2 1 x 1 1 2 1 x
 0 1 1 2 z   0 1 1 2 z 
   
∼
 0 0 −2 −4 x + y −4z ∼ 0
  0 −2 −4 x + y −4z 

 0 0 −4 −8 −5x + 5z + u   0 0 0 0 −7x−2y + 13z + u ←
0 0 4 8 2x + v 0 0 0 0 4x + 2y −8z + v ←

Concluimos que la condición necesaria y suficiente para el sistema posea solución, es decir, para que
un vector de la forma (x, y, z, u, v) pueda escribirse como combinación lineal de los cinco vectores
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 18

de S es que sean nulas las dos expresiones que se han señalado. En definitiva, se tiene
{ }
( ) 7x + 2y − 13z − u = 0
lin S = (x, y, z, u, v) ∈ IR5 :
4x + 2y − 8z + v = 0

Las ecuaciones implı́citas de lin(S) son las del sistema que figura en esta expresión. Puesto que
no todos los vectores de IR5 las cumplen, lin(S) no coincide con R5 , es decir, S no genera IR5 .

4.4. Dependencia e independencia lineal de un conjunto de vectores


Dados los vectores v̄1 , v̄2 , . . . , v̄r ∈ V , SIEMPRE podemos escribir: 0 · v̄1 + 0 · v̄2 + · · · + 0 · v̄r = 0̄.
Esta es la forma trivial de conseguir el vector 0̄ operando con los vectores dados. La pregunta que
nos hacemos es: ADEMÁS DE ESTA ¿hay alguna otra forma de obtener el vector 0̄ como combinación
lineal de v̄1 , v̄2 , . . . , v̄r ? Es decir:

¿Existen coeficientes k1 , k2 ,. . . , kr NO TODOS NULOS tales que k1 v̄1 + k2 v̄2 + · · · + kr v̄r = 0̄ ?


{ }
• En caso de respuesta afirmativa, diremos que el conjunto v̄1 , v̄2 , . . ., v̄r es linealmente
DEPENDIENTE, o bien, que es un sistema ligado.
{ }
• Si la respuesta es negativa, diremos que el conjunto v̄1 , v̄2 , . . ., v̄r es linealmente
INDEPENDIENTE, o bien, que es un sistema libre.
{ }
Ası́ pues, para estudiar la independencia lineal del conjunto v̄1 , v̄2 , . . . , v̄r :
1o Planteamos k1 v̄1 + k2 v̄2 + · · · + kr v̄r = 0̄ (Ecuación en las incógnitas k1 , k2 ,. . . , kr ).

2o Reescribimos la ecuación como un sistema de ecuaciones (que será HOMOGÉNEO).

3o Discutimos el sistema:

SOLUCIÓN ÚNICA ⇒ el conjunto es linealmente INDEPENDIENTE.


INFINIDAD DE SOLUCIONES ⇒ el conjunto es linealmente DEPENDIENTE.

{ ( ) ( ) ( )
0 }
Ejemplo: Estudiar la independencia lineal del conjunto ū1 = 1 , ū2 = 2 , ū3 = .
1 3 −2
( ) ( ) ( ) ( ) { }
2 0 0 a + 2b =0
→ Planteamos : a 1 +b +c −2
= ⇐⇒ (∗)
1 3 0 a + 3b − 2c = 0
( ) ( )
1 2 0 0 0 Solo 2 incógnitas principales ⇒
→ Discutimos:
1 3 −2
0 ∼ 10 2 0
1 −2
0 →
Infinitas soluciones.
{ }
Por tanto, el conjunto ū1 , ū2 , ū3 es linealmente DEPENDIENTE .

La dependencia lineal significa, pues, la existencia de formas no triviales de escribir el vector 0̄.
Una combinación lineal no trivial que produzca como resultado el vector 0̄ se denomina relación
de dependencia entre los vectores del conjunto.

Ejemplo (continuación del anterior): Resolviendo el sistema (*), vemos que sus infinitas
( )
soluciones son todas las de la forma − 4α, 2α, α , con α ∈ IR. Ası́, por ejemplo, para α = − 1
obtenemos la terna (4, −2, −1), que es una solución concreta del sistema.
Esto nos permite escribir: 4ū1 − 2ū2 − ū3 = 0̄ . La expresión recuadrada es una relación
de dependencia entre los tres vectores dados.
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 19

Algunos resultados interesantes

[I.1] Cualquier conjunto de vectores que incluya al vector 0̄ es linealmente dependiente.


[¿Por qué?]

{ }
[I.2] Si ū es un vector no nulo, entonces el conjunto ū es linealmente independiente.
[¿Por qué?]

{ }
[I.3] La dependencia lineal de un conjunto de vectores v̄1 , v̄2 , . . . , v̄r , EQUIVALE a la
posibilidad de expresar alguno de los vectores del conjunto como combinación lineal
de los restantes. En efecto:

Dada una relación de dependencia, a cualquiera de los vectores que en ella figure con coefi-
ciente no nulo lo podemos despejar en términos de los restantes vectores.

Recı́procamente, una expresión que muestre a uno de los vectores como combinación lineal
de los restantes se convierte, pasándolo todo al primer miembro, en una forma no trivial de
poner el vector 0̄.

{ }
[I.4] Si v̄1 , v̄2 , v̄3 , . . . , v̄r es ligado, y si, por ejemplo, v̄2 es un vector que puede ser
expresado como combinación lineal de los restantes, entonces:
{ } { }
lin v̄1 , v̄2 , v̄3 , . . . , v̄r = lin v̄1 , v̄3 , . . . , v̄r

Esto es: en esas condiciones, el vector v̄2 resulta superfluo y se puede prescindir de él ya que los
vectores restantes permiten seguir generando el mismo subespacio. [¿Por qué?]
{ } { }
[I.5] Si S = v̄1 , v̄2 , . . . , v̄r es libre, y si ū es un vector que no pertenece a lin v̄1 , v̄2 , . . . , v̄r ,
{ }
entonces S ∗ = v̄1 , v̄2 , . . . , v̄r , ū es también un sistema libre.
Esto es: Si a un conjunto linealmente independiente le añadimos un vector que no pueda generarse
con los vectores que contenı́a, el nuevo conjunto mantiene la independencia lineal.

4.5. Bases y dimensión


Sea V un espacio vectorial. Llamamos base de V a un sistema de generadores de V que además
sea linealmente independiente.
{( 1 ) ( 0 )}
Ejemplo: B = , es una base de IR2 , como puede comprobarse [¿Cómo?].
−1 2

→ ∗ ∗ ∗ Todas las bases de un mismo espacio vectorial V tienen el mismo número de


elementos; dicho número se denomina dimensión de V .

Ejemplos:
{ ( ) ( ) ( )}
1 0 0 ( )
1. BC = ē1= 0 ; ē2= 1 ; ē3= 0 es base de IR3 ; por tanto, dim IR3 = 3.
0 0 1

De igual modo se deduce que, para todo n ∈ N, IRn es un espacio vectorial de dimensión n
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 20

{ ( ) ( ) ( ) ( )}
1 0 0 1 0 0 0 0
2. BC = E11 =
0 0
; E12 = 0 0
; E21 = 1 0
; E22 = 0 1
es una base de M2×2 ;
( )
por tanto, dim M2×2 = 4.

Análogamente, se tiene que para todo m, n ∈ N, Mm×n es un espacio vectorial de dimensión m · n

{ 2} [ ] ( [ ])
3. BC = 1, X , X es una base de IR2 X ; por tanto, dim IR2 X = 3.
[ ]
Análogamente, para todo n ∈ N, IRn X es un espacio vectorial de dimensión n + 1

[ ]
4. IR X no puede ser generado por ningún conjunto finito de vectores; en consecuencia, no
[ ]
admite bases finitas (se dice por ello que IR X tiene dimensión infinita).
En efecto, dado un conjunto finito S de polinomios (por grande que sea), es posible hallar el
d+1 ( )
número d ≡ máximo de los grados de los polinomios de S; pues bien: claramente, X ∈
/ lin S ,
[ ]
y por tanto, S no genera el espacio IR X .

5. En el espacio vectorial { 0̄} no tiene sentido el concepto de base: Si pusiéramos en ella el


vector 0̄ (único disponible) ya no habrı́a independencia lineal.
( )
No obstante, y por convenio, se tiene: dim { 0̄} = 0

Algunos resultados útiles sobre la dimensión

Sea V un espacio vectorial de dimensión n , y sea S un conjunto formado por r vectores de V .

[D.1] Si r > n , entonces la independencia lineal de S es imposible.


{( 1 ) ( 2 )}
Pero: El que sea r ≤ n no garantiza la independencia lineal: 0 ; 0 , ¿es l. i.?
0 0
[D.2] Si r < n , entonces S no puede generar V .
{( ) ( ) ( ) ( )}
2
Pero: El que sea r ≥ n no garantiza que lo genere: 0
; 50 ; 17
0
; 54
0
, ¿genera IR2 ?

∗ ∗ ∗ [D.3] Si r = n, entonces: o bien S cumple las dos condiciones para ser base de V , o
bien no cumple ninguna de las dos. Por tanto, basta en la práctica comprobar una de ellas.

[D.4] Si S es libre y r < n, entonces es posible completar una base de V añadiéndole


al conjunto S sucesivamente n − r vectores de V adecuadamente elegidos.
Tales vectores deben elegirse de modo que, cada vez que se añade un vector, se mantenga la
independencia lineal del nuevo conjunto. Para lograrlo, basta tomar uno que no pueda generarse
con los vectores anteriormente existentes. [Siempre existe un vector ası́ ¿Por qué? ]

[D.5] Si S genera V y r > n, entonces es posible obtener una base de V suprimiendo


sucesivamente r − n de los vectores existentes en S, siempre y cuando la elección de
los vectores que se eliminan se realice adecuadamente.
La supresión cada vector debe hacerse sin que se pierda la capacidad de generar V con los
vectores restantes. Para ello, debemos asegurarnos de elegir un vector que sea combinación lineal
de los que dejamos. [Siempre habrá un vector ası́. ¿Por qué? ]
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 21

4.6. Criterio práctico para reconocer las bases de IRn


( )
{ }
El conjunto de n-uplas v̄1 , v̄2 , . . . , v̄n es base de IR si y solo si n
det ... ̸= 0
v̄1 v̄2 v̄n
Justificación: Al ser el tamaño del conjunto igual a la dimensión del espacio, para ver si es base
basta mirar si hay independencia lineal. Pero el estudio ( de
la independencia
) pasa por ver si el

sistema homogéneo cuya matriz de coeficientes es A = v̄1 v̄2 . . . v̄n tiene solución única o no.
Sabemos que la respuesta es afirmativa si y solo si A tiene rango máximo (ver pág. 12).
{( 3 ) ( 0 ) ( 2 )} (
3 0 2
)
3
Ejemplo: −1 ; 4 ; 1 es base de IR , puesto que se tiene: det −1 4 1 = 55 ̸= 0.
0 1 5 0 1 5

{ }
4.7. Base y dimensión para un subespacio W = lin ū1 , ū2 , . . . , ūm de IRn
{ }
Puede demostrarse que, si en el conjunto ū1 , ū2 , . . . , ūm se hacen manipulaciones del tipo:
{ }
Sumarle a un vector un múltiplo de otro, o
Intercambiar la posición de dos vectores, o , el espacio que se genera no sufre ningún cam-
Multiplicar a un vector por un escalar no nulo
bio. Por comodidad, para realizar estas manipulaciones se construye la matriz de tamaño m × n
 
←ū1
 ←ū
cuyas filas son los vectores dados, M =  .  2 , y se opera en sus filas. Si usamos
..

←ūm
dichas operaciones para escalonar la matriz, obtendremos r filas no nulas conteniendo los vectores
{ }
b̄1 , b̄2 , . . . , b̄r , y m − r filas nulas, es decir, iguales al vector 0̄. Entonces:
√ { } { } { }
• W = lin ū1 , ū2 , . . . , ūm = lin b̄1 , b̄2 , . . . , b̄r , 0̄, 0̄ . . . , 0̄ = lin b̄1 , b̄2 , . . . , b̄r
√ { }
• b̄1 , b̄2 , . . . , b̄r es, con seguridad, linealmente independiente.
{ }
Por tanto: b̄1 , b̄2 , . . . , b̄r es base de W , y dim(W ) = r = rg(M )

Ejemplo:        
1 2 3 1
5  0   1   2  1 
Hallar una base del subespacio de IR generado por: ū1 =−1 , ū2 = 1 , ū3 = 3 , ū4 = 1 
2 0 −2 0
0 −1 −2 1
       
1 0 −1 2 0 1 0 −1 2 0 1 0 −1 2 0 1 0 −1 2 0 ←b̄1
 2 1 1 0 −1   0 1 3 −4 −1   1 3 −4 −1    ←b̄2
1 3 −4 −1 

M= ∼ ∼ 0 ∼ 0
3 2 3 −2 −2   0 2 6 −8 −2   0 0 0 0 0   0 0 −1 2 2  ←b̄3
1 1 1 0 1 0 1 2 −2 1 0 0 −1 2 2 0 0 0 0 0
     
{ 1 0 0 }
{ }  0   1   0 
=⇒ Una base de W = lin ū1 , ū2 , ū3 , ū4 es b̄1 =−1 ; b̄2 = 3 ; b̄3 =−1  ⇒ dim(W ) = 3
2 −4 2
0 −1 2

Nota: Al escribir los vectores ū1 , ū2 , . . . , ūm y b̄1 , b̄2 , . . . , b̄r como tales vectores, es totalmente
indiferente que los escriba en horizontal o en vertical. Ahora bien, al construir la matriz auxiliar
para la ejecución de las operaciones, M , los ūi deben ser colocados a modo de filas; por tanto,
HORIZONTALES. Igualmente, de la matriz escalonada DEBO TOMAR LAS FILAS, aunque una vez
tomadas las escriba como más me guste.
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 22

4.8. Base para WA ≡espacio de las soluciones del sistema AX = 0


• Si el sistema posee únicamente la solución trivial, entonces WA = { 0̄}: No hay base, y dim(WA ) = 0.
 
x1 = . . . . . . ......
x2 = . . . . . .  ...... 
• En caso contrario: La solución general, .. .. escrita como columna, X = 
 .. ,

. . .
xn = ...... ......
involucra cierto número s de parámetros, y puede desdoblarse como combinación lineal de s su-
mandos [un sumando por cada parámetro, con el propio parámetro figurando como coeficiente].
Resulta evidente que los s vectores que aparecen en la expresión constituyen un sistema de gene-
radores para WA . Pues bien: puede demostrarse que, de hecho, forman una base para WA [es decir,
la independencia lineal queda garantizada por el procedimiento seguido]. Ası́ pues:

dim(WA ) es igual al número s de parámetros que surgen al resolver el sistema AX = 0

Si A tiene tamaño m× n(≡ hay m ecuaciones y n incógnitas; WA ⊂ IRn ), sabemos que s es igual
al número de incógnitas no principales, de modo que dim(WA ) = n − rg(A) ∗ ∗ ∗

 x + y + z + 3u = 0
Ejemplo: Hallemos una base para el espacio de soluciones del sistema 2x + y + 2z − 7u = 0

x − 2y + z − 36u = 0
( 1 0 ) ( 1 1 −10 0 )
1 1 3 0
2 1 2 −7

0

∼ ··· ∼ 0 1 0

13 0

← En este momento ya sabemos que va a
haber 4 − 2 = 2 parámetros ⇒ dim(WA ) = 2
1 −2 1 −36 0 0 0 0 0 0
 x   −t + 10 s   −t   10 s   −1   10 
{ }
x = − z + 10u
⇒ ⇒  y  =  −13 s  =  0  +  −13 s  = t  0  + s −13 
y = − 13u z t t 0 1 0
u s 0 s 0 1

{ −1   10 }

La base que buscábamos es, pues, B =  0  ; −13 


1 0
0 1

4.9. Coordenadas
{ }
Teorema: Sea B = v̄1 , v̄2 , . . . , v̄n una base de un espacio vectorial V . Para cada vector ū ∈ V ,
existen escalares c1 , c2 , . . . , cn únicos tales que ū = c1 v̄1 + c2 v̄2 + · · · + cn v̄n .

Demostración: Sin duda existen tales escalares, pues B, al ser una base, es un sistema de genera-
dores de V .
Por otra parte, consideremos dos maneras diferentes de expresar ū: ū = c1 v̄1 + c2 v̄2 + · · · + cn v̄n ,
y ū = d1 v̄1 + d2 v̄2 + · · · + dn v̄n . Restando ambas igualdades, obtendremos

0̄ = (c1 − d1 )v̄1 + (c2 − d2 )v̄2 + · · · + (cn − dn )v̄n ,

lo cual, debido a la independencia lineal de B, implica que se cumple (c1 − d1 ) = 0, (c2 − d2 ) = 0,


. . . , (c1 − d1 ) = 0, es decir, que cada uno de los coeficientes ci es igual al correspondiente di . Queda
ası́ probada la unicidad de los escalares que permiten escribir a ū en términos de la base B.
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 23

{ }
Definición: Fijada una base ordenada de V , B = v̄1 , v̄2 , . . . , v̄n , llamamos coordenadas de ū
respecto de la base B a la n-upla ordenada de los coeficientes necesarios para expresar ū como
combinación lineal de los vectores de B. Dicha n-upla la denotamos como ( ū )B o como [ ū ]B ,
según que esté escrita como fila o como columna.
{ ( ) ( )}
Ejemplo: Se considera la siguiente base de IR2 : B = v̄1 = 1
, v̄2 = −3 . Hallar el vector
−1 2
( )
de coordenadas [ ū ]B , siendo ū = 7 .
5
( ) ( ) ( ) { }
a − 3b = 7
→ Planteamos: a 1
+ b −3 =
7
⇐⇒
−1 2 5 − a + 2b = 5

( ) ( ) { } ( )
1 −3 7 a = −29 −29
→Resolvemos:
−1
5 ∼ · · · ∼ 10 01 −29
−12
=⇒ =⇒ [ ū ]B =
−12
2 b = −12

• Cambio de base
{ } { }
Sean B = ū1 , ū2 , . . . , ūn y B ′ = v̄1 , v̄2 , . . . , v̄n dos bases del mismo espacio vectorial V . Lla-
mamos matriz de paso (o de cambio de base) de B a B ′ a la matriz P de tamaño n×n que lleva
como columnas [ ū1 ]B ′ , [ ū2 ]B ′ , . . . , [ ūn ]B ′ (esto es, los vectores de coordenadas de los vectores
de la base vieja en términos de la base nueva).

Notación: Usaremos indistintamente P y P B→B ′ para referirnos a la matriz de paso de B a B ′ .

Utilidad de P B→B ′ : Para todo ū ∈ V se verifica: P B→B ′ [ ū ]B = [ ū ]B ′ ∗∗∗

{ }
Ejemplo (continuación del anterior): Sea B = v̄1 , v̄2 la base del ejemplo anterior, y sea
{ ( ) ( )}
B ∗ = w̄1 = 3 , w̄2 = 5 otra base de IR2 . Puede comprobarse que es:
1 2
( ) ( ) ( )
7 −16 7 −16
[v̄1 ]B∗ = ; [v̄2 ]B∗ = ; y, por tanto, P B→B∗ = .
−4 9 −4 9
( )
7
Entonces, para el vector ū = , cuyas coordenadas respecto de B ya conocemos, se tiene:
5
( ) ( ) ( )
7 −16
[ ū ]B∗ = P B→B∗ [ ū ]B = · −29 = −11 .
−4 9 −12 8
( )
7
Naturalmente, si hubiésemos resuelto a w̄1 + b w̄2 = , habrı́amos obtenido a = −11, b = 8.
5

• Una matriz de cambio de base siempre es inversible, y su inversa coincide con la


[ ]−1
matriz que hace el cambio en sentido contrario. Esto es: P B→B ′ = QB ′ →B .
( )
Ejemplo (continuación de los anteriores): Invirtiendo la matriz P B→B∗ = 7 −16 , se
( ) −4 9
−1 −9 −16
obtiene QB∗ →B = P = . En particular, esto significa que se cumple:
−4 −7
( ) ( )
[ w̄1 ]B = −9 , [ w̄2 ]B = −16 ,
−4 −7

y, por tanto, que es w̄1 = − 9v̄1 − 4v̄2 y w̄2 = − 16v̄1 − 7v̄2 (como puede comprobarse).
5. APLICACIONES LINEALES
Se llama aplicación lineal entre dos espacios vectoriales V y W a toda aplicación T : V −→ W
verificando:
L1: ∀ ū, v̄ ∈ V , T (ū + v̄) = T (ū) + T (v̄).
L2: ∀λ ∈ IR, ∀ ū ∈ V , T (λ · ū) = λ · T (ū).
( )
Ejemplo 1: T : IR3 → IR3 dada por T (x, y, z) = x + z, x − 5y, 2y + 17 z es una aplicación lineal:
L1 Sean ū = (x, y, z), v̄ = (x′ , y ′ , z ′ ).
( )
T (ū + v̄) = T (x+x′ , y +y ′ , z +z ′ ) = x+x′ +z +z ′, x+x′ −5(y +y ′ ), 2(y +y ′ )+ 17(z +z ′ ) =
= (x + z, x − 5y, 2y + 17z) + (x′ + z ′ , x′ − 5y ′ , 2y ′ + 17z ′ ) = T (ū) + T (v̄).

L2 Sean λ ∈ IR, ū = (x, y, z).


(
T (λ·ū) = T (λx, λy, λz) = λx+λz, λx−5λy, 2λy+17λz) = λ(x+z, x−5y, 2y+17z) = λT (ū).

Ejemplo 2: D: IR[ X ] → IR[ X ], dada por D(P ( X )) = P ′ ( X ) (derivación de polinomios) es una


aplicación lineal, pues

L1 D(P ( X ) + Q( X )) = [P ( X ) + Q( X )]′ = P ′ ( X ) + Q′ ( X ) = D(P ( X )) + D(Q( X )).

L2 D(λ · P ( X )) = [λ · P ( X )]′ = λ · P ′ ( X ) = λ · D(P ( X )).

∗∗∗ Ejemplo 3: Fijada A ∈ Mm×n , la aplicación TA : IRn → IRm dada por TA (X) = AX es lineal.
En efecto, este tipo de aplicación (que se denomina aplicación matricial) verifica:

L1 TA (X + X ′ ) = A(X + X ′ ) = AX + AX ′ = TA (X) + TA (X ′ ).

L2 TA (λX) = A(λX) = λ · (AX) = λ · TA (X).

• Una aplicación lineal T : V → W queda totalmente determinada por las imágenes de


{ }
los vectores de una base del espacio de partida, V : En efecto, si B = v̄1 , v̄2 , . . . , v̄n es una
base V , y se conocen los n vectores imagen T (v̄1 ), T (v̄2 ),. . . , T (v̄n ), entonces, para todo ū ∈ V :
T (ū) = T (c1 v̄1 +c2 v̄2 +· · ·+cn v̄n ) = T (c1 v̄1 )+T (c2 v̄2 )+· · ·+T (cn v̄n ) = c1 T (v̄1 )+c2 T (v̄2 )+· · ·+cn T (v̄n ).

(justifı́quese cada una de las igualdades)

El siguiente resultado nos dice que toda aplicación lineal entre un espacio IRn y un espacio IRm es,
en realidad, una aplicación matricial:

Si T : IRn → IRm es una aplicación lineal, entonces, tomando la llamada matriz estándar de T ,
( )


A = T (ē1 ) T (ē2 ) · · · T (ēn ) , se verifica: ∀X ∈ IRn , T (X) = AX.

[ Véase que TA (ēi ) = A ēi = T (ēi ), (1 ≤ i ≤ n). En consecuencia, T (ū) = TA (ū) para todo ū ∈ IRn ]
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 25

5.1. Núcleo e imagen de una aplicación lineal T : V → W


{ }
Núcleo de T : Ker(T ) = ū ∈ V : T (ū) = 0̄W (conjunto de los originales cuya imagen es nula).
Ker(T ) es, obviamente, un subconjunto de V , y verifica:
C1: ū, v̄ ∈ Ker(T ) ⇒ T (ū + v̄) = T (ū) + T (v̄) = 0̄ + 0̄ = 0̄ ⇒ ū + v̄ ∈ Ker(T ).
C2: λ ∈ IR, ū ∈ Ker(T ) ⇒ T (λ · ū) = λ · T (ū) = λ · 0̄ = 0̄ ⇒ λ · ū ∈ Ker(T ).

Por tanto, Ker(T ) es un subespacio vectorial de V .


{ }
Imagen de T : Im(T ) = T (ū) : ū ∈ V (conjunto de los vectores que se obtienen como imagen).
Im(T ) es, naturalmente, un subconjunto de W , y se verifica:
C1: T (ū) + T (v̄) = T (ū + v̄) ∈ Im(T ): La suma de vectores imagen es una imagen.
C2: λ · T (ū) = T (λ · ū) ∈ Im(T ): escalar por vector de Im(T ) es una imagen.

Por tanto, Im(T ) es un subespacio vectorial de W .


{ } { }
De hecho, Im(T ) = lin T (v̄1 ), T (v̄2 ), . . . , T (v̄n ) , siendo v̄1 , v̄2 , . . . , v̄n una base de V ∗∗∗

La justificación de esta importante afirmación se encuentra en la página anterior (¿dónde? ). Ası́


{ }
pues, T (v̄1 ), T (v̄1 ), . . . , T (v̄1 ) es un sistema de generadores del espacio imagen; sin embargo, la
independencia lineal de este conjunto no está garantizada.

Teorema de la dimensión:
Si T : V → W es lineal, entonces dim(Ker T ) + dim(Im T ) = dim(V ) ∗∗∗

Ejemplo: Para una aplicación lineal T : IR17 → IR3 , las únicas posibilidades son las siguientes:
dim(Ker T ) dim(Im T )
En efecto, ambas dimensiones han de sumar 17,
17 0
16 1 sin que el sumando dim(Im T ) pueda ser mayor
15 2 que 3. [¿por qué? ]
14 3

Ejemplo: Para T : IR2 → IR8 solo hay tres posibilidades: dim(Ker T ) dim(Im T )
2 0
1 1
0 2

Núcleo e Imagen de una aplicación T : IRn → IRm


( )


Usando la matriz estándar Am×n = T (ē1 ) T (ē2 ) · · · T (ēn ) se tiene: T (X) = AX. Ası́ pues:

{ }
• Ker(T ) = X ∈ IRn : AX = 0 : Espacio de las soluciones de un sistema homogéneo.
{ }
• Im(T ) = lin T (ē1 ), T (ē2 ), . . . , T (ēn ) : Espacio generado por. . . ¡los vectores columna de A!
 ←− T (ē1 ) −→ 
←− T (ē2 ) −→
Consecuencias: dim(Ker T ) = n − rg(A) dim(Im T ) = rg  ..  = rg(At ) = rg(A)
.
←− T (ēn ) −→
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 26

5.2. Expresión de una aplicación lineal T : V → W en términos matricia-


les, usando coordenadas
{ }
Definición: Sea T : V → W una aplicación lineal; sea B = v̄1 , v̄2 , . . . , v̄n una base de V , y sea
{ }
B ′ = w̄1 , w̄2 , . . . , w̄m una base de W . Llamamos matriz de T asociada a las bases B y B ′ ( matriz
de T respecto de B y B ′ ) a:
 
 
M T,B,B ′ = 



...
↑ ↑ ↑
[ ] [ ] [ ]
T (v̄1 ) B ′ T (v̄2 ) B ′ T (v̄n ) B ′

Esto es: la columna j-ésima se construye a partir de T (v̄j ), pero NO se coloca dicho vector imagen
tal cual: Se colocan sus coordenadas respecto de B ′ .

[ ]
Utilidad de M T,B,B ′ : Para todo ū ∈ V se verifica: M T,B,B ′ [ ū ]B = T (ū) B ′ ∗∗∗

Esto es: conocidas las coordenadas del original, PREMULTIPLICANDO por M se obtienen las coor-
denadas de su imagen.
( )
Ejemplo: Sea T : IR3 → IR2 la aplicación lineal dada por: T (x, y, z) = 11x − 5z, 3y + z .
{ ( ) ( ) ( )
1 1 0 } { ( ) ( )}
Se consideran las bases B = ū1 = 0 ; ū2 = 2 ; ū3 = 1 y B ′ = w̄1 = 1 , w̄2 = 2 ,
1 3 −3 1 1
3 2
de IR y IR , respectivamente.
( ) [ ] ( ) 
• T (ū1 ) = 6 ; T (ū1 ) B ′ = −4 

1 5 
 ( )
( ) [ ] ( ) 
−4 22 −4 22 − 15
• T (ū2 ) = ; T (ū2 ) B ′ = =⇒ M T,B,B ′ =
9 −13 
 5 − 13 15
( ) [ ] ( ) 


• T (ū3 ) = 15
; T (ū3 ) B ′ = −15
0 15

Si ahora tomamos, por ejemplo, ū = ( 6, 8, −26 ) = 7 ū1 − ū2 + 10 ū3 , se tiene:


( )( ) ( ) ( ) ( ) ( )
[ ] −4 22 − 15 7
T (ū) B ′ = M·[ū]B = · −1 = −200 ⇒ T (ū) = −200 1 +198 2 = 196
5 − 13 15 10 198 1 1 −2

[ ]
Hemos calculado T (ū) de forma INDIRECTA: A partir de [ū]B hemos hallado T (ū) B ′ usando
M T,B,B ′ . Y, conocidas las coordenadas de T (ū), lo construimos como combinación lineal de los
vectores de la correspondiente base.
Nota: Directamente: T (ū) = T ( 6, 8, −26 ) = ( 66 + 130, 24 − 26 ) = ( 196, −2 ): O.K!

Teorema de Semejanza

Una aplicación lineal del tipo T : V → V se llama operador lineal. Si B es una base de V , tiene
sentido pensar en M T,B,B ≡ M T,B : Matriz de T respecto de B.

Teorema de semejanza: Sea T : V → V un operador lineal; sean B y B ∗ dos bases de V . La


relación entre las matrices M ≡ M T,B y M ∗ ≡ M T,B ∗ viene dada por:

M ∗ = P −1 M P , siendo P = P B ∗ →B ∗∗∗
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 27

5.3. Diagonalización de matrices y operadores lineales


Sea A una matriz cuadrada de orden n. Se define:
Polinomio caracterı́stico de A: PA (λ) = det(λI − A).
Es un polinomio de grado n en la indeterminada λ.

Valor propio, valor caracterı́stico o autovalor de A: Cada una de las raı́ces reales de PA (λ).
Si α es un valor propio de A entonces el sistema (αI − A)X = 0 tiene soluciones no triviales,
llamadas vectores propios o vectores caracterı́sticos de A asociados al valor propio α.
Por tanto: v̄ ∈ IRn es un vector propio de A asociado a α ⇐⇒ v̄ ̸= 0̄, A v̄ = α · v̄

Subespacio propio o espacio caracterı́stico de A asociado l valor propio α:


{ }
V (α) = X ∈ IRn : (αI − A)X = 0 .
{ }
una matriz P INVERSIBLE
Diagonalizar la matriz A es obtener tales que P −1 AP = D
una matriz D DIAGONAL

 • A es diagonalizable,
Se dirá entonces que • P diagonaliza a A,

• D es una matriz diagonal semejante a A.

Proceso de diagonalización

1. Calcular el polinomio caracterı́stico PA (λ) y hallar sus raı́ces reales, α1 , α2 , . . . , αt .


2. Para cada i = 1, 2, . . . ,t, hallar una base B (αi ) del subespacio propio V (αi ) .
3. Formar B = B (α1 ) ∪ B (α2 ) ∪ . . . ∪ B (αt )

• Si B tiene n elementos ⇒ la matriz P que lleva como COLUMNAS a los vectores de B es


inversible y diagonaliza a A. Además,  
αi 1 0 ... 0
 0 αi 2 0 
 
P −1 AP = D =  .. .. .. 
 . . . 
0 0 ... αin

• Si B tiene menos de n elementos ⇒ NO EXISTE ninguna matriz P que diagonalice a A.


( )
Nota: Si el valor propio αi tiene multiplicidad mi en PA (λ), entonces 1 ≤ dim V (αi ) ≤ mi

Teorema fundamental de la diagonalización

Para que una matriz An×n sea diagonalizable, es condición necesaria y suficiente que
(1) La suma de las multiplicidades de las raı́ces reales de PA (λ) sea n.
( )
(2) Para cada valor propio αi , dim V (αi ) iguale a la multiplicidad de αi en PA (λ).

En la práctica:

• Si P A (λ) posee alguna raı́z en C que no sea real, y/o


( )
• Para algún valor propio αi , dim V (αi ) es menor que la multiplicidad de αi en PA (λ),

entonces A NO será diagonalizable.


E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 28

Diagonalización de un operador lineal T : V → V

Sean: T : V → V un operador lineal; B, una base cualquiera de V y M = M T,B , la matriz de T


respecto de la base B. Según el Teorema de Semejanza, la matriz de T respecto de una base B ∗
distinta es P −1 M P , siendo P la matriz de paso de B ∗ a B . En particular:

Si M es diagonalizable, y si P es una matriz que diagonaliza a M , entonces


La matriz diagonal D = P −1 M P será la matriz asociada a T respecto de B ∗ ,

siendo B aquella base tal que P hace el cambio de B ∗ a B.
Las columnas de P nos proporcionan las coordenadas de los vectores de B ∗ respecto de la base
B, lo que permite hallar dichos vectores (¿cómo? ).

Naturalmente, si la matriz de partida, MT,B , no es diagonalizable, no existirá ninguna base para


la cual la matriz asociada a T resulte ser diagonal.

Ejemplo: Se considera T : IR1 [ X ] → IR1 [ X ], dada por T (a0 + a1 X ) = (3a0 + 4a1 ) + (2a0 + a1 ) X .
Pretendemos hallar una base de IR1 [ X ] respecto de la cual la matriz de T sea diagonal.
{ }
→ Usamos inicialmente la base BC = 1, X :
} ( )
T (1) = 3 + 2 X 3 4
⇒ A ≡ AT,BC = ;
T ( X) = 4 + X 2 1

λ −3 −4
PA (λ) = = λ 2 − 4λ − 5 = (λ − 5)(λ + 1) [⇒ sı́ es diagonalizable (¿por qué?) ]
−2 λ −1
( )
{( 2 )} {( − 1 )} 2 −1
B(5) = ; B(−1) = ⇒P = diagonaliza a A;
1 1 1 1
( )
5 0 { }
→ La matriz P −1 AP = es la matriz de T respecto de cierta base B ∗ = P1 , P2 .
0 −1

( ) {
∗ 2 −1 P1 = 2 + X
→ El cambio de base de B a BC lo da P = , por tanto:
1 1 P2 = − 1 + X

• Comprobación: Calcularemos directamente la matriz de T respecto de la base B ∗ , MT,B ∗

}
T (P1 ) = (6 + 4) + (4 + 1) X = 10 + 5 X
; busquemos sus coordenadas respecto de B∗:
T (P2 ) = ( − 3 + 4 ) + ( − 2 + 1 ) X = 1 − X

[ ] ( ) 
a (2 + X ) + b ( − 1 + X ) = 10 + 5 X ⇒ a = 5 ; b = 0 ⇒ T (P1 ) B ∗ =
5 

0 
[ ] ( )  =⇒
a (2 + X ) + b ( − 1 + X ) = 1 − X ⇒ a = 0; b = − 1 ⇒ T (P2 ) B ∗ =
0 

−1

( )
5 0
MT,B ∗ = , que, en efecto, coincide con la matriz diagonal P −1 AP .
0 −1
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 29

6. PRODUCTO INTERIOR
Podemos concebir intuitivamente el plano geométrico, E2 , constituido por puntos, y también el
{ [−
→] }
espacio vectorial de los vectores libres del plano, V 2 = v̄ = P Q : P, Q ∈ E2 , subyacente a E2 .

La introducción de un sistema de coordenadas cartesianas permite identificar cada punto P ∈ E2


con su par de coordenadas (p1 , p2 ). Pero, además permite definir la aplicación:

V2 −→ IR2
[−
→ ]
v̄ = P Q 7−→ (q1 − p1 , q2 − p2 ),

que a cada vector libre le asigna la diferencia entre las coordenadas de su extremo y las coordenadas


de su origen. Dicha diferencia no depende del vector fijo P Q concreto que se utilice para representar
a v̄ y, en particular, coincide con las coordenadas del punto extremo cuando el origen del vector
está situado en el origen de coordenadas O ≡ (0, 0). Es claro que la aplicación descrita es una
biyección1 . Y, además, respeta las operaciones de espacio vectorial: es una aplicación lineal.
Por todo ello se dice que el espacio vectorial V 2 es isomorfo a IR2

Consecuencia práctica: Fijado en el plano un sistema de coordenadas, cada vector libre v̄ queda
identificado con un par ordenado (v1 , v2 ) de tal modo que podemos actuar con los vectores usando
indistintamente su versión geométrica (en V 2 ) o su versión algebraica (en IR2 ).

En el espacio V 2 existen los conceptos geométricos de longitud (o norma) de un vector, y de


ángulo formado por dos vectores, lo que permite definir la operación producto escalar:
( )
ū · v̄ = ∥ū∥ · ∥v̄∥ · cos ū, v̄ . (∗)

Observamos que, recı́procamente, tanto la norma como el coseno del ángulo entre dos vectores
pueden expresarse en términos del producto escalar entre los vectores involucrados. En efecto:
√ ( )
• ∥ū∥ = ū · ū (puesto que cos ū, ū = 1);
( ) ū · v̄
• cos ū, v̄ = (despejando en (∗)).
∥ū∥ · ∥v̄∥

Por otra parte, empleando un teorema clásico [llamado teorema del coseno], se demuestra lo
siguiente:
Si ū = (u1 , u2 ), v̄ = (v1 , v2 ), entonces ū · v̄ = u1 v1 + u2 v2

Conclusión: El producto escalar, la norma y el ángulo entre vectores de V 2 pueden


calcularse a través de la versión algebraica (en IR2 ) de los mismos.

Todo lo anterior tiene su correspondiente análogo en el espacio geométrico tridimensional, E3 ,


donde subyace el espacio V 3 de los vectores libres, isomorfo a IR3 . Aquı́, siendo ū = (u1 , u2 , u3 ),
v̄ = (v1 , v2 , v3 ), se verifica:
( )
∥ū∥ · ∥v̄∥ · cos ū, v̄ = ū · v̄ = u1 v1 + u2 v2 + u3 v3 .
1 Es inyectiva (a originales distintos, imágenes distintas) y suprayectiva (todo elemento del conjunto de llegada

es imagen de algún original)


E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 30

6.1. El espacio euclı́deo IRn


{ }
En el espacio cartesiano n-dimensional, IRn = (x1 , x2 , . . . , xn ) : xi ∈ IR para todo i = 1, . . . , n
con las dos operaciones usuales: • (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ),
• λ(x1 , . . . , xn ) = (λ x1 , . . . , λ xn ),
se define una nueva operación, llamada PRODUCTO INTERIOR EUCLÍDEO, que combina dos
vectores para producir como resultado un número real, del siguiente modo:
n

def
x̄ · ȳ = x1 y1 + x2 y2 + . . . xn yn = xi yi .
i=1
Asimismo por definición, se tendrá:

def √
∥x̄∥ = x̄ · x̄ = x21 + x22 + . . . + x2n (NORMA de x̄),
( ) def x̄ · ȳ
cos x̄, ȳ = (y su arco coseno: ANGULO que forman x̄ e ȳ.)
∥x̄∥ · ∥ȳ∥

Propiedades del producto interior euclı́deo:

P1 x̄ · x̄ ≥ 0 para todo x̄ ∈ IRn ; además, x̄ · x̄ = 0 ⇔ x̄ = (0, 0, . . . , 0).

P2 x̄ · ȳ = ȳ · x̄ para todo x̄, ȳ ∈ IRn .

P3 (x̄ + ȳ) · z̄ = x̄ · z̄ + ȳ · z̄, e igualmente x̄ · (ȳ + z̄) = x̄ · ȳ + x̄ · z̄, para todo x̄, y, z̄ ∈ IRn .

P4 x̄ · (λ ȳ) = λ (x̄ · ȳ) = (λ x̄) · ȳ, para todo λ ∈ IR, y todo x̄, ȳ ∈ IRn .

Propiedades de la norma definida en IRn :

N1 ∥x̄∥ ≥ 0 para todo x̄ ∈ IRn .

N2 ∥x̄∥ = 0 ⇔ x̄ = (0, 0, . . . , 0).

N3 ∥x̄ + ȳ∥ ≤ ∥x̄∥ + ∥ȳ∥, para todo x̄, ȳ ∈ IRn (Desigualdad triangular).

N4 ∥λ x̄∥ = |λ| ∥x̄∥, para todo λ ∈ IR, y todo x̄, ȳ ∈ IRn .

( )2 ( ) ( )
Desigualdad de Cauchy-Schwarz: Para todo x̄, ȳ ∈ IRn se verifica: x̄ · ȳ ≤ x̄ · x̄ · ȳ · ȳ
x̄ · ȳ
Nota: De la desigualdad de Cauchy-Schwarz se deduce que siempre es −1 ≤ ≤ 1 , lo cual
( ) ∥x̄∥ · ∥ȳ∥
otorga sentido a la definición dada para cos x̄, ȳ .

Distancia entre dos puntos

Considerando las n-uplas como puntos, se define la DISTANCIA entre x̄ e ȳ:



def
d(x̄, ȳ) = ∥ x̄ − ȳ∥ = (x1 − y1 )2 + (x2 − y2 )2 + . . . + (xn − yn )2 , que verifica:

D1 d(x̄, ȳ) ≥ 0 para todo x̄ ∈ IRn .

D2 d(x̄, ȳ) = 0 ⇔ x̄ = ȳ.

D3 d(x̄, ȳ) = d(ȳ, x̄) para todo x̄, ȳ ∈ IRn .

D4 d(x̄, z̄) ≤ d(x̄, ȳ) + d(ȳ, z̄), para todo x̄, ȳ, z̄ ∈ IRn (Desigualdad triangular).
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 31

Las anteriores definiciones están inspiradas en la Geometrı́a (para n = 2, 3, corresponden exacta-


mente a lo visto en la página anterior); sin embargo, son totalmente algebraicas.

6.2. Producto interior en un espacio vectorial


El producto interior euclı́deo, que extiende el producto escalar en IR2 y IR3 a todos los espacios
IRn , remite a su vez un concepto aún más general, válido para un espacio vectorial cualquiera V .
Definición: Dado un espacio vectorial V , se llama PRODUCTO INTERIOR a cualquier aplicación
V × V → IR que a cada par ordenado de vectores, (ū, v̄) le asigne un número real (usualmente
denotado como ⟨ū, v̄⟩), siempre que dicha aplicación verifique las propiedades P1 , P2 , P3 , P4
que (referidas al p.i.e. en IRn ) figuran en la página 30.
{ }
Ejemplo: Si B = v̄1 , v̄2 , . . . , v̄n es una base del espacio vectorial V , entonces la aplicación
⟨ , ⟩ : V × V → IR dada por: ⟨ū, v̄⟩ = [ū]B · [v̄]B
satisface las propiedades P1 , P2 , P3 , P4 y es, por tanto, un producto interior en V .

6.3. Bases ortonormales


En lo que sigue, trabajaremos en un espacio vectorial V dotado de un producto interior que, por
simplicidad, denotaremos como ū · v̄. Con él, dispondremos de: norma, ángulo y distancia.

• Un vector ū ∈ V se dice UNITARIO si ∥ū∥ = 1.

Si a un vector v̄ ̸= 0̄ lo multiplicamos por el inverso de su norma, obtenemos un vector unitario


con igual dirección y sentido (donde estos conceptos guarden significado); decimos entonces
que hemos NORMALIZADO el vector v̄.

1
En efecto: aplicando la propiedad N4 se tiene · v̄ = 1 · ∥v̄∥ = 1
∥v̄∥ ∥v̄∥

• Dos vectores ū y v̄ ∈ V se dicen ORTOGONALES (simbolizado ū ⊥ v̄) si ū · v̄ = 0.


 ( )
( )  cos ū, v̄ = 0, o bien:
Geométricamente: ū ⊥ v̄ ⇐⇒ ∥ū∥ · ∥v̄∥ · cos ū, v̄ = 0 ⇐⇒ ū = 0̄ o bien:

v̄ = 0̄

• Decimos que el vector ū es ORTOGONAL AL SUBESPACIO W si ū es ortogonal a todos y cada


uno de los vectores de W ; esto es, si ū · w̄ = 0 para todo w̄ ∈ W .
Observación: Para todo ū ∈ V , 0̄ · ū = 0 [por qué? ]. Es decir: 0̄ es ortogonal al espacio V .
{ }
• Un conjunto de vectores v̄1 , v̄2 , . . . , v̄r se dice ORTONORMAL si todos sus vectores son uni-
tarios, y dos a dos son ortogonales; esto es, si se cumple la doble condición

X ∥v̄i ∥ = 1, ∀i = 1, . . . , r { 1, si i = j
, equivalente a X v̄i · v̄j =
X v̄i · v̄j = 0, si i ̸= j 0, si i ̸= j
{ }
Todo conjunto ortonormal es linealmente independiente. En efecto, si v̄1 , v̄2 , . . . , v̄r
es ortonormal, ¿qué sucede cuando a cada miembro de la igualdad a1 v̄1 + a2 v̄2 + · · · + ar v̄n = 0̄
lo multiplicamos por el vector v̄i ?
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 32

6.4. Proyección ortogonal de un vector sobre un subespacio


Teorema: Sea V un espacio vectorial dotado de producto interior, y sea W un subespacio de V de
dimensión finita. Todo vector ū ∈ V se descompone de forma única como suma de dos vectores
de los cuales uno pertenece a W (proyección ortogonal de ū sobre W ) y el otro es ortogonal a W
(componente de ū ortogonal a W ). Esto es:
Cada ū ∈ V admite una única descomposición ū = proyW (ū) + ū∗ con proyW (ū) ∈ W, ū∗ ⊥ W .
{ }
Además, si b̄1 , b̄2 , . . . , b̄r es una base ortonormal de W , entonces

proyW (ū) = (ū · b̄1 ) · b̄1 + (ū · b̄2 ) · b̄2 + . . . + (ū · b̄r ) · b̄r (∗ )
y, naturalmente, ū∗ = ū − proyW (ū).

Nota: Si se emplea una base de W que no sea ortonormal, entonces la fórmula (∗ ) no es válida.

• La proyección ortogonal de ū sobre W es, entre de todos los vectores de W , el que


está a menor distancia de ū. Más precisamente:
( ) ( )
Para todo w̄ ∈ W se cumple d ū, w̄ ≥ d ū, proyW (ū) , y la desigualdad es estricta si w̄ no es
justamente la proyección de ū.

• La distancia del vector ū al subespacio W se define como sigue:


( ) ( )
d ū, W = d ū, proyW (ū) = ∥ ū − proyW (ū) ∥ .
Observamos que se trata de la mı́nima distancia existente entre ū y cualquier vector de W , y que
coincide con la norma de la componente de ū ortogonal a W .

6.5. Proceso de Gram-Schmidt


{ }
A partir de una base ordinaria B = v̄1 , v̄2 , . . . , v̄n de un espacio vectorial V obtendremos una
{ }
base ortonormal de V , B ∗ = b̄1 , b̄2 , . . . , b̄n , sin más que realizar el siguiente proceso:

1 Se toma b̄1 := normalizado(v̄1 )


Entonces, B1 = { b̄1 } es un conjunto ortonormal; de hecho, es una base ortonormal de W1 = lin(v̄1 ).

2 Se halla v̄2∗ = v̄2 − proyW1 (v̄2 ) y se toma b̄2 := normalizado(v̄2∗ )


Entonces, B2 = { b̄1 , b̄2 } es un conjunto ortonormal; de hecho, es una base ortonormal de
W2 = lin{v̄1 , v̄2 }.

3 Se halla v̄3∗ = v̄3 − proyW2 (v̄3 ) y se toma b̄3 := normalizado(v̄3∗ )


Entonces, B3 = { b̄1 , b̄2 , b̄3 } es un conjunto ortonormal; de hecho, es una base ortonormal de
W3 = lin{v̄1 , v̄2 , v̄3 }.

. . . Ası́ sucesivamente. . .

Cada paso es perfectamente factible gracias a que ya disponemos de Bi - 1 , base ortonormal del sub-
espacio Wi - 1 sobre el que hemos de proyectar el vector v̄i que vamos a incorporar al sistema. Como
en realidad lo que incorporamos no es v̄i , sino su componente v̄i∗ ortogonal a Wi − 1 , y, como además
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 33

v̄i∗ se normaliza antes de añadirlo a Bi - 1 , el nuevo conjunto Bi resulta ser también ortonormal, y
por tanto, linealmente independiente.
Este proceso solamente falları́a si alguno de los vectores v̄i∗ resultara ser nulo, pero eso nunca
puede ocurrir [¿Por qué?].

6.6. Solución mejor aproximada de un sistema incompatible


Si al sistema de m ecuaciones lineales con n incógnitas AX = B lo reescribimos en su forma equiva-
lente x1 C 1 + x2 C 2 + . . . + xn C n = B (donde C i ≡ columna i-ésima de A), resulta obvio que dicho
sistema es compatible si y solo si B pertenece al espacio E.C.(A) = lin{C1 , C2 , . . . , Cn } (espacio de
las columnas de A.
Si AX = B es incompatible, siendo imposible encontrar X tal que AX −B = 0 pretendemos
obtener X tal que la norma de AX − B sea la mı́nima posible. Como los vectores de la forma
AX son justo los pertenecientes a E.C.(A), ello ocurrirá cuando AX coincida con la proyección
ortogonal de B sobre el subespacio E.C.(A) y, por tanto, cuando AX−B sea ortogonal al mismo.
Buscamos, pues, un vector X tal que los n productos escalares Ci · (AX−B) resulten nulos. La
expresión conjunta de estas n condiciones queda recogida en la igualdad matricial A t (AX−B) = 0,
 
    tal como muestra el esquema. Operan-
C1 →   0
    0  do, se tiene: A t AX −A t B = 0 ⇒
C2 →  
  = 

..
   . 
.   ..  (A t A)X = A t B (∗)
Cn →   0
sistema que hemos de resolver.

La matriz A t A llamada matriz de Gram del conjunto S = {C1 , . . . , Cn } es la matriz cuadrada de


orden n cuyo elemento (i, j) es el producto interior Ci · Cj . Tiene la siguiente propiedad:

La matriz de Gram del conjunto de vectores S tiene determinante distinto de cero si


y solo si S es linealmente independiente

En el caso particular, muy frecuente en la práctica, de que sea rg(A) = n < m, las columnas de
A forman un sistema libre y, por tanto, su matriz de Gram es inversible; entonces, la solución del
sistema (∗) es, simplemente, X = (A t A)−1 A t B. Es preciso recordar que esta no es, sin embargo,
solución del sistema inicial AX = B (que carece de ellas); es tan solo la n-upla que más se aproxima
a serlo.

6.7. Diagonalización ortogonal de una matriz cuadrada simétrica.


Una matriz cuadrada A se dice SIMÉTRICA si At = A. Por otra parte, una matriz inversible P
se dice ORTOGONAL si cumple P t = P −1 , es decir, si P · P t = P t · P = In .

Dada una matriz A simétrica de tamaño n× n, puede demostrarse que:


(1) Todas las raı́ces de su polinomio caracterı́stico son reales: Existen α1 , α2 , . . . , αt ∈ IR tales que
( )m1 ( )m2 ( )m t
PA (λ) = λ − α1 · λ − α2 · · · · · λ − αt , con m1 + m2 + . . . + mt = n
( )
(2) Para cada i = 1, . . . , t se verifica: dim V (αi ) = mi
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 34

(3) Vectores propios que correspondan a valores propios diferentes son siempre ORTOGONALES
entre sı́. Esto es: Av̄ = α v̄; A w̄ = β w̄; α ̸= β =⇒ v̄ ⊥ w̄

En consecuencia:
• Una matriz A simétrica siempre es diagonalizable [Lo garantiza (1) + (2) ].
• De hecho, siempre existe una matriz ORTOGONAL P que diagonaliza a A. En efecto:

Aplicando el proceso de Gram-Schmidt a cada una de las bases B (α1 ) , B (α2 ) ,. . . , B (αt )
obtendremos bases ortonormales B ∗(α1 ) , B ∗(α2 ) ,. . . , B ∗(αt ) .

En virtud de (3), el conjunto B ∗ = B ∗(α1 ) ∪ B ∗(α2 ) ∪ . . . ∪ B ∗(αt ) será ortonormal [¿por qué? ].
Nota: Esto no funciona si A no es simétrica.

La matriz P obtenida al poner como columnas los vectores de B ∗ , que por supuesto diago-
naliza a A, verifica la igualdad P t = P −1 [¿por qué? ] y por tanto es ortogonal.

Lo anterior se resume en el siguiente enunciado:


Toda matriz simétrica A es diagonalizable ortogonalmente, es decir, existe P cumpliendo:
P t = P −1 , y P −1 AP = D (con D matriz diagonal)

Ejercicio: Demostrar el enunciado recı́proco: Si A es diagonalizable ortogonalmente, entonces A


es simétrica.

7. FORMAS CUADRÁTICAS
Sea V un espacio vectorial de dimensión n; sea B una base de V , y sean (x1 , x2 , . . . , xn ) las
coordenadas de v̄ (vector genérico de V) respecto de la base B, esto es: (x1 x2 . . . xn ) = [v̄]tB .
Se llama forma cuadrática sobre V a toda aplicación Q : V → IR cuyo criterio pueda expresarse
en el modo siguiente: x 
1
( )  x2 
Q(v̄) = [v̄]tB A [v̄]B = x1 x2 . . . xn A  ..  (∗)
.
xn
siendo A una matriz simétrica de orden n. Al desarrollar ese producto indicado se obtiene:
∑n ∑ ∑ n ∑
Q(v̄) = aii x2i + aij xi xj = aii x2i + 2 aij xi xj
i=1 i̸=j i=1 i<j
Todos los sumandos son de grado 2 ; los elementos de la diagonal principal aparecen como coeficiente
de los cuadrados, y los restantes elementos aij del “triángulo superior” de A aparecen, duplicados,
como coeficiente de xi xj (esto es debido a la simetrı́a de A).
Ejemplo 1: La forma cuadrática dada [¿en qué base? ] por:

Q(x1 , x2 , x3 , x4 ) = x23 − x24 + 4x1 x2 − 6x2 x3 + x1 x4 + 2x3 x4 , se expresa matricialmente:


  
0 2 0 0,5 x1
 2  
0 −3 0 
  x2 
Q(x1 , x2 , x3 , x4 ) = (x1 x2 x3 x4 )
  
 0 −3 1 1   x3 
0,5 0 1 −1 x4
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 35

 
2 2 4
Ejemplo 2: Por otra parte, si 
 2 −3

6  es la matriz de una forma cuadrática Q en la
4 6 −1
base canónica, entonces el criterio de Q se escribe: Q(x, y, z) = 2x2 − 3y 2 − z 2 + 4xy + 8xz + 12yz.

7.1. Cambio de base. Matrices congruentes


Si B ′ es una nueva base de V , y P = P B ′ →B es la matriz del cambio de B ′ a B, se verifica:

[v̄]B = P [v̄]B ′ y, trasponiendo, [v̄]tB = [v̄]tB ′ P t

Para reescribir el criterio de Q en términos de B ′ , sustituimos estas expresiones en (∗), obteniendo:

Q(v̄) = [v̄]tB ′ P t A P [v̄]tB ′ = [v̄]tB ′ M [v̄]B ′ , donde M = P t A P .

La matriz M es, también, simétrica. En efecto: M t = (P t A P )t = P t At (P t ) t = P t A P = M


La matrices simétricas A y M , por corresponder a una misma forma cuadrática en bases diferentes,
se dice que son congruentes. Ası́ pues, la congruencia entre A y M significa que existe una matriz
inversible P tal que M = P t A P . [Cfr: relación de congruencia y relación de semejanza]

7.2. Diagonalización de una forma cuadrática


Diagonalizar la forma cuadrática Q : V → V dada por Q(v̄) = [v̄]tB A [v̄]B consiste en encontrar
otra expresión para Q, correspondiente al uso de otra base B ∗ , en la cual la matriz asociada sea
diagonal; es decir, en obtener:
 d1 0 ... 0 
 0 d2 ... 0 
Q(v̄) = [v̄]tB ∗ 
 ..  [v̄]B ∗ = d1 (x∗ )2 + d2 (x∗ )2 + · · · + dn (x∗ )2
 1 2 n
0 0 . 0
0 0 ... dn

Diagonalizar Q significa, pues, expresarla como suma de cuadrados Si, además de la


nueva fórmula para Q (esto es, la matriz diagonal D congruente con A), deseamos obtener la
base B ∗ a la que corresponde, hemos de buscar la matriz inversible P tal que P t AP = D; y
después, usar el hecho de que P hace el cambio de B ∗ a B para construir los vectores de B ∗ (cuyas
coordenadas respecto de B encontramos en las columnas de P ).

Diagonalización ortogonal

Puesto que A es simétrica, existe una matriz ortogonal P que la diagonaliza, de modo que se tiene:
D = P −1 AP = P t AP
con lo cual, D no solo será semejante a A; también será congruente. Si no necesitamos construir
B ∗ podemos ahorrarnos el cálculo de P ; nos bastará conocer los valores propios de A (con sus
multiplicidades) para poder escribir Q como suma de cuadrados.
Ejemplo 3: Dada Q(x, y, z) = −2x2 − 3y 2 − 23z 2 − 72xz, vemos que la matriz de Q respecto
 
−2 0 −36
de la base canónica de IR3 es A = 
 0 −3 0


−36 0 −23
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 36

Se tiene: PA (λ) = (λ +3)(λ +50)(λ −25), por tanto, existe cierta base B ∗ para cuyas coordenadas
(x∗ , y ∗ , z ∗ ) se cumple: Q(x, y, z) = −3(x∗ )2 − 50(y ∗ )2 + 25(z ∗ )2 .

Diagonalización por operaciones fila/columna

Si sobre una matriz simétrica A se efectúan sucesivas operaciones elementales realizando cada
operación una vez en filas y otra vez en columnas, la matriz resultante M es simétrica y
congruente con A.
Además, la matriz P que relaciona A con M (de forma que M = P t AP ) puede hallarse realizando
las mismas operaciones elementales a partir de In pero solamente en las columnas.

Para conseguir que la matriz M sea diagonal, elegiremos las mismas operaciones que si fuésemos
a escalonar A; los ceros que logremos bajo la diagonal principal se reproducirán, por simetrı́a,
encima de la misma. La única situación complicada se produce cuando hay un cero en la diagonal;
un cambio de filas no nos libra de él pues el cambio de columnas nos lo devuelve al lugar de partida:
para salir del impasse eliminamos ese cero sumándole (por filas y por columnas) un múltiplo de
una lı́nea posterior.
Observación: El resultado de este proceso no es único, si intercalamos alguna operación de forma
caprichosa se alterará el resultado obtenido (y el nuevo resultado será tan válido como el otro).

7.3. Signatura de una forma cuadrática


Teorema de Sylvester Si se reduce Q a suma de cuadrados de dos maneras diferentes (obteniendo
fórmulas distintas que corresponden a bases distintas), el número de coeficientes positivos será igual
en ambas expresiones, y lo mismo ocurrirá con el número de coeficientes negativos.
El teorema anterior nos dice que el par (p, q) formado por el número de coeficientes positivos y
el número de coeficientes negativos que aparecen en cualquier reducción de Q a suma de cuadrados
es un invariante de Q, es decir, depende sólo de Q, y no depende de ninguna otra circunstancia.
A dicho par (p, q) lo llamamos SIGNATURA de la forma cuadrática Q, y lo denotamos sign (Q).

Ejemplo: Para la forma cuadrática Q del ejemplo (3), se tiene: sign (Q) = (1, 2).

7.4. Clasificación de las formas cuadráticas


Las formas cuadráticas se clasifican atendiendo a si todas las imágenes son del mismo signo o
no; y, en su caso, si hay vectores no nulos con imagen nula (pues Q(0̄) = 0 siempre ). Más
precisamente, diremos que la forma cuadrática Q es:
Definida positiva si ∀v̄ ̸= 0̄, Q(v̄) > 0
Definida negativa si ∀v̄ ̸= 0̄, Q(v̄) < 0
Semidef. positiva si ∀v̄ ∈ V, Q(v̄) ≥ 0, y para algún v̄ ̸= 0 es Q(v̄) = 0
Semidef. negativa si ∀v̄ ∈ V, Q(v̄) ≤ 0, y para algún v̄ ̸= 0 es Q(v̄) = 0
Indefinida si existen v̄ y w̄ tales que Q(v̄) > 0 y Q(w̄) < 0
Nula si, para todo v̄ ∈ V , Q(v̄) = 0
E I I – UVa. Departamento de Matemática Aplicada (RMdeF) Curso 2019-20 37

Conocida una fórmula para Q que sea suma de cuadrados, clasificar Q es un mero ejercicio de
sentido común; ası́ por ejemplo, en un espacio de dimensión 4:

• Q(v̄) = 3 (x∗ )2 + 5 (y ∗ )2 + 8 (z ∗ )2 + 2 (w∗ )2 es D.P.


∗ 2 ∗ 2
• Q(v̄) = 5 (y ) + 2 (w ) es S.P.
• Q(v̄) = −3 (x ) − 5 (y ) − 8 (z ∗ )2 − 2 (w∗ )2
∗ 2 ∗ 2
es D.N.
∗ 2 ∗ 2 ∗ 2
• Q(v̄) = −3 (x ) − 5 (y ) − 2 (w ) es S.N.
• Q(v̄) = −3 (x∗ )2 + 5 (y ∗ )2 − 8 (z ∗ )2 − 2 (w∗ )2 es Indef.
∗ 2 ∗ 2 ∗ 2
• Q(v̄) = −3 (x ) + 5 (y ) − 2 (w ) también es Indef.

Observamos que, para sacar estas conclusiones, no necesitamos conocer la base B ∗ a la que se
refiere (x∗ , y ∗ , z ∗ , w∗ ); basta con ver si los coeficientes tienen todos el mismo signo o no, y en su
caso, si alguno vale 0. En definitiva, para clasificar Q nos basta con conocer su signatura.
Tenemos ası́ el siguiente resultado:

Teorema de Clasificación Sea Q una forma cuadrática en un espacio de dimensión n.


Se verifica:
i) Q es Definida Positiva ⇔ sign (Q) = (n, 0)
ii) Q es Definida Negativa ⇔ sign (Q) = (0, n)
iii) Q es Semidef. Positiva ⇔ sign (Q) = (p, 0), con p < n
iv) Q es Semidef. Negativa ⇔ sign (Q) = (0, q), con q < n
v) Q es Indefinida ⇔ sign (Q) = (p, q), con p ̸= 0 y q ̸= 0
vi) Q es Nula ⇔ sign (Q) = (0, 0)

En una lı́nea muy diferente, el siguiente teorema recoge un resultado relativo a la clasificación de
una forma cuadrática.

Teorema: Sea A la matriz de una forma cuadrática Q en una base determinada. Sean Ak los
”menores angulares”de A. Se verifica:
(1) A1 > 0, A2 > 0, ... , An > 0 ⇐⇒ Q es Definida Positiva.

(2) A1 < 0, A2 > 0, A3 < 0, ... ⇐⇒ Q es Definida Negativa.

(3) Si An ̸= 0 y no estamos en las situaciones anteriores, entonces Q es Indefinida.